JP2016007648A - ロボット制御システム - Google Patents

ロボット制御システム Download PDF

Info

Publication number
JP2016007648A
JP2016007648A JP2014127669A JP2014127669A JP2016007648A JP 2016007648 A JP2016007648 A JP 2016007648A JP 2014127669 A JP2014127669 A JP 2014127669A JP 2014127669 A JP2014127669 A JP 2014127669A JP 2016007648 A JP2016007648 A JP 2016007648A
Authority
JP
Japan
Prior art keywords
robot
unit
robots
worker
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014127669A
Other languages
English (en)
Other versions
JP6350011B2 (ja
Inventor
▲隆▼一郎 高市
Ryuichiro Takaichi
▲隆▼一郎 高市
井上 宏之
Hiroyuki Inoue
宏之 井上
卓雅 山路
Takamasa Yamaji
卓雅 山路
照樹 山田
Teruki Yamada
照樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014127669A priority Critical patent/JP6350011B2/ja
Priority to PCT/JP2015/067701 priority patent/WO2015194658A1/ja
Priority to US15/320,310 priority patent/US10286547B2/en
Priority to CN201580033191.4A priority patent/CN106457573B/zh
Priority to EP15810260.8A priority patent/EP3159120A4/en
Publication of JP2016007648A publication Critical patent/JP2016007648A/ja
Application granted granted Critical
Publication of JP6350011B2 publication Critical patent/JP6350011B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0096Programme-controlled manipulators co-operating with a working support, e.g. work-table
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33192Radio link, wireless
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39448Same teach pendant connects to many robot controllers over network
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40205Multiple arm systems

Abstract

【課題】複数のロボットが設置された作業スペース内で作業者が作業ごとにロボットを使い分けながら効率的に作業を行うという生産方式を実現するための技術を提供する。【解決手段】ロボット制御システムは、複数のロボットと、複数のロボットに対し無線通信により動作命令を送信可能な作業者端末と、を備える。作業者端末は、作業のために使おうとしている対象ロボットを複数のロボットのなかから識別する識別部と、ロボットの動作指示を作業者より受け付ける受付部と、受付部で動作指示を受け付けたときに、識別部により対象ロボットとして識別されているロボットに対してのみ動作命令を送信する無線通信部と、を有する。【選択図】図6

Description

本発明は、作業者が複数のロボットを用いて作業を行う生産方式に関する。
ユーザーニーズの多様化に伴い、ものづくりの現場では、多品種少量生産、短納期生産、変量生産などへの対応が迫られている。そうした環境変化の中、ベルトコンベアに沿って作業者やロボットが配置されるライン生産方式から、セル生産方式等の手組みを主体とした小規模な生産方式へとシフトする企業が多い。セル生産方式とは、作業者の作業スペースを取り囲むように、加工、組み立て、検査、梱包等の各工程の作業台を配置し、一人(又は数人)の作業者が作業台の間を移動しながら製品の製造を行う方式である。
最近では、小規模生産方式での省人化・省力化を図るため、ヒトと同等の作業が可能なマルチタスクの双腕ロボットを作業者の代わりに導入する例もある。例えば、特許文献1では、複数の作業者と複数の双腕ロボットを工程に沿って配置し、隣同士の作業者又は双腕ロボットがワークの受け渡しを行いながら、製品の製造を行う生産方式が提案されている。
国際公開第2009/071567号
しかしながら、小規模生産方式の各工程での作業は多種多様であり、中にはヒトならではの器用な動きや高度な判断が要求されるものも含まれる。したがって、ヒトが行っていた作業を丸ごと双腕ロボットに置き換えようとした場合、多数のセンサと特殊なハンドを具備した高機能かつインテリジェントなロボットが必要となる。そのため、ロボットの開発・ティーチングに時間を要しラインの立ち上げに時間がかかる、導入コストやメンテナンスコストが大きく投資対効果が得られにくい等の課題がある。
そこで本発明者らは、ヒトをロボットに置き換えるという発想ではなく、ヒトとロボットが互いの長所を生かしながら一つの作業を協働して行うという新規な形態の生産方式を検討している。すなわち、器用な動きや臨機応変な(柔軟な)判断が必要な部分は作業者が、単純な動作や正確性が要求される動作はロボットが、それぞれ分担しつつ、作業者とロボットが同じ作業スペース内で協働作業するというものである。
例えば、製品内部にケーブルをネジ止めする作業を想定した場合、製品内部の狭い(入り組んだ)空間のなかでネジ止め対象のケーブルを位置合わせするような動きは、ロボットには不得意である。一方、ネジ止めのような単純動作についてはロボットの方が優れており、作業者の場合は斜めに挿入したりトルクを誤るなどのリスクがある。このような場合には、作業者がケーブルを位置合わせして押さえた状態で、ロボットがネジ止めを行う、というような分担を行う。
このようにヒトとロボットが互いの得意な動きを受け持ち協働作業を行うことで、作業の効率と正確性の向上が期待できる。しかも、双腕ロボットに比べて極めてシンプルなロボットでよいため、導入コストやメンテナンスコストの大幅な低減も可能である。
ヒトとロボットの協働作業を実現するためには、ヒトの動作とロボットの動作のタイミングをうまく合わせる必要がある。望ましくは、作業者側の準備が整った時に(例:ケーブルを所定の位置に合わせて固定したら)、作業者自らがロボットに対し動作命令(例:ネジ止めの実行命令)を出せるのがよい。これの実現手法としては、例えば、作業者が装着ないし携帯している端末からロボットに対し無線で命令を送ったり、ジェスチャ入力、モーション入力、音声入力などの非接触での入力デバイスにより命令を入力したりすることが考えられる。
しかしながら、このような仕組みをセル生産方式に適用しようとした場合、次のような新たな課題に直面した。セル内の複数の作業台にそれぞれの作業に特化したロボットを設置し、作業者が作業台のあいだを移動しながら、それぞれのロボットと協働作業を行うことを想定する。このとき、ユーザビリティ(操作性)と作業効率の観点からは、いずれのロボットに対しても同じやり方で動作指示を出せることが望ましい。しかし、限られたスペース内に複数のロボットが近接配置されているため、上述した無線通信や非接触入力を利用すると、作業者からの動作命令を別のロボットあるいは複数のロボットが受け取ってしまい、作業者の意図しないロボットが誤動作する可能性がある。
本発明は、上記課題に鑑みなされたものであり、複数のロボットが設置された作業スペース内で作業者が作業ごとにロボットを使い分けながら効率的に作業を行うという生産方式を実現するための技術を提供することを目的とする。
上記目的を達成するために本発明では以下の構成を採用する。
すなわち、本発明に係るロボット制御システムは、複数のロボットが設置された作業スペース内で、作業者が作業ごとにロボットを使い分けるためのロボット制御システムであって、複数のロボットと、前記複数のロボットに対し無線通信により動作命令を送信可能な作業者端末と、を備え、前記作業者端末は、作業のために使おうとしている対象ロボットを、前記複数のロボットのなかから識別する識別部と、ロボットの動作指示を作業者より受け付ける受付部と、前記受付部で動作指示を受け付けたときに、前記識別部により対象ロボットとして識別されているロボットに対してのみ動作命令を送信する無線通信部と、を有することを特徴とする。
この構成によれば、識別部により対象ロボットとして識別されているロボットに対してのみ動作命令が送信されるため、作業者の意図しないロボットの誤動作を未然に抑制することができる。また、作業者の動作指示にしたがって対象ロボットへ動作命令が無線送信されるので、作業者の所望のタイミングで対象ロボットを動作させることができ、効率的な作業が実現できる。
ここで、作業者とロボットは協働作業を行う関係にあることが好ましい。協働作業とは、一つの作業を達成するのに必要な複数の動作のうちの一部を作業者が行い、残りをロボットが行うことをいう。作業者が担当する動作とロボットが担当する動作は、同時に又は同期して行う場合と、時間的に連続して行う場合とがある。また、「対象ロボットとして識別されているロボットに対してのみ動作命令を送信する」方法としては、「対象ロボットに対して動作命令を送信し、その他のロボットに対しては動作命令を送信しない」方法でもよいし、「対象ロボットを指定する情報を組み込んだ動作命令を、すべてのロボットに対して同報送信し、ロボット側で自分への動作命令かどうかを判断する」方法でもよい。
前記複数のロボットのうちのいずれのロボットが対象ロボットとして識別されているか
を示す情報を提示する対象ロボット提示部をさらに有することが好ましい。提示された情報を見ることで、作業者は自分の意図するロボットが対象ロボットして選ばれているかどうかを確認できるため、作業の安全が担保される。
前記対象ロボット提示部は、前記複数のロボットのうちのいずれのロボットが対象ロボットとして識別されているかを示す情報を、作業者自身と作業者以外の第三者の両方が視認可能な態様で提示することが好ましい。作業者自身だけでなく、第三者も対象ロボットを視認できるようにすることで、作業の安全及びシステムの正常動作を客観的に管理・監視することができる。
前記複数のロボットのそれぞれには識別色が割り当てられており、前記対象ロボット提示部は、対象ロボットの識別色と同じ色で点灯する手段であることが好ましい。色で識別することで、直観的かつ正確にロボットを区別することができる。
前記複数のロボットのそれぞれが、識別色を表示する識別色表示部を有しており、前記作業者端末が、シースルータイプのヘッドマウントディスプレイを有しており、前記対象ロボット提示部は、対象ロボットの識別色と同じ色の画像を前記ヘッドマウントディスプレイに表示する手段、又は、作業者の視界に入るように前記ヘッドマウントディスプレイに取り付けられた対象ロボットの識別色と同じ色で発光する手段であることが好ましい。この構成によれば、作業者は、ヘッドマウントディスプレイ越しにロボットの識別色表示部を見て、ヘッドマウントディスプレイ側で表示又は発光する色と、ロボットの識別色表示部の色とを見比べるだけで、作業者端末が対象ロボットして認識しているロボットと作業者自身が意図しているロボットが一致しているかどうかを直観的かつ即座に確認することができる。
識別部による対象ロボットの識別にはどのような手法を採用してもよい。例えば、前記複数のロボットのそれぞれが、ロボットIDが記録されたロボット識別標識を有しており、前記作業者端末が、ロボット識別標識からロボットIDを読み取るリーダを有しており、前記識別部は、前記リーダの読取範囲に入ったロボット識別標識からロボットIDを読み取ることで、対象ロボットを識別することが好ましい。あるいは、前記作業者端末が、端末IDが記録された端末識別標識を有しており、前記複数のロボットのそれぞれが、端末識別標識から端末IDを読み取るリーダと、前記リーダにより読み取られた端末IDで特定される作業者端末に対し、自身のロボットIDを通知するID通知部と、を有しており、前記識別部は、前記ID通知部よりロボットIDを受け取ることで、対象ロボットを識別することも好ましい。あるいは、前記識別部は、対象ロボットの複数の候補を作業者に提示し、前記複数の候補のなかから作業者に対象ロボットを選択させることで、対象ロボットを識別することもできる。「ロボット識別標識」、「端末識別標識」としては、例えば、ICタグ、2次元コードなどを用いることができる。識別標識としてICタグを用いた場合の「リーダ」はRFIDリーダであり、2次元コードを用いた場合の「リーダ」はカメラである。
前記複数のロボットのそれぞれが、人検知センサと、前記人検知センサにより作業者がロボットを使用し得る範囲内にいないことを検知した場合に、前記作業者端末との通信、又は、ロボットの動作を停止する制御部と、を有することが好ましい。これにより、ロボットの誤動作をより一層抑制することができ、作業の安全を担保できる。
前記複数のロボットのそれぞれは、前記作業者端末からの動作命令の受信をトリガとして、決められた動作を実行するロボットであり、前記動作指示は、対象ロボットがいずれのロボットであるかによらず、同じ操作で入力可能であることが好ましい。いずれのロボットに対しても同じ操作で動作指示を入力できることで、作業者のユーザビリティ(操作
性)及び作業効率を向上することができる。
なお、本発明は、上記構成の少なくとも一部を有するロボット制御システムとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含むロボットの制御方法やロボットとの協働による生産方法、又は、かかる方法をコンピュータに実行させるためのプログラムやそのプログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、複数のロボットが設置された作業スペース内で作業者が作業ごとにロボットを使い分けながら効率的に作業を行うという生産方式を実現することができる。
セル生産ラインの一例を示す図。 第1実施形態の作業台の構成例を模式的に示す斜視図。 作業者端末の頭部ユニットの構成例を模式的に示す斜視図。 作業者端末の腕部ユニットの構成例を模式的に示す斜視図。 ロボット制御システムの機能ブロック図。 第1実施形態のロボット制御のシーケンス。 運用モード中の作業者の視界を示す図。 第2実施形態の作業台の構成例を模式的に示す斜視図。 第2実施形態のロボット制御のシーケンス。 第3実施形態の作業台と作業者端末(腕部ユニット)の構成例を模式的に示す斜視図。 第3実施形態のロボット制御のシーケンス。 第4実施形態における対象ロボットの選択方法を説明する図。
本発明は、限られた作業スペース内に設置された複数のロボットのなかで、作業者が所望のロボットを所望のタイミングで動作させるための技術に関し、特に、ヒトとロボットが互いの長所を生かしながら一つの作業を協働して行うという新規な形態の生産方式に好ましく利用できる。以下に述べる実施形態では、製品の組み立て、検査、梱包を行うセル生産ラインに対し、本発明を適用した例を説明する。
(セル生産ライン)
セル生産方式とは、作業者の作業スペースを取り囲むように、各作業工程に対応する複数の作業台を配置し、一人又は数人の作業者が作業台の間を移動しながら製品の製造を行う生産方式である。作業台の配置にはいくつかのバリエーションがあるが、最も一般的な形態は、作業台をU字型に配置する形態である。
図1は、本実施形態のロボット制御システムを適用したセル生産ラインを示す模式図である。図1はセルを上からみた上視図であり、6つの作業台11〜16がU字型に配置され、作業台14を除く5つの作業台11、12、13、15、16に作業者10a、10bの作業を補助するロボット11a、12a、13a、15a、16aが設置された様子を示している。
作業台11〜16は、それぞれ、(1)部品組み立て、(2)ケーブル結束、(3)ネジ止め、(4)検査、(5)梱包準備、(6)梱包・搬出、の各作業工程を行う場所である。このうち、(1)部品組み立て、(2)ケーブル結束、及び、(6)梱包・搬出を作
業者10aが担当し、(3)ネジ止め、(4)検査、及び、(5)梱包準備を作業者10bが担当する。
(1)部品組み立て
作業台11では、作業者10aの指示(合図)に従いロボット11aが部品棚から部品をピックアップし、作業者10aに部品を手渡す(又は、所定の位置に部品を配置する)。作業者10aはワークの筐体内部に部品を組み立て、そのワークを持って作業台12へと移動する。
(2)ケーブル結束
作業台12では、作業者10aの指示(合図)に従いロボット12aがストッカから結束バンドをピックアップし、作業者10aに結束バンドを手渡す。作業者10aはワークの筐体内部のケーブル群をまとめ、結束バンドで結束する。その後、作業者10aはワークを次の作業台13へと引き渡す。
(3)ネジ止め
作業台13では、作業者10bがワークを所定の位置に配置し、ネジ止めの対象となる部品やケーブルを押さえて固定した状態で、ロボット13aに指示(合図)を送る。すると、ロボット13aが電動ドライバを垂直に降下させ、ネジ止めを行う。ネジ止め個所が複数ある場合には、同じ作業を繰り返す。
(4)検査
作業台14では、作業者10bがネジ止め後のワークを目視検査する。本例の場合、部品の組み付け、ケーブルの結束、ネジの締結、ワーク外観の汚れ・キズなどの確認を行い、問題がなければ作業台14と作業台15の間の完成品棚へ配置する。
(5)梱包準備
作業台15では、作業者10bが梱包箱を組み立て所定の位置に配置した後、ロボット15aに指示(合図)を送ると、ロボット15aが完成品棚からワークをピックアップし、梱包箱の中に設置するとともに、梱包部材を梱包箱の中に入れる。
(6)梱包・搬出
作業台16では、作業者10aが梱包箱の上蓋片を折り曲げ固定した後、ロボット16aに指示(合図)を送ると、ロボット16aが梱包箱の上蓋をステープル止めした後、所定の搬出棚に配置する。
以上のように、二人の作業者10a、10bがそれぞれ作業台の間を移動しながら、必要なロボットと協働作業を行うことにより、製品の組み立てから梱包までの作業が行われる。なお、ここで説明したセル生産ラインの構成、作業台や作業者の数、作業内容、作業者とロボットの作業分担などはあくまで一例である。
ところで、上記のような生産方式を実現するにあたっては、作業者とロボットのあいだのインタラクションに関し、いくつかクリアすべき課題がある。一つ目は、作業者の指示(合図)を所望のタイミングで(つまり、作業者側の準備が整ったタイミングで)ロボットに伝達する仕組みの実現である。二つ目は、作業者が自然な動作の流れで(つまり、作業者の動きや時間のロスがほとんど無いやり方で)ロボットに対し指示を出せる操作インタフェースの実現である。これらの仕組みは、作業者とロボットが阿吽(あうん)の呼吸で協働し、高効率かつ正確な生産を実現するために重要である。そして三つ目の課題は、作業者が自分の意図するロボット(協働作業のために使おうとしている対象ロボット)に対してのみ、確実に指示を与える仕組みの実現である。もし、作業者10aが作業台12
にてケーブルの結束作業を行おうとしてロボットに指示を出したときに、誤って他のロボットが動作してしまうようなことがあれば、作業のロスが生じるだけでなく、安全衛生上の問題が生じるおそれもあるからである。
本実施形態のロボット制御システムでは、これらの課題を解決するために、各作業者が無線通信機能をもつ作業者端末を使用し、ロボットに対し無線通信で動作命令(動作のトリガ)を送信する仕組みを採用するとともに、作業者端末が協働作業を行う対象ロボットを識別し、その対象ロボットに対してのみ動作命令を選択的に送信する仕組みを実現する。以下、これらの仕組みの具体的な構成について説明を行う。
<第1実施形態>
(作業台及びロボット)
ロボットが設置された作業台(図1の11、12、13、15、16)の構成を説明する。図2は、作業台の構成例を模式的に示す斜視図である。
作業台20は、金属製のパイプをジョイントで接続し、天板21や必要な棚板を組み付けることで形成される。作業台20の上部には水平レール22が設けられ、この水平レール22に対しロボット23が取り付けられている。
本実施形態のロボット23は、前述のように物品の受け渡しやネジ止めといった単純な補助作業を行うことができればよく、双腕ロボットのような高度な機能は必要ない。したがって、シンプルかつ低コストのロボット(例えば、1アームの多関節ロボット)を用いることができる。作業者とロボットの協働作業を実現する上では、作業者の動線及び作業スペース確保の要請から、ロボット23を作業台20の上部又は天井等に設置することが好ましい。この点、ロボット23の機能(役割)及び構成をシンプルなものに限定することで、ロボット自体を軽量化できるため、作業台20の水平レール22や天井(不図示)へのロボット23の設置が容易となる。
ロボット23は識別色表示部24を有している。図1に示す5台のロボット(11a、12a、13a、15a、16a)には、ロボット同士を識別するために互いに異なる識別色が割り当てられている(例えば、赤、緑、青、マゼンタ、黄)。識別色表示部24は、作業者が装着している作業者端末とロボット23の間の通信が確立されたときに、当該ロボット23に割り当てられた識別色で点灯(発光)する。詳しくは後述する。識別色表示部24は、LED(発光ダイオード)で構成される発光板、液晶ディスプレイ、有機ELディスプレイなどで構成することができる。
また、作業台20の天板21には、ロボット識別標識としてのICタグ25が取り付けられている。ICタグ25には、当該ロボット23に割り当てられたロボットIDが記録されている。ロボットIDも、識別色と同じく、5台のロボットを識別可能なようにロボットごとに異なるIDが割り当てられる。
また、作業台20には、人検知センサ26が設けられている。人検知センサ26は、作業者が作業台20の近くに(つまりロボット23を使用し得る範囲内に)存在するか否かを検知するためのセンサである。例えば、赤外線センサ、拡散反射センサ等を用いることができる。
(作業者端末)
次に、作業者が使用する作業者端末の構成を説明する。本実施形態では、作業者が装着する(身につける)形態のウェアラブルな作業者端末を用いる。具体的には、作業者端末は、頭部に装着するヘッドマウント型の頭部ユニット(図3)、腕部に装着する腕部ユニ
ット(図4)から構成される。
(1)頭部ユニット
図3に示すように、頭部ユニット30は、ヘルメットタイプの頭部ユニット本体31と、頭部ユニット本体31の前面に取り付けられたシースルータイプのヘッドマウントディスプレイ(以下単に「シースルーディスプレイ」と呼ぶ)32とを有している。シースルータイプには、カメラの映像を映し出すことで疑似的なシースルーを実現する「ビデオシースルー」、ハーフミラー等の光学部材を用いたり透明ディスプレイを用いる方式の「光学シースルー」などがあるが、いずれの方式でもよい。なお、ディスプレイ方式ではなく、投影方式のヘッドマウントディスプレイを用いてもよい。
頭部ユニット本体31には、電源スイッチ33、フロントカメラ34、ジャイロセンサ35が設けられている。また、詳しくは図5で説明するが、頭部ユニット本体31には、信号処理・画像処理部、中央処理装置、記憶部、無線通信部などの機能をもつコンピュータ(制御部)が内蔵されている。
電源スイッチ33は頭部ユニット30の電源オン/オフを切り替えるためのスイッチであり、ヘルメットの鍔部など、作業者が作業中に誤って触れない位置に配置される。フロントカメラ34は、作業者の視線方向(頭部が向いている方向)の映像を撮影するカメラである。ビデオシースルータイプの場合には、フロントカメラ34から取り込まれた映像がシースルーディスプレイ32に表示される。ジャイロセンサ35は、作業者の頭部の動きを検知するための角速度センサであり、頭頂部に取り付けられている。なお、ジャイロセンサ35の代わりに、又は、ジャイロセンサ35とともに、3軸の加速度センサを設けてもよい。加速度センサも頭部の動きを検知する目的で使用可能である。
シースルーディスプレイ32には、その縁部に沿って、対象ロボット提示部36が設けられている。対象ロボット提示部36は、協働作業の対象となるロボット(対象ロボット)の識別色で点灯する発光体であり、例えば、LEDなどで構成される。なお、本実施形態では、シースルーディスプレイ32と対象ロボット提示部36を別デバイスで構成したが、シースルーディスプレイ32の一部に識別色と同じ色の画像を表示することで、対象ロボット提示部の機能を兼用することもできる。
(2)腕部ユニット
図4に示すように、腕部ユニット40は、作業者の前腕に装着される腕部ユニット本体41と、腕部ユニット本体41を固定するための固定帯42とを有している。図4では、左腕に腕部ユニット40を装着した様子を示しているが、右腕に装着する構成でもよい。
腕部ユニット本体41には、電源スイッチ43、筋電センサ44、RFIDリーダ45、対象ロボット提示部46が設けられている。また、詳しくは図5で説明するが、腕部ユニット本体41には、信号処理部、中央処理装置、記憶部、無線通信部などの機能をもつコンピュータ(制御部)が内蔵されている。
電源スイッチ43は腕部ユニット40の電源オン/オフを切り替えるためのスイッチであり、腕部ユニット本体41の内側表面など、作業者が作業中に誤って触れない位置に配置される。筋電センサ44は、作業者の前腕の筋電位を検知するセンサであり、腕部ユニット本体41のうち前腕の皮膚表面に接触する場所に組み込まれている。RFIDリーダ45は、作業台20に取り付けられたICタグ25(図2参照)からロボットIDを読み取るためのセンサである。対象ロボット提示部46は、協働作業の対象となるロボット(対象ロボット)の識別色で点灯する発光体であり、例えば、LEDなどで構成される。この対象ロボット提示部46は、頭部ユニット30の対象ロボット提示部36と連動する(
同じ色で発光する)よう制御される。
固定帯42は、前腕に巻かれる前腕帯42a、上腕に巻かれる上腕帯42b、前腕帯42aと上腕帯42bを伸縮自在に接続する接続帯42cから構成される。固定帯42は、腕部ユニット本体41が前腕からずれないように固定する機能、腕部ユニット本体41が正しい向きで前腕に装着されるようにする機能、腕部ユニット40を一つしか装着できないようにする機能を兼ね備える構造である。固定帯42により腕部ユニット40の誤装着を物理的にできないようにすることで、本システムによるロボットとの協働作業の安全性を高めることができる。
(機能構成)
図5は、本実施形態のロボット制御システムの機能構成を示すブロック図である。図5において、図2〜図4に示した構成と同じものには同一の符号を付す。なお、ロボット制御システムは図1に示すように複数台のロボットを備えているが、図5では説明の便宜のため一台のロボット23の構成のみ示している。
ロボット23は、中央処理装置230、記憶部231、ドライバ部232、センサ部233、アクチュエータ部234、無線通信部235、識別色表示部24を有している。中央処理装置230は、記憶部231に格納されたプログラムを読み込み実行することで、各種の演算処理やロボット23の各ブロックの制御を行うプロセッサである。記憶部231は、ファームウェア等のプログラムや各種設定パラメータを格納する不揮発性メモリと、中央処理装置230のワークメモリ等として利用される揮発性メモリとを有している。
ドライバ部232は、センサ部233からのセンサ信号を入力する回路、アクチュエータ部234へ駆動信号を出力する回路などを備える制御回路である。センサ部233は、ロボット23の制御に利用するための情報を取得するための入力デバイスである。アクチュエータ部234は、ロボット23のアーム、ハンド、工具などを駆動する出力デバイスである。センサには、光センサ、音響センサ、振動センサ、温度センサ、力センサ(触覚センサ)、距離センサなど様々な種類のセンサがあり、ロボット23の構成や作業内容などに応じて必要な数・種類のセンサが設けられる。また、アクチュエータにも、サーボモータ、リニア・アクチュエータ、ソレノイドなど様々な種類のものがあり、ロボット23の構成や作業内容などに応じて必要な数・種類のアクチュエータが設けられる。無線通信部235は、作業者端末の頭部ユニット30とのあいだで無線通信を行うためのモジュールである。
作業者端末の頭部ユニット30は、シースルーディスプレイ32、フロントカメラ34、ジャイロセンサ35、信号処理・画像処理部300、中央処理装置301、記憶部302、無線通信部303、対象ロボット提示部36を有している。信号処理・画像処理部300は、ジャイロセンサ35のセンサ信号及びフロントカメラ34の画像信号を入力し、増幅、フィルタ処理、AD変換などを行う回路である。中央処理装置301は、記憶部302に格納されたプログラムを読み込み実行することで、各種の演算処理や、シースルーディスプレイ32、無線通信部303、対象ロボット提示部36などの制御を行うプロセッサである。記憶部302は、ファームウェア等のプログラム、作業者が設定した閾値等の設定パラメータ、ジェスチャ認識のための参照画像データ等を格納する不揮発性メモリと、中央処理装置301のワークメモリ等として利用される揮発性メモリとを有している。無線通信部303は、腕部ユニット40および各ロボット23とのあいだで無線通信を行うためのモジュールである。
作業者端末の腕部ユニット40は、筋電センサ44、RFIDリーダ45、信号処理部400、中央処理装置401、記憶部402、無線通信部403、対象ロボット提示部4
6を有している。信号処理部400は、筋電センサ44のセンサ信号を入力し、増幅、フィルタ処理、AD変換などを行う回路である。中央処理装置401は、記憶部402に格納されたプログラムを読み込み実行することで、各種の演算処理や、無線通信部403、対象ロボット提示部46などの制御を行うプロセッサである。記憶部402は、ファームウェア等のプログラム、各種の設定パラメータ等を格納する不揮発性メモリと、中央処理装置401のワークメモリ等として利用される揮発性メモリとを有している。無線通信部403は、頭部ユニット30とのあいだで無線通信を行うためのモジュールである。
ロボット23、頭部ユニット30、腕部ユニット40のあいだの無線通信には、いかなる通信方式を用いてもよい。例えば、IEEE802.11、IEEE802.15、赤外線通信などを好ましく利用できる。
(対象ロボットの識別および制御)
次に、図6のシーケンス図を参照して、本実施形態のロボット制御システムにおける対象ロボットの識別および制御の流れを説明する。以下、図1のセル生産ラインにおける三番目の作業台においてネジ止め作業を行う場合を例に挙げて説明を行う。ただし、各構成要素の符号については図2から図5で用いた符号を適宜参照することとする。
まず、作業者がネジ止め作業の作業台20に移動し、腕部ユニット40で作業台20のICタグ25をタッチする(S10)。すると、腕部ユニット40のRFIDリーダ45がICタグ25に記録されているロボット23のロボットIDを読み取る(S40)。腕部ユニット40の中央処理装置401は、読み取ったロボットIDを無線通信部403により頭部ユニット30に送信する(S41)。頭部ユニット30の中央処理装置301は、腕部ユニット40から受信したロボットIDを記憶部302に保持する(S30)。続いて、中央処理装置301は、無線通信部303により、ロボット23へ通信接続を要求する(S31)。このとき、要求電文のなかにS30で受信したロボットIDを記述する。通信接続要求はセル内の複数のロボットが受信し得るが、要求電文のなかでロボットIDが指定されているため、各ロボットは自分への接続要求であるか否かを判断可能である。本例の場合は、ロボット23のみが反応し、ロボット23の中央処理装置230が通信接続許可を作業者端末(頭部ユニット30)に対して返信する(S20)。このとき、返信電文のなかにロボット23のロボットIDを記述しておくことで、作業者端末(頭部ユニット30)ではロボットIDで特定されるロボット23との接続が許可されたことを認識する。作業者端末によるS40およびS30〜S31の処理機能が、複数のロボットのなかから対象ロボット(作業者が作業のために使おうとしているロボット)を識別する識別部としての機能である。
続いて、頭部ユニット30の中央処理装置301は、記憶部302からロボットIDに対応する識別色を読み出し、対象ロボット提示部36をその識別色で数回点滅させた後、点灯状態にする(S32)。また中央処理装置301は、無線通信部303により、腕部ユニット40にロボットID又は識別色を通知する(S33)。すると、腕部ユニット40の中央処理装置401が、腕部ユニット40に設けられた対象ロボット提示部46をロボットIDに対応する識別色で数回点滅させた後、点灯状態にする(S42)。これ以降、作業者端末は運用モードとなり、作業者による動作指示を受け付け可能な状態となる。
一方、ロボット23の側でも、S20で通信接続許可を返信した後、中央処理装置230が識別色表示部24を自身の識別色で数回点滅させた後、点灯状態にする(S21)。その後、ロボット23も運用モードとなり、作業者端末からの動作命令を受信可能な状態となる。
図7は、運用モード中の作業者の視界の例であり、作業者がシースルーディスプレイ3
2越しにロボット23の識別色表示部24を見たときの視界を示している。例えば、ロボット23の識別色が青色であった場合、ロボット23の識別色表示部24、および、シースルーディスプレイ32の周囲(対象ロボット提示部36)が青色に点灯していることが視認できる。また図示しないが、腕部ユニット40の対象ロボット提示部46も青色に点灯する。もし作業者端末の方で識別している対象ロボットと作業者が意図しているロボットが異なる場合には、作業者端末側の点灯色と視界に入るロボット側の点灯色とが一致しないので、本実施形態のような仕組みによれば、対象ロボットの識別が正しく行われているかを直観的かつ即座に確認することできる。しかも、作業者端末側の点灯色とロボット側の点灯色は、作業者以外の第三者(例えば、同じセル内の他の作業者、工場の管理者など)も見ることができるため、協働作業の安全およびシステムの正常動作を客観的に管理・監視することもできる。なお、識別色表示部24および対象ロボット提示部36、46は、ロボットと作業者端末の間の無線通信が可能であることを示す通信確立表示灯としての役割も担っている。
図6に戻って、運用モードでの処理について説明する。
作業者は、作業者端末側の点灯色とロボット側の点灯色が一致していることを確認した後、ワークを作業台20の所定の位置に配置し、ネジ止めの対象となる部品やケーブルを手で押さえて固定する(S11)。そして、作業者が手に力をこめ前腕の筋肉を収縮させると(S12)、腕部ユニット40の筋電センサ44で検知される筋電位が上昇する。腕部ユニット40の中央処理装置401は、筋電位が閾値を超えた場合に「作業者からロボットの動作指示が発せられた」と理解し、頭部ユニット30に通知する(S43)。本実施形態では、腕部ユニット40によるS43の処理機能が、ロボットの動作指示を作業者より受け付ける受付部としての機能である。
頭部ユニット30の中央処理装置301は、作業者からの動作指示を受け付けると直ぐに、ロボット23に対し動作命令を送信する(S34)。このとき、命令電文のなかにS30で保持したロボットIDを記述する。動作命令はセル内の複数のロボットが受信し得るが、命令電文のなかでロボットIDが指定されているため、各ロボットは自分への動作命令であるか否かを判断し、自分以外への動作命令については棄却できる。
本例の場合は、ロボット23が動作命令を受信すると、アーム先端の電動ドライバを垂直に降下させ、作業者が押さえている部品又はケーブルのネジ止めを実行する(S22)。ネジ止め個所が複数ある場合には、S11〜S22で説明した処理を繰り返す。以上で、作業者とロボット23との間の円滑な協働作業が遂行できる。
作業者が作業を終えて作業台20の前を離れると(S12)、人検知センサ26により作業者の不存在(ロボット23を使用し得る範囲内に作業者が存在しないこと)が検知される(S23)。すると、ロボット23の中央処理装置230が、無線通信を切断する旨を作業者端末に通知した後、作業者端末との通信を切断するともに、識別色表示部24を消灯する(S24)。一方、作業者端末も、ロボット23との通信を切断し、対象ロボット提示部36、46を消灯する(S35、S44)。
(本実施形態の利点)
以上述べた本実施形態のロボット制御システムによれば、作業者端末により対象ロボットとして識別されているロボットに対してのみ動作命令が送信されるため、作業者の意図しないロボットの誤動作を未然に抑制することができる。また、作業者の動作指示にしたがって対象ロボットへ動作命令が無線送信されるので、作業者の所望のタイミングで対象ロボットを動作させることができ、作業者とロボットとの効率的な協働作業が実現できる。
本実施形態では、ボタンを押したりレバーを操作したりする必要がなく、筋電位により(手に力をこめるだけで)ロボットへの動作指示を出すことができる。したがって、ワークを押さえたままでも、両手が塞がった状態でも、所望のタイミングで簡単に且つ動きのロスなくロボットに合図を送ることが可能となる。しかも、いずれのロボットに対しても同じ操作で動作指示を入力できることで、作業者のユーザビリティ(操作性)及び作業効率を向上することができる。
また、人検知センサ26を設け、作業者が作業台20から離れた場合に無線通信を積極的に切断するようにしたので、ロボットの誤動作(意図しないロボットに対し動作命令を送出してしまうこと)をより一層抑制することができ、ヒトとロボットの協働作業の安全を担保できる。なお、作業者が作業台20から離れた場合に無線通信を切断する代わりに、ロボット23の動作を禁止する制御を行うことでも同じ効果が得られる。
<第2実施形態>
次に、本発明の第2実施形態について説明する。第1実施形態ではロボット識別標識にICタグを利用したが、第2実施形態では2次元コードを利用する点が異なる。それ以外の構成は第1実施形態と同じのため、以下、異なる構成部分を中心に説明を行う。
図8は、本実施形態の作業台の構成例を模式的に示している。第1実施形態(図2)との違いは、ICタグが無い点と、代わりに、ロボット23のロボットIDが記録された2次元コード27が作業台20又はロボット23に貼付されている点である。作業者端末の構成については第1実施形態(図3、図4)と同じでよい(ただし、腕部ユニット40のRFIDリーダは無くしてよい)。
図9は、本実施形態のロボット制御のシーケンスである。第1実施形態のシーケンス(図6)とは対象ロボットの識別処理だけが異なる。
まず、作業者がネジ止め作業の作業台20に移動し、2次元コード27を見る(S210)。すると、頭部ユニット30のフロントカメラ34で2次元コード27の画像が取り込まれ、中央処理装置301が2次元コード27からロボットIDを読み取る(S230)。中央処理装置301は、読み取ったロボットIDを記憶部302に保持する(S231)。これ以降の処理は第1実施形態(図6)と同じであるため、同一のステップ番号を付して説明を割愛する。
以上述べた第2実施形態の構成によっても、第1実施形態と同様の作用効果を奏することができる。加えて、第2実施形態では2次元コードとカメラの組み合わせで対象ロボットの識別(ロボットIDの読み取り)を行ったので、ICタグとRFIDリーダを用いる構成に比べて、(ICタグのタッチが不要になる分)操作がより簡単になるとともに、(RFIDリーダが不要になる分)腕部ユニットの重量およびコストを小さくできるという利点もある。
なお、フロントカメラ34の視野内に別のロボットの2次元コードが写り込み、誤認識を招く可能性がある場合には、例えば、フロントカメラ34の画像において2次元コードの縦横サイズが所定値より大きい場合にのみロボットIDの読み取りを実行するとか、人検知センサ26の検知結果を組み合わせるなど、対象ロボットの識別条件を厳しくするとよい。
<第3実施形態>
次に、本発明の第3実施形態について説明する。第1実施形態では作業台側(ロボット
側)にロボット識別標識を設け、作業者端末側にリーダを設けたが、第3実施形態では逆に、作業者端末側に端末識別標識を設け、作業台側(ロボット側)にリーダを設ける。それ以外の構成は第1実施形態と同じのため、以下、異なる構成部分を中心に説明を行う。
図10は、本実施形態の作業台と作業者端末(腕部ユニット)の構成例を模式的に示している。第1実施形態(図2)との違いは、作業台20にICタグの代わりにRFIDリーダ28が設置されている点と、腕部ユニット40がRFIDリーダの代わりにICタグ47を有している点である。ICタグ47には、作業者端末を特定するための端末IDが記録されている。
図11は、本実施形態のロボット制御のシーケンスである。第1実施形態のシーケンス(図6)とは対象ロボットの識別処理だけが異なる。
まず、作業者がネジ止め作業の作業台20に移動し、腕部ユニット40で作業台20のRFIDリーダ28をタッチする(S310)。すると、RFIDリーダ28が腕部ユニット40のICタグ47に記録されている端末IDを読み取る(S320)。ロボット23の中央処理装置230は、無線通信により、端末IDで特定される作業者端末に対し通信接続を要求する(S321)。このとき、要求電文のなかに、S320で読み取った端末IDと、自身のロボットIDとを記述する。作業者端末(頭部ユニット30)は、接続要求を受け取ると、端末IDに基づき自端末への要求であることを確認した上で、対象ロボットのロボットIDを認識する(S330)。これにより、ロボット23と作業者端末の間での通信が確立する。これ以降の処理は第1実施形態(図6)と同じであるため、同一のステップ番号を付して説明を割愛する。なお、本実施形態において、ロボット23によるS320〜S321の処理機能が、作業者端末に対し自身のロボットIDを通知するID通知部としての機能である。
以上述べた第3実施形態の構成によっても、第1実施形態と同様の作用効果を奏することができる。加えて、第3実施形態では腕部ユニット側のRFIDリーダが不要になるので、腕部ユニットの重量およびコストを小さくできるという利点もある。
なお、第2実施形態で述べた2次元コードとカメラによる識別方法を、第3実施形態に適用してもよい。すなわち、作業者端末の頭部ユニット30や腕部ユニット40に端末IDを記録した2次元コードを貼付しておき、作業台20又はロボット23に設置したカメラで2次元コードを読み取るのである。このような構成でも第3実施形態と同じ処理が可能である。
<第4実施形態>
次に、本発明の第4実施形態について説明する。第1〜第3実施形態では自動で対象ロボットを識別したが、第4実施形態では作業者が対象ロボットを指定(選択)する構成を採用する。それ以外の構成は第1実施形態と同じのため、以下、異なる構成部分を中心に説明を行う。
作業者が対象ロボットの切り替えを指示したり、あるいは、作業者が作業台を移動したりすると、作業者端末のシースルーディスプレイ32に図12に示すような操作インタフェースが表示される。具体的には、使用可能な(又は通信可能な)対象ロボットの候補リスト120が提示され、作業者はこの候補リスト120のなかから使用するロボットを選択することができる。このとき、候補リスト120に、ロボットIDとともに各ロボットの識別色を提示するとよい。色別に表示することでロボットの識別が容易になり、作業者によるロボットの誤選択を減らせるからである。
候補リスト120からロボットを選択する操作は、フロントカメラ34を利用したハンドジェスチャにより行う。例えば、フロントカメラ34の視野内で手又は指を上下に動かして候補リスト120上のカーソル121を移動し対象ロボットを選択する方法、各ロボットに対応するハンドジェスチャ(例えば、ロボットIDが「01」の場合は1本の指を立て、ロボットIDが「02」の場合は2本の指を立てるなど)を行う方法など、どのような操作方法を用いてもよい。
なお、本実施形態ではハンドジェスチャを利用したが、ロボットの選択操作は他の方法でも構わない。例えば、ジャイロセンサ35を利用し頭部の動き(うなずき、首振りなど)でロボットを選択する方法、筋電センサ44を利用し前腕の動きでロボットを選択する方法でもよいし、音声入力や、ボタンによる選択などを用いてもよい。
<その他の実施形態>
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。
例えば、ロボットに対する動作指示の入力方法は筋電位に限らない。例えば、頭部ユニット30に設けられたジャイロセンサ35を利用し、作業者の頭部の動き(うなずき、首振りなど)で動作指示を入力できるようにしてもよい。また、音声入力、唇や顎の動きによる入力、視線入力、ジェスチャ入力などを用いてもよい。また、入力の確実を担保するため、複数の入力方法を組み合わせてもよい。
上述した実施形態では、作業台の識別色表示部24を点灯/消灯可能なデバイスで構成したが、例えば、カラーパネルのような色付き部材で識別色表示部を構成しても構わない。あるいは、ロボットや作業台の全部又は一部を識別色を呈する部材で構成してもよい。すなわち、作業者の視界に入る位置にできるだけ目立つように識別色が提示されていれば、目的を達成できる。
上述した実施形態では、対象ロボットの識別にICタグや2次元コードを利用したが、他の方法を利用することもできる。例えば、作業台又はロボット本体にロボットIDを描画し、頭部ユニット30のフロントカメラで取り込まれた画像を用いて、画像認識によりロボットIDを識別してもよい。あるいは、作業台又はロボット本体の色(識別色)や形状などの特徴に基づく物体認識により、対象ロボットを識別してもよい。
上述した実施形態では、ウェアラブルな作業者端末を例示したが、作業者端末の形態はこれに限らず、作業者が保持する(手に持つ)タイプの作業者端末でもよい。例えば、スマートフォンやタブレット端末のような携帯型コンピュータを作業者端末として利用することも好ましい。
10a、10b:作業者
11〜16、20:作業台
11a、12a、13a、15a、16a、23:ロボット
24:識別色表示部
25:ICタグ
26:人検知センサ
27:2次元コード
28:RFIDリーダ
30:頭部ユニット
32:シースルーディスプレイ
34:フロントカメラ
35:ジャイロセンサ
36:対象ロボット提示部
40:腕部ユニット
44:筋電センサ
45:RFIDリーダ
46:対象ロボット提示部
47:ICタグ

Claims (10)

  1. 複数のロボットが設置された作業スペース内で、作業者が作業ごとにロボットを使い分けるためのロボット制御システムであって、
    複数のロボットと、
    前記複数のロボットに対し無線通信により動作命令を送信可能な作業者端末と、を備え、
    前記作業者端末は、
    作業のために使おうとしている対象ロボットを、前記複数のロボットのなかから識別する識別部と、
    ロボットの動作指示を作業者より受け付ける受付部と、
    前記受付部で動作指示を受け付けたときに、前記識別部により対象ロボットとして識別されているロボットに対してのみ動作命令を送信する無線通信部と、を有する
    ことを特徴とするロボット制御システム。
  2. 前記複数のロボットのうちのいずれのロボットが対象ロボットとして識別されているかを示す情報を提示する対象ロボット提示部をさらに有する
    ことを特徴とする請求項1に記載のロボット制御システム。
  3. 前記対象ロボット提示部は、前記複数のロボットのうちのいずれのロボットが対象ロボットとして識別されているかを示す情報を、作業者自身と作業者以外の第三者の両方が視認可能な態様で提示する
    ことを特徴とする請求項2に記載のロボット制御システム。
  4. 前記複数のロボットのそれぞれには識別色が割り当てられており、
    前記対象ロボット提示部は、対象ロボットの識別色と同じ色で点灯する手段である
    ことを特徴とする請求項2又は3に記載のロボット制御システム。
  5. 前記複数のロボットのそれぞれが、識別色を表示する識別色表示部を有しており、
    前記作業者端末が、シースルータイプのヘッドマウントディスプレイを有しており、
    前記対象ロボット提示部は、対象ロボットの識別色と同じ色の画像を前記ヘッドマウントディスプレイに表示する手段、又は、作業者の視界に入るように前記ヘッドマウントディスプレイに取り付けられた対象ロボットの識別色と同じ色で発光する手段である
    ことを特徴とする請求項4に記載のロボット制御システム。
  6. 前記複数のロボットのそれぞれが、ロボットIDが記録されたロボット識別標識を有しており、
    前記作業者端末が、ロボット識別標識からロボットIDを読み取るリーダを有しており、
    前記識別部は、前記リーダの読取範囲に入ったロボット識別標識からロボットIDを読み取ることで、対象ロボットを識別する
    ことを特徴とする請求項1〜5のうちいずれか1項に記載のロボット制御システム。
  7. 前記作業者端末が、端末IDが記録された端末識別標識を有しており、
    前記複数のロボットのそれぞれが、端末識別標識から端末IDを読み取るリーダと、前記リーダにより読み取られた端末IDで特定される作業者端末に対し、自身のロボットIDを通知するID通知部と、を有しており、
    前記識別部は、前記ID通知部よりロボットIDを受け取ることで、対象ロボットを識別する
    ことを特徴とする請求項1〜5のうちいずれか1項に記載のロボット制御システム。
  8. 前記識別部は、対象ロボットの複数の候補を作業者に提示し、前記複数の候補のなかから作業者に対象ロボットを選択させることで、対象ロボットを識別する
    ことを特徴とする請求項1〜5のうちいずれか1項に記載のロボット制御システム。
  9. 前記複数のロボットのそれぞれが、人検知センサと、前記人検知センサにより作業者がロボットを使用し得る範囲内にいないことを検知した場合に、前記作業者端末との通信、又は、ロボットの動作を停止する制御部と、を有する
    ことを特徴とする請求項1〜8のうちいずれか1項に記載のロボット制御システム。
  10. 前記複数のロボットのそれぞれは、前記作業者端末からの動作命令の受信をトリガとして、決められた動作を実行するロボットであり、
    前記動作指示は、対象ロボットがいずれのロボットであるかによらず、同じ操作で入力可能である
    ことを請求項1〜9のうちいずれか1項に記載の特徴とするロボット制御システム。
JP2014127669A 2014-06-20 2014-06-20 ロボット制御システム Active JP6350011B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014127669A JP6350011B2 (ja) 2014-06-20 2014-06-20 ロボット制御システム
PCT/JP2015/067701 WO2015194658A1 (ja) 2014-06-20 2015-06-19 ロボット制御システム
US15/320,310 US10286547B2 (en) 2014-06-20 2015-06-19 Robot control system
CN201580033191.4A CN106457573B (zh) 2014-06-20 2015-06-19 机器人控制系统
EP15810260.8A EP3159120A4 (en) 2014-06-20 2015-06-19 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014127669A JP6350011B2 (ja) 2014-06-20 2014-06-20 ロボット制御システム

Publications (2)

Publication Number Publication Date
JP2016007648A true JP2016007648A (ja) 2016-01-18
JP6350011B2 JP6350011B2 (ja) 2018-07-04

Family

ID=54935634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127669A Active JP6350011B2 (ja) 2014-06-20 2014-06-20 ロボット制御システム

Country Status (5)

Country Link
US (1) US10286547B2 (ja)
EP (1) EP3159120A4 (ja)
JP (1) JP6350011B2 (ja)
CN (1) CN106457573B (ja)
WO (1) WO2015194658A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP1573020S (ja) * 2016-08-05 2017-04-03
JP2017135961A (ja) * 2016-01-31 2017-08-03 貴司 徳田 モーターモジュールシステム
WO2018190345A1 (ja) * 2017-04-11 2018-10-18 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2020083535A (ja) * 2018-11-21 2020-06-04 株式会社日立ビルシステム 通知システム
KR102377988B1 (ko) * 2021-09-30 2022-03-24 주식회사 아진엑스텍 로봇과의 협업 보조 방법 및 장치
US11586225B2 (en) 2019-08-20 2023-02-21 Sony Corporation Mobile device, mobile body control system, mobile body control method, and program
US11794339B2 (en) 2019-10-31 2023-10-24 Seiko Epson Corporation Robot system

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015209899B4 (de) * 2015-05-29 2019-06-19 Kuka Roboter Gmbh Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera
WO2017033352A1 (ja) 2015-08-25 2017-03-02 川崎重工業株式会社 産業用遠隔操作ロボットシステム
JP6478234B2 (ja) * 2017-06-26 2019-03-06 ファナック株式会社 ロボットシステム
DE102018116065A1 (de) 2017-07-13 2019-01-17 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Servicegerätes
DE102017115847A1 (de) * 2017-07-14 2019-01-17 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Roboters
JP6969283B2 (ja) * 2017-10-25 2021-11-24 オムロン株式会社 制御システム
JP7041492B2 (ja) * 2017-10-31 2022-03-24 川崎重工業株式会社 ロボットシステム
EP3810374B1 (en) 2018-06-19 2022-06-01 BAE SYSTEMS plc Workbench system
EP3989023A1 (en) * 2018-06-19 2022-04-27 BAE SYSTEMS plc Workbench system
EP3810375A1 (en) * 2018-06-19 2021-04-28 BAE SYSTEMS plc Workbench system
CN109117626A (zh) * 2018-06-26 2019-01-01 上海常仁信息科技有限公司 一种基于机器人身份证的机器人管理系统
CN109102445A (zh) * 2018-06-26 2018-12-28 上海常仁信息科技有限公司 基于机器人身份证的犯罪认定系统
CN111283677B (zh) * 2018-12-10 2021-07-06 北京猎户星空科技有限公司 一种机器人控制方法、装置、机器人及机器人主控器
JP2022518012A (ja) * 2019-01-23 2022-03-11 霊動科技(北京)有限公司 自動運転車用自律放送システム
JP2020179453A (ja) * 2019-04-25 2020-11-05 セイコーエプソン株式会社 ロボットシステムの制御方法およびロボットシステム
CN110744549A (zh) * 2019-11-11 2020-02-04 电子科技大学 一种基于人机协同的智能装配工艺
CN110936376A (zh) * 2019-12-04 2020-03-31 路邦科技授权有限公司 一种仿生机器人的非同步多联切换系统及其切换方法
CN115062742B (zh) * 2022-08-17 2022-11-22 广州里工实业有限公司 无网络下自主机器人与工作机器间通信方法、设备和介质
CN115469672B (zh) * 2022-11-02 2023-03-07 成都铂升科技有限公司 一种室内分布式灯光机器人集群控制方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0985661A (ja) * 1995-09-21 1997-03-31 Kawasaki Heavy Ind Ltd ロボットに用いる多機能パネル
WO2002078914A1 (en) * 2001-04-02 2002-10-10 Abb Ab An industrial robot comprising a portable operating unit which a movable key device for identification of the robot
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
JP2003200371A (ja) * 2001-12-28 2003-07-15 Kawasaki Heavy Ind Ltd ロボットシステムおよびその運用方法
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2004291186A (ja) * 2003-03-27 2004-10-21 Ntt Docomo Inc ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置
JP2006277531A (ja) * 2005-03-30 2006-10-12 Daihen Corp 産業用ロボットシステム
JP2006297589A (ja) * 2005-04-19 2006-11-02 Como Spa 工業用ロボットの制御方法、ロボット、システム、及びコンピュータプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6897426B2 (en) * 2001-08-09 2005-05-24 Ralph Roque Etienne-Cummings Self-contained integrated color processing imager
SE0103531D0 (sv) * 2001-10-23 2001-10-23 Abb Ab Industrial Robot System
DE10314025B4 (de) * 2003-03-28 2010-04-01 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Steuern einer Mehrzahl von Handhabungsgeräten
US7430485B2 (en) * 2003-08-22 2008-09-30 Rohm And Haas Company Method and system for analyzing coatings undergoing exposure testing
US7362258B2 (en) * 2004-03-31 2008-04-22 Honda Motor Co., Ltd. Transponder detection system using radio and light wave signals
KR100633160B1 (ko) * 2004-12-17 2006-10-11 삼성전자주식회사 비콘을 이용하여 위치 및 방향 인식이 가능한 로봇시스템
CN101194213A (zh) * 2005-03-04 2008-06-04 范努克机器人技术美国有限公司 教导装置和可编程控制器的活动连接
JP4859706B2 (ja) 2006-08-29 2012-01-25 株式会社ダイヘン ロボット制御システム
DE102006056879A1 (de) * 2006-12-01 2008-06-05 Dürr Systems GmbH Fehlerprotokollierungsverfahren für eine Beschichtungsanlage
WO2009071567A1 (en) 2007-12-05 2009-06-11 Abb Research Ltd A production line and a method for operating a such
JP4586092B2 (ja) * 2008-12-04 2010-11-24 ファナック株式会社 複数のロボット機構部を備えたロボットシステム
WO2010082842A1 (en) * 2008-12-15 2010-07-22 Bill Groves Intellectual Property Limited Improved trailer having adjustable elevation
WO2013018861A1 (ja) * 2011-08-04 2013-02-07 オリンパス株式会社 医療用マニピュレータおよびその制御方法
US8930009B2 (en) * 2011-10-20 2015-01-06 Kabushiki Kaisha Yaskawa Denki Robot system and processed object manufacturing method
JP5800676B2 (ja) * 2011-10-25 2015-10-28 オリンパス株式会社 医療用マニピュレータ

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0985661A (ja) * 1995-09-21 1997-03-31 Kawasaki Heavy Ind Ltd ロボットに用いる多機能パネル
WO2002078914A1 (en) * 2001-04-02 2002-10-10 Abb Ab An industrial robot comprising a portable operating unit which a movable key device for identification of the robot
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
JP2003200371A (ja) * 2001-12-28 2003-07-15 Kawasaki Heavy Ind Ltd ロボットシステムおよびその運用方法
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2004291186A (ja) * 2003-03-27 2004-10-21 Ntt Docomo Inc ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置
JP2006277531A (ja) * 2005-03-30 2006-10-12 Daihen Corp 産業用ロボットシステム
JP2006297589A (ja) * 2005-04-19 2006-11-02 Como Spa 工業用ロボットの制御方法、ロボット、システム、及びコンピュータプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135961A (ja) * 2016-01-31 2017-08-03 貴司 徳田 モーターモジュールシステム
US10507586B2 (en) 2016-01-31 2019-12-17 Keigan Inc. Motor module system
JP1573020S (ja) * 2016-08-05 2017-04-03
WO2018190345A1 (ja) * 2017-04-11 2018-10-18 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2018176342A (ja) * 2017-04-11 2018-11-15 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2020083535A (ja) * 2018-11-21 2020-06-04 株式会社日立ビルシステム 通知システム
JP7065754B2 (ja) 2018-11-21 2022-05-12 株式会社日立ビルシステム 通知システム
US11586225B2 (en) 2019-08-20 2023-02-21 Sony Corporation Mobile device, mobile body control system, mobile body control method, and program
US11794339B2 (en) 2019-10-31 2023-10-24 Seiko Epson Corporation Robot system
KR102377988B1 (ko) * 2021-09-30 2022-03-24 주식회사 아진엑스텍 로봇과의 협업 보조 방법 및 장치

Also Published As

Publication number Publication date
EP3159120A4 (en) 2018-01-24
CN106457573A (zh) 2017-02-22
EP3159120A1 (en) 2017-04-26
JP6350011B2 (ja) 2018-07-04
US10286547B2 (en) 2019-05-14
US20170144297A1 (en) 2017-05-25
WO2015194658A1 (ja) 2015-12-23
CN106457573B (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
JP6350011B2 (ja) ロボット制御システム
JP6344084B2 (ja) ロボット操作用の作業者端末
US10835333B2 (en) Remote control robot system
JP5761238B2 (ja) ロボットシステム及び被作業物の製造方法
US9104981B2 (en) Robot teaching system and method using imaging based on training position
US9037297B2 (en) System and method for operation of a robot
CN109352658A (zh) 工业机器人定位操控方法、系统及计算机可读存储介质
US11077560B2 (en) Manipulator system and method for identifying operating devices
JP2010064823A (ja) ピッキングカート及びカートピッキングシステム
JPWO2007013260A1 (ja) 作業システム及び作業システムでの作業指示方法
CN103729096A (zh) 交互识别系统以及显示装置
JP2011076875A (ja) 照明制御システム
ES2961110T3 (es) Método, dispositivo y medio legible por ordenador para la gestión de dispositivos móviles de robots industriales colaborativos
ES2750698T3 (es) Sistema para puesta en marcha virtual
CN103713797A (zh) 激光发射装置及人机交互系统
JP2020137000A (ja) 映像記録装置およびヘッドマウントディスプレイ
CN209304584U (zh) 一种工业机器人定位操控系统
US9897810B2 (en) Spectacle-type electronic device and assisting method
TW201819126A (zh) 非接觸式的手勢教導機器人
JP5083617B2 (ja) 遠隔操作ロボット装置
KR102499576B1 (ko) 전자 장치 및 그 제어 방법
KR20110077556A (ko) 로봇 교시 시스템 및 방법
JP5218382B2 (ja) プログラマブル表示器
Tang The development of a human-robot interface for industrial collaborative system
JP6275672B2 (ja) 電子機器および支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6350011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250