JP2016007647A - ロボット操作用の作業者端末 - Google Patents

ロボット操作用の作業者端末 Download PDF

Info

Publication number
JP2016007647A
JP2016007647A JP2014127668A JP2014127668A JP2016007647A JP 2016007647 A JP2016007647 A JP 2016007647A JP 2014127668 A JP2014127668 A JP 2014127668A JP 2014127668 A JP2014127668 A JP 2014127668A JP 2016007647 A JP2016007647 A JP 2016007647A
Authority
JP
Japan
Prior art keywords
robot
unit
worker
sensor
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014127668A
Other languages
English (en)
Other versions
JP6344084B2 (ja
JP2016007647A5 (ja
Inventor
▲隆▼一郎 高市
Ryuichiro Takaichi
▲隆▼一郎 高市
靖史 川島
Yasushi Kawashima
靖史 川島
将佳 阿部
Masayoshi Abe
将佳 阿部
恭之 江田
Takayuki Eda
恭之 江田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014127668A priority Critical patent/JP6344084B2/ja
Priority to US15/319,802 priority patent/US20170136627A1/en
Priority to PCT/JP2015/067702 priority patent/WO2015194659A1/ja
Priority to EP15809828.5A priority patent/EP3159119B1/en
Priority to CN201580033031.XA priority patent/CN106457572B/zh
Publication of JP2016007647A publication Critical patent/JP2016007647A/ja
Publication of JP2016007647A5 publication Critical patent/JP2016007647A5/ja
Application granted granted Critical
Publication of JP6344084B2 publication Critical patent/JP6344084B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0096Programme-controlled manipulators co-operating with a working support, e.g. work-table
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36435Electromyographical, myoelectric control signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39014Match virtual world with real world
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40413Robot has multisensors surrounding operator, to understand intention of operator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットを用いた安全かつ確実な作業を実現するための技術を提供する。
【解決手段】作業に用いるロボットに対し動作命令を送信する作業者端末が、作業者の筋電位を検知する第1のセンサと、作業者の頭部の動きを検知する第2のセンサと、前記第1のセンサと前記第2のセンサの検知結果に基づいて、筋電位の変化と頭部の動きの組み合わせで定義される動作指示が作業者により入力されたか否かを判定する処理部と、前記動作指示が作業者により入力されたと判定された場合に、前記ロボットに対して動作命令を送信する通信部と、を有する。
【選択図】図8

Description

本発明は、作業者が複数のロボットを用いて作業を行う生産方式に関する。
ユーザーニーズの多様化に伴い、ものづくりの現場では、多品種少量生産、短納期生産、変量生産などへの対応が迫られている。そうした環境変化の中、ベルトコンベアに沿って作業者やロボットが配置されるライン生産方式から、セル生産方式等の手組みを主体とした小規模な生産方式へとシフトする企業が多い。セル生産方式とは、作業者の作業スペースを取り囲むように、加工、組み立て、検査、梱包等の各工程の作業台を配置し、一人(又は数人)の作業者が作業台の間を移動しながら製品の製造を行う方式である。
最近では、小規模生産方式での省人化・省力化を図るため、ヒトと同等の作業が可能なマルチタスクの双腕ロボットを作業者の代わりに導入する例もある。例えば、特許文献1では、複数の作業者と複数の双腕ロボットを工程に沿って配置し、隣同士の作業者又は双腕ロボットがワークの受け渡しを行いながら、製品の製造を行う生産方式が提案されている。
国際公開第2009/071567号 特開2012−101284号公報
しかしながら、小規模生産方式の各工程での作業は多種多様であり、中にはヒトならではの器用な動きや高度な判断が要求されるものも含まれる。したがって、ヒトが行っていた作業を丸ごと双腕ロボットに置き換えようとした場合、多数のセンサと特殊なハンドを具備した高機能かつインテリジェントなロボットが必要となる。そのため、ロボットの開発・ティーチングに時間を要しラインの立ち上げに時間がかかる、導入コストやメンテナンスコストが大きく投資対効果が得られにくい等の課題がある。
そこで本発明者らは、ヒトをロボットに置き換えるという発想ではなく、ヒトとロボットが互いの長所を生かしながら一つの作業を協働して行うという新規な形態の生産方式を検討している。すなわち、器用な動きや臨機応変な(柔軟な)判断が必要な部分は作業者が、単純な動作や正確性が要求される動作はロボットが、それぞれ分担しつつ、作業者とロボットが同じ作業スペース内で協働作業するというものである。
例えば、製品内部にケーブルをネジ止めする作業を想定した場合、製品内部の狭い(入り組んだ)空間のなかでネジ止め対象のケーブルを位置合わせするような動きは、ロボットには不得意である。一方、ネジ止めのような単純動作についてはロボットの方が優れており、作業者の場合は斜めに挿入したりトルクを誤るなどのリスクがある。このような場合には、作業者がケーブルを位置合わせして押さえた状態で、ロボットがネジ止めを行う、というような分担を行う。
このようにヒトとロボットが互いの得意な動きを受け持ち協働作業を行うことで、作業の効率と正確性の向上が期待できる。しかも、双腕ロボットに比べて極めてシンプルなロボットでよいため、導入コストやメンテナンスコストの大幅な低減も可能である。
ところで、FA(ファクトリーオートメーション)においてヒトとロボットの協働作業を実現するためには、「安全」と「確実」が最優先されなければならない。作業者に危険が及ぶような誤作動があってはならないし、作業者の意図が適時に間違いなく伝達され、ロボットの動作に反映されなければ、不良品の発生につながるからである。その一方で、作業効率の観点からは、作業者ができるだけ簡単にロボットに指示を出せること、手指を使わずに(作業で手が塞がることが多いため)指示できることなどの要請もある。
なお、特許文献2では、ヒトの意図を機械に伝達するためのマン−マシンインタフェースの例として、ヒトの身体に取り付けたセンサで関節角度、加速度、外部荷重等を計測し、ヒトの意図や身体動作を識別する方法、皮膚表面から検出される表面筋電位や脳波からヒトの意図を推定する方法、ヒトと機械の接触部分に力覚センサを取り付ける方法、手先の動きの速度や周波数、肘の動きの角速度や各加速度などのヒトの各部位の動きから意図を推定する方法などが提案されている。しかしいずれの提案方法も、FAにおける協働作業ロボットに指示を出すための操作インタフェースとしては適当でない。
本発明は、上記課題に鑑みなされたものであり、ロボットを用いた安全かつ確実な作業を実現するための技術を提供することを目的とする。
上記目的を達成するために本発明では以下の構成を採用する。
すなわち、本発明に係る作業者端末は、作業に用いるロボットに対し動作命令を送信する作業者端末であって、作業者の筋電位を検知する第1のセンサと、作業者の頭部の動きを検知する第2のセンサと、前記第1のセンサと前記第2のセンサの検知結果に基づいて、筋電位の変化と頭部の動きの組み合わせで定義される動作指示が作業者により入力されたか否かを判定する処理部と、前記動作指示が作業者により入力されたと判定された場合に、前記ロボットに対して動作命令を送信する通信部と、を有することを特徴とする。
この構成によれば、作業者は「筋電位の変化」と「頭部の動き」の全く異なる2種類の操作を意図的に入力しなければならないので、偶然の動きや誤操作によるロボットの誤作動を可及的に排除できる。また、筋電位と頭部の動きであれば、作業者の自然な動きの流れで入力が可能であるとともに、仮に両手が塞がっていても入力できるため、作業効率を阻害することがない。ここで、作業者とロボットは協働作業を行う関係にあることが好ましい。協働作業とは、一つの作業を達成するのに必要な複数の動作のうちの一部を作業者が行い、残りをロボットが行うことをいう。作業者が担当する動作とロボットが担当する動作は、同時に又は同期して行う場合と、時間的に連続して行う場合とがある。
前記第1のセンサにより検知された筋電位の変化、および、前記第2のセンサにより検知された頭部の動きを、作業者に提示する提示部をさらに有することが好ましい。ボタンを押したりレバーを操作するのとは違い、筋電位や身体動作を利用したインタフェースは、正しく入力操作が行えているかどうか(自分の動きが適切かどうか)が分かりづらい。そこで、本発明のように筋電位の変化や頭部の動きを作業者に提示するようにすれば、作業者自身が入力操作の適否をセルフチェックでき、入力操作の確実、入力スキルの向上、誤入力の抑制などに役立つ。
前記処理部は、筋電位の変化が第1の条件を満たし、且つ、頭部の動きが第2の条件を満たした場合に、前記動作指示が入力されたと判定するものであり、前記提示部は前記第1の条件および前記第2の条件も作業者に提示することが好ましい。このような提示を確認しながら入力操作を行うことで、入力操作の確実、入力スキルの向上、誤入力の抑制な
どに役立つ。
前記処理部は、筋電位の変化が前記第1の条件を満たした後、所定の制限時間内に、頭部の動きが前記第2の条件を満たした場合に、前記動作指示が入力されたと判定するものであり、前記提示部は、筋電位の変化が前記第1の条件を満たしたときに、頭部の動きを入力すべき制限時間のカウントダウンも提示することが好ましい。このような提示を確認しながら入力操作を行うことで、入力操作の確実、入力スキルの向上、誤入力の抑制などに役立つ。
前記第1の条件及び/又は前記第2の条件を作業者により変更可能とする設定変更部をさらに有することが好ましい。体格や体組成に個人差があるため、筋電位の値や身体の動かし方は作業者ごとのばらつきが大きい。したがって、全作業者に同一の条件(閾値など)を適用するよりも、個々人の身体的特徴や動きの特性などに合わせて条件を調整できるようにすることで、より安全で確実な入力操作が実現できる。
前記作業者端末は、シースルータイプのヘッドマウントディスプレイを有しており、前記提示部は、前記ヘッドマウントディスプレイに表示されるグラフィック画像であることが好ましい。これにより、作業者はワークやロボットから視線を外すことなく、提示部を確認できるため、より安全で確実な入力操作が実現できる。
なお、本発明は、上記構成の少なくとも一部を有する作業者端末又はマン−マシンインタフェースとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含むロボット操作方法もしくは指示入力方法、又は、かかる方法をコンピュータに実行させるためのプログラムやそのプログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、ロボットを用いた安全かつ確実な作業を実現することができる。
セル生産ラインの一例を示す図。 第1実施形態の作業台の構成例を模式的に示す斜視図。 作業者端末の頭部ユニットの構成例を模式的に示す斜視図。 作業者端末の腕部ユニットの構成例を模式的に示す斜視図。 ロボット制御システムの機能ブロック図。 第1実施形態のロボット制御のシーケンス。 運用モード中の作業者の視界を示す図。 動作指示の入力処理のフローチャート。 筋電センサとジャイロセンサの出力信号の例を示す図。 設定モードの画面を示す図。
本発明は、ヒトが作業に用いるロボットに対し所望のタイミングで確実に動作命令を送出するための技術に関し、特に、ヒトとロボットが互いの長所を生かしながら一つの作業を協働して行うという新規な形態の生産方式に好ましく利用できる。以下に述べる実施形態では、製品の組み立て、検査、梱包を行うセル生産ラインに対し、本発明を適用した例を説明する。
(セル生産ライン)
セル生産方式とは、作業者の作業スペースを取り囲むように、各作業工程に対応する複数の作業台を配置し、一人又は数人の作業者が作業台の間を移動しながら製品の製造を行う生産方式である。作業台の配置にはいくつかのバリエーションがあるが、最も一般的な形態は、作業台をU字型に配置する形態である。
図1は、本実施形態のロボット制御システムを適用したセル生産ラインを示す模式図である。図1はセルを上からみた上視図であり、6つの作業台11〜16がU字型に配置され、作業台14を除く5つの作業台11、12、13、15、16に作業者10a、10bの作業を補助するロボット11a、12a、13a、15a、16aが設置された様子を示している。
作業台11〜16は、それぞれ、(1)部品組み立て、(2)ケーブル結束、(3)ネジ止め、(4)検査、(5)梱包準備、(6)梱包・搬出、の各作業工程を行う場所である。このうち、(1)部品組み立て、(2)ケーブル結束、及び、(6)梱包・搬出を作業者10aが担当し、(3)ネジ止め、(4)検査、及び、(5)梱包準備を作業者10bが担当する。
(1)部品組み立て
作業台11では、作業者10aの指示(合図)に従いロボット11aが部品棚から部品をピックアップし、作業者10aに部品を手渡す(又は、所定の位置に部品を配置する)。作業者10aはワークの筐体内部に部品を組み立て、そのワークを持って作業台12へと移動する。
(2)ケーブル結束
作業台12では、作業者10aの指示(合図)に従いロボット12aがストッカから結束バンドをピックアップし、作業者10aに結束バンドを手渡す。作業者10aはワークの筐体内部のケーブル群をまとめ、結束バンドで結束する。その後、作業者10aはワークを次の作業台13へと引き渡す。
(3)ネジ止め
作業台13では、作業者10bがワークを所定の位置に配置し、ネジ止めの対象となる部品やケーブルを押さえて固定した状態で、ロボット13aに指示(合図)を送る。すると、ロボット13aが電動ドライバを垂直に降下させ、ネジ止めを行う。ネジ止め個所が複数ある場合には、同じ作業を繰り返す。
(4)検査
作業台14では、作業者10bがネジ止め後のワークを目視検査する。本例の場合、部品の組み付け、ケーブルの結束、ネジの締結、ワーク外観の汚れ・キズなどの確認を行い、問題がなければ作業台14と作業台15の間の完成品棚へ配置する。
(5)梱包準備
作業台15では、作業者10bが梱包箱を組み立て所定の位置に配置した後、ロボット15aに指示(合図)を送ると、ロボット15aが完成品棚からワークをピックアップし、梱包箱の中に設置するとともに、梱包部材を梱包箱の中に入れる。
(6)梱包・搬出
作業台16では、作業者10aが梱包箱の上蓋片を折り曲げ固定した後、ロボット16aに指示(合図)を送ると、ロボット16aが梱包箱の上蓋をステープル止めした後、所定の搬出棚に配置する。
以上のように、二人の作業者10a、10bがそれぞれ作業台の間を移動しながら、必要なロボットと協働作業を行うことにより、製品の組み立てから梱包までの作業が行われる。なお、ここで説明したセル生産ラインの構成、作業台や作業者の数、作業内容、作業者とロボットの作業分担などはあくまで一例である。
ところで、上記のような生産方式を実現するにあたっては、作業者とロボットのあいだのインタラクションに関し、いくつかクリアすべき課題がある。一つ目は、作業者の指示(合図)を所望のタイミングで(つまり、作業者側の準備が整ったタイミングで)ロボットに伝達する仕組みの実現である。二つ目は、作業者が自然な動作の流れで(つまり、作業者の動きや時間のロスがほとんど無いやり方で)ロボットに対し指示を出せる操作インタフェースの実現である。これらの仕組みは、作業者とロボットが阿吽(あうん)の呼吸で協働し、高効率かつ正確な生産を実現するために重要である。
本実施形態のロボット制御システムでは、これらの課題を解決するために、各作業者が無線通信機能をもつ作業者端末を使用し、ロボットに対し無線通信で動作命令(動作のトリガ)を送信する仕組みを採用する。以下、これらの仕組みの具体的な構成について説明を行う。
(作業台及びロボット)
ロボットが設置された作業台(図1の11、12、13、15、16)の構成を説明する。図2は、作業台の構成例を模式的に示す斜視図である。
作業台20は、金属製のパイプをジョイントで接続し、天板21や必要な棚板を組み付けることで形成される。作業台20の上部には水平レール22が設けられ、この水平レール22に対しロボット23が取り付けられている。
本実施形態のロボット23は、前述のように物品の受け渡しやネジ止めといった単純な補助作業を行うことができればよく、双腕ロボットのような高度な機能は必要ない。したがって、シンプルかつ低コストのロボット(例えば、1アームの多関節ロボット)を用いることができる。作業者とロボットの協働作業を実現する上では、作業者の動線及び作業スペース確保の要請から、ロボット23を作業台20の上部又は天井等に設置することが好ましい。この点、ロボット23の機能(役割)及び構成をシンプルなものに限定することで、ロボット自体を軽量化できるため、作業台20の水平レール22や天井(不図示)へのロボット23の設置が容易となる。
ロボット23は識別色表示部24を有している。図1に示す5台のロボット(11a、12a、13a、15a、16a)には、ロボット同士を識別するために互いに異なる識別色が割り当てられている(例えば、赤、緑、青、マゼンタ、黄)。識別色表示部24は、例えば、カラーパネルのような色付き部材で構成することができる。また、LED(発光ダイオード)で構成される発光板、液晶ディスプレイ、有機ELディスプレイなど、点灯/消灯可能なデバイスで構成してもよい。あるいは、作業台又はロボット本体の全部又は一部を識別色を呈する部材で構成してもよい。すなわち、作業者の視界に入る位置にできるだけ目立つように識別色が提示されていれば、目的(ロボットの区別)を達成できる。
また、作業台20の天板21には、ロボット識別標識としてのICタグ25が取り付けられている。ICタグ25には、当該ロボット23に割り当てられたロボットIDが記録されている。ロボットIDも、識別色と同じく、5台のロボットを識別可能なようにロボットごとに異なるIDが割り当てられる。
また、作業台20には、人検知センサ26が設けられている。人検知センサ26は、作業者が作業台20の近くに(つまりロボット23を使用し得る範囲内に)存在するか否かを検知するためのセンサである。例えば、赤外線センサ、拡散反射センサ等を用いることができる。
(作業者端末)
次に、作業者が使用する作業者端末の構成を説明する。本実施形態では、作業者が装着する(身につける)形態のウェアラブルな作業者端末を用いる。具体的には、作業者端末は、頭部に装着するヘッドマウント型の頭部ユニット(図3)、腕部に装着する腕部ユニット(図4)から構成される。
(1)頭部ユニット
図3に示すように、頭部ユニット30は、ヘルメットタイプの頭部ユニット本体31と、頭部ユニット本体31の前面に取り付けられたシースルータイプのヘッドマウントディスプレイ(以下単に「シースルーディスプレイ」と呼ぶ)32とを有している。シースルータイプには、カメラの映像を映し出すことで疑似的なシースルーを実現する「ビデオシースルー」、ハーフミラー等の光学部材を用いたり透明ディスプレイを用いる方式の「光学シースルー」などがあるが、いずれの方式でもよい。なお、ディスプレイ方式ではなく、投影方式のヘッドマウントディスプレイを用いてもよい。
頭部ユニット本体31には、電源スイッチ33、フロントカメラ34、ジャイロセンサ35が設けられている。また、詳しくは図5で説明するが、頭部ユニット本体31には、信号処理・画像処理部、中央処理装置、記憶部、無線通信部などの機能をもつコンピュータ(制御部)が内蔵されている。
電源スイッチ33は頭部ユニット30の電源オン/オフを切り替えるためのスイッチであり、ヘルメットの鍔部など、作業者が作業中に誤って触れない位置に配置される。フロントカメラ34は、作業者の視線方向(頭部が向いている方向)の映像を撮影するカメラである。ビデオシースルータイプの場合には、フロントカメラ34から取り込まれた映像がシースルーディスプレイ32に表示される。ジャイロセンサ35は、作業者の頭部の動きを検知するための角速度センサであり、頭頂部に取り付けられている。なお、ジャイロセンサ35の代わりに、又は、ジャイロセンサ35とともに、3軸の加速度センサを設けてもよい。加速度センサも頭部の動きを検知する目的で使用可能である。
シースルーディスプレイ32には、その縁部に沿って、対象ロボット提示部36が設けられている。対象ロボット提示部36は、協働作業の対象となるロボット(対象ロボット)の識別色で点灯する発光体であり、例えば、LEDなどで構成される。なお、本実施形態では、シースルーディスプレイ32と対象ロボット提示部36を別デバイスで構成したが、シースルーディスプレイ32の一部に識別色と同じ色の画像を表示することで、対象ロボット提示部の機能を兼用することもできる。
(2)腕部ユニット
図4に示すように、腕部ユニット40は、作業者の前腕に装着される腕部ユニット本体41と、腕部ユニット本体41を固定するための固定帯42とを有している。図4では、左腕に腕部ユニット40を装着した様子を示しているが、右腕に装着する構成でもよい。
腕部ユニット本体41には、電源スイッチ43、筋電センサ44、RFIDリーダ45、対象ロボット提示部46が設けられている。また、詳しくは図5で説明するが、腕部ユニット本体41には、信号処理部、中央処理装置、記憶部、無線通信部などの機能をもつコンピュータ(制御部)が内蔵されている。
電源スイッチ43は腕部ユニット40の電源オン/オフを切り替えるためのスイッチであり、腕部ユニット本体41の内側表面など、作業者が作業中に誤って触れない位置に配置される。筋電センサ44は、作業者の前腕の筋電位を検知するセンサであり、腕部ユニット本体41のうち前腕の皮膚表面に接触する場所に組み込まれている。RFIDリーダ45は、作業台20に取り付けられたICタグ25(図2参照)からロボットIDを読み取るためのセンサである。対象ロボット提示部46は、協働作業の対象となるロボット(対象ロボット)の識別色で点灯する発光体であり、例えば、LEDなどで構成される。この対象ロボット提示部46は、頭部ユニット30の対象ロボット提示部36と連動する(同じ色で発光する)よう制御される。
固定帯42は、前腕に巻かれる前腕帯42a、上腕に巻かれる上腕帯42b、前腕帯42aと上腕帯42bを伸縮自在に接続する接続帯42cから構成される。固定帯42は、腕部ユニット本体41が前腕からずれないように固定する機能、腕部ユニット本体41が正しい向きで前腕に装着されるようにする機能、腕部ユニット40を一つしか装着できないようにする機能を兼ね備える構造である。固定帯42により腕部ユニット40の誤装着を物理的にできないようにすることで、本システムによるロボットとの協働作業の安全性を高めることができる。
(機能構成)
図5は、本実施形態のロボット制御システムの機能構成を示すブロック図である。図5において、図2〜図4に示した構成と同じものには同一の符号を付す。なお、ロボット制御システムは図1に示すように複数台のロボットを備えているが、図5では説明の便宜のため一台のロボット23の構成のみ示している。
ロボット23は、中央処理装置230、記憶部231、ドライバ部232、センサ部233、アクチュエータ部234、無線通信部235を有している。中央処理装置230は、記憶部231に格納されたプログラムを読み込み実行することで、各種の演算処理やロボット23の各ブロックの制御を行うプロセッサである。記憶部231は、ファームウェア等のプログラムや各種設定パラメータを格納する不揮発性メモリと、中央処理装置230のワークメモリ等として利用される揮発性メモリとを有している。
ドライバ部232は、センサ部233からのセンサ信号を入力する回路、アクチュエータ部234へ駆動信号を出力する回路などを備える制御回路である。センサ部233は、ロボット23の制御に利用するための情報を取得するための入力デバイスである。アクチュエータ部234は、ロボット23のアーム、ハンド、工具などを駆動する出力デバイスである。センサには、光センサ、音響センサ、振動センサ、温度センサ、力センサ(触覚センサ)、距離センサなど様々な種類のセンサがあり、ロボット23の構成や作業内容などに応じて必要な数・種類のセンサが設けられる。また、アクチュエータにも、サーボモータ、リニア・アクチュエータ、ソレノイドなど様々な種類のものがあり、ロボット23の構成や作業内容などに応じて必要な数・種類のアクチュエータが設けられる。無線通信部235は、作業者端末の頭部ユニット30とのあいだで無線通信を行うためのモジュールである。
作業者端末の頭部ユニット30は、シースルーディスプレイ32、フロントカメラ34、ジャイロセンサ35、信号処理・画像処理部300、中央処理装置301、記憶部302、無線通信部303、対象ロボット提示部36を有している。信号処理・画像処理部300は、ジャイロセンサ35のセンサ信号及びフロントカメラ34の画像信号を入力し、増幅、フィルタ処理、AD変換などを行う回路である。中央処理装置301は、記憶部302に格納されたプログラムを読み込み実行することで、各種の演算処理や、シースルー
ディスプレイ32、無線通信部303、対象ロボット提示部36などの制御を行うプロセッサである。記憶部302は、ファームウェア等のプログラム、作業者が設定した閾値等の設定パラメータ、ジェスチャ認識のための参照画像データ等を格納する不揮発性メモリと、中央処理装置301のワークメモリ等として利用される揮発性メモリとを有している。無線通信部303は、腕部ユニット40および各ロボット23とのあいだで無線通信を行うためのモジュールである。
作業者端末の腕部ユニット40は、筋電センサ44、RFIDリーダ45、信号処理部400、中央処理装置401、記憶部402、無線通信部403、対象ロボット提示部46を有している。信号処理部400は、筋電センサ44のセンサ信号を入力し、増幅、フィルタ処理、AD変換などを行う回路である。中央処理装置401は、記憶部402に格納されたプログラムを読み込み実行することで、各種の演算処理や、無線通信部403、対象ロボット提示部46などの制御を行うプロセッサである。記憶部402は、ファームウェア等のプログラム、各種の設定パラメータ等を格納する不揮発性メモリと、中央処理装置401のワークメモリ等として利用される揮発性メモリとを有している。無線通信部403は、頭部ユニット30とのあいだで無線通信を行うためのモジュールである。
ロボット23、頭部ユニット30、腕部ユニット40のあいだの無線通信には、いかなる通信方式を用いてもよい。例えば、IEEE802.11、IEEE802.15、赤外線通信などを好ましく利用できる。
(対象ロボットの識別および制御)
次に、図6のシーケンス図を参照して、本実施形態のロボット制御システムにおける対象ロボットの識別および制御の流れを説明する。以下、図1のセル生産ラインにおける三番目の作業台においてネジ止め作業を行う場合を例に挙げて説明を行う。ただし、各構成要素の符号については図2から図5で用いた符号を適宜参照することとする。
まず、作業者がネジ止め作業の作業台20に移動し、腕部ユニット40で作業台20のICタグ25をタッチする(S10)。すると、腕部ユニット40のRFIDリーダ45がICタグ25に記録されているロボット23のロボットIDを読み取る(S40)。腕部ユニット40の中央処理装置401は、読み取ったロボットIDを無線通信部403により頭部ユニット30に送信する(S41)。頭部ユニット30の中央処理装置301は、腕部ユニット40から受信したロボットIDを記憶部302に保持する(S30)。
続いて、頭部ユニット30の中央処理装置301は、記憶部302からロボットIDに対応する識別色を読み出し、対象ロボット提示部36をその識別色で数回点滅させた後、点灯状態にする(S31)。また中央処理装置301は、無線通信部303により、腕部ユニット40にロボットID又は識別色を通知する(S32)。すると、腕部ユニット40の中央処理装置401が、腕部ユニット40に設けられた対象ロボット提示部46をロボットIDに対応する識別色で数回点滅させた後、点灯状態にする(S42)。これ以降、作業者端末は運用モードとなり、作業者による動作指示を受け付け可能な状態となる。
図7は、運用モード中の作業者の視界の例であり、作業者がシースルーディスプレイ32越しにロボット23の識別色表示部24を見たときの視界を示している。例えば、ロボット23の識別色が青色であった場合、シースルーディスプレイ32の周囲(対象ロボット提示部36)が青色に点灯し、ロボット23の識別色表示部24と同じ色であることが視認できる。また図示しないが、腕部ユニット40の対象ロボット提示部46も青色に点灯する。もし作業者端末の方で識別している対象ロボットと作業者が意図しているロボットが異なる場合には、作業者端末側の点灯色と視界に入るロボット側の識別色とが一致しないので、本実施形態のような仕組みによれば、対象ロボットの識別が正しく行われてい
るかを直観的かつ即座に確認することできる。しかも、作業者端末側の点灯色とロボット側の識別色は、作業者以外の第三者(例えば、同じセル内の他の作業者、工場の管理者など)も見ることができるため、協働作業の安全およびシステムの正常動作を客観的に管理・監視することもできる。
図6に戻って、運用モードでの処理について説明する。
作業者は、ワークを作業台20の所定の位置に配置し、ネジ止めの対象となる部品やケーブルを手で押さえて固定する(S11)。そして、作業者が所定の動作指示を入力すると(S12)、作業者端末(頭部ユニット30及び腕部ユニット40)がその動作指示を受け付け(S43、S33)、頭部ユニット30の中央処理装置301がロボット23に対し動作命令を送信する(S34)。このとき、命令電文のなかにS30で保持したロボットIDを記述する。動作命令はセル内の複数のロボットが受信し得るが、命令電文のなかでロボットIDが指定されているため、各ロボットは自分への動作命令であるか否かを判断し、自分以外への動作命令については棄却できる。
本例の場合は、ロボット23が動作命令を受信すると、アーム先端の電動ドライバを垂直に降下させ、作業者が押さえている部品又はケーブルのネジ止めを実行する(S20)。ネジ止め個所が複数ある場合には、S11〜S20で説明した処理を繰り返す。以上で、作業者とロボット23との間の円滑な協働作業が遂行できる。
作業者が作業を終えて作業台20の前を離れると(S13)、人検知センサ26により作業者の不存在(ロボット23を使用し得る範囲内に作業者が存在しないこと)が検知される(S21)。すると、ロボット23の中央処理装置230が作業者端末に対し通信を切断する旨を通知する(S22)。作業者端末は当該通知を受信すると、ロボット23との通信を切断し、対象ロボット提示部36、46を消灯する(S35、S44)。
(動作指示の入力)
次に、図7〜図9を用いて、図6のS12、S33、S44における動作指示の入力及び受付処理の具体例を説明する。図8は動作指示の入力及び受付処理のフローチャートであり、図9は筋電センサとジャイロセンサの出力信号の例を示す図である。
本実施形態の作業者端末では、前腕の筋電位の変化と頭部の動きの組み合わせで動作指示の入力を行う。具体的には、筋電位が閾値を超えた(第1の条件)後、所定の制限時間T内に、うなずき動作(首を縦に振る動作)をX回以上行った(第2の条件)という2つの条件が満たされた場合に、作業者によりロボットへの動作指示が入力されたと判定する。閾値、制限時間T、Xの値は作業者により任意に設定できる(設定モードについては後述する)。以下、制限時間T=5秒、X=3回という想定で説明を行う。
図8は、作業者端末の頭部ユニット30の中央処理装置301で実行される判断フローを示している。腕部ユニット40の筋電センサ44で検知された筋電位信号は順次頭部ユニット30の中央処理装置301に送られる。中央処理装置301は、筋電位信号を受信すると(S80)、筋電位が閾値を超えているか否かを判定する(S81)。筋電位が閾値以下の場合(S81;NO)は処理を終了し、次の筋電位信号を受信するまで待機する。筋電位が閾値を超えていた場合(S81;YES)、中央処理装置301は経過時間を計測するためのタイマをスタートする(S82)。
中央処理装置301は、ジャイロセンサ35から出力されるジャイロ信号(角速度)を監視し、ある閾値を超えるジャイロ信号を検出した場合に「うなずき動作」が行われたと判断し、うなずき検出回数をカウントアップする(S83)。うなずき検出回数がX回(
る限り(S85;YES)、ジャイロ信号の監視を続ける。うなずき検出回数がX回(3回)に達したら(S84;YES)、中央処理装置301は、作業者による動作指示の入力が行われたと判断し、ロボット23に対し動作命令を送信する(S86)(図6のS33参照)。
その後、中央処理装置301は、タイマ値とうなずき検出回数をリセットし(S87)、処理を終了する。なお、制限時間T以内にうなずき検出回数がX回に到達しなかった場合も(S85;NO)、タイマ値とうなずき検出回数をリセットし(S87)、処理を終了する。
図9(a)は、作業者より動作指示が入力され、ロボットに対し動作命令が送出された例を示している。すなわち、筋電位信号が閾値を超えた後T秒以内に、閾値を超えるジャイロ信号が3回検知されており、3回目のジャイロ信号が検知されたタイミングで、ロボットに対する動作命令が送出されている。一方、図9(b)は、動作指示と認識されない例を示している。すなわち、閾値を超える筋電位信号が検知されたためタイマが動作しているが、制限時間T秒以内に1回しかジャイロ信号が検知されなかったため、ロボットへの動作命令は出力されない。例えば、作業中に偶然腕に力が入ってしまった場合などに、意図せず筋電位が上昇する場合があり得るが(誤操作ともいえる)、第2の条件である頭部の動き(うなずき回数)の未達により、誤操作が棄却され、ロボットへの動作命令の送出およびロボットの誤作動が防止される。
本実施形態では、図7に示すように、シースルーディスプレイ32の一部に、作業者の入力操作を支援するためのモニタ画面(提示部)70が表示される。モニタ画面70は、筋電センサ44の計測値(筋電位の値)をリアルタイムに通知する筋電位モニタ71と、うなずき検出回数と動作指示のために必要なうなずき回数Xの値を提示するうなずき回数モニタ72と、うなずき動作を入力すべき制限時間のカウントダウン(残り時間)を提示する制限時間モニタ73とを含んでいる。モニタ画面70は、半透明のグラフィック画像を用いて、背景画像にオーバーレイ表示される。
図7の例では、筋電位モニタ71は筋電位の値をバー表示し、筋電位が閾値を超えたらバーの色を赤色に、閾値以下の場合は青色に表示する。作業者はこのような表示を見ることで、どの程度の力を入れれば筋電位が閾値を超えられるかを確かめながら入力操作を行うことができる。また、制限時間モニタ73は、プログレスバーにより残り時間を表している。この表示により、作業者は、筋電位の入力(第1の条件)が成功したことと、いつまでにうなずき動作の入力を行うべきかを容易に確認できる。また、うなずき回数モニタ72では、右側に必要なうなずき回数X(図7の例では「3」)が表示され、左側に現在のうなずき検出回数(図7の例では「2」)が表示される。この数値を確認することで、作業者は、自分の行ったうなずき動作がちゃんと検知されているか、あと何回うなずき動作を行えばよいかなどを容易に確認できる。
なお、作業者は、シースルーディスプレイ32上の任意の位置にモニタ画面70を移動することができる(デフォルトのモニタ画面はディスプレイ中央に配置される)。また、モニタ画面70の表示サイズや透明度も自由に変更できる。したがって、作業者は作業の邪魔にならないようにモニタ画面70の表示態様を変更することができる。
(設定モード)
次に、作業端末の設定モードについて説明する。運用モードと設定モードの切り替えは、フロントカメラ34を利用したジェスチャ入力により行えるようにしてもよいし、頭部ユニット30又は腕部ユニット40にモード切替スイッチを設けてもよい。設定モードでは、頭部ユニット30や腕部ユニット40の記憶部に格納されている設定パラメータ(例
えば、筋電位信号の閾値、うなずき検出閾値、制限時間T、うなずき回数Xなど)を変更することができる。
図10は設定モードにおいてシースルーディスプレイ32に表示される設定画面100の例である。設定画面100の上部には、ジャイロセンサ、筋電センサ、フロントカメラ等の設定対象を表すアイコン群101が表示されている。手又は指を左右に動かすハンドジェスチャにより、アイコン群101を横スクロールできる。アイコン群101のうち中央にあるアイコンに対応する設定GUI102が設定画面100に表示される。図10は、筋電センサ用の設定GUI102の例である。
筋電センサ用の設定GUI102では、筋電センサ44の計測値(筋電位の値)がリアルタイムにグラフ表示されており、そのグラフ上に現在の閾値が一点鎖線で表示されている。閾値を変更する方法には「自動設定」と「手動設定」の2種類がある。ハンドジェスチャにより「自動設定」を選択すると、設定画面100に「前腕に力を入れてください。」というガイドを出し、作業者に筋電位の入力を行わせる。ガイドに従って複数回(例えば5〜10回)の入力を行わせた後、それらの平均及び分散を計算し、それを基に適切な閾値を計算する。一方、「手動設定」の場合は、ハンドジェスチャによりグラフ上の閾値の上げ下げを行う。
図示しないが、うなずき検出閾値も同様の設定GUIで設定することができる。また、制限時間Tやうなずき回数Xについては、ハンドジェスチャにより入力してもよいし、うなずき動作により入力してもよい。変更された設定パラメータについては、頭部ユニット30や腕部ユニット40の記憶部に上書き保存される。
(本実施形態の利点)
以上述べた本実施形態の構成によれば、作業者は「筋電位の変化」と「頭部の動き」の全く異なる2種類の操作を意図的に入力しなければならないので、偶然の動きや誤操作によるロボットの誤作動を可及的に排除できる。また、筋電位(腕に力をこめる)と頭部の動き(うなずき)であれば、作業者の自然な動きの流れで入力が可能であるとともに、仮に両手が塞がっていても入力できるため、作業効率を阻害することがない。
また本実施形態では、シースルーディスプレイ32にモニタ画面70を表示し、筋電位の変化、うなずき検出回数、制限時間などを視認できるようにしたので、作業者自身が入力操作の適否をセルフチェックでき、入力操作の確実、入力スキルの向上、誤入力の抑制などに役立つ。しかも、シースルーディスプレイ32を利用しているため、作業者はワークやロボットから視線を外すことなくモニタ画面70を確認でき、より安全で確実な入力操作が実現できる。
体格や体組成には個人差があるため、筋電位の値や身体の動かし方は作業者ごとのばらつきが大きい。したがって、全作業者に同一の条件(閾値など)を適用するのではなく、設定モードを設けて、個々人の身体的特徴や動きの特性などに合わせて条件を調整できるようにすることで、より安全で確実な入力操作が実現できる。
<その他の実施形態>
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。
例えば、筋電センサ44は前腕以外の場所に取り付けてもよい。また上述した実施形態では、筋電位が閾値を超えた後、所定時間内にうなずき動作を複数回行うことを要求したが、これは一例にすぎず、筋電位の変化と頭部の動きの組み合わせで定義される動作指示
であればどのような操作を用いてもよい。また、上述した実施形態では、ヘッドマウント型の頭部ユニット30と腕部ユニット40からなる作業者端末を例示したが、この構成も一例にすぎず、筋電位を検知するセンサと、頭部の動きを検知するセンサを少なくとも備えていれば、作業者端末の構成は問わない。例えば、ウェアラブルな形態に限らず、作業者が保持する(手に持つ)タイプの作業者端末でもよく、スマートフォンやタブレット端末のような携帯型コンピュータを作業者端末として利用することも好ましい。
10a、10b:作業者
11〜16、20:作業台
11a、12a、13a、15a、16a、23:ロボット
24:識別色表示部
25:ICタグ
26:人検知センサ
30:頭部ユニット
32:シースルーディスプレイ
34:フロントカメラ
35:ジャイロセンサ
36:対象ロボット提示部
40:腕部ユニット
44:筋電センサ
45:RFIDリーダ
46:対象ロボット提示部

Claims (6)

  1. 作業に用いるロボットに対し動作命令を送信する作業者端末であって、
    作業者の筋電位を検知する第1のセンサと、
    作業者の頭部の動きを検知する第2のセンサと、
    前記第1のセンサと前記第2のセンサの検知結果に基づいて、筋電位の変化と頭部の動きの組み合わせで定義される動作指示が作業者により入力されたか否かを判定する処理部と、
    前記動作指示が作業者により入力されたと判定された場合に、前記ロボットに対して動作命令を送信する通信部と、を有する
    ことを特徴とする作業者端末。
  2. 前記第1のセンサにより検知された筋電位の変化、および、前記第2のセンサにより検知された頭部の動きを、作業者に提示する提示部をさらに有する
    ことを特徴とする請求項1に記載の作業者端末。
  3. 前記処理部は、筋電位の変化が第1の条件を満たし、且つ、頭部の動きが第2の条件を満たした場合に、前記動作指示が入力されたと判定するものであり、
    前記提示部は前記第1の条件および前記第2の条件も作業者に提示する
    ことを特徴とする請求項2に記載の作業者端末。
  4. 前記処理部は、筋電位の変化が前記第1の条件を満たした後、所定の制限時間内に、頭部の動きが前記第2の条件を満たした場合に、前記動作指示が入力されたと判定するものであり、
    前記提示部は、筋電位の変化が前記第1の条件を満たしたときに、頭部の動きを入力すべき制限時間のカウントダウンも提示する
    ことを特徴とする請求項3に記載の作業者端末。
  5. 前記第1の条件及び/又は前記第2の条件を作業者により変更可能とする設定変更部をさらに有する
    ことを特徴とする請求項3又は4に記載の作業者端末。
  6. 前記作業者端末は、シースルータイプのヘッドマウントディスプレイを有しており、
    前記提示部は、前記ヘッドマウントディスプレイに表示されるグラフィック画像であることを特徴とする請求項2〜5のうちいずれか1項に記載の作業者端末。
JP2014127668A 2014-06-20 2014-06-20 ロボット操作用の作業者端末 Active JP6344084B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014127668A JP6344084B2 (ja) 2014-06-20 2014-06-20 ロボット操作用の作業者端末
US15/319,802 US20170136627A1 (en) 2014-06-20 2015-06-19 Worker terminal for robot operation
PCT/JP2015/067702 WO2015194659A1 (ja) 2014-06-20 2015-06-19 ロボット操作用の作業者端末
EP15809828.5A EP3159119B1 (en) 2014-06-20 2015-06-19 Worker terminal for robot operation
CN201580033031.XA CN106457572B (zh) 2014-06-20 2015-06-19 作业人员终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014127668A JP6344084B2 (ja) 2014-06-20 2014-06-20 ロボット操作用の作業者端末

Publications (3)

Publication Number Publication Date
JP2016007647A true JP2016007647A (ja) 2016-01-18
JP2016007647A5 JP2016007647A5 (ja) 2017-03-23
JP6344084B2 JP6344084B2 (ja) 2018-06-20

Family

ID=54935635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127668A Active JP6344084B2 (ja) 2014-06-20 2014-06-20 ロボット操作用の作業者端末

Country Status (5)

Country Link
US (1) US20170136627A1 (ja)
EP (1) EP3159119B1 (ja)
JP (1) JP6344084B2 (ja)
CN (1) CN106457572B (ja)
WO (1) WO2015194659A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019042880A (ja) * 2017-09-04 2019-03-22 トヨタ自動車株式会社 マスタスレーブロボットの動作終了方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6504073B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
US11260530B2 (en) * 2016-12-02 2022-03-01 Cyberdyne Inc. Upper limb motion support apparatus and upper limb motion support system
US11054811B2 (en) * 2017-11-03 2021-07-06 Drishti Technologies, Inc. Systems and methods for line balancing
FR3073765B1 (fr) * 2017-11-22 2021-05-14 Centre Techn Ind Mecanique Machine automatique asservie collaborative
CN108415560B (zh) * 2018-02-11 2020-12-04 Oppo广东移动通信有限公司 电子装置、操作控制方法及相关产品
JP6965785B2 (ja) * 2018-02-15 2021-11-10 オムロン株式会社 制御システム、スレーブ装置制御部、制御方法およびプログラム
US11703834B2 (en) * 2018-07-31 2023-07-18 Canon Kabushiki Kaisha Production system, and method of producing article
JP6916157B2 (ja) * 2018-10-23 2021-08-11 ファナック株式会社 人と協働作業を行うロボットシステム、及びロボット制御方法
JP7448327B2 (ja) * 2019-09-26 2024-03-12 ファナック株式会社 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法
DE112021003252T5 (de) * 2020-06-16 2023-04-06 Fanuc Corporation Roboter-Steuervorrichtung
CN112405539B (zh) * 2020-11-11 2022-03-04 东南大学 一种基于肌电信号和脑电错误电位的机器人自然控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337630A (ja) * 1993-05-27 1994-12-06 Hitachi Ltd 携帯型手話入力装置
JP2001067179A (ja) * 1999-08-27 2001-03-16 Nec Corp ポインティング装置とそれを用いたコンピュータシステム
JP2008192004A (ja) * 2007-02-06 2008-08-21 Hiroshima Univ 入力情報処理装置、入力情報処理方法、入力情報処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
WO2010110411A1 (ja) * 2009-03-26 2010-09-30 独立行政法人産業技術総合研究所 頭部運動による入力装置
JP2012068777A (ja) * 2010-09-22 2012-04-05 Nikon Corp 入力装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
JP2005500912A (ja) * 2001-02-27 2005-01-13 アンソロトロニックス インコーポレイテッド ロボット装置および無線通信システム
JP3736640B2 (ja) * 2004-01-19 2006-01-18 株式会社エイティング 人身監視システム
US20060087746A1 (en) * 2004-10-22 2006-04-27 Kenneth Lipow Remote augmented motor-sensory interface for surgery
US9114030B2 (en) * 2007-02-06 2015-08-25 Deka Products Limited Partnership System for control of a prosthetic device
JP5048886B2 (ja) * 2011-01-17 2012-10-17 パナソニック株式会社 安全装置および予備動作判定方法
EP2724667B1 (en) * 2011-06-24 2020-11-18 Murata Manufacturing Co., Ltd. Mobile apparatus with biosensors
US9278453B2 (en) * 2012-05-25 2016-03-08 California Institute Of Technology Biosleeve human-machine interface
CN103336582A (zh) * 2013-07-30 2013-10-02 黄通兵 一种运动信息控制人机交互方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337630A (ja) * 1993-05-27 1994-12-06 Hitachi Ltd 携帯型手話入力装置
JP2001067179A (ja) * 1999-08-27 2001-03-16 Nec Corp ポインティング装置とそれを用いたコンピュータシステム
JP2008192004A (ja) * 2007-02-06 2008-08-21 Hiroshima Univ 入力情報処理装置、入力情報処理方法、入力情報処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
WO2010110411A1 (ja) * 2009-03-26 2010-09-30 独立行政法人産業技術総合研究所 頭部運動による入力装置
JP2012068777A (ja) * 2010-09-22 2012-04-05 Nikon Corp 入力装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAN BU, MASARU OKAMOTO, TOSHIO TSUJI: ""A Hybrid Motion ClassificationApproach for EMG-Based Human-Robot Interfaces Using Bayesian and Neur", IEEE TRANSACTIONS ON ROBOTICS, vol. 25, no. 3, JPN6017035767, 5 June 2009 (2009-06-05), pages 502 - 511, ISSN: 0003643415 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019042880A (ja) * 2017-09-04 2019-03-22 トヨタ自動車株式会社 マスタスレーブロボットの動作終了方法

Also Published As

Publication number Publication date
CN106457572A (zh) 2017-02-22
WO2015194659A1 (ja) 2015-12-23
US20170136627A1 (en) 2017-05-18
EP3159119B1 (en) 2020-11-18
JP6344084B2 (ja) 2018-06-20
EP3159119A1 (en) 2017-04-26
CN106457572B (zh) 2019-07-09
EP3159119A4 (en) 2018-03-21

Similar Documents

Publication Publication Date Title
JP6344084B2 (ja) ロボット操作用の作業者端末
JP6350011B2 (ja) ロボット制御システム
US9104981B2 (en) Robot teaching system and method using imaging based on training position
US20230091713A1 (en) Mobile Security Basic Control Device Comprising a Coding Device for a Mobile Terminal with Multi- Touchscreen and Method for Setting Up a Uniquely Assigned Control Link
US10835333B2 (en) Remote control robot system
US20160171772A1 (en) Eyewear operational guide system and method
JP2014176938A (ja) ロボットシステム及び被作業物の製造方法
Materna et al. Interactive spatial augmented reality in collaborative robot programming: User experience evaluation
JP2015182142A (ja) ロボット、ロボットシステム及び教示方法
US11077560B2 (en) Manipulator system and method for identifying operating devices
JP2020137000A (ja) 映像記録装置およびヘッドマウントディスプレイ
JP2015089586A (ja) 作業順守支援装置
CN112008692A (zh) 示教方法
CN206134094U (zh) 一种双机协同教学实训工作站
CN202667084U (zh) 自动点胶系统
US11260538B2 (en) Robot training system including a motion bar
TW201819126A (zh) 非接觸式的手勢教導機器人
JP2009178820A (ja) 遠隔操作ロボット装置
CN108214482B (zh) 非接触式的手势教导机器人
Sibona et al. PoinTap system: a human-robot interface to enable remotely controlled tasks
Tang The development of a human-robot interface for industrial collaborative system
US20240123607A1 (en) Robot system comprising robot equipped with display unit
Abbate et al. Selecting Objects on Conveyor Belts Using Pointing Gestures Sensed by a Wrist-worn Inertial Measurement Unit
CA3241032A1 (en) System for teaching a robotic arm
JP2014204150A (ja) リモコン

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6344084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250