JP6583537B2 - 動作情報生成装置 - Google Patents
動作情報生成装置 Download PDFInfo
- Publication number
- JP6583537B2 JP6583537B2 JP2018505894A JP2018505894A JP6583537B2 JP 6583537 B2 JP6583537 B2 JP 6583537B2 JP 2018505894 A JP2018505894 A JP 2018505894A JP 2018505894 A JP2018505894 A JP 2018505894A JP 6583537 B2 JP6583537 B2 JP 6583537B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- motion
- partial
- data
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
- G05B19/41865—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/423—Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0633—Workflow analysis
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/31—From computer integrated manufacturing till monitoring
- G05B2219/31449—Monitor workflow, to optimize business, industrial processes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36184—Record actions of human expert, teach by showing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39137—Manual teaching, set next point when tool touches other tool, workpiece
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Description
図1と図2を参照して、本発明の実施形態に係る動作情報生成装置の全体構成について説明する。図1は、動作情報生成装置のハードウェア構成を示す外観図であり、図2は、動作情報生成装置の機能構成を示すブロック図である。本実施形態の動作情報生成装置100は、人110または物111に装着したセンサ101から取得されるセンサデータにより、作業を行う人110の動作を分析し、より良い動作を客観的に評価できるようにする。
動作情報生成装置100は、主なハードウェアとして、1つ以上のセンサ101と情報処理装置102を有して構成される。
図2に示すように、動作情報生成装置100は、センサ情報入力部201、対象情報入力部202、隣接作業情報入力部203、作業データ記録部204、動作選択部205、動作分類部206、動作合成部207、動作評価部208、動作改善部209、データ変換部210、結果出力部211を有する。
本実施形態では「作業」を「設定された目的(課題)を遂行するために人が身体の一部または全部を使って行う行為」と定義する。したがって、作業の実施過程では必ず人の動作が発生する。また、目的を遂行するための手続きや手順は任意とすることで、作業データの記録時には、作業を実施する人によって、あるいは、作業の習熟度合によって、作業の実施過程で行われる動作にある程度の違いが生じるようにしてもよい。
次に、動作情報生成装置100による最適動作の生成方法の概要を説明する。図4に動作情報生成処理のフローチャートを示す。
ある一つの作業を作業者に複数回実施させて、作業データ記録部204によって、それぞれの作業データを記録する(ステップS400)。作業の開始と終了(データ記録の開始と終了)は、人がボタン押下などで指示してもよいし、センサ101の信号に基づき自動で判定してもよい。作業の実施は、一人の作業者が複数回行ってもよいし、複数の作業者が一回ずつまたは複数回ずつ行ってもよい。人による手順の違いや習熟によるノウハウ・技能を生かすため、望ましくは、複数の作業者それぞれに複数回ずつ実施させるとよい。これにより、同じ作業について複数の作業データが取得される。以下、個々の作業データを「作業サンプル」または単に「サンプル」とも呼ぶ。
作業データ記録部204によって複数の(例えば、数十から数百の)作業サンプルが収集されたら、動作選択部205が、複数の作業サンプルのうちから作業効率の良いサンプルを選び出す(ステップS401)。このステップは、最適動作(手本)の候補を大まかに絞り込む処理である。例えば、動作選択部205は、所定の評価基準を用いて各サンプルの作業効率を評価し、作業効率の良いものから順に所定数または所定割合のサンプルを選択するとよい(あるいは、作業効率の悪いサンプルを除外してもよい)。
動作分類部206は、動作選択部205によって選択された作業サンプルを解析することにより、作業の開始から終了までの全体動作を複数の部分動作に分割・分類する(ステップS402)。
動作合成部207が、複数の良サンプルから部分動作ごとに最良の部分動作を選択し、選択した最良の部分動作を合成することによって作業全体の最適動作のデータを生成する(ステップS403)。具体的な方法としては、いずれかの良サンプルをベースとし、そのうちの一部の部分動作を他のサンプルのより良い部分動作に置き換えていく方法と、部分動作ごとに最良のサンプルを特定し、特定されたサンプルの部分動作を順番に合成する方法とがあり、どちらの方法を用いてもよい。本実施形態では前者の方法を用いる。
データ変換部210は、上記手順で得られた最適動作のデータを、出力先の要求仕様(利用方法)に合わせた形式に変換する(ステップS406)。合成された最適動作のデータは、例えば、人や作業対象の動きを表すベクトル列で与えられる。具体的には、単位時間ごとの位置および向きを表す動きベクトルの時系列データなどの形式で最適動作が表現される。最適動作のデータを利用する装置やアプリケーションが要求する仕様が、同じであれば、データ変換は省略できる。
結果出力部211は、合成した最適動作を出力する。出力の方法、出力先、データの利用法は様々考えられる。
次に、工場での組み立て作業を例にとり、動作情報生成装置100のより詳しい実施例を説明する。この実施例では、複数の作業者が実際に組み立て作業を行って得られる知見を、他の作業者や機械に伝承できるようにする。作業者に人型ロボットのような機械を含むようにしてもよい。
評価は作業全体を部分に分けて行うことができる。段階的に評価を進めることで、全体として複雑な作業であっても、各部分は比較的シンプルな動作となる。例えば30個の部品を組み立てる作業になると、中間状態の組み合わせが膨大になるので、容易には類推できない。しかし、3個の部品を取り付ける例であれば、効率の良い作業手順が容易に類推できる。
(1)作業データの記録
図6に作業データ記録部204の処理フローを示す。まず、作業データ記録部204は、組み立て作業に対し複数の中間状態を設定し、中間状態のリストを作成する(ステップS600)。作業データ記録部204は、図7に示すように中間状態のリスト700を表示装置に表示し、作業者に2つの中間状態を選択させる(ステップS601)。図7は、中間状態1(作業の開始点)として「ベース部品の設置」が、中間状態2(作業の終了点)として「棒状部品を組み付け」が、それぞれ選択された例である。作業データ記録部204は、選択された中間状態1から中間状態2までの作業の実施を作業者に指示する(ステップS602)。図7の例では、作業の開始を促すメッセージ701とともに開始ボタン702と終了ボタン703が表示されている。作業者が開始ボタン702を押すと動作情報生成装置100がセンサ101から各種センサデータの取り込みを開始する。作業データ記録部204は、センサ101から取り込まれたデータに基づき、中間状態1から中間状態2までの動作を記録した作業データを生成し、記憶装置に格納する(ステップS603)。作業者が終了ボタン703を押すまで、作業データの記録が行われる。
図8に動作選択部205の処理フローを示す。動作選択部205は、作業データ記録部204によって記録された50個の作業サンプルを、所定の評価基準を用いて、評価の良いものから順にソートする(ステップS800)。本実施例では作業時間が短い順にソートする。ただし、評価基準としては、作業の安全性や作業者あるいは部品に与える影響を評価する評価尺度を用いてもよい。次に、動作選択部205は、50個の作業サンプルのなかから評価の良い上位20%のサンプルを選択し(ステップS801)、選択したサンプルをリストにする(ステップS802)。本実施例では、作業時間が短い順に10個のサンプルの作業データが記述されたリストが得られる。以下、選択された評価の良いサンプルを「良サンプル」、良サンプルのうち最も評価の良いものを「最良サンプル」と呼ぶ。
図9Aに、動作分類部206の内部構成の一例として、動きの変化に基づき動作を分類する場合の構成例を示す。この動作分類部206は、動きベクトル抽出部901、変化点検出部902、類似点検出部903、分類生成部904、分類結果出力部905を有する。
図11に、動作合成部207の内部構成の一例を示す。動作合成部207は、最良部分動作判定部1101、最良全体動作判定部1102、部分動作更新部1103、部分動作整合部1104、合成動作リスト出力部1105を有する。
データ変換部210は、上記手順で得られた合成動作リストを、出力先の要求仕様(利用方法)に合わせた形式に変換する。
結果出力部211は、合成動作リストで規定される最適動作を出力する。出力の方法、出力先、データの利用法は様々考えられる。
(付記1)
動作情報生成装置であって、
ハードウェアプロセッサと、プログラムを記憶するメモリとを有し、
前記ハードウェアプロセッサは、前記プログラムにより、
作業の開始から終了までの人の動作に関わる情報を作業データとして記録し、
作業の開始から終了までの全体動作を複数の部分動作に分け、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成する
ことを特徴とする動作情報生成装置。
(付記2)
動作情報生成方法であって、
少なくとも1つのハードウェアプロセッサによって、作業の開始から終了までの人の動作に関わる情報を作業データとして記録するステップと、
少なくとも1つのハードウェアプロセッサによって、作業の開始から終了までの全体動作を複数の部分動作に分けるステップと、
少なくとも1つのハードウェアプロセッサによって、同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成するステップと、
を含むことを特徴とする動作情報生成方法。
201:センサ情報入力部、202:対象情報入力部、203:隣接作業情報入力部、204:作業データ記録部、205:動作選択部、206:動作分類部、207:動作合成部、208:動作評価部、209:動作改善部、210:データ変換部、211:結果出力部
501:ベース部品、501a,501b,501c:穴、501d,501e:フレーム、502a,502b,502c:部品、503a,503b,503c:部品箱、504a,504b,504c:位置
700:中間状態のリスト、701:メッセージ、702:開始ボタン、703:終了ボタン
901:ベクトル抽出部、902:変化点検出部、903:類似点検出部、904:分類生成部、905:分類結果出力部、910:作業データ入力部、911:深層ニューラルネットワーク、912:分類結果出力部
1101:最良部分動作判定部、1102:最良全体動作判定部、1103:部分動作更新部、1104:部分動作整合部、1105:合成動作リスト出力部
Claims (23)
- 作業の開始から終了までの人の動作に関わる情報を作業データとして記録する作業データ記録部と、
作業の開始から終了までの全体動作を複数の部分動作に分ける動作分類部と、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成する動作合成部と、
同じ作業を複数回行い記録された作業データの複数のサンプルのうちから、作業効率の良い2つ以上の良サンプルを選択する動作選択部と、
を有し、
前記動作合成部は、選択された前記2つ以上の良サンプルを用いて前記最適動作のデータを生成する
ことを特徴とする動作情報生成装置。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録する作業データ記録部と、
作業の開始から終了までの全体動作を複数の部分動作に分ける動作分類部と、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成する動作合成部と、
を有し、
前記動作合成部は、異なるサンプルの第1の部分動作と第2の部分動作を接続する場合に、前記第1の部分動作の最後の動きと前記第2の部分動作の最初の動きを整合させる部分動作整合部を有する
ことを特徴とする動作情報生成装置。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録する作業データ記録部と、
作業の開始から終了までの全体動作を複数の部分動作に分ける動作分類部と、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分
動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成する動作合成部と、
作業者の動きを検出する1つ以上のセンサと、
を有し、
前記作業データ記録部は、前記センサから得られるセンサデータを記録する
ことを特徴とする動作情報生成装置。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録する作業データ記録部と、
作業の開始から終了までの全体動作を複数の部分動作に分ける動作分類部と、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成する動作合成部と、
を有し、
前記動作分類部は、前記作業データに基づき作業者の身体の動きの変化点を検出し、前記動きの変化点を基に前記全体動作を前記複数の部分動作に分ける
ことを特徴とする動作情報生成装置。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録する作業データ記録部と、
作業の開始から終了までの全体動作を複数の部分動作に分ける動作分類部と、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成する動作合成部と、
を有し、
前記動作分類部は、分類機能を学習した深層ニューラルネットワークを含む
ことを特徴とする動作情報生成装置。 - 同じ作業を複数回行い記録された作業データの複数のサンプルのうちから、作業効率の良い2つ以上の良サンプルを選択する動作選択部をさらに有し、
前記動作合成部は、選択された前記2つ以上の良サンプルを用いて前記最適動作のデータを生成する
ことを特徴とする請求項2〜5のうちいずれか1項に記載の動作情報生成装置。 - 前記動作選択部は、作業全体の作業時間に応じて所定数または所定割合のサンプルを前記良サンプルとして選択する
ことを特徴とする請求項1または6に記載の動作情報生成装置。 - 前記動作選択部は、作業全体の作業時間が最も短いものから順に所定数または所定割合のサンプルを前記良サンプルとして選択する
ことを特徴とする請求項7に記載の動作情報生成装置。 - 前記動作合成部は、所定の評価基準を用いて各サンプルの部分動作を評価することにより、前記最良の部分動作を選択する
ことを特徴とする請求項1〜8のうちいずれか1項に記載の動作情報生成装置。 - 前記所定の評価基準は、部分動作の作業時間、作業品質、作業者の安全性、作業者の疲労度、動作の再現容易性のうちの少なくとも1つを含む
ことを特徴とする請求項9に記載の動作情報生成装置。 - 前記動作合成部は、異なるサンプルの第1の部分動作と第2の部分動作を接続する場合に、前記第1の部分動作の最後の動きと前記第2の部分動作の最初の動きを整合させる部分動作整合部を有する
ことを特徴とする請求項1、3、4、5のうちいずれか1項に記載の動作情報生成装置。 - 前記部分動作整合部は、前記第1の部分動作の最後と前記第2の部分動作の最初の間で、作業者もしくは作業対象の位置が少なくとも一致するように整合を行う
ことを特徴とする請求項2または11に記載の動作情報生成装置。 - 前記部分動作整合部は、前記第1の部分動作から前記第2の部分動作にかけて動きベクトルが連続的に変化するように、前記第1の部分動作と前記第2の部分動作の動きベクトルを調整する
ことを特徴とする請求項2または11に記載の動作情報生成装置。 - 作業者の動きを検出する1つ以上のセンサを有し、
前記作業データ記録部は、前記センサから得られるセンサデータを記録する
ことを特徴とする請求項1、2、4、5のうちいずれか1項に記載の動作情報生成装置。 - 前記センサは、作業者の身体に装着された動きセンサを含む
ことを特徴とする請求項3または14に記載の動作情報生成装置。 - 前記動作分類部は、前記作業データに基づき作業者の身体の動きの変化点を検出し、前記動きの変化点を基に前記全体動作を前記複数の部分動作に分ける
ことを特徴とする請求項1、2、3、5のうちいずれか1項に記載の動作情報生成装置。 - 前記動作分類部は、分類機能を学習した深層ニューラルネットワークを含む
ことを特徴とする請求項1〜4のうちいずれか1項に記載の動作情報生成装置。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録するステップと、
作業の開始から終了までの全体動作を複数の部分動作に分けるステップと、
同じ作業を複数回行い記録された作業データの複数のサンプルのうちから、作業効率の良い2つ以上の良サンプルを選択するステップと、
選択された前記2つ以上の良サンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成するステップと、
を有することを特徴とする動作情報生成方法。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録するステップと、
作業の開始から終了までの全体動作を複数の部分動作に分けるステップと、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成する動作合成ステップと、
を有し、
前記動作合成ステップは、異なるサンプルの第1の部分動作と第2の部分動作を接続する場合に、前記第1の部分動作の最後の動きと前記第2の部分動作の最初の動きを整合させるステップを含む
ことを特徴とする動作情報生成方法。 - 作業者の動きを検出する1つ以上のセンサを用いて、前記作業者による作業の開始から終了までに前記センサから得られるデータを作業データとして記録するステップと、
作業の開始から終了までの全体動作を複数の部分動作に分けるステップと、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成するステップと、
を有することを特徴とする動作情報生成方法。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録するステップと、
作業の開始から終了までの全体動作を複数の部分動作に分ける動作分類ステップと、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成するステップと、
を有し、
前記動作分類ステップは、
前記作業データに基づき作業者の身体の動きの変化点を検出するステップと、
前記動きの変化点を基に前記全体動作を前記複数の部分動作に分けるステップと、を含む
ことを特徴とする動作情報生成方法。 - 作業の開始から終了までの人の動作に関わる情報を作業データとして記録するステップと、
分類機能を学習した深層ニューラルネットワークにより、作業の開始から終了までの全体動作を複数の部分動作に分けるステップと、
同じ作業に対する作業データの複数のサンプルのうちから、部分動作ごとに最良の部分動作を選択し、選択した前記最良の部分動作を合成することによって作業全体の最適動作のデータを生成するステップと、
を有することを特徴とする動作情報生成方法。 - 請求項18〜22のうちいずれか1項に記載の動作情報生成方法の各ステップをコンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049623 | 2016-03-14 | ||
JP2016049623 | 2016-03-14 | ||
PCT/JP2017/009718 WO2017159562A1 (ja) | 2016-03-14 | 2017-03-10 | 動作情報生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017159562A1 JPWO2017159562A1 (ja) | 2019-01-17 |
JP6583537B2 true JP6583537B2 (ja) | 2019-10-02 |
Family
ID=59850320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018505894A Active JP6583537B2 (ja) | 2016-03-14 | 2017-03-10 | 動作情報生成装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180354127A1 (ja) |
EP (1) | EP3431229A4 (ja) |
JP (1) | JP6583537B2 (ja) |
CN (1) | CN108602191B (ja) |
WO (1) | WO2017159562A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6926224B2 (ja) * | 2017-11-08 | 2021-08-25 | 株式会社東芝 | 技能基盤システム、技能モデル化装置および技能流通方法 |
JP7128267B2 (ja) * | 2018-04-26 | 2022-08-30 | 三菱電機株式会社 | 作業支援装置 |
JP7192251B2 (ja) * | 2018-05-29 | 2022-12-20 | 富士通株式会社 | 情報処理装置、ロボット動作プログラム生成補助方法及びロボット動作プログラム生成補助プログラム |
US11292133B2 (en) * | 2018-09-28 | 2022-04-05 | Intel Corporation | Methods and apparatus to train interdependent autonomous machines |
CN109816049B (zh) * | 2019-02-22 | 2020-09-18 | 青岛理工大学 | 一种基于深度学习的装配监测方法、设备及可读存储介质 |
JP6993374B2 (ja) | 2019-03-25 | 2022-01-13 | ファナック株式会社 | ロボット制御システム |
JP2020175467A (ja) * | 2019-04-17 | 2020-10-29 | アズビル株式会社 | 教示装置及び教示方法 |
JP2020175466A (ja) * | 2019-04-17 | 2020-10-29 | アズビル株式会社 | 教示装置及び教示方法 |
JP7362037B2 (ja) * | 2019-11-05 | 2023-10-17 | オムロン株式会社 | 要素作業分割装置、要素作業分割方法、要素作業分割プログラム及び要素作業分割システム |
CN111531537B (zh) * | 2020-05-07 | 2022-11-01 | 金陵科技学院 | 基于多传感器的机械臂控制方法 |
WO2022091571A1 (ja) * | 2020-11-02 | 2022-05-05 | 三菱電機株式会社 | 作業手順更新装置、作業手順更新方法及びプログラム |
EP4254100A1 (de) * | 2022-03-31 | 2023-10-04 | Siemens Aktiengesellschaft | Verfahren zur überwachung eines produktionsprozesses, computerprogramm und datenträger |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63288683A (ja) * | 1987-05-21 | 1988-11-25 | 株式会社東芝 | 組立てロボット |
JP2000066706A (ja) * | 1998-08-21 | 2000-03-03 | Matsushita Electric Ind Co Ltd | ロボット制御装置とその制御方法 |
JP2002361581A (ja) * | 2001-06-08 | 2002-12-18 | Ricoh Co Ltd | 作業自動化装置、作業自動化方法およびその方法を記憶した記憶媒体 |
FR2853983A1 (fr) * | 2003-04-17 | 2004-10-22 | Philippe Bellanger | Procede et dispositif d'interaction pour l'assistance au geste "metier-matiere" |
JP2005215314A (ja) | 2004-01-29 | 2005-08-11 | Mitsubishi Heavy Ind Ltd | シミュレーション装置、ノウハウ情報記録装置、保守作業ノウハウの抽出方法、原子力プラントにおける保守作業のシミュレート方法 |
ITMI20040166A1 (it) * | 2004-02-03 | 2004-05-03 | Fintrade S R L | Sistema foto-ottico elettronico per rilevare digitalizzare e riprodurre la superficie esterna di un oggetto in tre dimensioni virtualmente e-o in materiale plastico composito o cartotecnico |
JP2006289531A (ja) * | 2005-04-07 | 2006-10-26 | Seiko Epson Corp | ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム |
JP4517048B2 (ja) | 2006-04-07 | 2010-08-04 | 独立行政法人産業技術総合研究所 | 注湯トレーナーシステム |
JP2007324910A (ja) * | 2006-05-31 | 2007-12-13 | Ricoh Co Ltd | 撮影システム、撮影方法及び記録媒体 |
JP2009015529A (ja) * | 2007-07-03 | 2009-01-22 | Toshiba Corp | 作業分析装置および方法 |
US9734464B2 (en) * | 2007-09-11 | 2017-08-15 | International Business Machines Corporation | Automatically generating labor standards from video data |
KR100995933B1 (ko) * | 2008-09-01 | 2010-11-22 | 한국과학기술연구원 | 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법 |
JP5525202B2 (ja) * | 2009-07-30 | 2014-06-18 | 株式会社構造計画研究所 | 動作分析装置、動作分析方法及び動作分析プログラム |
US8345984B2 (en) * | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
JP2011200997A (ja) * | 2010-03-26 | 2011-10-13 | Kanto Auto Works Ltd | ロボットのティーチング装置及びティーチング方法 |
CN103003033A (zh) * | 2010-04-23 | 2013-03-27 | 三星重工业株式会社 | 机器人系统的控制方法和装置 |
KR102080812B1 (ko) * | 2011-09-02 | 2020-02-24 | 브룩스 오토메이션 인코퍼레이티드 | 로봇 이송 장비들을 위한 시간 최적화 궤적들 |
JP5998338B2 (ja) | 2012-02-17 | 2016-09-28 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 映像表示システム |
JP6558584B2 (ja) * | 2013-04-12 | 2019-08-14 | ダナ リミテッド | パターン認識による車両及びオペレータガイダンス |
JP6016760B2 (ja) * | 2013-12-09 | 2016-10-26 | 三菱電機株式会社 | 作業確認システム |
EP3107429B1 (en) * | 2014-02-20 | 2023-11-15 | MBL Limited | Methods and systems for food preparation in a robotic cooking kitchen |
US10083233B2 (en) * | 2014-09-09 | 2018-09-25 | Microsoft Technology Licensing, Llc | Video processing for motor task analysis |
US10110858B2 (en) * | 2015-02-06 | 2018-10-23 | Conduent Business Services, Llc | Computer-vision based process recognition of activity workflow of human performer |
-
2017
- 2017-03-10 JP JP2018505894A patent/JP6583537B2/ja active Active
- 2017-03-10 WO PCT/JP2017/009718 patent/WO2017159562A1/ja active Application Filing
- 2017-03-10 EP EP17766562.7A patent/EP3431229A4/en not_active Withdrawn
- 2017-03-10 CN CN201780010891.0A patent/CN108602191B/zh active Active
-
2018
- 2018-08-21 US US16/106,426 patent/US20180354127A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP3431229A1 (en) | 2019-01-23 |
JPWO2017159562A1 (ja) | 2019-01-17 |
US20180354127A1 (en) | 2018-12-13 |
CN108602191B (zh) | 2021-11-30 |
EP3431229A4 (en) | 2019-06-26 |
CN108602191A (zh) | 2018-09-28 |
WO2017159562A1 (ja) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6583537B2 (ja) | 動作情報生成装置 | |
Bhattacharya et al. | Step: Spatial temporal graph convolutional networks for emotion perception from gaits | |
JP6897037B2 (ja) | 作業性評価装置 | |
Abreu et al. | Evaluating sign language recognition using the myo armband | |
Ward et al. | Activity recognition of assembly tasks using body-worn microphones and accelerometers | |
JP7146247B2 (ja) | 動作認識方法及び装置 | |
JP6386786B2 (ja) | 複合システムの構成要素上で実行されるタスクをサポートするユーザの追跡 | |
Müller et al. | Emotion recognition from embedded bodily expressions and speech during dyadic interactions | |
Samadani et al. | Discriminative functional analysis of human movements | |
Lewis et al. | Are discrete emotions useful in human-robot interaction? Feedback from motion capture analysis | |
Hernandez et al. | Machine learning techniques for motion analysis of fatigue from manual material handling operations using 3D motion capture data | |
Calvo et al. | Human activity recognition using multi-modal data fusion | |
Revanth et al. | Comprehensive SVM based Indian sign language recognition | |
CN114967937B (zh) | 一种虚拟人运动生成方法与系统 | |
Kaushik et al. | Quantifying coordination in human dyads via a measure of verticality | |
JP2020027324A (ja) | 分析システム、分析方法、プログラム、及び記憶媒体 | |
Vanc et al. | Context-aware robot control using gesture episodes | |
JP5061808B2 (ja) | 感情判定方法 | |
Gu et al. | Fine manipulative action recognition through sensor fusion | |
Kulić et al. | Incremental learning of full body motion primitives | |
WO2021039641A1 (ja) | 運動言語化装置、運動言語化方法、プログラム及び運動記録装置 | |
Akhshik et al. | Pressure Sensor Positioning for Accurate Human Interaction with a Robotic Hand | |
Cutugno et al. | Interacting with robots via speech and gestures, an integrated architecture. | |
JP2006209445A (ja) | アニメーション生成装置およびその方法 | |
Menon et al. | Towards a data-driven approach to human preferences in motion planning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6583537 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |