JP7467041B2 - 情報処理装置、情報処理方法及びシステム - Google Patents
情報処理装置、情報処理方法及びシステム Download PDFInfo
- Publication number
- JP7467041B2 JP7467041B2 JP2019131057A JP2019131057A JP7467041B2 JP 7467041 B2 JP7467041 B2 JP 7467041B2 JP 2019131057 A JP2019131057 A JP 2019131057A JP 2019131057 A JP2019131057 A JP 2019131057A JP 7467041 B2 JP7467041 B2 JP 7467041B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- target
- target object
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 86
- 238000003672 processing method Methods 0.000 title claims 2
- 230000032258 transport Effects 0.000 claims description 32
- 230000009471 action Effects 0.000 claims description 16
- 238000000034 method Methods 0.000 description 79
- 230000000007 visual effect Effects 0.000 description 72
- 238000003384 imaging method Methods 0.000 description 68
- 230000008569 process Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 24
- 238000004088 simulation Methods 0.000 description 24
- 238000012790 confirmation Methods 0.000 description 14
- 238000006073 displacement reaction Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000005484 gravity Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 230000002349 favourable effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39106—Conveyor, pick up article, object from conveyor, bring to test unit, place it
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40532—Ann for vision processing
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Description
従来の工場では、部品を並び替える作業や入れ替える作業は人手で行っていた。しかしながら、近年では、部品の梱包や入れ替えをロボットが代わりに行う技術がある。この技術によって、工場の現場における生産性向上や労働者の負担軽減が期待される。一方で、部品の向きを認識し、正しい位置または姿勢で配置する作業をロボットに教える必要がある。プログラミングや遠隔操作といった方法は、専門的な知識が必要な為、工場現場でのロボットの設定は困難であった。また、ユーザーが例えばある物体を移動させるタスクを例示しても、ロボットが残りの物体をユーザーが例示したように移動させることは困難であった。そこで、本実施形態では、ユーザーが示した見本となる動作をロボットの視点から撮像した画像または動画を使って、ロボットが物体を供給領域から目標領域に運搬し、目標領域に含まれる配置領域の候補に配置する制御値を生成する情報処理装置を説明する。ここで説明するタスクは、ばら積みされた物体群をトレイ等の目標領域に整列させて運搬及び配置する作業である。また、物体を運搬及び配置する動作と移動は同義であるものとして説明する。ユーザーはこのタスクを1度実際に実行するだけでよいため、ユーザーは専門的な知識がなくてもロボットのセットアップを行える。その結果、ロボットに物体を移動させる作業を効率的に教示できる。
次に、本発明の第2の実施形態について説明する。
次に、本発明の第3の実施形態について説明する。第3の実施形態では、上述した第1の実施形態に対して、さらに、ロボット10が対象物体41を移動した後に、対象物体41が所望の目標領域に配置されたか否かをユーザーによって事後確認できるよう構成したものである。ユーザーが教示したタスクをロボットが実行できないケースについて、原因は複数考えられる。ひとつは、ユーザーの教示が好ましくなかった場合である。具体的には、ユーザーが対象物体を配置した位置がずれている、間違っていた場合である。この場合、ユーザーが動作を教示する際に対象物体を正確な位置に再配置することで改善する。また、推定部203における推定処理が上手くいかない場合も考えられる。例えば、対象物体のテンプレートを作る際に、光の反射が影響し、物体の領域データがうまく得られないケースである。この場合は、複数回教示動作を試行することによって改善する可能性がある。このような原因を克服するために、本実施形態ではロボットが実際に行った動作を改善するようにタスクの教示をユーザーが行う。こうすることで、ロボット10が誤った動作を行ってもその場で容易に修正できるため、作業の効率化が図れる。
第1から第3の実施形態において、ユーザーが対象物体41を移動させるとき、必ずしも初期状態から目標状態へ移動させなくてもいい。目標状態から初期状態へ移動させてもいい。例えば、ピックアンドプレースを行う場合、必ずしもピックする供給位置からプレースする配置領域へ移動させなくても良い。配置領域にある対象物体41を供給位置へ移動させてもいい。ただし、その場合は移動前に目標領域に含まれる配置領域に物体が配置されてある状態になっていること、移動後が初期状態であることを情報処理装置20に入力する。また、必ずしも初期状態から移動させなくても良い。初期状態が別の方法で分かるのであれば、途中の状態から移動させても良い。初期状態が別の方法で分かる例としては、対象物体41の供給状態が常に一定で、情報処理システム20もそのことを認識した上で処理を行う場合である。
2 撮像装置
3 把持装置
4 コントローラ
5 指示装置
6 光源
10 ロボット
20 情報処理装置
41 対象物体
42 目標領域
100 情報処理システム
Claims (17)
- 物体を供給領域から目標領域へ運搬するロボットを制御する情報処理装置であって、
前記供給領域にある第1の物体が前記目標領域に運搬される前の前記目標領域の状態を撮影した第1の画像と、前記供給領域にある前記第1の物体が前記目標領域に運搬された前記目標領域の状態を撮影した第2の画像とを取得する取得手段と、
前記第1の画像を撮影した後、ユーザーに前記第1の物体を前記供給領域から前記目標領域に運搬させる動作を行うよう指示する指示手段と、
前記目標領域内において、ユーザーによって前記第1の物体が配置された第1の領域に前記第1の物体が配置される前の前記第1の領域の画像特徴を前記第1の画像と前記第2の画像との差に基づいて推定し、前記目標領域内において、前記供給領域にある物体を配置することが可能な前記第1の領域とは位置が異なる第2の領域を前記第1の領域の画像特徴に基づいて推定する推定手段と、
前記第1の物体とは異なる第2の物体を、前記供給領域から前記第2の領域へ前記ロボットに運搬させる制御手段とを有することを特徴とする情報処理装置。 - 前記制御手段は、前記第2の物体を、前記第1の物体が置かれていない前記第2の領域まで運搬させることを特徴とする請求項1に記載の情報処理装置。
- 前記制御手段は、前記供給領域に前記第2の物体が残っていない場合は前記ロボットを停止させることを特徴とする請求項1または2に記載の情報処理装置。
- 前記制御手段は、前記目標領域に物体を配置することが可能な前記第2の領域が残っていない場合は前記ロボットを停止させることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記目標領域は、前記第1の領域と同様の形状の部分領域が規則的に配置された領域であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記制御手段は、前記第2の物体を前記第1の物体の向きと揃えて配置するように運搬させることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記制御手段は、前記第2の物体の表裏の向きを揃えて配置するように制御することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記推定手段は、前記第1の画像と前記第2の画像との差分に基づいて前記第1の物体が配置された前記第1の領域を推定することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記指示手段は、前記供給領域に前記第2の物体が残っていない場合に、ユーザーに前記動作が終了したことを指示することを特徴とする請求項1に記載の情報処理装置。
- 前記指示手段は、前記目標領域に物体を配置することが可能な前記第2の領域が残っていない場合はユーザーに前記動作が終了したことを指示することを特徴とする請求項1に記載の情報処理装置。
- 前記取得手段は、前記第2の物体が雑然と配置された前記供給領域を撮影した第3の画像をさらに取得し、
前記推定手段は、前記第3の画像と、前記第1の領域の画像特徴とをテンプレートマッチングすることで前記供給領域における前記第2の物体の把持位置の候補を推定することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。 - 前記推定手段によって推定された前記第2の領域を所定の方法で提示する提示手段と、
前記第2の領域に前記第2の物体を運搬させることが適切か否かの判定をユーザーから受け付ける受け付け手段と、をさらに有し、
前記取得手段は、前記受け付け手段で適切でないと判定を受け付けた場合、前記第1の物体を前記目標領域における第4の領域に前記ユーザーによって置き直された状態で撮影した第4の画像を取得し、
前記推定手段は、前記第1の画像と前記第4の画像との差に基づいて、前記第4の領域を前記第2の領域として推定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 - 前記提示手段は、表示装置に前記第1の画像における前記第2の領域に対応する領域を強調して表示させることを特徴とする請求項12に記載の情報処理装置。
- 前記提示手段は、投影装置によって前記第2の領域に所定の画像を投影させることを特徴とする請求項12に記載の情報処理装置。
- コンピュータを、請求項1乃至14のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
- 物体を供給領域から目標領域へ運搬するロボットの制御値を生成する情報処理方法であって、
前記供給領域にある第1の物体が前記目標領域に運搬される前の前記目標領域の状態を撮影した第1の画像と、前記供給領域にある前記第1の物体が前記目標領域に運搬された前記目標領域の状態を撮影した第2の画像とを取得する取得工程と、
前記第1の画像を撮影した後、ユーザーに前記第1の物体を前記供給領域から前記目標領域に運搬させる動作を行うよう指示する指示工程と、
前記第1の画像と前記第2の画像との差から推定された、ユーザーによって前記第1の物体が配置された第1の領域に前記第1の物体が配置される前の前記第1の領域の画像特徴に基づいて、前記目標領域内において、前記供給領域にある物体を配置することが可能な前記第1の領域とは位置が異なる少なくとも1つの第2の領域を推定する推定工程と、
前記第1の物体とは異なる第2の物体を、前記供給領域から前記第2の領域へ前記ロボットが運搬する前記制御値を生成する生成工程とを有することを特徴とする情報処理方法。 - 物体を供給領域から目標領域に運搬するロボットの制御値を生成する情報処理システムであって、
前記供給領域にある第1の物体が前記目標領域に運搬される前の前記目標領域の状態を撮影した第1の画像と、前記供給領域にある前記第1の物体が前記目標領域に運搬された前記目標領域の状態を撮影した第2の画像とを撮影する撮影装置と、
前記第1の画像を撮影した後、ユーザーに前記第1の物体を前記供給領域から前記目標領域に運搬させる動作を行うよう指示する指示手段と、
前記撮影装置から前記第1の画像と前記第2の画像とを取得する取得手段と、
前記第1の画像と前記第2の画像との差から推定された、ユーザーによって前記第1の物体が配置された第1の領域に前記第1の物体が配置される前の前記第1の領域の画像特徴に基づいて、前記目標領域内において、前記供給領域にある物体を配置することが可能な前記第1の領域とは位置が異なる第2の領域を推定する推定手段と、
前記第1の物体とは異なる第2の物体を、前記供給領域から前記第2の領域へ前記ロボットが運搬する前記制御値を生成する生成手段とを有する情報処理装置と、
前記制御値に基づいて前記物体を運搬する前記ロボットとを有することを特徴とする情報処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182089 | 2018-09-27 | ||
JP2018182089 | 2018-09-27 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020055096A JP2020055096A (ja) | 2020-04-09 |
JP2020055096A5 JP2020055096A5 (ja) | 2022-07-26 |
JP7467041B2 true JP7467041B2 (ja) | 2024-04-15 |
Family
ID=69781234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019131057A Active JP7467041B2 (ja) | 2018-09-27 | 2019-07-16 | 情報処理装置、情報処理方法及びシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11541545B2 (ja) |
JP (1) | JP7467041B2 (ja) |
CN (1) | CN110958425B (ja) |
DE (1) | DE102019125126B4 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6810087B2 (ja) * | 2018-03-29 | 2021-01-06 | ファナック株式会社 | 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 |
JP6885909B2 (ja) * | 2018-10-12 | 2021-06-16 | ファナック株式会社 | ロボット制御装置 |
US11185978B2 (en) * | 2019-01-08 | 2021-11-30 | Honda Motor Co., Ltd. | Depth perception modeling for grasping objects |
JP2020166371A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
EP4114622A1 (en) * | 2020-03-06 | 2023-01-11 | Embodied Intelligence Inc. | Imaging process for detecting failure modes |
CN111856988A (zh) * | 2020-06-05 | 2020-10-30 | 哈工大机器人(中山)无人装备与人工智能研究院 | 一种采血装置的运动控制方法和装置 |
CN116234447A (zh) * | 2020-07-27 | 2023-06-06 | 克里奥瓦克公司 | 针对基于真空的接合工具的对准 |
KR102350638B1 (ko) * | 2020-08-26 | 2022-01-17 | 주식회사 이엠에스 | 인공지능형 로봇 시스템 |
CN112082480A (zh) * | 2020-09-08 | 2020-12-15 | 浙江清华柔性电子技术研究院 | 芯片的空间取向的测量方法、系统、电子装置和存储介质 |
US11633862B2 (en) | 2020-11-25 | 2023-04-25 | Metal Industries Research & Development Centre | Automatic control method of mechanical arm and automatic control system |
US20220241978A1 (en) * | 2021-02-01 | 2022-08-04 | The Boeing Company | Robotic manufacturing systems and methods |
DE102021104001B3 (de) | 2021-02-19 | 2022-04-28 | Gerhard Schubert Gesellschaft mit beschränkter Haftung | Verfahren zum automatischen Ergreifen, insbesondere Umsetzen, von Gegenständen |
CN114770559B (zh) * | 2022-05-27 | 2022-12-13 | 中迪机器人(盐城)有限公司 | 一种机器人的取物控制系统及方法 |
GB2621371A (en) * | 2022-08-10 | 2024-02-14 | Dyson Technology Ltd | A method and system for exploring a real-world environment |
CN115890679B (zh) * | 2022-12-02 | 2024-02-13 | 西南交通大学 | 基于视觉的轨道车辆转向架枕簧缺口定位与夹持方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002200588A (ja) | 2000-12-28 | 2002-07-16 | Denso Corp | ロボットによる把持可能部品の把持位置検出方法及びその装置 |
JP2010006590A (ja) | 2008-06-30 | 2010-01-14 | Fanuc Ltd | 物品整列システム及びロボットハンド |
JP2010089238A (ja) | 2008-10-10 | 2010-04-22 | Honda Motor Co Ltd | ワーク取り出し方法 |
JP2015123560A (ja) | 2013-12-27 | 2015-07-06 | セイコーエプソン株式会社 | ロボットシステム、ロボット制御装置、及びロボット制御方法 |
JP2016060004A (ja) | 2014-09-18 | 2016-04-25 | 株式会社安川電機 | ロボットシステム、ロボット装置およびワークピッキング方法 |
JP2016091053A (ja) | 2014-10-29 | 2016-05-23 | キヤノン株式会社 | 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム |
JP2018122945A (ja) | 2017-01-30 | 2018-08-09 | 株式会社東芝 | 可変型物品保持装置、移載装置、ロボットハンドリングシステム、および移載装置の制御方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3517529B2 (ja) * | 1996-08-21 | 2004-04-12 | 株式会社東芝 | 画像入力型ロボットシステム |
EP1675709A2 (de) | 2003-10-20 | 2006-07-05 | Isra Vision Systems AG | VERFAHREN ZUR EINRICHTUNG EINER BEWEGUNG EINES HANDHABUNGSGERÄTS UND BILDVERARBEITUNG |
US7266422B1 (en) * | 2004-04-09 | 2007-09-04 | Fanuc Robotics America, Inc. | Automated palletizing cases having mixed sizes and shapes |
DE102006003859B3 (de) * | 2006-01-27 | 2007-03-01 | Robert Bosch Gmbh | Verfahren zum Ablegen von Stückgütern in Behälter |
DE102009011294B4 (de) * | 2009-03-02 | 2020-12-24 | Kuka Roboter Gmbh | Palletieren von Paketen mittels eines Manipulators |
JP4621789B2 (ja) * | 2009-06-02 | 2011-01-26 | ファナック株式会社 | 物品搬送ロボットシステム |
JP2012030320A (ja) * | 2010-07-30 | 2012-02-16 | Dainippon Screen Mfg Co Ltd | 作業システム、作業ロボット制御装置および作業プログラム |
US9227323B1 (en) | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
JP6715565B2 (ja) | 2014-09-18 | 2020-07-01 | 株式会社安川電機 | ロボットシステムおよびワークピッキング方法 |
JP6576050B2 (ja) | 2015-02-27 | 2019-09-18 | キヤノン株式会社 | 物体移動方法及びシステム |
JP6711591B2 (ja) | 2015-11-06 | 2020-06-17 | キヤノン株式会社 | ロボット制御装置およびロボット制御方法 |
CN105364927B (zh) | 2015-12-15 | 2018-05-22 | 天津立德尔智能装备科技有限公司 | 用于机器人搬运视觉系统中的机器人搬运的快速定位方法 |
US9751693B1 (en) * | 2016-02-01 | 2017-09-05 | Amazon Technologies, Inc. | Automated shipment set item consolidation |
JP2017189856A (ja) * | 2016-04-15 | 2017-10-19 | オムロン株式会社 | アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体 |
TWM531349U (zh) | 2016-05-04 | 2016-11-01 | Factory Automation Technology | 具有視覺量測之加工裝置 |
JP6370842B2 (ja) * | 2016-06-29 | 2018-08-08 | ファナック株式会社 | 仮置き部を備えた物品搬送装置 |
WO2018185861A1 (ja) * | 2017-04-04 | 2018-10-11 | 株式会社Mujin | 制御装置、ピッキングシステム、物流システム、プログラム、及び、制御方法 |
JP2018203480A (ja) * | 2017-06-07 | 2018-12-27 | 株式会社東芝 | 仕分装置および仕分システム |
JP2019059004A (ja) * | 2017-09-28 | 2019-04-18 | セイコーエプソン株式会社 | ロボットシステム |
CN107932517A (zh) | 2017-11-15 | 2018-04-20 | 盐城盈信通科技有限公司 | 一种芯片机自动化作业系统 |
DE112018007727B4 (de) * | 2018-06-14 | 2022-10-06 | Yamaha Hatsudoki Kabushiki Kaisha | Robotersystem |
JP6856590B2 (ja) * | 2018-08-31 | 2021-04-07 | ファナック株式会社 | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム |
-
2019
- 2019-07-16 JP JP2019131057A patent/JP7467041B2/ja active Active
- 2019-09-18 DE DE102019125126.5A patent/DE102019125126B4/de active Active
- 2019-09-20 US US16/578,073 patent/US11541545B2/en active Active
- 2019-09-25 CN CN201910910738.4A patent/CN110958425B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002200588A (ja) | 2000-12-28 | 2002-07-16 | Denso Corp | ロボットによる把持可能部品の把持位置検出方法及びその装置 |
JP2010006590A (ja) | 2008-06-30 | 2010-01-14 | Fanuc Ltd | 物品整列システム及びロボットハンド |
JP2010089238A (ja) | 2008-10-10 | 2010-04-22 | Honda Motor Co Ltd | ワーク取り出し方法 |
JP2015123560A (ja) | 2013-12-27 | 2015-07-06 | セイコーエプソン株式会社 | ロボットシステム、ロボット制御装置、及びロボット制御方法 |
JP2016060004A (ja) | 2014-09-18 | 2016-04-25 | 株式会社安川電機 | ロボットシステム、ロボット装置およびワークピッキング方法 |
JP2016091053A (ja) | 2014-10-29 | 2016-05-23 | キヤノン株式会社 | 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム |
JP2018122945A (ja) | 2017-01-30 | 2018-08-09 | 株式会社東芝 | 可変型物品保持装置、移載装置、ロボットハンドリングシステム、および移載装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
DE102019125126A1 (de) | 2020-04-02 |
US11541545B2 (en) | 2023-01-03 |
DE102019125126B4 (de) | 2020-12-17 |
JP2020055096A (ja) | 2020-04-09 |
CN110958425A (zh) | 2020-04-03 |
CN110958425B (zh) | 2021-07-23 |
US20200101613A1 (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7467041B2 (ja) | 情報処理装置、情報処理方法及びシステム | |
JP6983524B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP5977544B2 (ja) | 情報処理装置、情報処理方法 | |
JP7191569B2 (ja) | 把持装置 | |
JP2021030407A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019188580A (ja) | 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体 | |
JP2012030320A (ja) | 作業システム、作業ロボット制御装置および作業プログラム | |
JP2019188516A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6902369B2 (ja) | 提示装置、提示方法およびプログラム、ならびに作業システム | |
CN114080590A (zh) | 使用先进扫描技术的机器人料箱拾取系统和方法 | |
JP2015182212A (ja) | ロボットシステム、ロボット、制御装置、及び制御方法 | |
JP2021115693A (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
TWI807990B (zh) | 機器人示教系統 | |
CN114670189B (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
US20240051134A1 (en) | Controller, robot system and learning device | |
JP6499272B2 (ja) | ティーチング装置及び制御情報の生成方法 | |
CN111899629B (zh) | 柔性机器人教学系统和方法 | |
JP2020142323A (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
WO2021149429A1 (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
JP6832408B1 (ja) | 生産システム | |
JP2022060003A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
WO2019064752A1 (ja) | ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム | |
US20240066694A1 (en) | Robot control system, robot control method, and robot control program | |
WO2023105637A1 (ja) | 産業機械の動作を検証するための装置、及び方法 | |
WO2019064751A1 (ja) | ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220715 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |