RU2407633C2 - Способ и устройство для определения местоположения и извлечения предметов из транспортирующего устройства - Google Patents

Способ и устройство для определения местоположения и извлечения предметов из транспортирующего устройства Download PDF

Info

Publication number
RU2407633C2
RU2407633C2 RU2008110693/02A RU2008110693A RU2407633C2 RU 2407633 C2 RU2407633 C2 RU 2407633C2 RU 2008110693/02 A RU2008110693/02 A RU 2008110693/02A RU 2008110693 A RU2008110693 A RU 2008110693A RU 2407633 C2 RU2407633 C2 RU 2407633C2
Authority
RU
Russia
Prior art keywords
virtual
dimensional surface
conveying device
scanner
manipulator
Prior art date
Application number
RU2008110693/02A
Other languages
English (en)
Other versions
RU2008110693A (ru
Inventor
Андерс РЕЙЕР (SE)
Андерс РЕЙЕР
Пер ЛАРССОН (SE)
Пер ЛАРССОН
Original Assignee
Бинар Актиеболаг
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=37962770&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=RU2407633(C2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Бинар Актиеболаг filed Critical Бинар Актиеболаг
Publication of RU2008110693A publication Critical patent/RU2008110693A/ru
Application granted granted Critical
Publication of RU2407633C2 publication Critical patent/RU2407633C2/ru

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S294/00Handling: hand and hoist-line implements
    • Y10S294/902Gripping element

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

Изобретение относится к робототехнике. Технический результат - повышение точности функционирования манипулятора. Существо изобретения заключается в том, что выполняют операцию сканирования транспортирующего устройства посредством линейного лазерного сканера (8). Результат сканирования используют для выработки виртуальной поверхности (18), которая отображает отсканированную область. Виртуальную поверхность сравнивают с заданным предметом (15), соответствующим предмету (2), извлекаемому из транспортирующего устройства (1). Таким образом, идентифицируется часть виртуальной поверхности (18), которая соответствует заданному предмету (15). Затем манипулятор (5) робота перемещают к местоположению, соответствующему идентифицированной части виртуальной поверхности, и он извлекает предмет из транспортирующего устройства (1) в этом местоположении. 2 н. и 14 з.п. ф-лы, 9 ил.

Description

Изобретение относится к способу и устройству для определения местоположения и извлечения предметов из транспортирующего устройства, такого как бункер или поддон для грузов, в которых для извлечения предметов используется робот с подвижным манипулятором.
ПРЕДПОСЫЛКИ ИЗОБРЕТЕНИЯ
Во многих отраслях промышленности есть необходимость в извлечении предметов из транспортирующего устройства, такого как бункер или поддон для грузов, для того, чтобы подать их к машине для дальнейшей обработки. Такие операции часто выполняются промышленными роботами. Было предложено, чтобы промышленные роботы, используемые для извлечения предметов из транспортирующего устройства, были оборудованы техническим зрением для того, чтобы помогать роботу при извлечении предметов. Например, в патенте США №4412293 описан робототехнический комплекс, реализующий зрение и захватное устройство с параллельными губками для сбора случайно ориентированных заготовок с цилиндрическими наружными поверхностями, сложенных в бункер. Для зрения робототехнический комплекс использует видеокамеры, которые соединены с компьютером. Система извлечения из бункера описана также в патенте США №6721444.
Цель настоящего изобретения состоит в создании улучшенных способа и устройства для определения местоположения и извлечения предметов из транспортирующего устройства.
ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Изобретение относится к способу определения местоположения и извлечения предметов, расположенных в транспортирующем устройстве. Способ включает этапы проведения сканирования по меньшей мере части транспортирующего устройства с использованием линейного лазерного сканера и использования результата сканирования для выработки виртуальной трехмерной поверхности, которая отображает отсканированную область. Виртуальную трехмерную поверхность сравнивают с заданным виртуальным предметом, соответствующим извлекаемому из транспортирующего устройства предмету. Таким образом идентифицируют часть трехмерной поверхности, которая наиболее точно соответствует заданному виртуальному предмету. Затем манипулятор робота перемещают к местоположению, соответствующему идентифицированной части виртуальной трехмерной поверхности, и он извлекает предмет из транспортирующего устройства в этом местоположении.
В одном варианте выполнения сканер перемещают по траектории над транспортирующим устройством во время операции сканирования. Сканер предпочтительно следует по линейной траектории над транспортирующим устройством. Тем не менее также могут быть предусмотрены варианты выполнения изобретения, где сканер остается на одном месте во время операции сканирования, но при этом его вращают/поворачивают вокруг оси таким образом, чтобы лазер мог охватить определенную областью.
В предпочтительном варианте выполнения сканер является блоком, который выполнен отдельно от манипулятора.
Тем не менее также возможны варианты выполнения, в которых сканер расположен непосредственно на манипуляторе. В таких вариантах выполнения сканер может перемещаться над транспортирующим устройством при перемещении, совершаемым манипулятором.
Этап сравнения виртуальной трехмерной поверхности с заданным виртуальным предметом может включать перемещение и/или поворот виртуального предмета до тех пор, пока он не будет соответствовать части виртуальной трехмерной поверхности. Информацию о перемещении и/или повороте виртуального предмета используют для определения того, как будет извлечен предмет, расположенный в транспортирующем устройстве.
Предмет, извлекаемый из транспортирующего устройства, может быть извлечен посредством захватного устройства манипулятора, которое может содержать пальцы, по меньшей мере один из которых перемещается относительно другого пальца для захвата предмета в транспортирующем устройстве.
В случае, когда две или более части виртуальной трехмерной поверхности соответствуют виртуальному предмету в одинаковой степени, для выбора между ними может использоваться случайный выбор.
Этап сравнения виртуальной трехмерной поверхности с заданным виртуальным предметом может включать поворот последнего до тех пор, пока он не будет соответствовать части виртуальной трехмерной поверхности, и информация об ориентации виртуального предмета может использоваться для выбора между различными частями виртуальной трехмерной поверхности в случае, когда ее две или более части соответствуют виртуальному предмету в одинаковой степени.
В одном варианте выполнения транспортирующее устройство представляет собой бункер. Также возможны другие виды транспортирующего устройства. Например, транспортирующее устройство также может быть конвейером, таким как ленточный конвейер. Также транспортирующее устройство может быть поддоном для грузов.
Изобретение также относится к устройству для определения местоположения и извлечения предметов, расположенных в транспортирующем устройстве. Устройство содержит линейный лазерный сканер, выполненный с возможностью сканирования, по меньшей мере, части транспортирующего устройства, на котором могут быть расположены предметы. Кроме того, устройство содержит робот с манипулятором, предназначенным для захвата предметов, и компьютер, соединенный с линейным лазерным сканером. Кроме того, компьютер содержит программное обеспечение, предназначенное для выработки виртуальной трехмерной поверхности на основе данных, полученных от сканера во время операции сканирования. Компьютер также содержит программное обеспечение для отображения виртуального предмета и для сравнения его с различными частями виртуальной трехмерной поверхности и определения той части или частей виртуальной поверхности, которые наиболее точно соответствуют виртуальному предмету. Компьютер соединен с роботом и содержит программное обеспечение для управления перемещением манипулятора в местоположение в транспортирующем устройстве, соответствующее той части виртуальной трехмерной поверхности, которая наиболее точно соответствует виртуальному предмету, и для извлечения предмета в этом местоположении.
Извлекаемый из транспортирующего устройства предмет предпочтительно определяется не только его местоположением, но также и ориентацией.
Линейный лазерный сканер может быть выполнен отдельно от робота с возможностью перемещения по заданной траектории, определенной направляющей конструкцией, на которой перемещается сканер. Направляющая конструкция может быть балкой, задающей линейную траекторию для линейного лазерного сканера.
В качестве альтернативы линейный лазерный сканер выполнен на манипуляторе.
Манипулятор может быть выполнен с возможностью захвата предметов с помощью захватного устройства с захватными пальцами, по меньшей мере один из которых выполнен с возможностью перемещения.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
На фиг.1 показано предложенное устройство.
На фиг.2 показан вид сбоку устройства, показанного на фиг.1.
На фиг.3 показан вид, соответствующий фиг.2, но с несколько иными
окружающими условиями эксплуатации предложенного устройства.
На фиг.4а-4с проиллюстрирована операция захватывания.
На фиг.5а-5с проиллюстрирована разновидность операции, показанной на фиг.4а-4с.
На фиг.6а-6с проиллюстрирована еще одна операция захватывания.
На фиг.7 схематически показано, как вырабатывается виртуальная
поверхность, которая отображает действительную поверхность.
На фиг.8 показано схематическое отображение того, как виртуальный
предмет сопоставляется с виртуальной поверхностью.
На фиг.9 схематически показан вариант выполнения, являющийся
альтернативным показанному на фиг.1.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Сначала будет описано предложенное устройство со ссылками на фиг.1-3. Предложенное устройство предназначено для определения местоположения и извлечения предметов 2, расположенных в транспортирующем устройстве 1. На фиг.1 транспортирующее устройство 1 представляет собой бункер или ящик, из которых достаются предметы 2. Устройство содержит линейный лазерный сканер 8 для выполнения операции сканирования, выполненный таким образом, чтобы он мог использоваться для сканирования по меньшей мере части транспортирующего устройства 1, на котором могут быть расположены предметы 2. В линейном лазере свет от источника точечного лазера растягивается в линию. Это может достигаться за счет использования соответствующей линзы, сделанной, например, из стекла, органического стекла или кварца. Как лучше всего видно на фиг.1, лазерный сканер 8 содержит лазерный излучатель 16, из которого может выходить луч 10 линейного лазера, и лазерный детектор 17, который может обнаруживать лазерный пучок, выпущенный излучателем 16 и отраженный от поверхности. Лазерный излучатель 16 может быть, например, линейным лазером такого типа, который продается под торговой маркой «Lasiris™» компанией «StockerYale Canada», расположенной адресу: 275, Kesmark, Montreal, Quebec, Canada. Однако использование других лазерных излучателей, разумеется, также возможно. Кроме того, устройство содержит робот 4 с манипулятором 5 для захвата предметов 2. Компьютер 11 соединен с линейным лазерным сканером 8 посредством соединения 12, которое может быть проводным, но также возможно и беспроводное соединение. Как будет более подробно разъяснено при описании способа, компьютер 11 имеет программное обеспечение, предназначенное для выработки виртуальной трехмерной поверхности на основании данных, полученных от сканера 8 во время операции сканирования. Компьютер 11 также имеет программное обеспечение, отображающее виртуальный предмет 15, и программное обеспечение для сравнения виртуального предмета 15 с различными частями виртуальной трехмерной поверхности и определения того, какая часть или части виртуальной поверхности наиболее точно соответствуют виртуальному предмету 15. Следует понимать, что виртуальный предмет 15 соответствует физическим предметам 2, которые извлекаются из транспортирующего устройства 1. Виртуальный предмет 15 может быть основан, например, на измерении или сканировании физического предмета. В качестве альтернативы виртуальный предмет 15 может быть основан на CAD-модели, используемой для изготовления соответствующего физического предмета 2. Кроме того, компьютер 11 соединен с роботом 4 и имеет программное обеспечение для управления перемещением манипулятора 5 к местоположению в транспортирующем устройстве, соответствующему части виртуальной трехмерной поверхности, которая наиболее точно соответствует виртуальному предмету, и извлечения предмета 2 в этом местоположении и при ориентации, которая соответствует ориентации предмета 2, который необходимо извлечь. С целью иллюстрации компьютер 11 показан выполненным отдельно от робота 4. Тем не менее следует понимать, что компьютер 11 также может быть неотъемлемой частью робота 4.
В вариантах выполнения, показанных на фиг.1-3, линейный лазерный сканер 8 выполнен отдельно от робота 4 с возможностью перемещения по заданной траектории, заданной направляющей конструкцией 9, по которой сканер 8 перемещается. В предпочтительном варианте выполнения направляющая конструкция 9 является балкой 9, которая задает линейную траекторию перемещения для линейного лазерного сканера. Однако следует понимать, что линейный лазерный сканер 8 также может быть выполнен на манипуляторе 5. Такой вариант выполнения схематически показан на фиг.9.
В принципе манипулятор 5 может иметь много различных устройств для извлечения предметов 2. Например, он может быть снабжен чашечной присоской или с магнитом для извлечения металлических предметов 2. Тем не менее в предпочтительных вариантах выполнения изобретения манипулятор 5 приспособлен для захвата предметов с использованием захватного устройства 6 с захватными пальцами 7. По меньшей мере один из захватных пальцев 7 является подвижным. На фиг.1 показаны два захватных пальца 7, но следует понимать, что захватное устройство 6 может иметь более двух пальцев 7. Например, оно может иметь три, четыре, пять или даже более захватных пальцев 7. Предпочтительно, по меньшей мере два захватных пальца 7 являются подвижными по отношению друг к другу. Захватное устройство 6 предпочтительно соединено шарнирно с манипулятором 5, так что оно может поворачиваться вокруг различных осей и, тем самым, ориентироваться по отношению к извлекаемому им предмету 2. Использование захватного устройства 6 с подвижным пальцем 7 дает то преимущество, что может быть достигнута более высокая точность, а также высокая надежность захвата. Захватное устройство 6 предпочтительно выполнено с возможностью поворота вокруг осей, которые перпендикулярны друг другу. Предпочтительно, оно может поворачиваться вокруг по меньшей мере трех осей, перпендикулярных друг другу. В преимущественных вариантах выполнения изобретения захватное устройство 6 может поворачиваться вокруг более чем трех осей. Например, оно может быть выполнено с возможностью поворота вокруг шести осей.
Ниже кратко разъяснено функционирование захватных пальцев со ссылками на фиг.4а-4с, 5а-5с, 6а-6с. На фиг.4а захватное устройство 6 расположено над извлекаемым предметом 2. Как показано на фиг.4b, захватные пальцы 7 затем разделяются, то есть перемещаются друг от друга таким образом, чтобы предмет 2 мог быть расположен между ними. Манипулятор 5 с захватным устройством 6 входит в контакт с предметом 2, пальцы 7 перемещаются по направлению друг к другу, и предмет 2 зажимается между пальцами 7, как показано на фиг.4 с. Затем предмет 2 может быть поднят манипулятором 5.
На фиг.6а захватное устройство 6 используется для извлечения предмета 2 со сквозным отверстием 3 и внутренней стенкой 20. Сначала пальцы 7 сводятся вместе, а затем вставляются в сквозное отверстие 3, как показано на фиг.5b. После этого пальцы 7 отделяются друг от друга и входят в контакт с внутренней стенкой 20. Давление пальцев 7 на внутреннюю стенку 20 обеспечивает крепкий захват, и предмет 2 может быть поднят.
На фиг.6а-6с показана операция захвата, когда один палец 7 соприкасается с наружной поверхностью предмета 2, а другой палец 7 соприкасается с внутренней стенкой 20 предмета.
Следует понимать, что не все проиллюстрированные на фиг.4а-6с различные захваты одинаково хорошо подходят для извлечения данного конкретного предмета 2. В зависимости от формы каждого конкретного извлекаемого предмета 2 могут быть предпочтительными различные захваты. Также следует понимать, что для каждого конкретного предмета может существовать оптимальное для приближения к предмету направление перемещения захватного устройства 6.
В процессе эксплуатации изобретение функционирует следующим образом. Предметы 2 прибывают на транспортирующем устройстве 1, которым может быть, например, бункер 1, как показано на фиг.1 и фиг.2, или ленточный конвейер, как показано на фиг.3. Следует понимать, что транспортирующим устройством 1 также может являться что-либо другое, например поддон. Выполняется операция сканирования по меньшей мере части транспортирующего устройства 1 с использованием линейного лазерного сканера 8. Область, которая сканируется, имеет поверхность 14, соответствующую груде предметов 2, лежащих на транспортирующем устройстве 1. Результат операции сканирования затем используется для выработки виртуальной трехмерной поверхности 18, отображающей отсканированную область, то есть виртуальная поверхность 18 соответствует реальной поверхности 14. Эта операция может производиться в компьютере 11, как схематически показано на фиг.7. Как показано на фиг.7, виртуальная поверхность 18 определяется координатами, которые могут изменяться по трем различным осям x, y, z, которые перпендикулярны друг другу. Виртуальная трехмерная поверхность 18 затем сравнивается с заданным виртуальным предметом 15, который соответствует извлекаемому из транспортирующего устройства 1 предмету 2. Часть трехмерной поверхности 18, которая наиболее точно соответствует заданному виртуальному предмету 15, идентифицируется посредством сравнения. Манипулятор 5 затем приводится в движение к местоположению, соответствующему идентифицированной части виртуальной трехмерной поверхности, и извлекает предмет 2 из транспортирующего устройства 1 в этом местоположении. Захватное устройство 6 также может быть повернуто так, чтобы оно четко соответствовало ориентации извлекаемого предмета.
Строго говоря, поверхность является двумерной. Под использованным в данном документе термином «трехмерная поверхность» следует понимать поверхность трехмерного предмета, то есть поверхность, которая может проходить через более чем одну плоскость. В качестве альтернативы термину «виртуальная трехмерная поверхность» можно говорить о виртуальной поверхности, которая отображает наружную поверхность трехмерного предмета.
Этап сравнения виртуальной трехмерной поверхности 18 с заданным виртуальным предметом 15 может быть выполнен следующим образом. Виртуальный предмет 15 перемещается и вращается до тех пор, пока он не будет соответствовать части виртуальной трехмерной поверхности 18, как показано на фиг.8. Информация о перемещении и вращении виртуального предмета 15 непосредственно соответствует ориентации и местоположению физического предмета 2 в транспортирующем устройстве 1, и эта информация затем может быть использована для определения того, как предмет 2 должен быть извлечен из транспортирующего устройства 1. Сопоставление может быть выполнено с использованием алгоритма определения формы, такого как «Вращающийся-Образ» («Spin-Image») или представления изображения при вращении (см., например, А.Е. Johnson and M. Hebert, «Using Spin Images for Efficient Object Recognition in Cluttered 3D Scenes»; IEEE Trans. Pattern Analysis and Machine Intelligence, 21 (5, pp.433-449, 1999)). В качестве альтернативы также можно использовать «ICP» («Итерационная ближайшая точка») или комбинацию «Spin-Image» и «ICP».
В случае, когда две или более частей виртуальной трехмерной поверхности 18 соответствуют виртуальному предмету 15 в одинаковой степени, то для выбора между различными частями виртуальной трехмерной поверхности может быть использован случайный выбор, а также между различными извлекаемыми предметами. В качестве альтернативы может быть использована информация об ориентации виртуального предмета 15 для выбора между различными частями виртуальной трехмерной поверхности в случае, если две или более частей виртуальной трехмерной поверхности соответствуют виртуальному предмету в одинаковой степени. Как указывалось ранее, все захваты не являются в равной степени подходящими для всех предметов 2. Для заданного предмета 2 предпочтительный захват может быть включен в программное обеспечение компьютера 11, который управляет роботом 4. Для предмета 2 со сквозным отверстием 3 предпочтительным захватом может быть (например) захват, показанный на фиг.5а-5с. Для заданного предмета на транспортирующем устройстве 1 может быть так, что фактически возможен только один захват. Если две или более частей виртуальной поверхности 18 соответствуют виртуальному предмету 15 в равной степени хорошо, программное обеспечение, которое управляет роботом 4, может содержать инструкцию для выбора части виртуальной поверхности 18, которая соответствует предпочтительному захвату. Это дает предложенному устройству возможность сделать интеллектный выбор между различными предметами 2 на транспортирующем устройстве также в том случае, когда два предмета 2 на транспортирующем устройстве с первого взгляда могут казаться в равной степени подходящими в пределах досягаемости. Для проверки того, какие захваты возможны для заданного предмета 2, программное обеспечение проверяет то, как виртуальный предмет 15 был перемещен и повернут для достижения соответствия с соответствующей частью виртуальной поверхности 18. Информация об этом перемещении может быть непосредственно переведена в информацию об ориентации реального предмета. Разумеется та же самая информация может также быть использована для управления перемещением захватного устройства 6 на манипуляторе 5 и для определения того, с какого направления захватному устройству 6 необходимо приблизиться к предмету 2 для того, чтобы можно было использовать предпочтительный захват. Это дает то преимущество, что захватное устройство 6 может быть точно направлено к идеальному захвату для каждого извлекаемого предмета. Направление, с которого захватное устройство 6 приближается к предмету, также является важным, так как при некоторых направления приближения может возникать риск столкновения между захватным устройством и частями транспортирующего устройства 1 или между захватным устройством и другими предметами 2, которые не должны быть извлечены. Какой-либо предмет также может иметь такую форму, что его легче захватить с одного направления, чем с другого.
Кроме того, операция сканирования также может распространяться на само транспортирующее устройство 1. Результат этой части операции сканирования может быть использован для предотвращения столкновения захватного устройства 6 с краями или стенками транспортирующего устройства 1. В качестве альтернативы контуры транспортирующего устройства 1 могут быть заданы в управляющем программном обеспечении точно так же, как виртуальный предмет 15. Следует понимать, что когда большое количество несортированных предметов прибывает в виде груды, сначала некоторые предметы будет просто невозможно захватить, так как доступу захватного устройства к ним будут препятствовать другие предметы. Также может быть такая ситуация, что местоположение и ориентация предмета по отношению к краям транспортирующего устройства (например, к стенкам бункера 1) будет означать, что для захватного устройства 6 изначально трудно получить доступ к этим предметам, особенно когда другие предметы 2 ограничивают доступ. Программное обеспечение, которое управляет перемещениями манипулятора 5 и захватного устройства 6 на нем, предпочтительно выполнено с возможностью учитывать это. Следовательно, когда необходимо сделать выбор между двумя различными предметами 2 на транспортирующем устройстве 1, программное обеспечение может учитывать риск столкновения как с другими предметами, так и с частями транспортирующего устройства 1. При этом программное обеспечение может быть выполнено с возможностью учета направления, с которого захватное устройство должно приближаться к извлекаемому предмету. Это может составлять еще один критерий выбора предмета.
Также следует понимать, что критерий «предпочтительный захват» может быть использован не только как дополнение к критерию «наибольшее соответствие», но и как альтернатива этому критерию. На практике это может означать, что программное обеспечение сначала стремится идентифицировать предметы 2, которые позволяют предпочтительный захват. Как вариант, если есть несколько предметов 2, которые позволяют предпочтительный захват, то тогда критерий «наибольшее соответствие» может быть использован для осуществления окончательного выбора.
Во время операции сканирования сканер 8 предпочтительно перемещается по траектории, предпочтительно линейной, над транспортирующим устройством 1. Тем не менее следует понимать, что в действительности возможны нелинейные траектории. Также следует понимать, что сканер 8 может быть неподвижным, и что операция сканирования может включать вращение лазерного излучателя 16 вместо перемещения его по линейной траектории.
Также следует понимать, что сканер 8 может быть расположен на манипуляторе 5, как показано на фиг.9, и что перемещение сканера 8 над транспортирующим устройством 1 может быть выполнено посредством манипулятора 5.
Полный цикл работы предложенного устройства, соответственно, состоит в следующем. Предметы 2, которые могут быть ориентированы случайным образом, прибывают на транспортирующем устройстве 1, которое может быть бункером 1, как показано на фиг.2, или ленточным конвейером, как показано на фиг.3. Сканер 8 выполняет операцию сканирования, и данные о результатах операции сканирования посылаются в компьютер 11, где они преобразуются в виртуальную трехмерную поверхность 18. Заданный виртуальный предмет 15 сравнивается с виртуальной поверхностью 18 до тех пор, пока не будет установлено соответствие. Компьютер управляет роботом 4 и дает ему команду на использование манипулятора 5 с захватным устройством 6 для извлечения идентифицированного предмета 2. Когда предмет 2 извлечен манипулятором 5, последний перемещает его к следующему участку 19 обработки, которое может быть, например, машиной для дальнейшей обработки предмета 2. В течение того времени, которое требуется роботу для перемещения предмета к следующему участку обработки, может быть выполнена новая операция сканирования, так что новый цикл начинается даже до того, как завершен предшествующий.
Изобретение дает среди прочего то преимущество, что случайно ориентированные предметы, прибывающие сваленными друг на друга, могут быть быстро и достоверно идентифицированы и извлечены индивидуально. Также изобретение делает возможным извлечение предметов с оптимального направления и с очень точным и надежным захватом. Как было показано выше, варианты выполнения изобретения также могут понижать риск того, что захватное устройство 6 или манипулятор 5 столкнутся с окружающими предметами, например краями или стенками транспортирующего устройства 1.
Если сканер 8 выполнен отдельно от робота 4, то новая операция сканирования может быть начата в то время, пока манипулятор 5 доставляет предмет в другое местоположение. Это может сделать процесс более быстрым.
Применение линейного лазера означает, что во время одного отдельного перемещения сканера может быть отсканирована полностью вся область, чего было бы невозможно достичь с точечным лазером.
Описанное выше изобретение относится к способу и устройству, где для извлечения предметов используется манипулятор. Тем не менее также возможны варианты выполнения, где показанный выше способ сканирования и идентификации трехмерных конструкций может быть использован для других целей. Например, способ выполнения сканирования с линейным лазером и выработкой виртуальной трехмерной поверхности может быть использован для идентификации и анализа дефектов различных объектов. Другое возможное применение может быть с целью определения необходимости дальнейшей обработки заготовки. Таким образом, возможны варианты выполнения без манипулятора и/или для других целей, отличных от извлечения предметов. Следовательно, изобретение также может быть определено как способ (и устройство) для идентификации и анализа предметов (или групп предметов) посредством сканирования с помощью линейного лазерного устройства и выработки виртуальной трехмерной модели, которую затем сравнивают с заданным виртуальным предметом. После сравнения может производиться действие, которое зависит от его результата. Это действие может быть, например, действием по обработке заготовки или может включать использование манипулятора для извлечения предмета, как описано выше.
Пример такого возможного способа описан далее. Заданный виртуальный предмет отображает окончательную форму, которую должна иметь заготовка. Выполняется операция сканирования, которое используется для выработки виртуальной трехмерной поверхности или модели, которая затем сравнивается с заданным виртуальным предметом. Сравнение показывает, что заготовка еще не получила окончательной формы. Также сравнение выявляет, где обрабатываемое изделие отличается от заданного виртуального предмета. На основании этой информации дается инструкция станку, например для резки, сверлильному или токарному, который выполняет механическую обработку заготовки, чтобы сделать ее соответствующей заданному виртуальному предмету. Затем снова может быть выполнена операция сканирования с целью проверки того, что заготовка получила необходимую форму.
Другой возможностью может быть идентификация дефектных предметов. Например, предмет прибывает на транспортирующем устройстве. Этот предмет сканируется линейным лазером, и результат сканирования сравнивается с заданным виртуальным предметом. По результатам сканирования система определяет, соответствует ли предмет заданному виртуальному предмету или нет. Если есть соответствие, то предмет считается надлежащим. Затем предмет может быть использован, отправлен на следующий участок обработки или конечному потребителю. Если обнаружено отклонение, то предмет может быть удален. Предложенные способ и устройство, следовательно, могут быть использованы для контроля качества. Иначе способ и устройство могут быть идентичны способу/устройству, используемым для извлечения предметов из транспортирующего устройства.
Соответственно изобретение может быть определено как способ идентификации предметов, включающий операцию сканирования по меньшей мере части предмета (или нескольких предметов) с использованием линейного лазерного сканера 8; использование результата сканирования для выработки виртуальной трехмерной поверхности, отображающей область, которая была отсканирована; сравнение виртуальной трехмерной поверхности с заданным предметом 15, соответствующим предмету (или одному предмету из многих) и выполнение действия в зависимости от результата сравнения. Разумеется, что изобретение также может быть определено как устройство для осуществления такого способа.

Claims (16)

1. Способ определения местоположения и извлечения предметов (2), расположенных в транспортирующем устройстве (1), включающий сканирование по меньшей мере части транспортирующего устройства (1) с использованием линейного лазерного сканера (8), использование результата сканирования для выработки виртуальной трехмерной поверхности, отображающей отсканированную область, сравнение виртуальной трехмерной поверхности с заданным виртуальным предметом (15), соответствующим извлекаемому из транспортирующего устройства (1) предмету (2), и, таким образом, идентификации той части трехмерной поверхности, которая наиболее точно соответствует заданному виртуальному предмету (15), перемещение манипулятора (5) робота в местоположение, соответствующее идентифицированной части виртуальной трехмерной поверхности, и извлечение предмета (2) из транспортирующего устройства (1) в этом местоположении.
2. Способ по п.1, в котором сканер (8) перемещают по траектории над транспортирующим устройством (1) во время сканирования.
3. Способ по п.2, в котором сканер (8) перемещают по линейной траектории над транспортирующим устройством.
4. Способ по п.3, в котором сканер (8) выполнят в виде блока, отдельного от манипулятора (5).
5. Способ по п.2, в котором сканер (8) располагают на манипуляторе (5), которым перемещают сканер (8) над транспортирующим устройством (1).
6. Способ по п.1, в котором при сравнения виртуальной трехмерной поверхности с заданным виртуальным предметом (15) этот виртуальный предмет (15) поворачивают до тех пор, пока он не будет соответствовать части виртуальной трехмерной поверхности, а информацию о повороте виртуального предмета (15) используют для определения того, как предмет (2), расположенный на транспортирующем устройстве (1), должен быть извлечен.
7. Способ по п.1, в котором предмет (2) извлекают из транспортирующего устройства (1) посредством захватного устройства (6), которое расположено на манипуляторе (5) и содержит захватные пальцы (7), по меньшей мере один из которых перемещают относительно другого для захватывания предмета (2), расположенного в транспортирующем устройстве (1).
8. Способ по п.1, в котором используют случайный выбор для выбора между различными частями виртуальной трехмерной поверхности в случае, когда ее две или более части (2) соответствуют виртуальному предмету (15) в одинаковой степени.
9. Способ по п.1, в котором при сравнении виртуальной трехмерной поверхности с заданным виртуальным предметом (15) этот виртуальный предмет (15) поворачивают до тех пор, пока он не будет соответствовать части виртуальной трехмерной поверхности, а информацию об ориентации виртуального предмета (15) используют для выбора между различными частями виртуальной трехмерной поверхности в случае, когда ее две или более части соответствуют виртуальному предмету в одинаковой степени.
10. Способ по п.1, в котором в качестве транспортирующего устройства (1) используют бункер.
11. Способ по п.1, в котором в качестве транспортирующего устройства (1) используют конвейер.
12. Устройство для определения местоположения и извлечения предметов (2), расположенных на транспортирующем устройстве, содержащее линейный лазерный сканер (8), выполненный с возможностью сканирования по меньшей мере части транспортирующего устройства, в котором могут быть расположены предметы (2), робот (4) с манипулятором (5), предназначенным для захвата предметов, и компьютер (11), соединенный с линейным лазерным сканером (8) и содержащий программное обеспечение, предназначенное для выработки виртуальной трехмерной поверхности на основании данных, полученных от сканера (8) во время сканирования, а также программное обеспечение, отображающее виртуальный предмет (15), и программное обеспечение, предназначенное для сравнения виртуального предмета (15) с различными частями виртуальной трехмерной поверхности и определения ее части или частей, наиболее точно соответствующих виртуальному предмету (15), причем компьютер (11) соединен с роботом (4) и содержит программное обеспечение для управления перемещением манипулятора (5) к местоположению на транспортирующем устройстве, соответствующему части виртуальной трехмерной поверхности, которая наиболее точно соответствует виртуальному предмету, и извлечения предмета (2) в этом местоположении.
13. Устройство по п.12, в котором линейный лазерный сканер (8) выполнен отдельно от робота (4) и выполнен с возможностью перемещения по заданной траектории, определенной направляющей конструкцией (9), по которой перемещается сканер (8).
14. Устройство по п.13, в котором направляющая конструкция (9) является балкой (9), которая определяет линейную траекторию перемещения линейного лазерного сканера.
15. Устройство по п.12, в котором линейный лазерный сканер (8) расположен на манипуляторе (5).
16. Устройство по п.12, в котором манипулятор (5) выполнен с возможностью захвата предметов с помощью захватного устройства (6) с захватными пальцами (7), по меньшей мере один из которых выполнен с возможностью перемещения.
RU2008110693/02A 2005-10-18 2006-10-16 Способ и устройство для определения местоположения и извлечения предметов из транспортирующего устройства RU2407633C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SE0502305-6 2005-10-18
SE0502305A SE529377C2 (sv) 2005-10-18 2005-10-18 Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare

Publications (2)

Publication Number Publication Date
RU2008110693A RU2008110693A (ru) 2009-11-27
RU2407633C2 true RU2407633C2 (ru) 2010-12-27

Family

ID=37962770

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008110693/02A RU2407633C2 (ru) 2005-10-18 2006-10-16 Способ и устройство для определения местоположения и извлечения предметов из транспортирующего устройства

Country Status (11)

Country Link
US (1) US20080253612A1 (ru)
EP (1) EP1945416B1 (ru)
JP (1) JP2009511288A (ru)
KR (1) KR20080056737A (ru)
CN (1) CN101291784B (ru)
AU (1) AU2006302779A1 (ru)
BR (1) BRPI0617465A2 (ru)
CA (1) CA2625163A1 (ru)
RU (1) RU2407633C2 (ru)
SE (1) SE529377C2 (ru)
WO (1) WO2007046763A1 (ru)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017184014A1 (ru) * 2016-04-19 2017-10-26 Общество с ограниченной ответственностью "ДАТА-ЦЕНТР Автоматика" Способ слежения за перемещением материала на производстве и в складских помещениях с использованием лазерного сканирования
RU2763460C2 (ru) * 2017-10-26 2021-12-29 Комау С.п.А. Автоматизированное устройство с подвижной конструкцией, такое как робот
RU2774701C1 (ru) * 2018-12-19 2022-06-21 Поли-Клип Зюстем Гмбх Унд Ко. Кг Захватывающее устройство

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2383718T3 (es) * 2007-04-26 2012-06-25 Adept Technology Inc. Aparato de agarre por vacío
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
JP5251080B2 (ja) * 2007-11-20 2013-07-31 株式会社Ihi 物体認識方法
JP5104248B2 (ja) * 2007-11-22 2012-12-19 株式会社Ihi 物体認識装置およびロボット装置
JP5092711B2 (ja) * 2007-11-22 2012-12-05 株式会社Ihi 物体認識装置およびロボット装置
US8915692B2 (en) 2008-02-21 2014-12-23 Harvest Automation, Inc. Adaptable container handling system
SE532222C2 (sv) * 2008-03-04 2009-11-17 Morphic Technologies Ab En robot för gripande av föremål
FR2929481B1 (fr) 2008-03-26 2010-12-24 Ballina Freres De Procede et installation d'examen visiometrique de produits en defilement
AT11337U1 (de) 2009-02-26 2010-08-15 Ih Tech Sondermaschb U Instand Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten
IT1394181B1 (it) * 2009-05-07 2012-06-01 Marchesini Group Spa Metodo di segmentazione basato sulle caratteristiche per segmentare una pluralita' di articoli duplicati disposti alla rinfusa e gruppo che attua tale metodo per alimentare una macchina confezionatrice
JP5333344B2 (ja) * 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
EP2296168A1 (en) * 2009-09-09 2011-03-16 Kulicke & Soffa Die Bonding GmbH Tool for picking a planar object from a supply station
FR2950696B1 (fr) * 2009-09-30 2011-10-14 Ballina Freres De Procede et installation de controle de qualite sur des produits de boulangerie industrielle
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
FI20106090A0 (fi) * 2010-10-21 2010-10-21 Zenrobotics Oy Menetelmä kohdeobjektin kuvien suodattamiseksi robottijärjestelmässä
KR101248443B1 (ko) * 2010-11-11 2013-03-28 강정원 소재 반송장치 및 그 동작 제어방법
US9599461B2 (en) * 2010-11-16 2017-03-21 Ectoscan Systems, Llc Surface data acquisition, storage, and assessment system
US11880178B1 (en) 2010-11-16 2024-01-23 Ectoscan Systems, Llc Surface data, acquisition, storage, and assessment system
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5582126B2 (ja) * 2011-10-13 2014-09-03 株式会社安川電機 ワーク取出システム、ロボット装置および被加工物の製造方法
US9147173B2 (en) * 2011-10-31 2015-09-29 Harvest Automation, Inc. Methods and systems for automated transportation of items between variable endpoints
US8676425B2 (en) 2011-11-02 2014-03-18 Harvest Automation, Inc. Methods and systems for maintenance and other processing of container-grown plants using autonomous mobile robots
US8937410B2 (en) 2012-01-17 2015-01-20 Harvest Automation, Inc. Emergency stop method and system for autonomous mobile robots
DE102012013022A1 (de) * 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zur automatisierten Handhabung von Werkstücken
DE102012012988A1 (de) * 2012-06-29 2014-04-17 Liebherr-Verzahntechnik Gmbh Vorrichtung zur automatisierten Handhabung von Werkstücken
DE102012013031A1 (de) * 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Erfassen und Entnehmen von Werkstücken
DE102012013030A1 (de) 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatischen Entnehmen von in einem Behälter angeordneten Werkstücken
US20150165623A1 (en) * 2012-07-13 2015-06-18 Fredrik Kange Method For Programming An Industrial Robot In A Virtual Environment
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP6273084B2 (ja) * 2012-09-20 2018-01-31 株式会社安川電機 ロボットシステムおよびワークの搬送方法
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
CN103659796A (zh) * 2013-06-21 2014-03-26 成都万先自动化科技有限责任公司 智能搬运码放定位机器人
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
US9633433B1 (en) 2013-08-08 2017-04-25 Intellimed Systems, Llc Scanning system and display for aligning 3D images with each other and/or for detecting and quantifying similarities or differences between scanned images
US9778650B2 (en) 2013-12-11 2017-10-03 Honda Motor Co., Ltd. Apparatus, system and method for kitting and automation assembly
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
US20150331415A1 (en) * 2014-05-16 2015-11-19 Microsoft Corporation Robotic task demonstration interface
EP2963513B1 (en) * 2014-07-01 2022-08-24 Seiko Epson Corporation Teaching apparatus and robot system
US10264720B1 (en) 2015-06-23 2019-04-16 Flextronics Ap, Llc Lead trimming module
US10321560B2 (en) 2015-11-12 2019-06-11 Multek Technologies Limited Dummy core plus plating resist restrict resin process and structure
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US20170238416A1 (en) 2016-02-17 2017-08-17 Multek Technologies Limited Dummy core restrict resin process and structure
US10064292B2 (en) 2016-03-21 2018-08-28 Multek Technologies Limited Recessed cavity in printed circuit board protected by LPI
CN106166018A (zh) * 2016-07-29 2016-11-30 苏州高通机械科技有限公司 一种新型玩具收纳装置
CN106078784A (zh) * 2016-07-29 2016-11-09 苏州高通机械科技有限公司 一种玩具收纳装置及其机械手
SE540708C2 (en) * 2016-10-14 2018-10-16 Envac Optibag Ab Disposable waste bag, system and method of gripping and emptying a bag, and a system for recycling waste
CN108168444B (zh) 2016-11-17 2021-03-30 马尔泰克技术有限公司 用于pcb应用的在空气悬浮上的在线计量
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
EP3592509B1 (en) * 2017-03-10 2022-08-03 ABB Schweiz AG Method and device for identifying objects
JP6438512B2 (ja) 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
CN109778621B (zh) * 2017-11-13 2022-02-08 宝马汽车股份有限公司 用于交通运输系统的移动平台和交通运输系统
CA3084951A1 (en) 2017-12-06 2019-06-13 Ectoscan Systems, Llc Performance scanning system and method for improving athletic performance
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP7154815B2 (ja) * 2018-04-27 2022-10-18 キヤノン株式会社 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
JP6823008B2 (ja) 2018-05-18 2021-01-27 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
DE112018007729B4 (de) * 2018-06-14 2022-09-08 Yamaha Hatsudoki Kabushiki Kaisha Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem
JP7134413B2 (ja) * 2019-06-17 2022-09-12 オムロン株式会社 計測装置、計測方法、及び計測プログラム
CA3140155A1 (en) * 2019-08-07 2021-02-11 RightHand Robotics, Inc. Robotic device configuration

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2499736B1 (fr) * 1981-02-12 1987-03-06 Renault Dispositif et procede de localisation d'objets tridimensionnels en vrac pour la commande d'un terminal de prehension
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
JPS63288683A (ja) * 1987-05-21 1988-11-25 株式会社東芝 組立てロボット
JPH06143182A (ja) * 1992-10-27 1994-05-24 Sony Magnescale Inc 計測機能付ロボットハンド
US5471541A (en) * 1993-11-16 1995-11-28 National Research Council Of Canada System for determining the pose of an object which utilizes range profiles and synethic profiles derived from a model
JPH11300670A (ja) * 1998-04-21 1999-11-02 Fanuc Ltd 物品ピックアップ装置
US6271444B1 (en) * 1998-07-10 2001-08-07 Calgene Llc Enhancer elements for increased translation in plant plastids
DE10080012B4 (de) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
DE10226663A1 (de) * 2002-06-14 2003-12-24 Sick Ag Verfahren zum Auffinden von Gegenständen auf einer Trägerebene
JP2004142015A (ja) * 2002-10-24 2004-05-20 Fanuc Ltd センサ付きロボット
DE10259632A1 (de) * 2002-12-18 2004-07-08 Imi Norgren Automotive Gmbh Werkzeugsystem zur Verwendung mit einem Roboter
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
WO2005018883A1 (ja) * 2003-08-21 2005-03-03 Tmsuk Co., Ltd. 警備ロボット

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017184014A1 (ru) * 2016-04-19 2017-10-26 Общество с ограниченной ответственностью "ДАТА-ЦЕНТР Автоматика" Способ слежения за перемещением материала на производстве и в складских помещениях с использованием лазерного сканирования
RU2763460C2 (ru) * 2017-10-26 2021-12-29 Комау С.п.А. Автоматизированное устройство с подвижной конструкцией, такое как робот
RU2774701C1 (ru) * 2018-12-19 2022-06-21 Поли-Клип Зюстем Гмбх Унд Ко. Кг Захватывающее устройство

Also Published As

Publication number Publication date
BRPI0617465A2 (pt) 2011-07-26
AU2006302779A1 (en) 2007-04-26
EP1945416A1 (en) 2008-07-23
JP2009511288A (ja) 2009-03-19
EP1945416A4 (en) 2011-02-16
WO2007046763A1 (en) 2007-04-26
KR20080056737A (ko) 2008-06-23
CN101291784B (zh) 2010-05-19
RU2008110693A (ru) 2009-11-27
CN101291784A (zh) 2008-10-22
CA2625163A1 (en) 2007-04-26
EP1945416B1 (en) 2013-01-02
US20080253612A1 (en) 2008-10-16
SE0502305L (sv) 2007-04-19
SE529377C2 (sv) 2007-07-24

Similar Documents

Publication Publication Date Title
RU2407633C2 (ru) Способ и устройство для определения местоположения и извлечения предметов из транспортирующего устройства
Nieuwenhuisen et al. Mobile bin picking with an anthropomorphic service robot
JP5806301B2 (ja) ロボットシステムにおける物理的な物体の選択のための方法
CN110640730B (zh) 生成用于机器人场景的三维模型的方法和系统
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
Kelley et al. Three vision algorithms for acquiring workpieces from bins
Boschetti A picking strategy for circular conveyor tracking
CN113538459B (zh) 一种基于落点区域检测的多模式抓取避障检测优化方法
Sanz et al. Grasping the not-so-obvious: vision-based object handling for industrial applications
JP2024019690A (ja) 物体の取り扱いを伴うロボットシステムのためのシステム及び方法
Kaipa et al. Enhancing robotic unstructured bin-picking performance by enabling remote human interventions in challenging perception scenarios
Lin et al. Vision based object grasping of industrial manipulator
Xu et al. A vision-guided robot manipulator for surgical instrument singulation in a cluttered environment
Hasan et al. Model-free, vision-based object identification and contact force estimation with a hyper-adaptive robotic gripper
Lin et al. Inference of 6-DOF robot grasps using point cloud data
Poss et al. Perceptionbased intelligent materialhandling in industrial logistics environments
Vaskevicius et al. Object recognition and localization for robust grasping with a dexterous gripper in the context of container unloading
CN117260003B (zh) 一种汽车座椅骨架自动摆件打钢刻码方法及系统
Jezierski et al. Human–robot cooperation in sorting of randomly distributed objects
CN116197885B (zh) 基于压叠检测的图像数据过滤方法、装置、设备和介质
WO2023233992A1 (ja) 非定形物の画像処理方法
Nguyen et al. A novel method for enhancing the accuracy of box detection under noise effect of tags and complex arrangement of pile with Cycle-GAN and Mask-RCNN
Biegelbauer et al. Robust and fully automated robotic bore inspection for high variant parts
Pop et al. Robot vision application for bearings identification and sorting
Li et al. Visual servoing based object pick and place manipulation system

Legal Events

Date Code Title Description
TK4A Correction to the publication in the bulletin (patent)

Free format text: AMENDMENT TO CHAPTER -FG4A- IN JOURNAL: 36-2010 FOR TAG: (57)

MM4A The patent is invalid due to non-payment of fees

Effective date: 20121017