BR102012003829A2 - Robotized system and processed object production method. - Google Patents

Robotized system and processed object production method. Download PDF

Info

Publication number
BR102012003829A2
BR102012003829A2 BR102012003829-3A BR102012003829A BR102012003829A2 BR 102012003829 A2 BR102012003829 A2 BR 102012003829A2 BR 102012003829 A BR102012003829 A BR 102012003829A BR 102012003829 A2 BR102012003829 A2 BR 102012003829A2
Authority
BR
Brazil
Prior art keywords
robot
shallot
tool
controller
area
Prior art date
Application number
BR102012003829-3A
Other languages
English (en)
Inventor
Miyoshi Tetsuya
Original Assignee
Kabushiki Kaisha Yaskawa Denki
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011230684A external-priority patent/JP5440885B2/ja
Priority claimed from JP2011230685A external-priority patent/JP5370788B2/ja
Application filed by Kabushiki Kaisha Yaskawa Denki filed Critical Kabushiki Kaisha Yaskawa Denki
Publication of BR102012003829A2 publication Critical patent/BR102012003829A2/pt

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

sistema robotizado e método de produção de objeto processado. um sistema robotizado compreendendo um transportador (14) que transporta uma chalota (12), um sensor tridimensional (18) que detecta um formato tridimensional da chalota (12) transportada em um trajeto de transporte do transportador (14), robôs (16a) e (16b) que permite a instalação de ferramentas (166a) e (166c) para executar uma tarefa de içar a mover a chalota (12), e um controlador (28) que transmite um comando de operação aos robôs (16a) e (16b) e regula o comando de operação com base em um resultado de detecção pelo sensor tridimensional (18), em que o controlador (28) transmite o comando de operação aos robôs (16a) e (16b).

Description

“SISTEMA ROBOTIZADO E MÉTODO DE PRODUÇÃO DE OBJETO PROCESSADO” CAMPO DA INVENÇÃO O modo de execução desta invenção relaciona-se a um sistema robotizado e método de manufatura de um objeto processado.
DESCRIÇÃO DO ESTADO DA TÉCNICA
No estado da técnica, existem técnicas conhecidas para a execução de uma determinada tarefa em um objeto que é transportado por um trajeto de transporte por um dispositivo transportador (vide patente japonesa já publicada H11-262886, por exemplo). Exemplos desta tarefa predeterminada incluem içar e mover um objeto transportado, aplicar um adesivo ou cobertura no objeto, remover uma área desnecessária de um objeto, ou marcar um objeto. Nesse documento do estado da técnica, os objetos (trabalhos) são transportados consecutivamente por um dispositivo de transporte (esteira transportadora). Uma imagem do objeto transportado é filmada por uma câmera de vídeo quando ele chega a um local predeterminado. O sinal de vídeo gerado pela câmera de vídeo é enviado a um dispositivo de processamento de imagem. O dispositivo de processamento de imagem verifica o formato do objeto, sua montagem, a presença de irregularidades, rebarbas, e assim por diante. A seguir, com base nestas informações, o local onde garras de retenção, instaladas em um mecanismo de variação de espaço entre garras que é provido em dois dedos de uma ferramenta (mão robotizada) fixada em um braço robotizado de um robô (robô articulado), encontram o objeto é determinado. O mecanismo de variação de espaço entre garras ajusta então o espaço entre as garras de retenção de acordo com esta determinação.
Em seguida, o braço robotizado se move para o local do objeto e retém o objeto por meio da ferramenta com base nas informações do dispositivo de processamento de imagem. Subsequentemente, o braço robotizado dá forma ao objeto ao fazer com que uma área disforme do objeto entre em contato com um membro de agarro para então içar, baixar, rotacionar, ou transferir o objeto, por exemplo. Após o objeto ser dado uma forma, o braço robotizado coloca o objeto no dispositivo de transporte, finalizando a sequência de tarefas. Subsequentemente, o braço robotizado ajusta o espaço entre as garras de retenção para o próximo objeto.
Adicionalmente, no estado da arte há outras técnicas conhecidas para processar um objeto (vide patente japonesa já publicada 2003-237940, por exemplo). Nesse documento do estado da técnica, um dispositivo de transporte (esteira transportadora) é provido. Dois dispositivos de processamento são providos próximos ao dispositivo de transporte. Um robô capaz de executar um movimento tridimensional (um robô tridimensional) é provido no lado à montante dos dois dispositivos de processamento na direção de movimento do dispositivo de transporte. Esse robô é capaz de receber objetos (trabalhos) entre o dispositivo de transporte e os dois dispositivos de processamento. O objeto é transportado pelo dispositivo de transporte e entregue a um dos dispositivos de processamento pelo robô. Em seguida, após o objeto ser processado por esse dispositivo de processamento, o objeto é colocado no dispositivo de transporte pelo robô. Então, quando o objeto é transportado ao local do outro dispositivo de processamento, o objeto é processado de modo semelhante pelo outro dispositivo de processamento e colocado no dispositivo de transporte pelo robô.
Em geral, um comando de operação previamente inserido por meio de um controle para robôs (teach pendant), por exemplo, é transmitido ao robô. O robô opera com base nesse comando de operação.
Contudo, quando o objeto é um objeto inconsistente com um formato individual inconsistente, como um objeto natural tal qual um vegetal ou uma fruta ou um objeto artificial (produto industrial) de uma grande variedade de tipos, há variação nos formatos dos objetos, impossibilitando a verificação do formato de cada objeto. Como resultado, existe a possibilidade do robô não poder executar de modo preciso a tarefa predeterminada por meio da ferramenta no objeto transportado no trajeto de transporte, mesmo quando operado com base no comando de operação. Na anterioridade japonesa já publicada H11-262886, uma imagem do objeto transportado no trajeto de transporte é gravada por uma câmera de vídeo, e o formato do objeto é verificado com base nesse sinal de vídeo. Então, mesmo que o objeto seja um objeto inconsistente com um formato inconsistente, tal como um objeto natural ou artificial, o comando de operação é regulado com base no sinal de vídeo e transmitido após a regulagem do robô. Como resultado, o robô opera com base no comando de operação regulado, e assim, pode executar de modo preciso a tarefa predeterminada por meio da ferramenta no objeto transportado no trajeto de transporte.
Entretanto, quando esse processo é baseado em uma imagem capturada pelo dispositivo de captura de imagem tal qual uma câmera de vídeo, é possível verificar o formato bidimensional do objeto, mas fica difícil verificar de modo preciso o formato tridimensional do objeto. Como resultado, quando o objeto é um objeto inconsistente, mesmo que o robô seja operado com base no comando de operação regulado de acordo com a técnica da anterioridade japonesa da patente já publicada H11-262886, a tarefa predeterminada não pode ser executada de modo preciso no objeto transportado no trajeto de transporte. Como resultado, após executada a tarefa o objeto é defeituoso, causando problemas que incluem falha em entregar o objeto ao mercado e perda de produtividade. Por outro lado, a fim de executar de modo confiável a tarefa predeterminada no objeto transportado no trajeto de transporte, uma técnica para executar a tarefa em um período de tempo maior do que o normal pode ser considerada. Contudo, nesse caso, o ritmo de produção diminui, resultando no problema de perda de produtividade, semelhante ao caso descrito acima.
Adicionalmente, em um caso em que o objeto processado é um objeto inconsistente com um formato individual inconsistente, como um objeto natural tal qual um vegetal ou uma fruta ou um objeto artificial (produto industrial) de uma pluralidade mista de tipos conforme descrito acima, por exemplo, os seguintes problemas surgem na anterioridade japonesa da patente já publicada 2003-237940. Isto é, mesmo que o robô tente se mover para o local onde o objeto transportado deve ser processado, a ferramenta por vezes não consegue entrar em contato ou içar o objeto devido à variação de formato de objeto. Ademais, mesmo que a ferramenta entre em contato com o objeto, por vezes o objeto não pode ser içado devido às posições reduzidas de contato, ou o objeto é içado, mas deixado cair durante o movimento. Nesses casos, existe a possibilidade de que o robô não conseguirá mover o objeto até o local onde o objeto deve ser processado. Adicionalmente, mesmo que o robô possa mover o objeto até o local onde o objeto deve ser processado, uma variação no formato do objeto existe, impossibilitando determinar a área-alvo de processamento em detalhe para cada objeto. Como resultado, existe a possibilidade de que haverá variação na área entre os objetos durante o processamento.
Desse modo, é um primeiro objetivo da presente invenção prover um sistema robotizado capaz de melhorar a produtividade durante a execução de uma tarefa predeterminada, mesmo se o objeto for um objeto inconsistente.
Um segundo objetivo da presente invenção é prover um método de produção de objeto processado capaz de eliminar a variação em uma área processada nos objetos durante o processamento, mesmo se o objeto for um objeto inconsistente.
SUMÁRIO DA INVENÇÃO A fim de alcançar o objetivo acima descrito, de acordo com um aspecto da presente revelação, provê-se um sistema robotizado compreendendo: um dispositivo de transporte que transporta um objeto; um primeiro sensor que detecta um formato tridimensional do objeto transportado em um trajeto de transporte pelo dispositivo de transporte; um robô que executa uma tarefa predeterminada no objeto transportado em um trajeto de transporte; um controlador configurado para operar no robô, em que o controlador compreende uma parte de transmissão de comando que regula o comando de operação com base no resultado de uma detecção pelo primeiro sensor. A fim de alcançar o objetivo acima descrito, de acordo com outro aspecto da presente revelação, provê-se um método de produção de objeto processado executado pelo uso de ao menos um robô para processar um objeto, compreendendo: um transporte que transporta o objeto pelo trajeto de transporte; uma detecção que detecta um formato tridimensional do objeto transportado no trajeto de transporte por meio de um primeiro sensor; um controle que controla o robô de modo que uma ferramenta instalada no robô entre em contato com uma área-alvo do objeto quando o objeto é transportado dentro de uma faixa de movimento da ferramenta, com base no resultado de uma detecção pelo primeiro sensor, e içar e mover o objeto até um local predeterminado; uma detecção que detecta uma posição do objeto que foi movido ao local predeterminado por um segundo sensor; uma definição que define uma área-alvo do objeto içado pela ferramenta do robô, baseada no resultado de uma detecção pelo segundo sensor; e um controle que controla o robô de modo que a área-alvo de processamento do objeto içado pela ferramenta seja guiada até um local onde o processamento deve ser executado.
Vantagens da Invenção De acordo com o sistema robotizado da presente revelação, é possível melhorar a produtividade durante a execução de uma tarefa predeterminada, mesmo se o objeto for um objeto inconsistente.
De acordo com o método de produção de objeto processado da presente revelação, é possível eliminar a variação em uma área processada nos objetos durante o processamento, mesmo se o objeto for um objeto inconsistente.
BREVE DESCRIÇÃO DOS DESENHOS A Fig. 1 é uma vista esquemática superior mostrando a configuração geral de um sistema robotizado do primeiro modo de execução. A Fig. 2 é uma vista esquemática lateral mostrando a configuração geral do sistema robotizado. A Fig. 3 é um diagrama em blocos das funções mostrando a configuração funcional do controlador. A Fig. 4 é um desenho ilustrativo que explica um exemplo da operação do sistema robotizado. A Fig. 5 é um desenho ilustrativo que explica um exemplo da operação do sistema robotizado. A Fig. 6 é um desenho ilustrativo que explica um exemplo da operação do sistema robotizado. A Fig. 7 é um desenho ilustrativo que explica um exemplo da operação do sistema robotizado. A Fig. 8 é um desenho ilustrativo que explica um exemplo da operação do sistema robotizado. A Fig. 9 é um desenho ilustrativo que explica um exemplo da operação do sistema robotizado. A Fig. 10 é um desenho ilustrativo que explica um exemplo da operação do sistema robotizado. A Fig. 11 é uma vista esquemática superior mostrando a configuração geral do sistema robotizado de uma modificação em que a câmera é instalada com seu lado frontal virado para cima. A Fig. 12 é uma vista esquemática lateral mostrando a configuração geral do sistema robotizado do segundo modo de execução. A Fig. 13 é um fluxograma mostrando um exemplo dos detalhes de controle executado pelo controlador. A Fig. 14 é uma vista esquemática lateral mostrando a configuração geral do sistema robotizado de uma modificação em que a posição de espera do robô é determinada e o robô é selecionado de modo correspondente. A Fig. 15 é um fluxograma mostrando um exemplo dos detalhes de controle executado pelo controlador. A Fig. 16 é uma vista esquemática lateral mostrando a configuração geral do sistema robotizado de uma modificação em que a área de instalação do robô é determinada e o robô é selecionado de modo correspondente. A Fig. 17 é um fluxograma mostrando um exemplo dos detalhes de controle executado pelo controlador. A Fig. 18 é uma vista esquemática lateral mostrando a configuração geral do sistema robotizado de uma modificação em que um robô é instalado. A Fig. 19 é uma vista esquemática lateral mostrando a configuração geral do sistema robotizado. A Fig. 20 é um fluxograma mostrando um exemplo dos detalhes de controle executado pelo controlador.
DESCRIÇÃO DOS MODOS DE EXECUÇÃO O primeiro modo de execução do sistema robotizado e do método de produção de objeto processado será agora descrito com referência aos desenhos em anexo. Esse modo de execução é um modo de execução de um sistema de processo de corte que tem como alvo produtos agrícolas frescos (uma chalota, alho poró e outros), que servem como exemplo de um objeto inconsistente que tem formato individual inconsistente.
Conforme mostrado na Fig. 1 e Fig. 2, um sistema robotizado 10 (método de produção de objeto processado) deste modo de execução é um sistema que corta (executa um processo predeterminado) uma chalota 12 cortando uma porção folhosa de raiz 12a e uma porção de talo 12b para extrair a porção de bulbo 12c. A chalota 12 é um vegetal bulboso, isto é, um objeto natural. A chalota 12 exibe variação de formato individual (tal como a posição, tamanho, extensão, etc., da porção folhosa de raiz 12a, da porção de talo 12b, e da a porção de bulbo 12c). Este sistema robotizado 10 compreende um transportador 14 (dispositivo de transporte), um sensor tridimensional 18 (primeiro sensor), uma pluralidade (dois neste exemplo) de robôs 16A e 16B (doravante chamados de modo geral simplesmente e apropriadamente de “robô 16”), e um controlador 28. Note que o transportador 14, a câmera tridimensional 18, cada um dos robôs 16A e 16B, e o controlador 28 são conectados entre si de modo comunicável. O transportador 14 transporta a chalota 12 colocada na superfície de transporte em uma direção (da direita para a esquerda na Fig. 1; de trás para frente do papel que contém a Fig.2). O transportador 14 compreende um motor 142, uma parte de acionamento de transportador 144 (parte de acionamento), e um codificador 146. O motor 142 gera uma força de rotação. A parte de acionamento de transportador 144 é conectada ao motor 142, e é acionada de modo rotativo pela força de rotação do motor 142. O codificador 146 é conectado à parte de acionamento de transportador 144, e detecta a posição de rotação da parte de acionamento de transportador 144. O resultado da detecção do codificador 146, isto é, a informação de posição de rotação da parte de acionamento de transportador 144, é transmitida ao controlador 28. O sensor tridimensional 18 compreende uma fonte de luz laser e uma câmera. O sensor tridimensional 18 é posicionado no lado à montante do trajeto de transporte do transportador 14. De modo específico, o sensor tridimensional 18 é fixado em um membro de suporte 32 em forma de um L substancialmente invertido fixado a uma parte de solo de modo que fica posicionado acima do trajeto de transporte, e a fonte de luz laser e câmera ficam viradas para baixo. A fonte de luz laser é disposta em um local predeterminado do transportador 14. De modo específico, a fonte de luz laser é disposta de modo que a luz laser em forma de fenda (feixe linear) (doravante apropriadamente chamado de “luz laser em forma de fenda”) seguindo na direção ortogonal à direção de transporte do transportador 14 seja continuamente irradiada (emitida). A câmera é disposta de modo a receber a luz refletida de um trajeto óptico que difere do trajeto da luz laser de fenda irradiada pela fonte de luz laser (a luz refletida que possui um ângulo predeterminado com relação à luz incidente). A câmera captura continuamente uma imagem do local irradiado da luz laser de fenda irradiada pela fonte de luz laser e seus arredores. A chalota 12 é transportada de modo contínuo no trajeto de transporte a uma velocidade predeterminada. Isto é, a chalota 12 passa embaixo da área de detecção do sensor tridimensional 18. O sensor tridimensional 18 irradia a luz laser de fenda da fonte de luz laser na chalota 12, e captura a luz refletida daquela luz laser por meio da câmera. Com essa configuração, o sensor tridimensional 18 escaneia a chalota 12 que passa embaixo dele. Então, com base na imagem capturada pela câmera, a distância até a chalota 12 escaneada é calculada usando o princípio de triangulação, e o formato tridimensional da chalota 12 é detectado. O resultado da detecção do sensor tridimensional 18, isto é, a imagem capturada da câmera do sensor tridimensional 18 e a informação de distância daquela imagem capturada, são transmitidas para o controlador 28.
Cada um dos robôs 16A e 16B é disposto mais abaixo no lado à jusante do trajeto de transporte do que o sensor tridimensional 18. Mais especificamente, os robôs 16A e 16B são dispostos respectivamente em uma região em um lado (lado superior na Fig. 1; lado esquerdo na Fig. 2) e em uma região no outro lado (lado inferior na Fig. 1; lado direito na Fig. 2) do trajeto de transporte na direção da largura de modo que os dois fiquem separados por uma certa distância (aproximadamente 1 m, por exemplo) ao longo do trajeto de transporte. Adicionalmente, cada um dos robôs 16A e 16B (pelo menos o robô 16A mais à montante) da pluralidade de robôs 16 ao longo do trajeto de transporte são dispostos em um local que leva em consideração a operação da ferramenta descrita adiante (especificamente, a operação de sucção de almofadas de sucção 166a e 166b). Isto é, a região onde a chalota 12 sendo transportada é içada pela almofada de sucção 166a e 166b é separada da localização fixa do sensor tridimensional 18 (especificamente, a área de detecção da chalota 12 pelo sensor tridimensional 18) por uma distância predeterminada S ou maior ao longo do trajeto de transporte, à jusante do trajeto de transporte. A distância predeterminada S é, por exemplo, a distância pela qual a chalota 12 é transportada durante o período de processamento para obter a imagem de grande alcance descrita adiante do resultado da detecção do sensor tridimensional 18, que é de 1m, por exemplo.
Cada um desses robôs 16A e 16B é um robô articulado verticalmente neste exemplo. Os robôs 16A e 16B compreendem uma base 162, uma base giratória 163, um braço 164, e uma ferramenta (as almofadas de sucção 166a e 166b, que são dispositivos de sucção, neste exemplo) para executar a tarefa (que corresponde a uma tarefa predeterminada) de içar e mover a chalota 12 com base em um método de içamento predeterminado. A base 162 é fixada na superfície superior interna de um pedestal 30 fixado em uma região de solo (não mostrado). A base giratória 163 é instalada de modo giratório na base 162. O braço 164 compreende uma pluralidade de membros, e cada membro é instalado de modo giratório um no outro. As almofadas de sucção 166a e 166b (doravante chamadas simplesmente e apropriadamente de modo geral de “almofada de sucção 166”) são instaladas na extremidade do braço 164. A almofada de sucção 166 é feita para exercer sucção por meio de um dispositivo a vácuo (não mostrado) é, portanto, capaz de sugar e içar a chalota 12. Adicionalmente, a câmera 20 (dispositivo de captura de imagem; segundo sensor), um cortador 22, uma caixa de descarte 24, e uma caixa de armazenamento 26 são instalados respectivamente na área ao redor de cada robô 16A e 16B. Note-se que cada uma das câmeras 20 e o controlador 28 são conectados entre si de modo comunicável.
Para cada um desses robôs 16A e 16B, as almofadas de sucção 166a e 166b capazes de içar a chalota 12 por meio de sucção a vácuo ao criar uma força de sucção por meio do dispositivo de vácuo (não mostrado) são instaladas na extremidade do braço 164. Então, cada um dos robôs 16A e 16B opera a base giratória 163 e o braço 164 de modo coordenado. Com esse arranjo, as almofadas de sucção 166a e 166b entram em contato com a chalota 12 (especificamente, a seção da porção de bulbo 12c da chalota 12 conforme descrito adiante) transportada no trajeto e transporte. Em seguida, a chalota 12 é içada por meio da força de sucção (equivalente ao método de içamento predeterminado) das almofadas de sucção 166a e 166b. Durante esse estado de içamento, a chalota 12 é movida até um local predeterminado de captura de imagem dentro do campo de visão de uma lente 201 da câmera adjacente 20. A seguir, a chalota 12 içada pelas almofadas de sucção 166a e 166b é movida ao local de uma lâmina 2221 de um cortador circular 222 do cortador 22 nas redondezas, e é cortada pelo cortador 22. Subsequentemente, a porção de bulbo 12c da chalota de onde a porção folhosa de raiz 12a e a porção de talo 12b foram cortadas pelo processo de corte e a qual foi içada pelas almofadas de sucção 166a e 166b é movida por sobre a caixa de armazenamento adjacente 26 e depositada na caixa de armazenamento adjacente 26 (detalhes serão descritos adiante).
As câmeras 20 são instaladas respectivamente próximas a cada um dos robôs 16A e 16B, e compreendem na porção frontal da lente 201 e iluminação 202 feita com uma pluralidade de LEDs dispostos de modo circular em volta da lente 201. Nesse momento, o lado posterior da câmera 20 fica de frente para a superfície lateral do transportador 14. Adicionalmente, o campo de visão da lente 201 é posicionado dentro de uma faixa de movimento das almofadas de sucção 166a e 166b do robô adjacente 16. Cada uma das câmeras 20 é instalada de modo que a superfície frontal não fique virada para cima, possibilitando assim a proteção da lente 201 contra gotículas de água que caem de cima. Ademais, uma retroiluminação (não mostrada) é instalada na da superfície frontal da lente 201 de cada uma das câmeras 20. Então, cada uma das câmeras 20 captura uma imagem dentro de campo de visão por meio da lente 201 quando a chalota 12 se move até o local de captura de imagem dentro de campo de visão da lente 201 pelo robô adjacente 16 como descrito acima. Com essa configuração, a câmera 20 captura uma imagem da chalota 12 movida até o local de captura de imagem, detectando o formato e posição da chalota 12. O resultado da detecção de cada uma das câmeras 20, isto é, a imagem capturada de cada uma das câmeras 20, é transmitida ao controlador 28.
Os cortadores 22 são instalados respectivamente próximos aos robôs 16A e 16B. O cortador 22 compreende o cortador circular 222 que gira na direção circunferencial. O cortador circular 222 possui em volta de sua região periférica externa a lâmina 2221 que corta a chalota 12. Nesse momento, o posicionamento da lâmina 2221 do cortador circular 222 (a posição onde o processo é executado) é localizado dentro da fixa de movimento da almofada de sucção 166 do robô 16 correspondente. A caixa de descarte 24 é uma caixa para o descarte da porção folhosa de raiz 12a e da porção de talo 12b da chalota 12 cortadas pelo cortador 22. A caixa de descarte 24 é uma caixa aberta em sua porção superior, e é disposta embaixo de cada um dos cortadores 22. A caixa de armazenamento 26 é uma caixa para armazenar a porção de bulbo 12c da chalota 12 da qual a porção folhosa de raiz 12a e a porção de talo 12b foram cortadas pelo cortador 22. A caixa de armazenamento 26 é uma caixa aberta em sua porção superior, e é provida próxima a cada robô 16A e 16B. O controlador 28 compreende um computador que inclui um dispositivo de entrada, um dispositivo de visualização, um dispositivo de armazenamento, um dispositivo operacional, e assim por diante, para controlar a operação da câmera tridimensional 18, cada um dos robôs 16A e 16B, a câmera 20, e assim por diante. Esse controlador 28 compreende uma primeira parte de processamento de imagem 281 (primeira parte de definição), uma segunda parte de processamento de imagem 283 (segunda parte de definição), uma parte de seleção de robô 285, e um controlador de robô 286, como mostrado na Fig. 3. A primeira parte de processamento de imagem 281 gera uma imagem capturada por uma câmera do sensor tridimensional 18 transmitida pelo sensor tridimensional 18, e uma imagem de grande alcance (informação tridimensional) com base na informação de distância daquela imagem capturada. A imagem de grande alcance é uma imagem que expressa em uma imagem da extensão da distância de cada uma das áreas na imagem até o sensor tridimensional 18. Em seguida, a primeira parte de processamento de imagem 281 detecta o formato tridimensional da chalota 12 (doravante apropriadamente chamada de “chalota 12 específica”) que passou embaixo do sensor tridimensional 18, com base na imagem de grande alcance gerada. Com essa configuração, a primeira parte de processamento de imagem 281 define a área-alvo de sucção (área-alvo de contato) da chalota 12 específica (detalhes serão descritos adiante). A área-alvo de sucção é uma área que serve como o alvo da força de sucção (contato) feita pela almofada de sucção 166 do robô 16, isto é, uma área que pode muito provavelmente ser sugada pela almofada de sucção 166. A segunda parte de processamento de imagem 283 detecta o formato e a posição da chalota 12 específica capturadas em uma imagem pela câmera 20, com base na imagem capturada da câmera 20 transmitida da câmera 20. A seguir, a segunda parte de processamento de imagem 283 define a área-alvo de processamento da chalota 12 específica (detalhes serão descritos adiante). A área-alvo de processamento é uma área que serve como o alvo para a seção de corte de modo geral (incluindo a posição inicial de corte e o ângulo de corte daquela posição) a ser cortada pela lâmina 2221. A parte de seleção de robô 285 seleciona o robô 16 que deve processar a chalota 12 específica a partir da pluralidade (dois neste exemplo) de robôs 16A e 16B. Por exemplo, a parte de seleção de robô 285 seleciona o robô 16 seguindo uma ordem predefinida (por exemplo, uma ordem definida para iniciar a partir do local mais próximo ao sensor tridimensional 18). Adicionalmente, a parte de seleção de robô 285 pode selecionar o robô 16 dos robôs 16 que não estão executando nenhum processamento (que já finalizaram o processamento), começando pelo robô 16 que tem a prioridade mais alta. Possíveis exemplos de robôs que têm a prioridade mais alta incluem o robô 16 que tem a prioridade mais alta tomando como base a maior proximidade com o sensor tridimensional 18, e o robô que tem o tempo mais rápido de finalização no processamento anterior.
Adicionalmente, a parte de seleção de robô 285 pode selecionar aleatoriamente o robô 16 que não está executando nenhum processamento (que já finalizou o processamento). Adicionalmente, a parte de seleção de robô 285 pode detectar a localização de transporte (a localização na direção da largura do transportador 14) da chalota 12 específica com base na imagem capturada da câmera do sensor tridimensional 18 transmitida do sensor tridimensional 18, e selecionar o robô 16 instalado ao lado do local detectado (por exemplo, em um lado na direção da largura do transportador 14). O controlador de robô 286 é configurado para operar os robôs 16A e 16B. O controlador de robô 286 compreende um primeiro controlador 2861 (primeira parte de controle) e um segundo controlador 2862 (segundo parte de controle). O primeiro controlador 2861 calcula a quantidade de movimento da chalota 12 transportada no trajeto de transporte com base na informação da posição rotativa da parte de acionamento do transportador 144 transmitida do codificador 146 do transportador 14. A seguir, o primeiro controlador 2861 calcula o momento em que a chalota 12 específica será transportada pela faixa de movimento da almofada de sucção 166 do robô 16 com base no movimento total calculado da chalota 12 e a posição da área-alvo de sucção da chalota 12 definidos pela primeira parte de processamento de imagem 281. Esse momento, em outras palavras, é a hora de inicio da operação do robô 16 de sugar e içar a área-alvo de sucção da chalota 12 específica usando a almofada de sucção 166. Adicionalmente, um primeiro controlador 2831 opera a base giratória 164 e o braço 164 de modo coordenado na hora calculada de início da operação. Com esse arranjo, a operação de cada um dos robôs 16A e 16B é controlada (os detalhes serão descritos adiante), a almofada de sucção 166 entre em contato com a área-alvo de sucção da chalota 12 específica, e a chalota 12 específica é içada pela sucção. Adicionalmente, nesse momento a chalota 12 específica é movida para o local de captura de imagem dentro do campo de visão da lente 201 da câmera 20 adjacente. O segundo controlador 2862 opera a base giratória 163 e o braço 164 de modo coordenado. Com esse arranjo, a operação de cada um dos robôs 16A e 16B é controlada (os detalhes serão descritos adiante), e a área-alvo de processamento definida pela segunda parte de processamento de imagem 283 na chalota 12 específica içada pela almofada de sucção 166 é guiada até o local da lâmina 2221 (o local onde o processamento dever ser executado).
Segue agora a descrição de um exemplo da operação do sistema robotizado 10 usando as Figs. 4 a 10.
Primeiro, como mostrado na Fig.4, a chalota 12 que está sendo continuamente transportada no lado à montante do trajeto de transporte a uma velocidade predeterminada é detectada pelo sensor tridimensional 18 quando ela passa embaixo do sensor tridimensional 18. A seguir, aquele resultado de detecção, isto é, a imagem capturada da câmera do sensor tridimensional 18 e a informação da distância da imagem capturada, é transmitido ao controlador 28. A primeira parte de processamento de imagem 281 do controlador 28 gera então a imagem de grande alcance com base na imagem capturada transmitida da câmera do sensor tridimensional 18 e na informação da distância daquela imagem capturada. A Fig.õA e Fig. 5B mostram diagramas esquemáticos que forma um modelo de um exemplo da imagem de grande alcance gerada. Note-se que as imagens de grande alcance mostradas na Fig.õA e Fig. 5B são imagens que formam um modelo de uma mesma informação a partir de diferentes perspectivas. Como mostrado na Fig.õA e Fig. õB, o formato da chalota 12 específica que passou embaixo do sensor tridimensional 18 é mostrado em três dimensões na imagem de grande alcance gerada. A primeira parte de processamento de imagem 281 detecta o formato tridimensional da chalota 12 específica com base nesta imagem de grande alcance, e define a área-alvo de sucção da chalota 12. Segue agora a descrição deste modo de execução sob a premissa de que um obstáculo que impede a sucção a vácuo pela almofada de sucção 166 não existe acima da porção de bulbo 12c da chalota 12 específica mostrada na imagem de grande alcance gerada. Dito obstáculo seria, por exemplo, as folhas da porção folhosa de raiz 12a ou uma folha da porção de talo 12b. A primeira parte de processamento de imagem 281 detecta a parte mais alta da chalota 12 específica que compreende uma área de superfície plana de um tamanho predeterminado (1cm3, por exemplo) ou maior (a área indicada pela referência numérica 31 no exemplo mostrado na Fig.õA e Fig. õB). Em seguida, a primeira parte de processamento de imagem 281 define essa área detectada como sendo a área-alvo de sucção da chalota 12 específica.
Subsequentemente, como mostrado na Fig. 6, o robô 16 (o robô 16A neste exemplo), selecionado pela parte de seleção de robô 28õ, opera a base giratória 163 e o braço 164 de modo coordenado com base na hora de início de operação calculada pelo primeiro controlador 2861, através do controle do primeiro controlador 2861 do controlador de robô 286. Com esse arranjo, o robô 16 faz com que a almofada de sucção 166 (a almofada de sucção 166a nesse exemplo) entre em contato com a área-alvo de sucção (a área indicada pela referência numérica 31 no exemplo mostrado na Fig.6) da chalota 12 específica transportada no trajeto de transporte. Em seguida, como mostrado na Fig.7, após a chalota 12 específica ser içada pela força de sucção da almofada de sucção 166, a base giratória 163 e o braço 164 são operados de modo coordenado para tomar uma posição predefinida e determinada. Com esse arranjo, a chalota 12 específica içada é movida para o local de captura de imagem dentro do campo de visão da lente 201 da câmera 20 adjacente.
Então, a câmera 20 captura uma imagem do robô 16 na posição de criação de imagem e da chalota 12 específica movida para o local de captura de imagem dentro do campo de visão da lente 201. Em seguida, a imagem capturada é transmitida ao controlador 28. A Fig.8A mostra uma vista esquemática de um modelo de um exemplo da imagem capturada pela câmera 20, a imagem sendo transmitida ao controlador 28 a partir da câmera 20. Como mostrado na Fig. 8A, o formato e a posição do robô 16 e da chalota 12 específica são expressos em duas dimensões na imagem capturada da câmera 20. A segunda parte de processamento de imagem 283 do controlador 28 detecta o formato e a posição da chalota 12 específica e define a área-alvo de processamento da chalota 12 específica com base nessa imagem capturada. De acordo com esse modo de execução, segunda parte de processamento de imagem 283 gera primeiro uma imagem (uma imagem 12’ da chalota 12 específica apenas) que exclui uma imagem 16A’ do robô 16A da imagem capturada da câmera 20, como mostrado na Fig.8A. Subsequentemente, a segunda parte de processamento de imagem 283, como mostrado na Fig.8B, calcula o círculo máximo inscrito (o círculo indicado pela referência numérica 33 no exemplo mostrado na Fig.8B), da imagem 12’ da chalota 12 específica mostrada na imagem gerada e encontra a posição central daquele círculo máximo inscrito. Em seguida, a segunda parte de processamento de imagem 283 define a posição central calculada como o centro de gravidade (o local indicado pela referência numérica 34, no exemplo mostrado na Fig.8B) da imagem 12’ da chalota 12 específica. Logo após, a segunda parte de processamento de imagem 283, como mostrado na Fig.9A, compara a área de superfície de uma faixa determinada em um lado (a faixa indicada pela referência numérica 35 exemplo mostrado na Fig. 9A) com a área de superfície de uma faixa determinada no outro lado (a faixa indicada pela referência numérica 36 exemplo mostrado na Fig. 9A) do centro de gravidade encontrado da imagem 12' da chalota 12 específica. A seguir, a segunda parte de processamento de imagem 283 determina que o lado com a maior área de superfície (o lado da faixa indicada pela referência numérica 35 exemplo mostrado na Fig. 9A) é o lado da porção folhosa de raiz 12a, e o lado com a menor área de superfície (o lado da faixa indicada pela referência numérica 36 exemplo mostrado na Fig. 9A) é o lado da porção de talo 12b. Em seguida, a segunda parte de processamento de imagem 283, como mostrado na Fig.9B, mede a dimensão da largura (espessura) de cada área do lado da porção de talo 12b a partir do centro de gravidade da imagem 12’ encontrada da chalota 12 específica, e específica a área onde a largura é menor ou igual a um valor predeterminado (a área indicada pela referência numérica 37 exemplo mostrado na Fig. 9B). De modo similar, a segunda parte de processamento de imagem 283 mede a dimensão da largura (espessura) de cada área do lado da porção folhosa de raiz 12b a partir do centro de gravidade da imagem 12’ encontrada da chalota 12 específica, e específica a área onde a largura é menor ou igual a um valor predeterminado (a área indicada pela referência numérica 38 exemplo mostrado na Fig. 9B). A seguir, segunda parte de processamento de imagem 283 define as áreas especificadas 37 e 38 como sendo a área-alvo de processamento da chalota 12 específica.
Logo em seguida, como mostrado na Fig. 10, o robô 16A opera a base giratória 163 e o braço 164 de modo coordenado por meio do controle do segundo controlador 2862 do controlador de robô 286. Com esse arranjo, a área-alvo de processamento definida (a área 37 e a área 38 no exemplo mostrado na Fig.10) da chalota 12 específica içada pela almofada de sucção 166a é guiada ao local da lâmina 2221. A seguir, a chalota 12 específica içada pela almofada de sucção 166 é corada pela lâmina 2221 ao longo da área-alvo de processamento por meio da operação coordenada da base giratória 163 e do braço 164. Com esse arranjo, a porção folhosa de raiz 12a e a porção de talo 12b são separadas da porção de bulbo 12c, derrubadas, e colocadas dentro da caixa de descarte 24 abaixo da lâmina 2221. Logo após, o robô 16A opera a base giratória 163 e o braço 164 de modo coordenado por meio do controle do controlador de robô 286. Como resultado, a porção de bulbo 12c da chalota 12 específica içada pela almofada de sucção 166 é então liberada nesse estado de movimento, fazendo com que a porção de bulbo 12c da chalota 12 específica seja colocada na caixa de armazenamento 26. Note-se que enquanto o acima descreveu um cenário ilustrativo no qual um robô 16A selecionado pela parte de seleção de robô 285 suga e corta a chalota 12 específica, uma operação semelhante pode ser executada por algum outro dos robôs 16, tal como ο 16B.
Conforme descrito acima, no sistema robotizado 10 deste modo de execução, o robô 16 faz com que a almofada de sucção 166 entre em contato com a chalota 12 transportada dentro da faixa de movimento da almofada de sucção 166 pelo transportador 14, e iça a chalota 12. Adicionalmente, a chalota 12 içada é movida até o local da lâmina 2221 do cortador circular 222 do cortador 22, onde o processo de corte é executado na chalota 12.
Aqui, a chalota 12, que é um objeto inconsistente como descrito acima, apresenta variação em seu formato individual. Como resultado, quando a chalota 12 é cortada seguindo o método comum, o robô 16 não consegue, por vezes, fazer com que a almofada de sucção 166 entre em contato com a chalota 12 e assim falha em içar a chalota 12 ao tentar mover a chalota 12 transportada até o local da lâmina 2221. Ou, a almofada de sucção 166 pode entrar em contato com a chalota 12, mas, devido à posição de contato deficitária, falha em içar a chalota 12. Ou, às vezes, a almofada de sucção 166 iça a chalota 12, porém logo a derruba durante o movimento. Nesses casos, existe a possibilidade de que o robô falhe em mover a chalota 12 até o local da lâmina 2221. Ademais, mesmo que a chalota 12 seja movida com sucesso para o local da lâmina 2221, a variação em formato individual da chalota 12 descrita cima impossibilita a definição em detalhe da área-alvo de processamento de cada chalota 12 seguindo os métodos comuns. Como consequência, existe a possibilidade da variação ocorrer na área individual de corte da chalota 12 durante o processamento.
Aqui, neste modo de execução, o sensor tridimensional 18 detecta a chalota 12 transportada no trajeto de transporte pelo transportador 14. A seguir, primeira parte de processamento de imagem 281 do controlador 28 define a área-alvo de sucção da chalota 12 específica que passou embaixo do sensor tridimensional 18, com base no resultado de detecção do sensor tridimensional 18. Logo em seguida, quando a chalota 12 específica é transportada dentro da faixa de movimento da almofada de sucção 166, o robô 16 faz com que a almofada de sucção 166 entre em contato com a área-alvo de sucção da chalota 12 específica por meio do controle do primeiro controlador 2861 do controlador 28. Com esse arranjo, a chalota 12 específica é içada e movida ao local de captura de imagem. Como resultado, mesmo no caso em que a chalota 12 deve ser cortada, o robô 16 pode de modo confiável mover a chalota 12 para o local da lâmina 2221. Em seguida, a câmera 20 detecta a posição da chalota 12 específica movida para o local de captura de imagem. Com base nos resultados de detecção da câmera 20, a segunda parte de processamento de imagem 283 do controlador 28 define a área-alvo de processamento da chalota 12 específica içada pela almofada de sucção 166 do robô 16. Logo após, o robô 16 guia a área-alvo de processamento definida da chalota 12 específica içada pela almofada de sucção 166 para o local da lâmina 2221 do controlador 28. Com esse arranjo, em um caso em que a chalota 12 deve ser cortada, a área-alvo de processamento definida da chalota 12 pode ser guiada para o local da lâmina 2221. Correspondentemente, a variação na área de processamento entre as chalotas 12 individuais durante o processamento pode ser eliminada, possibilitando a melhora na precisão do processamento.
Adicionalmente, neste modo de execução, após o sensor tridimensional 18 detectar a chalota 12, a câmera 20 detecta a posição da chalota 12 mai uma vez, como descrito acima. Com esse arranjo, mesmo que a posição da chalota 12 mude durante o transporte após a detecção pelo sensor tridimensional 18, a câmera 20 verifica a posição da chalota 12 mais uma vez, possibilitando o processamento da chalota 12. Também com isso, obtém-se a vantagem da melhora na precisão do processamento.
Adicionalmente, em particular, de acordo com esse modo de execução, o transportador 14 compreende o motor 142, a parte de acionamento de transportador 144 acionada de modo rotativo pelo motor 142, e o codificador 146 que é conectado à parte de acionamento de transportador 144 e detecta a posição de rotação da parte de acionamento de transportador 144. Em seguida, a primeira parte de controle 2861 do controlador de robô 286 do controlador 28 calcula o momento de início da operação do robô 16 com base no resultado de detecção do codificador 146. Como resultado, o robô 16 consegue içar a chalota 12 de modo confiável em coordenação segura com a operação de transporte da chalota 12 pelo transportador 14.
Adicionalmente, em particular, de acordo com esse modo de execução, as seguintes vantagens podem ser obtidas. Isto é, é possível considerar uma configuração na qual a câmera é instalada no lado à montante do trajeto de transporte do transportador 14 e determinar o formato (formato bidimensional) da chalota 12 com base na imagem capturada por aquela câmera. Não obstante, nesse caso, por exemplo, os membros constituintes da superfície de transporte do transportador 14 são feitos de um material óptico transparente, o que exige que as condições ópticas da área envolta da câmera sejam rigorosamente controladas a fim de obter uma imagem detalhada da chalota 12. Isto pode ser conseguido, por exemplo, irradiando uma retroiluminação a partir do lado inferior da superfície de transporte na direção da chalota 12. Como resultado, há um aumento nos custos com equipamento. Aqui, nesse modo de execução, a câmera tridimensional 18 é instalada no lado à montante do trajeto de transporte do transportador 14. Em seguida, a primeira parte de processamento de imagem 281 do controlador 28 define a área-alvo de contato da chalota 12 com base na imagem de grande alcance correspondente ao resultado de detecção da câmera tridimensional 18. Com o formato da chalota 12 (formato tridimensional) sendo determinado com base na imagem de grande alcance correspondente ao resultado de detecção do sensor tridimensional 18, as condições ópticas envolta do sensor tridimensional 18 não precisam ser rigorosamente controladas como no caso em que a câmera é instalada. Consequentemente, uma redução nos custos com equipamento pode ser obtida. Ademais, uma vez que a área-alvo de contato da chalota 12 é definida com base no formato tridimensional da chalota 12, é possível determinar a área onde o robô 16 pode obter um contato seguro por meio da almofada de sucção 166 (a área mais alta que compreende uma área de superfície plana de uma área de superfície predeterminada ou maior da chalota 12 nesse exemplo). Como resultado, é possível obter um aumento adicional na precisão da determinação da área-alvo de contato da chalota 12.
Adicionalmente, em particular, de acordo com esse modo de execução, as seguintes vantagens podem ser obtidas. Isto é, conforma descrito acima, de acordo com o modo de execução, a chalota 12 é movida de modo seguro até um local predeterminado. Correspondentemente, é possível usar um sensor que exige um controlo rigoroso das condições ópticas (tal como a instalação de retroiluminação na área adjacente) dentro da faixa de movimento da almofada de sucção 166 do robô 16 como o sensor para detectar a posição da chalota 12 movida. Isto é, é possível captura uma imagem da chalota 12 mesmo que o sensor seja configurado dentro de uma câmera. Aqui, nesse modo de execução, o sensor para detectar a posição da chalota 12 movida até o local predeterminado é configurado dentro da câmera 20, a segunda parte de processamento de imagem 283 do controlador 28 define a área-alvo de processamento da chalota 12 com base na imagem capturada pela câmera 20, Com esse arranjo, o sensor para detectar a posição da chalota 12 movida até o local predeterminado não precisa de configuração usando um sensor tridimensional de alto custo. Isto é, a posição, centro de gravidade, etc., da chalota 12 são descobertas com base na imagem capturada pela câmera 20, possibilitando determinar a área da chalota 12 a ser processada. Em seguida, é possível definir a área-alvo de processamento da chalota 12 com alta precisão.
Adicionalmente, em particular, de acordo com esse modo de execução, o robô 16 compreende a almofada de sucção que é capaz de içar por sucção a chalota 12, na extremidade do braço 164. Em seguida, a primeira parte de processamento de imagem 281 do controlador 28 define a área-alvo de sucção da almofada de sucção 166. Com esse arranjo, a chalota 12 transportada pode ser rápida e seguramente içada pela força de sucção da almofada de sucção 166.
Adicionalmente, em particular, de acordo com esse modo de execução, o sistema compreende co cortador 22 compreendendo a lâmina 2221 para cortar a chalota 12. A seguir, o segundo controlador 2862 do controlador de robô 286 do controlador 28 controla o robô 16 de modo que a área-alvo de processamento da chalota 12 içada pela almofada de sucção 166 do robô 16 seja guiada até o local da lâmina 2221. Com esse arranjo, a área-alvo de processamento da chalota 12 içada pela almofada de sucção 166 do robô 16 é guiada de modo seguro até o local da lâmina 2221 do cortador 22. Como resultado, o corte da chalota 12 pode ser obtido com uma alta precisão.
Note que os modos de execução não se limitam ao acima, e várias modificações pode ser feitas se que se afastem da essência e escopo da invenção. A seguir, tais modificações são descritas. (1-1) Variações no arranjo da câmera Por exemplo, como mostrado na Fig.11, cada uma das câmeras 20 pode ser disposta de modo que o lado frontal (o lado que compreende a lente 201 e a iluminação 202) esteja virado para cima. Também de acordo com essa modificação, semelhante ao modo de execução, a variação de áreas de processamento das chalotas individuais 12 durante o processamento pode ser eliminada de modo seguro, possibilitando melhorar a precisão do processamento. Ademais, com a câmera 20 instalada com seu lado frontal virado para cima, o robô 16 pode rapidamente mover a chalota 12 até o local de captura de imagem dentro do campo de visão da lente 201. Isso torna possível encurtar a duração do ciclo do robô 16. (1-2) Outra Embora, de acordo com o acima, o controlador 28 compreenda a primeira parte de processamento de imagem 281, a segunda parte de processamento de imagem 283, e o controlador de robô 286 compreendendo o primeiro controlador 2861 e o segundo controlador 2862, e execute várias operações e processos em forma de lotes, a presente invenção não se limita a isso. Isto é, essas várias operações e processos podem ser executados separadamente por dispositivos separados do controlador 28. Por exemplo, um primeiro dispositivo de processamento de imagem, um segundo dispositivo de processamento de imagem, e um controlador de robô podem ser providos. Em seguida, o primeiro dispositivo de processamento de imagem executa as mesmas operações e processos que a primeira parte de processamento de imagem 281, o segundo dispositivo de processamento de imagem executa as mesmas operações e processos que a segunda parte de processamento de imagem 283, e o controlador de robô executa as operações e processos que o controlador de robô 286. Nesse caso, o primeiro dispositivo de processamento de imagem equivale à primeira parte de definição, o segundo dispositivo de processamento de imagem equivale à segunda parte de definição, e o controlador de robô equivale à primeira parte de controle e à segunda parte de controle descritas nas reivindicações.
Adicionalmente, embora, de acordo com o acima, o sensor tridimensional 18 seja instalado como o sensor para detectar a chalota 12 transportada no trajeto de transporte pelo transportador 14, a presente invenção não se limita a isso. Isto é, o sensor instalado pode ser uma câmera, um sensor de alcance, ou similar. Nesse caso, a câmera, o sensor de alcance, etc. equivalem ao primeiro sensor descrito nas reivindicações.
Adicionalmente, embora de acordo com o acima a chalota 12, que é um objeto inconsistente, é submetida a um processo de corte, a presente invenção não se limita a isso. Isto é, um objeto inconsistente tal como um legume ou uma fruta além da chalota 12 ou um objeto artificial (produto industrial) que pode ser de uma variedade de tipos pode ser submetido a um processamento. Nesse caso, o objeto inconsistente tal como o objeto natural como um legume ou fruta além da chalota 12, ou o objeto artificial de uma pluralidade de tipos, equivale ao objeto descrito nas reivindicações. Ademais, o objeto não está limitado a um objeto com formato inconsistente, são também aceitos objetos com formato regular. Nesse caso, o objeto com formato regular equivale ao objeto descrito nas reivindicações.
Adicionalmente, embora de acordo com o acima a chalota 12 seja submetida a um processo de corte, a presente invenção não se limita a isso, é possível também que a chalota 12 seja submetida a outro processo que não o de corte.
Adicionalmente, embora de acordo com o acima o robô 16 compreenda a almofada de sucção 166 na extremidade do braço 164, a presente invenção não se limita a isso. Isto é, o robô 16 pode compreender uma mão robotizada na extremidade do braço 164 capaz de içar por retenção a chalota 12. Nesse caso, a mão robotizada equivale à ferramenta descrita nas reivindicações. Adicionalmente, o robô 16 pode compreender um membro farpado capaz de içar a chalota 12 por perfuração, na extremidade do braço 164. Nesse caso, o membro farpado equivale à ferramenta descrita nas reivindicações. Adicionalmente, num caso em que um objeto feito de uma substância magnética, como ferro, é submetido a processamento, o robô 16 pode compreender um eletromagneto capaz de içar eletromagneticamente por meio de uma força eletromagnética o objeto feito de uma substância magnética, como ferro, na extremidade do braço 164. Nesse caso, o eletromagneto equivale ao membro de sucção descrito nas reivindicações.
Adicionalmente, embora de acordo com o acima o robô 16 seja instalado em pluralidade, a presente invenção não se limita a isso, permite-se também a instalação de apenas um robô.
Em seguida, o segundo modo de execução será descrito com referência aos desenhos em anexo. Os componentes que são iguais àqueles do primeiro modo de execução serão denotados usando os mesmos numerais de referência, e suas descrições serão apropriadamente omitidas ou simplificadas. Este modo de execução, semelhante ao primeiro modo de execução, é um modo de execução que emprega uma chalota como objeto alvo. O sistema robotizado 10 (sistema robotizado) desse modo de execução compreende a mesma configuração que o sistema robotizado do primeiro modo de execução mostrado nas Figs.1 e 2.
Neste modo de execução, entre os robôs 16A e 16B, a função do robô 16A à montante é a mesma que do primeiro modo de execução. Isto é, a almofada de sucção 166a é instalada na extremidade do braço 164 do robô 16A. Então, o do robô 16A opera a base giratória 163 e o braço 164 de modo coordenado para que a almofada de sucção 166a capture a chalota 12 transportada no trajeto de transporte. Em seguida, a chalota 12 içada pela sucção da almofada de sucção 166a é movida até o local de captura de imagem predeterminado da câmera 20. Em seguida, após a chalota 12 içada pela almofada de sucção 166a ser movida até o local da lâmina 2221 do cortador 22 e ser cortada, a porção de bulbo 12c da chalota 12 da qual a porção folhosa de raiz 12a e a porção de talo 12b foram cortadas é depositada na caixa de armazenamento 26.
Por outro fado, de acordo com este modo de execução, o robô 16B no lado à jusante do trajeto de transporte possui uma mão 166c (mão robotizada) instalada como a ferramenta na extremidade do braço 164, como mostrado na Fig. 2. A mão 166c é uma ferramenta capaz de içar a chalota 12 usando retenção como método de içamento predeterminado. Este robô 16B opera a base giratória 163 e o braço 164 de modo coordenado, fazendo com que a mão 166c entre em contato com a porção de bulbo 12c da chalota 12 transportada. A chalota 12 é içada pela retenção da mão 166c e então, assim como o robô 16A, é movida ao local de captura de imagem predeterminado dentro do campo de visão da lente 201 da câmera 20. A seguir, a chalota 12 içada pela mão 166c é movida até o local da lâmina 2221 do cortador circular 222 do cortador 22 e é cortada pelo cortador 22, de modo semelhante ao robô 16A. Subsequentemente, a porção de bulbo 12c da chalota 12, da qual a porção folhosa de raiz 12a e a porção de talo 12b foram retiradas pelo processo de corte, e a qual foi içada pela mão 166c, é movida sobre a caixa de armazenamento 26 e depositada nela.
Note que, neste modo de execução, o tempo que leva para a chalota 12 ser içada pela força de sucção da almofada de sucção 166a é menor do que o tempo que leva para a chalota 12 ser içada pela retenção da mão 166c. Isto é, a força de sucção da almofade de sucção 166a é capaz de içar a chalota 12 mais rapidamente do que a retenção da mão 166c. O controlador 28, de modo semelhante ao primeiro modo de execução, compreende um computador compreendendo um dispositivo de entrada, um dispositivo de visualização, um dispositivo de armazenamento, um dispositivo operacional, e assim por diante, para controlar a operação da câmera tridimensional 18, cada um dos robôs 16A e 16B, a câmera 20, e assim por diante. Em seguida, de acordo com este modo de execução, o dispositivo de armazenamento do controlador 28 armazena uma pluralidade de comandos de operação inseridos previamente por meio de um controle para robôs ou similar, por exemplo. Essa pluralidade de comandos de operação inclui comandos de operação nos quais o robô 16 e o tipo de ferramenta não são especificados (tais como dados de instrução que incluem a posição de cada ponto de controle, o ângulo de cada junção, e o tipo de operação de interpolação, por exemplo) para a tarefa de içar e mover a chalota 12 transportada no trajeto de transporte pela ferramenta. A seguir, um exemplo do conteúdo do controle executado pelo controlador 28 deste modo de execução será descrito usando a Fig. 13.
Na Fig. 13, o processo mostrado no fluxo é iniciado por uma operação de início predeterminada (acionamento ON pelo controlador, por exemplo) executada por meio de um dispositivo de entrada, por exemplo. Primeiro, na etapa S5, o controlador transmite um determinado controle de operação armazenado em um dispositivo de armazenamento para cada um dos robôs 16A e 16B de modo que cada um dos robôs 16A e 16B assuma uma posição de espera predeterminada (a posição indicada na Fig. 12, por exemplo). Cada um dos robôs 16A e 16B opera a base giratória e o braço 164 de modo coordenado, assume uma posição de espera predeterminada, e aguarda, com base no comando de operação do controlador 28.
Em seguida, o fluxo segue para a etapa S10 em que o controlador 28 insere o resultado da detecção do sensor tridimensional 18, isto é, a imagem capturada pela câmera 20 do sensor tridimensional 18 e a informação de distância da imagem capturada.
Subsequentemente, na etapa S20, o controlador 28 gera uma imagem de grande alcance (informações tridimensionais) que expressa em uma imagem o tamanho da distância de cada área na imagem até o sensor tridimensional 18, com base na imagem capturada e na informação de distância inseridas na etapa S10.
Então, o controlador 28 detecta o formato tridimensional da chalota 12 específica que passou embaixo do o sensor tridimensional 18, com base na imagem de grande alcance gerada.
Em seguida, o fluxo segue para a etapa S30 onde o controlador 28 detecta uma área da chalota 12 específica que pode muito provavelmente ser sugada pela almofada sucção 166a, com base no formato tridimensional da chalota 12 específica detectada na etapa S20 (detalhes serão descritos adiante).
Subsequentemente, na etapa S40, o controlador 28 determina o método de içamento do modo de processamento do processo de içamento da ferramenta do robô 16 para a chalota 12 específica, de acordo com o resultado de detecção da etapa S30. Por exemplo, na etapa S30, num caso em que há uma área na chalota 12 específica que pode muito provavelmente ser sugada, o controlador 28 determina que o método de içamento da chalota 12 específica será sucção a vácuo pela almofada de sucção 166a. Isto se dá porque o tempo de sucção pela almofada de sucção 166a é menor do que o de retenção pela mão 166c. Por outro lado, na etapa S30, no caso de não haver uma área na chalota 12 específica que pode muito provavelmente ser sugada, o controlador 28 determina que o método para a chalota 12 específica será o de retenção pela mão 166c. Isto é, num caso em que há uma área na chalota 12 específica que pode muito provavelmente ser sugada, determina-se que sucção a vácuo será o método de içamento, que é mais rápido, e no caso de não haver uma área na chalota 12 específica que pode muito provavelmente ser sugada, determina-se que retenção será o método de içamento, que é mais longo. O procedimento desta etapa S40 funciona como a parte de determinação de modo descrita nas reivindicações.
Em seguida, o fluxo segue para a etapa S50, onde o controlador 28 seleciona entre o robô 16A e o robô 16B o robô 16 (que equivale ao primeiro robô; doravante denominado apropriadamente de “robô específico 16”) no qual a ferramenta (que equivale à primeira ferramenta; doravante denominada apropriadamente de “ferramenta específica”) que corresponde ao método de içamento determinado na etapa S40 é instalada, como sendo o robô 16 para executar a tarefa na chalota 12 específica. Por exemplo, na etapa S40, num caso em que se determina que sucção será o método de içamento, o robô 16A compreendendo a almofada de sucção 166a, que serve com uma ferramenta para executar a sucção, é selecionado. Por outro lado, na etapa S40, num caso em que se determina que retenção será o método de içamento, o robô 16B compreendendo a mão 166c, que serve com uma ferramenta para executar a retenção, é selecionado. O procedimento desta etapa S50 funciona como a primeira parte de seleção de robô descrita nas reivindicações.
Subsequentemente, na etapa S60, o controlador 28 define a área-alvo de contato da chalota 12 específica de acordo co o resultado da seleção na etapa S50. A área-alvo de contato é uma área que serve como alvo para o contato pela ferramenta específica do robô específico 16. Por exemplo, num caso em que o robô 16A é selecionado na etapa S50, a área da chalota 12 específica detectada na etapa S30 que é mais passível de ser sugada e que satisfaz condições predeterminadas (detalhes serão descritos adiante) é definida como a área-alvo de sucção da área-alvo de contato acima da chalota 12 específica. A área-alvo de sucção é uma área que serve como alvo da sucção a vácuo pela almofada de sucção 166a. Por outro lado, num caso em que o robô 16B é selecionado na etapa S50, a área adequada da porção de bulbo 12c da chalota 12 específica é definida como a área-alvo de retenção da área-alvo de contato acima da chalota 12 específica. A área-alvo de retenção é a área que serve com alvo para a retenção pela mão 166c.
Em seguida, o fluxo segue para a etapa S70, onde o controlador 28 calcula a quantidade de movimento da chalota 12 transportada no trajeto de transporte, com base no resultado de detecção (isto é, a informação da posição de rotação da parte de acionamento do transportador 144) do codificador 146 inserido em momento apropriado a partir do codificador 146 do transportador 14. Em seguida, com base naquela quantidade de movimento calculada da chalota 12, o controlador 28 calcula o momento no qual a chalota 12 específica será transportada dentro da faixa de movimento da ferramenta específica do robô específico 16. Tal momento, em outras palavras, é o momento de início de operação do robô específico 16 para içar a chalota 12 específica transportada no trajeto de transporte usando a ferramenta específica. O procedimento desta etapa S70 funciona como a parte de cálculo de momento.
Subsequentemente, na etapa S75, o controlador 28 lê o comando de operação relativo á etapa S75 no dispositivo de armazenamento, e regula o comando de operação lido para a ferramenta específica do robô específico 16. Ou seja, quando chega o momento de início de operação calculado na etapa S70, o comando de operação é regulado de modo que a base giratória 163 e o braço 164 operem coordenadamente. Adicionalmente, o comando de operação é regulado de modo que a ferramenta específica entre em contato com a área-alvo de contato da chalota 12 específica transportada no trajeto de transporte, e faça o içamento e mova a chalota 12 específica até o local de captura de imagem relativo à câmera 20 adjacente. Como resultado, por exemplo, num caso em que o robô 16A é selecionado na etapa S50, o comando de operação é regulado para a almofada de sucção 166a do robô 16A. Ou seja, o comando de operação é regulado de modo que a almofada de sucção 166a entre em contato a área-alvo de sucção da chalota 12 específica, e a chalota 12 específica seja içada e movida até o local de captura de imagem pela força de sucção da almofada de sucção 166a. De outro modo, num caso onde o robô 16B é selecionado na etapa S50, o comando de operação é regulado para a mão 166c do robô 16B. Ou seja, o comando de operação é regulado de modo que a mão 166c entre em contato a área-alvo de retenção da chalota 12 específica, e a chalota 12 específica seja içada e movida até o local de captura de imagem pela retenção da mão 166c.
Subsequentemente, na etapa S80, o controlador 28 transmite o comando de operação após regular na etapa S75 o robô específico 16. Com esse arranjo, o robô específico 16 opera a base giratória 163 e o braço 164 de modo coordenado quando chega o momento de início de operação, com base no comando de operação do controlador 28. Como resultado, a ferramenta específica entra em contato com a área-alvo de contato da chalota 12 específica transportada no trajeto de transporte, e faz o içamento e move a chalota 12 específica até o local de captura de imagem relativo á câmera 20 adjacente (detalhes serão descritos adiante). Por exemplo, num caso em que o robô 16A é selecionado na etapa S50, a almofada de sucção 166a do robô 16A entre em contato com a área-alvo de sucção da chalota 12 específica, e a chalota 12 específica é içada e movida até o local de captura de imagem pela força de sucção da almofada de sucção 166a. Por outro lado, num caso em que o robô 16B é selecionado na etapa S50, a mão 166c do robô 16B entre em contato com a área-alvo de retenção da chalota 12 específica, e a chalota 12 específica é içada e movida até o local de captura de imagem pela retenção da mão 166c.
Em seguida, o fluxo segue para a etapa S90, onde o controlador 28 insere o resultado de detecção da câmera 20 localizada adjacente ao robô específico 16, isto é, a imagem capturada da câmera 20.
Subsequentemente, na etapa S100, o controlador 28 detecta o formato e a posição da chalota 12 específica capturada pela câmera 20 com base na imagem capturada da câmera 20 inserida na etapa S90, e define a área-alvo de processamento da chalota 12 específica (detalhes serão descritos adiante). A área-alvo de processamento semelhante ao primeiro modo de execução, é uma área que serve como o alvo da seção geral de corte, incluindo a posição de início de corte da lâmina 2221 do cortador circular 222 do cortador 22 e o ângulo de corte da dita posição de início de corte.
Em seguida, o fluxo segue para a etapa S105, onde o controlador 28 lê o comando de operação relativo à etapa S105 armazenado no dispositivo de armazenamento, e regula comando de operação recém lido. Isto é, comando de operação de leitura é regulado para a ferramenta específica do robô específico 16 de modo que a área-alvo de processamento da chalota 12 específica içada pela ferramenta específica seja guiada até o local da lâmina 2221. Por exemplo, num caso em que o robô 16A é selecionado na etapa S50, o comando de operação é regulado para a almofada de sucção 166a de modo que a área-alvo de processamento da chalota 12 específica içada pela almofada de sucção 166a seja guiada até o local da lâmina 2221. Por outro lado, num caso em que o robô 16B é selecionado na etapa S50 o comando de operação é regulado para a mão 166o de modo que a área-alvo de processamento da chalota 12 específica içada pela mão 166c seja guiada até o local da lâmina 2221.
Em seguida, o fluxo segue para a etapa S110, onde o controlador 28 transmite o comando de operação após a regulagem na etapa S105 ao robô específico 16. Com esse arranjo, o robô específico 16 opera a base giratória 163 e o braço 164 de modo coordenado, com base no comando de operação do controlador 28. Como resultado, a área-alvo de processamento da chalota 12 específica içada pela ferramenta especifica é guiada até o local da lâmina 2221 onde uma operação predeterminada é executada (detalhes serão descritos adiante). Por exemplo, num caso em que o robô 16A é selecionado na etapa S50, a área-alvo de processamento da chalota 12 específica içada pela almofada de sucção 166a do robô 16A é guiada até o local da lâmina 2221 onde uma operação predeterminada é executada. Por outro lado, num caso em que o robô 16B é selecionado na etapa S50, a área-alvo de processamento da chalota 12 específica içada pela mão 166c do robô 16B 16A é guiada até o local da lâmina 2221 onde uma operação predeterminada é executada.
Subsequentemente, na etapa S120, o controlador 28 determina se uma operação predeterminada de fim (por exemplo, acionamento OFF do controlador 28) foi executada ou não pelo dispositivo de entrada, por exemplo. Até que a operação predeterminada de fim seja executada, as condições da etapa S120 não são satisfeitas, o fluxo retorna para a etapa S5, e os mesmos procedimentos são repetidos. Uma vez que a operação predeterminada de fim é executada, as condições da etapa S120 são satisfeitas e o processamento indicado neste fluxo é finalizado.
Note que, no acima, os procedimentos da etapa S75 e da etapa S105 funcionam como a parte de regulagem de operação descrita nas reivindicações. Ademais, os procedimentos da etapa S80 e da etapa S110 funcionam como a parte de transmissão de comando. A seguir, um exemplo da operação do sistema robotizado 10 deste modo de execução será descrito usando as Figs. 4 a 10.
Primeiro, o controlador 28 transmite um comando de operação predeterminado armazenado no dispositivo de armazenamento para cada um dos robôs 16A e 16B. Como resultado, cada um dos robôs 16A e 16B opera a base giratória 163 e o braço 164 de modo coordenado, assume uma posição de espera predeterminada, e aguarda (vide etapa S5). Em seguida, como mostrado na Fig. 4, a chalota 12 continuamente transportada no lado à montante do trajeto de transporte a uma velocidade predeterminada é detectada pelo sensor tridimensional 18 quando passa embaixo do sensor tridimensional 18. A seguir, o resultado dessa detecção, isto é, a imagem capturada da câmera do sensor tridimensional 18 e a informação de distância daquela imagem capturada, é transmitido ao controlador 28. Com esse arranjo, a imagem capturada da câmera do sensor tridimensional 18 e a informação de distância daquela imagem capturada são inseridas no controlador 28 (vide etapa S10), e a imagem de grande alcance é gerada com base na imagem capturada inserida da câmera do sensor tridimensional 18 e na informação de distância daquela imagem capturada (vide Fig.5A e Fig. 5B). Como descrito usando a Fig.õA e a Fig. 5B, o formato da chalota específica 12 que passou embaixo do sensor tridimensional 18 é expressa em três dimensões na imagem de grande alcance gerada nesse momento, e o formato tridimensional da chalota específica 12 é detectado com base nessa imagem de grande alcance (vide etapa S20). A seguir, com base no formato tridimensional da chalota específica 12, a área da chalota 12 específica que pode muito provavelmente ser sugada é detectada (vide etapa S30). Também nesse modo de execução, semelhante ao primeiro modo de execução, as descrições partem da premissa de que um obstáculo que impede a sucção a vácuo pela almofada de sucção 166 não existe acima da porção de bulbo 12c da chalota 12 específica mostrada na imagem de grande alcance gerada. Também nesse modo de execução, semelhante ao modo de execução acima, uma área compreendendo uma área de superfície plana com um tamanho predeterminado (1cm3, por exemplo) ou maior é detectada como senso a área que tem maior probabilidade de ser sugada.
Subsequentemente, de acordo com o resultado da detecção, o controlador 28 determina o método de içamento da ferramenta do robô 16 para a chalota 12 específica (vide etapa S40). A seguir, descreve-se o exemplo de um caso em que uma área da chalota 12 específica com grande probabilidade de ser sugada é detectada no acima. Ou seja, num caso onde uma área da chalota 12 específica que tem grande probabilidade de ser sugada é detectada no acima, determina-se que o método de içamento para a chalota 12 específica seja o de sucção a vácuo. Em seguida, entre os robôs 16A e 16B, o robô 16A compreendendo a almofada de sucção 166a servindo com a ferramenta que dá suporte para a sucção a vácuo é selecionado (vide etapa S50). Subsequentemente, a área da chalota 12 específica com grande probabilidade de ser sugada e que geralmente se encontra no local mais elevado (a área 31 mostrada na Fig.5A e Fig. 5B) é detectada, e essa área detectada é definida como a área-alvo de sucção da chalota 12 específica (vide etapa S60). Logo após, semelhante ao primeiro modo de execução, a quantidade de movimento da chalota 12 transportada no trajeto de transporte é calculada com base no resultado de detecção (isto é, a informação de posição de rotação da parte de acionamento do transportador 144) do codificador 146 inserido no controlador 28 em um momento apropriado a partir do codificador 146 do transportador 14. Então, com base na quantidade de movimento calculada da chalota 12, o momento em que a chalota 12 específica dever ser transportada dentro da faixa de movimento da almofada de sucção 166a do robô 16A (em outras palavras, o momento de início de operação para içar a chalota 12 específica pela almofada de sucção 166a) é calculado (vide etapa S70). A seguir, o controlador 28 lê e regula o comando de operação armazenado no dispositivo de armazenamento para a almofada de sucção 166a do robô 16A (vide etapa S75). Subsequentemente, comando de operação regulado é transmitido do controlador 28 ao robô 16A. Como resultado, conforme mostrado na Fig.6, o robô 16A opera a base giratória 163 e o braço n164 de modo coordenado quando chega o momento de início de operação calculado. Com esse arranjo, a almofada de sucção 166a entre em contato com a área-alvo de contato definida (a área 31 no exemplo mostrado na Fig. 6) da chalota 12 específica transportada no trajeto de transporte. Então, como mostrado na Fig. 7, a chalota 12 específica é içada pela força de sucção da almofada de sucção 166. Então, o controlador 28 move a chalota 12 içada pela almofada de sucção 166 até o local de captura de imagem dentro do campo de visão da lente 201 da câmera 20 operando de modo coordenado a base giratória 163 e o braço 164 de modo que uma posição de captura de imagem pré-definida seja assumida (vide etapa S80).
Com isso, a câmera 20 captura uma imagem do robô 16A na posição de captura de imagem e da chalota 12 específica movida até o local de captura de imagem dentro do campo de visão da lente 201. Em seguida, aquela imagem capturada é transmitida ao controlador 28. Com esse arranjo, a imagem capturada da câmera 28 (vide Fig.8A) é transmitida ao controlador 28 (vide etapa S90). Com base na imagem capturada na qual o robô 16A, o formato e a posição da chalota 12 específica são expressados em duas dimensões como mostrado na Fig.8A, o formato e posição da chalota 12 específica são detectados, e a área-alvo de processamento da chalota 12 específica é definida pelo controlador 28 (vide etapa S100). Nesse modo de execução, semelhante ao primeiro modo de execução, gera-se primeiro uma imagem que exclui a imagem 16’ do robô 16A mostrada na Fig.8A, calcula-se o círculo máximo inscrito (o círculo 33 mostrado Fig.8B) da imagem 12’ da chalota 12 específica naquela imagem, e a posição central daquele círculo máximo inscrito é definido como o centro de gravidade (a posição 34 mostrada na Fig.8B) da imagem 12’ da chalota 12 específica. Subsequentemente, de modo similar ao acima, um lado e o outro lado do centro de gravidade da imagem 12’ da chalota 12 específica são comparados em termos de área de superfície e, como mostrado na Fig. 9, o lado com a maior área de superfície é definido como o lado da porção folhosa de raiz 12a, e o lado com a menor área de superfície é definido como o lado da porção de talo 12b. Então, semelhante o acima, a área 37 e a área 28 são definidas como as áreas-alvo de processamento da chalota 12 específica com base nas dimensões de largura respectivas de ambos os lado do centro de gravidade da imagem 12’ da chalota 12 específica. A seguir, o comando de operação armazenado no dispositivo de armazenamento é lido e em seguida regulado para a almofada de sucção 166a do robô 16A pelo controlador 28 (vide etapa S105). Subsequentemente, o comando de operação regulado é transmitido do controlador 28 ao robô 16A. Como resultado, conforme mostrado na Fig.10, o robô 16A opera a base giratória 163 e o braço 164 de modo coordenado. Com esse arranjo, a área-alvo de processamento (as áreas 37 e 38) da chalota 12 específica içada pela almofada de sucção é guiada até o local da lâmina 2221 do cortador circular 222, e o corte é executado ao longo da área-alvo de processamento pela lâmina 2221. Com esse arranjo, a porção folhosa de raiz 12a e a porção de talo 12b são separadas da porção de bulbo 12c, derrubadas, e colocadas na caixa de descarte 24. Então, a porção de bulbo 12c da chalota 12 específica içada pela almofada de sucção 166a é movido sobre a caixa de armazenamento 26 e, após a liberação da sucção a vácuo da almofada de sucção 166, é depositado na caixa de armazenamento 26 (vide etapa S110).
Como descrito acima, o sistema robotizado 10 desse modo de execução compreende o transportador 14 que transporta a chalota 12, os robôs 16A e 16B que compreendem a almofada de sucção 166a ou a mão 166c, e o controlador 28 que transmite um comando de operação para cada um dos robôs 16A e 16B. Cada um dos robôs 16A e 16B opera com base no comando de operação do controlador 28, e executa a tarefa de içar e mover a chalota 12 transportada no trajeto de transporte usando a de sucção 166a ou a mão 166c.
Aqui, num caso onde a tarefa executada é de içar e mover a chalota 12 servindo como o objeto inconsistente acima descrito, há uma variação no formato individual da chalota 12, normalmente impossibilitando que se reconheça o formato de cada uma das chalotas 12. Como resultado, cada um dos robôs 16A e 16B poderá possivelmente deixar escapar a chalota 12 mesmo quando operados com base no comando de operação do controlador 28. Para solucionar tais inconveniências, geralmente uma imagem da chalota 12 transportada no trajeto de transporte é capturada por uma câmera, e o controlador 28 regula o comando de operação com base nessa imagem capturada e transmite o comando de operação regulado ao robô 16 para ser operado. Como resultado, o robô 16 opera com base no comando de operação regulado, possibilitando reduzir o número de vezes que a chalota 12 escapa, mesmo quando executar a tarefa de içar e mover a chalota 12 como descrito acima. Não obstante, quando esse processo é baseado em uma imagem capturada por uma câmera, é possível verificar o formato bidimensional da chalota 12, mas é difícil verificar com precisão o formato tridimensional da chalota 12. Como resultado, num caso em que a tarefa de içar e mover a chalota 12 é executado, o método de regulagem do comando de operação com base na imagem capturada por uma câmera não pode evitar com segurança que as chalota 12 escape mesmo quando o robô opera com base em um comando de operação regulado. Consequentemente, a chalota 12 escapa, resultando em perda de produtividade. Por outro lado, para que se possa executar de modo seguro a tarefa de içar e mover a chalota 12, o método de içar a chalota 12 por um período mais longo do que o normal é uma possibilidade. Contudo, nesse caso, o ritmo de produção diminui, resultando em perda de produtividade, assim como no caso de3scrito acima.
Aqui, nesse modo de execução, o sensor tridimensional 18 é provido no lado à montante do trajeto de transporte, e esse sensor tridimensional 18 detecta o formato tridimensional da chalota 12 transportada no trajeto de transporte. Subsequentemente, o controlador 28 regula o comando de operação com base no resultado de detecção do sensor tridimensional 18, e transmite um comando de operação regulado ao robô 16 para ser operado. Com esse arranjo, o robô 16 no qual o comando de operação regulado do controlador 28 é inserido opera com base no comando de operação regulado, possibilitando içar de modo seguro e rápido a chalota 12 transportada no trajeto de transporte por meio da almofada de sucção 166a ou a mão 166c.
Como descrito acima, de acordo com esse modo de execução, mesmo num caso em que a tarefa de içar e mover a chalota 12 é executado, o tempo de produção não aumenta, possibilitando evitar de modo seguro que a chalota 12 escape. Como resultado, obtêm-se uma otimização na produtividade.
Adicionalmente, em particular, de acordo com esse modo de execução, o sensor tridimensional 18 compreende uma fonte de luz laser disposta de modo que a luz laser em forma de fenda seja irradiada em um local predeterminado da superfície de transporte do transportador 14, e uma câmera que captura uma imagem do local irradiado pela luz laser em forma de fenda irradiada pela fonte de luz laser e da respectiva área adjacente. Com o sensor tridimensional 18, é possível detectar de modo preciso e seguro o formato tridimensional da chalota 12 transportada no trajeto de transporte.
Adicionalmente, em particular, de acordo com esse modo de execução, o controlador 28 determina o método de içamento da chalota 12 transportada no trajeto de transporte com base nos resultados de detecção do sensor tridimensional 18. Com esse arranjo, é possível determinar o método de içamento que permitirá o rápido e seguro içamento da chalota12. Em seguida, o controlador 28 regula o comando de operação de modo que a chalota 12 transportada no trajeto de transporte seja içada e movida pela almofada de sucção 166a ou pela mão 166c de acordo com o método de içamento determinado. Com esse arranjo, é possível içar e mover a chalota 12 usando um método de içamento que permitirá o rápido e seguro içamento da chalota12. Como resultado, quando a tarefa de içar e mover a chalota 12 deve ser executada, é possível evitar de modo seguro que a chalota 12 escape sem com isso aumentar o tempo de produção e assim melhorar a produtividade.
Adicionalmente, em particular, de acordo com esse modo de execução, as seguintes vantagens podem ser obtidas. Isto é, o processo para obtenção da imagem de grane alcance do resultado da detecção do sensor tridimensional 18 compreende um grande volume de operações, o que demanda um longo tempo de processamento. Aqui, nesse modo de execução, dos robôs 16A e 16B, a área onde o processo de içamento é executado pela almofade de sucção 166a do robô 16A instalado no lado mais à montante do trajeto de transporte é separada da área de detecção da chalota12 do sensor tridimensional 18 pela distância S predeterminada ou maior ao longo do trajeto de transporte, no lado à jusante do trajeto de transporte. Então, a distância S predeterminada é definida para ser maior do que a distância pela qual a chalota 12 é transportada durante o processamento para obtenção da imagem de grande alcance do resultado de detecção do sensor tridimensional 18. Como resultado, a processamento da imagem de grande alcance pode ser concluído e a imagem de grande alcance pode ser obtida antes que a chalota 12 chegue na área onde o processo de içamento deve ser executado pela almofada de sucção 166a do robô 16A. Como resultado, após a confirmação do formato tridimensional almofada de sucção 166a com base na imagem de grande alcance obtida, o processo de içamento por meio da almofada de sucção 166a pode ser executado. Assim, é possível evitar de modo seguro que a almofada de sucção 166a deixe a chalota 12 escapar. Adicionalmente, com a almofada de sucção 166a transportada durante o processo para obtenção da imagem de grande alcance do resultado de detecção do sensor tridimensional 18, o tempo de processamento para esse processo pode ser efetivamente aproveitado sem desperdícios.
Adicionalmente, em particular, de acordo com esse modo de execução, o transportador 14 compreende o motor 142, a parte de acionamento do transportador 144 acionada de modo rotativo pelo motor 142, e o codificador 146 que é conectado à parte de acionamento do transportador 144 e detecta a posição de rotação da parte de acionamento do transportador 144. Em seguida, o controlador 28 calcula o momento de início da operação do robô 16 com base no resultado de detecção do codificador 146. Como resultado, a ferramenta do robô 16 é capaz de içar de modo seguro a chalota12 transportada no trajeto do transporte de modo seguro e coordenado com a operação de transporte da chalota 12 pelo transportador 14.
Adicionalmente, em particular, de acordo com esse modo de execução, dois dos robôs 16 são instalados, i.e., os robôs 16A e 16B, cada um compreendendo vários tipos de ferramentas praticando diferentes métodos de içamento entre si. Em seguida, o controlador 28 determina o método de içamento da chalota 12 com base na imagem de grande alcance que corresponde ao resultado da detecção do sensor tridimensional 18. Em seguida, o controlador 28 seleciona entre os robôs 16A e 16B o robô 16 que compreende a ferramenta que corresponde ao método de içamento determinado. Logo após, o controlador 28 regula o comando de operação de modo que a ferramenta que corresponde ao método de içamento determinado do robô 16 selecionado faça o içamento e mova a chalota 12 transportada no trajeto do transporte. Com esse arranjo, é possível usar de modo seletivo entre os robôs 16A e 16B o robô 16 que compreende a ferramenta que corresponde ao método de içamento capaz de içar a chalota 12 de modo rápido e seguro. Como resultado, evita-se que a chalota 12 escape, melhorando assim de modo seguro a produtividade.
Adicionalmente, em particular, de acordo com esse modo de execução, a almofada de sucção 166a é instalada no braço 164 do robô 16A, e a mão 166c é instalada no braço 164 do robô 16B. Com a almofada de sucção 166a instalada no braço 164 do robô 16A, é possível içar a chalota 12 por sucção. Como resultado, a chalota 12 pode ser içada sem danos devido ao perfuramento, e o tempo de processamento pode ser abreviado em comparação com o caso em que a chalota 12 é içada por meio de retenção pela mão 166c. Adicionalmente, com a mão 166c instalada no braço 164 do robô 16B, é possível içar a chalota 12 por retenção. Como resultado, mesmo num caso em que é difícil içar a chalota 12 por sucção da almofada de sucção 166a, a chalota 12 pode ser içada de modo seguro. Note que um caso em que é difícil içar a chalota 12 por sucção inclui um caso em que o formato ou material da chalota 12 não é adequado para sucção, um caso em que há um obstáculo próximo à área onde a chalota 12 pode muito provavelmente ser sugada pela almofada 166a, e assim por diante.
Note que os modos de execução não se limitam ao acima, e várias modificações podem ser feitas sem que se afaste da essência e escopo da invenção. A seguir, descrevem-se tais modificações uma por uma. (2-1) Quando a posição de espera do robô é determinada e o robô é correspondentemente selecionado Embora no segundo modo de execução o método de içamento da chalote 12 seja determinado com base na imagem de grande alcance que corresponde ao resultado da detecção do sensor tridimensional 18 e o robô 16 é correspondentemente selecionado, a presente invenção não se limita a isso. Isto é, o controlador 28 pode deerminar a posição de espera até o início do processo de içamento do robô 16 com base na imagem de grande alcance que corresponde ao resultado da detecção do sensor tridimensional 18 e selecionar o robô 16 correspondentemente.
Como mostrado na Fig. 14, nessa modificação, a ferramenta instalada na extremidade do braço 164 do robô 16B e o conteúdo de controle do controlador 28 (vide Fig. 1) diferem daqueles do segundo modo de execução. Isto é, nessa modificação, a mesma almofada de sucção 166a que aquela do robô 16A é instalada na extremidade do braço 164 do robô 16B. O que segue descreve um exemplo do conteúdo do controle executado pelo controlador 28 dessa modificação usando a Fig. 15. Note que a Fig.15 é uma figura que corresponde à Fig. 13 acima, os mesmo procedimentos que aqueles na Fig. 13 são denotados usando as mesmas referências numéricas, e suas descrições são omitidas ou simplificadas apropriadamente.
Na Fig.15, na etapa S5’, o controlador 28 transmite um comando de operação predeterminado armazenado em um dispositivo de armazenamento para cada um dos robôs 16A e 16B de modo que cada um dos robôs 16A e 16B assuma uma posição de espera predeterminada que difere um do outro (as posições indicadas na Fig.14, por exemplo). Com esse arranjo, cada um dos robôs 16A e 16B opera a base giratória 163 e a o braço 164 de modo coordenado, com base no comando de operação do controlador 28. Como resultado, cada um dos robôs 16A e 16B espera em uma posição de espera predeterminada que é diferente uma da outra.
As etapas subsequentes S10 e S20 são iguais àquelas da Fig. 13, e o fluxo segue para a etapa S35 uma vez que o formato tridimensional da chalota 12 específica é detectado na etapa S20.
Na etapa S35, o controlador 28 detecta uma área da chalota 12 específica que pode muito provavelmente ser sugada pela almofada de sucção 166a, com base no formato tridimensional da chalota 12 específica detectado na etapa S20. Em seguida, das áreas detectadas da chalota 12 que podem muito provavelmente ser sugadas, a área que satisfaz condições predeterminadas é definida como a área-alvo de sucção da almofada de sucção 166a da chalota 12 específica.
Logo após, na etapa S40’, o controlador 28 define a posição de espera até o início do processo de içamento do robô 16 como sendo o modo de processamento do processo de içamento da chalota 12 específica de acordo com a posição definida da área-alvo de sucção da chalota 12 específica. Especificamente, o controlador 28 define qual das duas posições distintas de espera dos robôs 16A e 16B na etapa S5’ é capaz de se aproximar de modo seguro da área-alvo de sucção e que leva o menor tempo para alcançar a área-alvo de sucção, i.e., que possui o menor tempo de produção. Note que o procedimento dessa etapa S40’ funciona como a parte de determinação de modo descrita nas reivindicações.
Em seguida, o fluxo segue para a etapa S50’ onde o controlado 28 seleciona entre os 16A e 16B o robô 16 (que equivale ao segundo robô) esperando na posição de espera determinada na etapa S40’ como senso o robô 16 a executar a tarefa na chalota 12 específica. Note que o procedimento dessa etapa S50’ funciona como a parte de seleção do segundo robô descrita nas reivindicações.
Os procedimentos que seguem a etapa S70 são substancialmente iguais àqueles da Fig. 13, e suas descrições serão omitidas.
Note que, no acima, os procedimentos da etapa S75 e etapa S105 funcionam como a parte de regulagem de operação descrita nas reivindicações. Ademais, os procedimentos da etapa S80 e etapa S110 funcionam como a parte de transmissão de comando.
Na modificação descrita acima, dois dos robôs 16 são instalados, i.e., os robôs 16A e 16B, que aguardam em posições de espera diferentes. Então, o controlado 28 define a posição de espera até o início do processo de içamento do robô 16 com base na imagem de grande alcance que corresponde ao resultado de detecção do sensor tridimensional 18, e seleciona entre os robôs 16A e 16B o robô 16 que está esperando na posição de espera determinada. Logo após, o controlador 28 regula o comando de operação de modo que a almofada de sucção 166a daquele robô 16 selecionado faça o içamento e mova a chalota 12 transportada no trajeto de transporte. Com esse arranjo, é possível usar de modo seletivo entre os robôs 16A e 16B o robô 16 que aguarda na posição de espera capaz de içar a chalota 12 de modo rápido e seguro. Como resultado, pode-se evitar de modo seguro que a chalota 12 escape, melhorando assim de modo seguro a produtividade. (2-2) Quando a área de instalação do robô é definida e o robô é correspondentemente selecionado Embora no segundo modo de execução o método de içamento da chalota 12 seja determinado com base na imagem de grande alcance que corresponde ao resultado de detecção do sensor tridimensional 18 e o robô 16 é correspondentemente selecionado, a presente invenção não se limita a isso. Isto é, o controlador 28 pode determinar a área de instalação do robô 16 com base na imagem de grande alcance que corresponde ao resultado de detecção do sensor tridimensional 18 e selecionar o robô 16 correspondentemente.
Como mostrado na Fig.16, nessa modificação, a ferramenta instalada na extremidade do braço 164 do robô 16B e o conteúdo de controle do controlador 28 (vide Fig. 1) diferem daqueles do segundo modo de execução. Isto é, nessa modificação, a mesma almofada de sucção 166a que aquela do robô 16A é instalada na extremidade do braço 164 do robô 16B. O que segue descreve um exemplo do conteúdo do controle executado pelo controlador 28 dessa modificação usando a Fig. 17. Note que a Fig.17 é uma figura que corresponde à Fig.13 e Fig.15 acima, os mesmos procedimentos que aqueles na Fig. 13 e Fig. 15 são denotados usando as mesmas referências numéricas, e suas descrições são omitidas ou simplificadas apropriadamente.
Na Fig.17, as etapas S5, S10, e S20 são iguais àquelas da Fig.13. Ademais, a etapa S35 é igual àquela da Fig. 15, e o fluxo segue para a etapa S42 uma vez que a área-alvo de sucção da chalota 12 específica é definida na etapa S35.
Na etapa S42, o controlador 28 detecta a posição na largura do trajeto de transporte do transportador 14 que corresponde à área-alvo de sucção da chalota 12 específica transportada no trajeto de transporte, com base na definição da etapa S35. Especificamente, o controlador 28 detecta se a área-alvo de sucção está em um lado (o lado esquerdo na Fig. 16) ou no outro lado (o lado direito na Fig. 16) de uma parte central CP (vide Fig. 16) na direção da largura do trajeto de transporte do transportador 14.
Logo a seguir, na etapa S44, o controlador 28 define a área de instalação do robô 16 a ser selecionado, como o modo de processamento do processo e içamento da chalota 12 específica, com base no resultado de detecção da etapa S42. Por exemplo, na etapa S42, num caso em que a área-alvo de sucção é detectada em um lado da parte central CP na largura do trajeto de transporte, o controlador 28 determina que a área de instalação do robô 16 a ser selecionado é a área naquele lado na direção da largura do trajeto de transporte. Por outro lado, na etapa S42, num caso em que a área-alvo de sucção é detectada no outro lado na parte central CP na direção da largura do trajeto de transporte, o controlador 28 determina que a área de instalação do robô 16 a ser selecionado é a área no outro lado na direção da largura do trajeto de transporte.
Em seguida, o fluxo segue para a etapa S50” onde o controlador 28 seleciona entre os robôs 16A e 16B o robô 16 (que equivale ao terceiro robô) que é instalado na área de instalação do robô 16 definido na etapa S44 como o robô 16 que executará a tarefa na chalota 12 específica. Por exemplo, na etapa S44, num caso em que a área de instalação do robô 16 é definida para ser a área em um lado na direção da largura do trajeto de transporte, o robô 16A instalado naquele um lado na direção da largura do trajeto de transporte é capaz de alcançar de modo seguro a área-alvo de sucção naquele lado da parte central CP na largura do trajeto de transporte e oferece um tempo menor para chegar à área-alvo de sucção (i.e., menor tempo de produção) é selecionado. Por outro lado, na etapa S44, num caso quem que a área de instalação do robô 16 é definida para ser a área no outro lado da direção da largura do trajeto de transporte, o robô 16B instalado na área no outro lado da direção da largura do trajeto de transporte é capaz é capaz de alcançar de modo seguro a área-alvo de sucção no outro lado da parte central CP na largura do trajeto de transporte oferece um tempo menor para chegar à área-alvo de sucção (i.e., menor tempo de produção) é selecionado. Note que o procedimento dessa etapa S50” funciona como a parte de seleção do terceiro robô descrita nas reivindicações.
Os procedimentos subsequentes à etapa S70 são substancialmente iguais àqueles na Fig. 13, e suas descrições serão omitidas.
Note que, no acima, os procedimentos das etapas S42 e S44 funcionam como a parte de determinação de modo descrita nas reivindicações, com o procedimento da etapa S42 funcionando como a parte de detecção de local, e o procedimento da etapa S44 funcionando como a parte de definição de área. Ademais, os procedimentos das etapas S75 e S105 funcionam como a parte de regulagem de operação descrita nas reivindicações. Ainda, os procedimentos das etapas S80 e S110 funcionam como a parte de transmissão de comando.
Na modificação descrita acima, dois dos robôs 16 acima são instalados, i.e., os robôs 16A e 16B providos nas áreas em um lado e do outro lado do trajeto de transporte na direção da largura. Em seguida, o controlador 28 detecta o local na direção da largura do trajeto de transporte da chalota 12 transportada no trajeto de transporte, com base na imagem de grande alcance que corresponde ao resultado de detecção do sensor tridimensional 18. Em seguida, com base naquele resultado de detecção, o controlador 28 determina a área de instalação do robô 16, e seleciona entre os robôs 16A e 16B o robô 16 que é instalado na área de instalação determinada. Logo em seguida, o controlador 28 regula o comando de operação de modo que a almofada de sucção 166a daquele robô 16 selecionado faça o içamento e mova a chalota 12 no trajeto de transporte. Com esse arranjo, é possível usar de modo seletivo entre os robôs 16A e 16B o robô 16 que é instalado na área de instalação que permite o rápido e seguro içamento da chalota 12. Como resultado, pode-se evitar de modo seguro que a chalota 12 escape, melhorando assim de modo seguro a produtividade. (2-3) Quando apenas um robô é instalado Embora no acima a configuração compreenda dois robôs instalados, a presente invenção não se limita a isso, permitindo uma configuração na qual apenas um robô é instalado.
Como mostrado nas Fig. 18 e 19, um sistema robotizado 10A (sistema robotizado) dessa modificação compreende o transportador 14, o sensor tridimensional 18, o robô 16A, e o controlador 28.
No robô 16A dessa modificação, a almofada de sucção 166a e a mão 166c são instaladas como uma pluralidade de ferramentas (duas nesse exemplo) envolvendo métodos de içamento diferentes na extremidade do braço 164. A câmera 20, o cortador 22, a caixa de descarte 24, e a caixa de armazenamento 26 são instalados envolta do robô 16A.
Além disso, o dispositivo de armazenamento do controlador 28 dessa modificação armazena uma pluralidade de comandos de operação inseridos por meio de um controle de robôs ou similar, por exemplo. Essa pluralidade de comandos de operação inclui comandos de operação que não especificam o tipo de ferramenta para a tarefa de içar e mover a chalota 12 transportada no trajeto de transporte por meio de uma ferramenta. A seguir, descreve-se um exemplo de conteúdo do controle executado pelo controlador 28 dessa modificação usando a Fig.20. Note que a Fig.20 é uma figura que corresponde à Fig.13 acima, os mesmos procedimentos que aqueles da Fig. 13 são denotados usando as mesmas referências numéricas, e suas descrições serão omitidas ou simplificas apropriadamente.
Na Fig.20, primeiro, na etapa S5A, o controlador 28 transmite um comando de operação predeterminado armazenado em um dispositivo de armazenamento ao robô 16A de modo que o robô 16A assuma uma posição de espera predeterminada (a posição indicada na Fig. 19, por exemplo). Como resultado, o robô 16A opera a base giratória 163 e o braço 164 de modo coordenado, assume a posição de espera predeterminada, e aguarda.
As etapas subsequentes S10a S40 são iguais àquelas na Fig.13. Assim, o fluxo segue para a etapa S50A uma vez que o método de içamento da chalota 12 específica é determinado na etapa S40. Note que, nessa modificação também, o procedimento da etapa S40 funciona como a parte de determinação de modo descrita nas reivindicações.
Na etapa S50A, o controlador 28 seleciona das ferramentas providas ao robô 16A (isto é, a almofada de sucção 166a ou a mão 166c) a ferramenta que corresponde ao método de içamento determinado na etapa S40 (que equivale à segunda ferramenta; doravante referida como “ferramenta específica”) como a ferramenta que deve executar a tarefa de içar a chalota 12 específica. Por exemplo, na etapa S40, num caso em que o método de içamento é determinado pra ser sucção a vácuo, a almofada de sucção 166a, que serve como uma ferramenta que executa a sucção a vácuo, é selecionada. Por outro lado, na etapa S40, num caso em que o método de içamento é determinado pra ser de retenção, a mão 166c, que serve como uma ferramenta que executa a retenção, é selecionada. Note que o procedimento dessa etapa S50A funciona como a parte de seleção de ferramenta descrita nas reivindicações.
Subsequentemente, na etapa S60A, o controlador 28 define a área-alvo de contato da chalota 12 específica de acordo com o resultado de seleção da etapa S50A. Por exemplo, num caso em que a almofada de sucção 166a é selecionada na etapa S50A, das áreas da chalota 12 específica que foram detectadas na etapa S30 como as áreas com maior probabilidade de serem sugadas, o controlador 28 define a área que satisfaz condições predeterminadas como a área-alvo de sucção da chalota 12 específica. Por outro lado, num caso em que a mão 166c é selecionada na etapa S50A, o controlador 28 define a área adequada da porção de bulbo 12c da chalota 12 específica como a área-alvo de retenção da chalota 12 específica.
Em seguida, o fluxo segue para a etapa S70A onde o controlador 28, semelhante à etapa S70, calcula o momento no qual a chalota 12 específica será transportada dentro da área de mobilidade da ferramenta selecionada na etapa S50A (em outras palavras, o momento de início da operação do robô 16A). O procedimento dessa etapa S70A funciona como a parte de cálculo de momento.
Subsequentemente, na etapa S75A, o controlador 28 lê o comando de operação relativo à etapa S75A armazenado no dispositivo de armazenamento, e regula o comando de operação lido para a ferramenta específica. Isto é, o comando de operação é regulado de modo que, quando chega o momento de início de operação calculado na etapa S70A, a base giratória 163 e o braço 164 sejam operado de modo coordenado, a ferramenta específica entra em contato com a área-alvo de contato da chalota 12 específica, e a chalota 12 específica é içada e movida até o local de captura de imagem da câmera 20. Por exemplo, num caso em que a almofada de sucção 166a é selecionada na etapa S50A, o comando de operação é regulado para a almofada de sucção 166a de modo que a almofada de sucção 166a entre em contato com a área-alvo de sucção da chalota 12 específica e a chalota 12 específica é içada e movida até o local de captura de imagem por meio da sucção a vácuo. Por outro lado, num caso em que a mão 166c é selecionada na etapa S50A, o comando de operação é regulado para a mão 166c de modo que a mão 166c entre em contato com a área-alvo de retenção da chalota 12 específica e a chalota 12 específica é içada e movida até o local de captura de imagem por meio da retenção.
Subsequentemente, na etapa S80A, o controlador 28 transmite o comando de após a regulagem na etapa S75A ao robô 16A. Com esse arranjo, o robô 16A específico opera a base giratória 163 e o braço 164 de modo coordenado quando chega o momento de início de operação, com base no comando de operação do controlador 28. Como resultado, a ferramenta específica entra em contato com a área-alvo de contato da chalota 12 específica transportada no trajeto de transporte, e faz o içamento e move a chalota 12 específica até o local de captura de imagem relativo à câmera 20 adjacente. Por exemplo, num caso em que a almofada de sucção 166a é selecionada na etapa S50A, a almofada de sucção 166a entra em contato com a área-alvo de sucção da chalota 12 específica e a chalota 12 específica é içada e movida até o local de captura de imagem por sucção a vácuo. Por outro lado, num caso em que a mão 166c é selecionada na etapa S50A, a mão 166c entra em contato com a área-alvo de retenção da chalota 12 específica e a chalota 12 especifica é içada e movida até o local de captura de imagem por meio da retenção.
As etapas subsequentes S90 e S100 são iguais àquelas na Fig. 13. Assim, o fluxo segue para a etapa S105A uma vez que a área-alvo de processamento da chalota 12 específica é detectada na etapa S100.
Na etapa S105A, o controlador 28 lê o comando de operação relativo à etapa S105A armazenado no dispositivo de armazenamento, e regula o comando de operação lido. De modo específico, o comando de operação lido é regulado para a ferramenta específica de modo que a área-alvo de processamento da chalota 12 específica içada pela ferramenta específica seja guiada até o local da lâmina 2221. Por exemplo, num caso em que a almofada de sucção 166a é selecionada na etapa S50A, o controlador 28 regula comando de operação para a almofada de sucção 166a de modo que a área-alvo de processamento da chalota 12 específica içada pela almofada de sucção 166a seja guiada até o local da lâmina 2221. Por outro lado, num caso em que a mão 166c é selecionada na etapa S50A, o controlador 28 regula comando de operação para a mão 166c de modo que a área-alvo de processamento da chalota 12 específica içada pela mão 166c seja guiada até o local da lâmina 2221.
Em seguida, o fluxo segue para a etapa S110A onde o controlador 28 transmite o comando de operação após a regulagem na etapa S105A ao robô 16A. Com esse arranjo, o robô 16A opera a base giratória 163 e o braço 164 de modo coordenado com base no comando de operação do controlador 28, guia a área-alvo de processamento da chalota 12 específica içada pela ferramenta específica até o local da lâmina 2221, e executa um operação predeterminada. Por exemplo, num caso em que a almofada de sucção 166a é selecionada na etapa S50A, o robô 16A guia a área-alvo de processamento da chalota 12 específica içada pela a almofada de sucção 166a até o local da lâmina 2221, e executa um operação predeterminada. Por outro lado, num caso em que a mão 166c é selecionada na etapa S50A, o robô 16A guia a área-alvo de processamento da chalota 12 específica içada pela mão 166c até o local da lâmina 2221, e executa um operação predeterminada. A etapa subsequente S120 é igual àquela na Fig. 13 e sua descrição será omitida.
Note que, no acima, os procedimentos das etapas S75A e S105A funcionam com a parte de regulagem de operação descrita nas reivindicações. Além disso, os procedimentos das etapas S80A e S110A funcionam com a parte de transmissão de comando.
Na modificação descrita acima, o robô único 16A compreende a almofada de sucção 166a e a mão 166c. Então, o controlador 28 determina o método de içamento da chalota 12 com base na imagem de grande alcance que corresponde ao resultado de detecção do sensor tridimensional 18. Então, o controlador 28 seleciona entre a almofada de sucção 166a e a mão 166c a ferramenta que corresponde ao método de içamento determinado. Logo em seguida, o controlador 28 regula o comando de operação de modo que a ferramenta selecionada faça o içamento e mova a chalota 12 transportada no trajeto de transporte. Como resultado, o robô 16A pode usar de modo seletivo a almofada de sucção 166a e a mão 166c que corresponde ao método de içamento capaz de içara a chalota 12 de modo rápido e seguro. Como resultado, pode-se evitar de modo seguro que a chalota 12 escape, melhorando assim de modo seguro a produtividade. (2-4) Outro Embora, de acordo com o modo de execução, a almofada de sucção 166a seja instalada no braço 164 do robô 16A, e a mão 166c seja instalada no braço 164 do robô 16B, a presente invenção não se limita a isso. Isto é, um membro farpado capaz de içar a chalota 12 por perfuramento como o método de içamento predeterminado pode ser instalado como uma ferramenta no lugar da almofada de sucção 166a no braço 164 do robô 16A. Ou, o membro farpado pode ser instalado como uma ferramenta no lugar da mão 166c no braço 164 do robô 16B. A instalação do membro farpado no braço 164 do robô 16A ou do robô 16B torna possível içar a chalota 12 por perfuramento. Com esse arranjo, é possível reduzir o tempo de produção em comparação com um caso em que a chalota 12 é içada pela retenção da mão 166c.
Adicionalmente, embora de acordo com o modo de execução, a almofada de sucção 166a seja instalada no braço 164 do robô 16A, e a mão 166c seja instalada no braço 164 do robô 16B, a presente invenção não se limita a isso. Isto é, as almofadas de sucção 166a que diferem da quantidade de sucção a vácuo (força de sucção a vácuo) podem ser instaladas aos braços 164 dos robôs 16A e 16B.
Adicionaimente, embora nas modificações (2-1) e (2-2) a almofada de sucção 166a seja instalada no braço 164 de cada um dos robôs 16A e 16B, a presente invenção não se limita a isso. Isto é, a mão 166c ou o membro farpado pode ser instalado no lugar da almofada de sucção 166a no braço 164 de cada um dos robôs 16A e 16B.
Adicionalmente, embora nas modificações de (2-3) a almofada de sucção 166a e a mão 166c sejam instaladas no braço 164 do robô 16A, a presente invenção não se limita a isso. Isto é, o membro farpado pode ser instalado no lugar da almofada de sucção 166a ou da mão 166c no braço 164 do robô 16A. Ou, o membro farpado pode ser instalado em adição à almofada de sucção 166a ou a mão 166c no braço 164 do robô 16A. Ou, duas almofadas de sucção 166a que diferem da quantidade de sucção a vácuo (força de sucção a vácuo) podem ser instaladas no braço 164 do robô 16A, Além disso, embora no acima o controlador 28 executou as várias operações e processamento em forma de lotes, a presente invenção não se limita a isso, permitindo que as várias operações e processamento sejam executas separadamente por outro dispositivo que não o controlador 28. Por exemplo, um primeiro processador de imagem, um segundo processador de imagem, um controlador de robô, um controlador (tal como um PC ou PLC, por exemplo) que os controla pode ser instalado. Então, o primeiro processador de imagem pode gerar a imagem de grande alcance e detectar áreas que podem ser sugadas com base na imagem capturada pela câmera do sensor tridimensional 18 e na informação de distância da imagem capturada; o segundo processador de imagem pode detectar o formato e a posição da chalota 12 com base na imagem capturada da câmera 20; e o controlador de robô pode executar o processamento relativo ao controle de operação do robô 16, tal como determinar o modo de processamento do processo de içamento, selecionar o robô 16 ou a ferramenta, regular o comando de operação. Nesse caso, o primeiro processador de imagem, o segundo processador de imagem provido a cada uma das câmeras 20, o controlador de robô provido a cada um dos robôs 16, e o controlador que os controla são equivalentes ao controlador descrito nas reivindicações.
Adicionalmente, embora no acima a chalota 12, que é um objeto inconsistente, é içada e movida, a presente invenção não se limita a isso. Isto é, um objeto inconsistente tal como um objeto natural tal qual um legume ou uma fruta que não a chalota 12 ou um objeto artificial (produto industrial) que pode ser de uma grande variedade de tipos pode ser içado e movido. Nesse caso, o objeto inconsistente tal como um objeto natural tal qual um legume ou uma fruta que não a chalota 12 ou um objeto artificial que pode ser de uma grande variedade de tipos, é equivalente ao objeto descrito nas reivindicações. Além disso, o objeto não se limita a um objeto com um formato inconsistente, permitindo objetos com formato regular também. Nesse caso, o objeto com formato regular equivale ao objeto descrito nas reivindicações.
Adicionalmente, num caso onde a tarefa de içar e mover um objeto compreendendo uma substância magnética tal como ferro é executada, um eletromagneto capaz de içar o objeto compreendendo a substância magnética tal como ferro por atração eletromagnética (equivalente ao método de içamento predeterminado) pode ser instalado no braço 164 do robô 16. Nesse caso, o eletromagneto é equivalente ao dispositivo de sucção e ferramenta descritos nas reivindicações.
Adicionalmente, embora dois dos robôs 16 sejam instalados no modo de execução e modificações (2-1) e (2-2), a presente invenção não se limita a isso, permitindo a instalação de três ou mais dos robôs 16. Além disso, embora um único robô 16 seja instalado na modificação (2-3), a presente invenção não se limita a isso, permitindo a instalação de dois ou mais dos robôs 16.
Adicionalmente, no acima, um caso em que a tarefa de içar e mover a chalota 12 transportada no trajeto de transporte é executada é descrita como um exemplo da tarefa predeterminada. Não obstante, a presente invenção não se limita a isso, permitindo a aplicação da técnica acima em casos onde a tarefa predeterminada executada é, por exemplo, uma tarefa de aplicar adesivo, uma cobertura, ou similar em um objeto, uma tarefa de remover uma área desnecessária de um objeto, ou uma tarefa de marcar um objeto. Mesmo em casos de emprego de tais tarefas, é possível executar a tarefa de modo seguro e preciso regulando o comando de operação com base no resultado de detecção do sensor tridimensional, e transmitir o comando de operação regulado ao robô a ser operado. Como resultado, semelhante ao segundo modo de execução, a produtividade é otimizada.
Adicionalmente, o fluxo mostrado na Fig. 13, etc., não se limita aos procedimentos mostrados nos modos de execução, permitindo a inclusão de procedimentos, a subtração, e a alteração de ordem sem que se afastem da essência e escopo da presente invenção.
Adicionalmente, afora o que já foi mencionado acima, técnicas baseadas nos modos de execução acima e cada uma das modificações podem também ser combinadas de modo adequado.
Embora outros exemplos não são individualmente aqui descritos, várias mudanças e alterações podem ser feitas aos modos de execução acima sem que se afastem da essência e escopo da presente invenção.
REIVINDICAÇÕES

Claims (14)

1. Um sistema robotizado (10; 10A), caracterizado por compreender: um dispositivo de transporte (14) que transporta um objeto (12); um primeiro sensor (18) que detecta um formato tridimensional do objeto (12) transportado no trajeto de transporte pelo dispositivo de transporte (14); um robô (16A, 16B) que executa uma tarefa predeterminada no objeto (12) transportado no trajeto de transporte pelo dispositivo de transporte (14); e um controlador (28) configurado para operar o robô (16A, 16B); em que o controlador (28) compreende: uma parte de transmissão de comando (S80, S110, S80A, S110A) que gera um comando de operação ao robô (16A, 16B); e uma parte de regulação de operação (S75, S105, S75A, S105A) que regula o comando de operação com base no resultado de uma detecção pelo primeiro sensor (18).
2. O sistema robotizado (10; 10A), de acordo com a reivindicação 01, em que o primeiro sensor (18) compreende: uma fonte de luz laser que é orientada de modo que a luz laser de um feixe linear seja emitida a um local predeterminado sobre uma superfície de transporte executado por um dispositivo de transporte (14); e uma câmera que captura uma imagem de um local de incidência da luz laser da fonte de luz laser e da área vicinal do dito local.
3. O sistema robotizado (10; 10A), de acordo com a reivindicação 01 ou 02, em que o robô (16A, 16B) é configurado para permitir a instalação de uma ferramenta (166a, 166c) para executar uma tarefa de içar e mover o objeto (12) por meio de um método de içamento predeterminado como a tarefa predeterminada; o controlador (28) compreende uma parte de determinação de modo (S40; S40’; S42, S44) que determina um modo de processamento de um processo de içamento pela ferramenta (166a, 166c) para o objeto (12) transportado no trajeto de transporte, com base no resultado da detecção pelo primeiro sensor (18); e a parte de regulagem de operação (S75, S105, S75A, S105A) regula o comando de operação de modo que o objeto (12) transportado no trajeto de transporte seja içado e movido pela ferramenta (166a, 166c) de acordo com o modo de processamento do processo de içamento determinado pela parte de determinação de modo (S40; S40’; S42, S44).
4. O sistema robotizado (10; 10A), de acordo com a reivindicação 03, em que uma pluralidade de robôs (16A, 16B) é instalada; o robô (16A, 16B) entre os robôs (16A, 16B) que é instalado mais à montante no trajeto de transporte, é instalado de modo que uma área onde o processo de içamento deve ser executado pela ferramenta (166a, 166c) é separada de uma área de detecção do objeto (12) pelo primeiro sensor (18) por uma distância predeterminada (S) ou maior ao longo do trajeto de transporte, em um lado à jusante do trajeto de transporte.
5. O sistema robotizado (10), de acordo com a reivindicação 04, em que a parte de determinação de modo (S40) determina o método de içamento como o modo de processamento com base em informação tridimensional correspondente ao resultado de detecção pelo primeiro sensor (18); o controlador (28) compreende adicionalmente uma primeira parte de seleção de robô (S50) que seleciona entre a pluralidade de robôs (16A, 16B), um primeiro robô (16A, 16B) no qual uma ferramenta (166a, 166c) que corresponde ao método de içamento determinado pela parte de determinação de modo (S40) é instalada; a parte de regulagem de operação (S75, S105) regula o comando de operação de modo que o objeto (12) transportado no trajeto de transporte seja içado e movido pela ferramenta (166a, 166c) instalada no primeiro robô (16A, 16B); e a porção de transmissão de comando (S80, S110) transmite o comando de operação após a regulagem pela parte de regulagem de operação (S75, S105) ao primeiro robô (16A, 16B).
6. O sistema robotizado (10) de acordo com a reivindicação 04, em que a parte de determinação de modo (S40’) determina uma posição de espera até o início do processo de içamento do robô (16A, 16B) como sendo o modo de processamento do processo de içamento, com base em informação tridimensional correspondente ao resultado de detecção do primeiro sensor (18); o controlador (28) compreende adicionalmente uma segunda parte de seleção de robô (S50’) que seleciona entre a pluralidade de robôs (16A, 16B) um segundo robô (16A, 16B) que aguarda no posição de espera determinada pela parte de determinação de modo (S40’); a parte de regulagem de operação (S75, S105) regula o comando de operação de modo que o objeto (12) transportado no trajeto de transporte seja içado e movido pela ferramenta (166a, 166c) instalada no segundo robô (16A, 16B); e a parte de transmissão de comando (S80, S110) transmite o comando de operação após a regulagem feita pela parte de regulagem de operação (S75, S105) ao segundo robô (16A, 16B).
7. O sistema robotizado (10) de acordo com a reivindicação 04, em que os robôs (16A, 16B) são instalados em quantidade de uma lateral à outra na direção da largura do trajeto de transporte; a parte de determinação de modo (S42, S44) compreende: uma parte de detecção de localização (S42) que detecta uma localização do objeto (12) transportado no trajeto de transporte na direção de largura do trajeto de transporte, com base em informação tridimensional correspondente ao resultado da detecção pelo primeiro sensor (18); e uma parte de definição de área (S44) que define uma área de instalação do robô (16A, 16B) como sendo o modo de processamento do processo de içamento, com base no resultado de uma detecção pela parte de detecção de localização (S42); o controlador (28) compreende adicionalmente uma terceira parte de seleção de robô (S50”) que seleciona entre a pluralidade de robôs (16A, 16B) um terceiro robô (16A, 16B) que é instalado na área de instalação definida pela parte de definição de área (S42, S44); a parte de regulagem de operação (S75, S105) regula o comando de operação de modo que o objeto (12) transportado no trajeto de transporte seja içado e movido pela ferramenta (166a, 166c) instalada no terceiro robô (16A, 16B); e a parte de transmissão de comando (S80, S110) transmite o comando de operação após a regulagem pela parte de regulagem de operação (S75, S105) ao terceiro robô (16A, 16B).
8. O sistema robotizado (10) de acordo com a reivindicação 04, em que o robô (16A) é configurado para permitir a instalação de uma pluralidade de tipos de ferramentas (166a, 166c) que diferem entre si; a parte de determinação de modo (S40) determina o método de içamento como sendo o modo de processamento do processo de içamento, com base em informação tridimensional correspondente ao resultado da detecção pelo primeiro sensor (18); o controlador (28) compreende adicionalmente uma parte de seleção de ferramenta (S50A) que seleciona entre a pluralidade de ferramentas (166a, 166c) uma segunda ferramenta (166a, 166c) que corresponde ao método de içamento determinado pela parte de determinação de modo (S40); e a parte de regulagem de operação (S75, S105) regula o comando de operação de modo que o objeto (12) transportado no trajeto de transporte seja içado e movido pela segunda ferramenta (166a, 166c).
9. O sistema robotizado de acordo com a reivindicação 01, em que o controlador (28) compreende: uma primeira parte de definição (281) que define uma área-alvo de contato do objeto (12) transportado no trajeto de transporte, com base no resultado da detecção pelo primeiro sensor (18); uma primeira parte de controle (2861) que controla o robô (16A, 16B) de modo que a ferramenta (166a, 166b) seja posta em contato com a área-alvo de contato do objeto (12) quando o objeto (12) é transportado dentro de uma faixa de movimento da ferramenta (166a, 166b) instalada no robô (16A, 16B), e faça o içamento e mova o objeto (12) até um local predeterminado; um segundo sensor (20) que detecta uma posição do objeto (12) que foi movido até um local predeterminado; uma segunda parte de definição (283) que define uma área-alvo de processamento do objeto (12) içado pela ferramenta (166a, 166b) do robô (16A, 16B), com base no resultado de uma detecção pelo segundo sensor (20); e uma segunda parte de controle (2862) que controla o robô (16A, 16B) de modo que a área-alvo de processamento do objeto (12) içado pela ferramenta (166a, 166b) seja guiada até um local onde o processamento deve ser executado.
10. O sistema robotizado de acordo com a reivindicação 09, em que o dispositivo de transporte (14) compreende: um motor (142); uma parte de acionamento (144) acionada de modo rotativo pelo motor (142); e um codificador (146) que é conectado à parte de acionamento (144) e detecta uma posição rotativa da parte de acionamento (144); e a primeira parte de controle (2861) calcula o momento de início de uma operação do robô (16A, 16B), com base no resultado de uma detecção pelo codificador (146).
11. o sistema robotizado de acordo com a reivindicação 10, em que o segundo sensor é um dispositivo de captura de imagem (20) que captura uma imagem do objeto (12) que foi movido até um local predeterminado; e a segunda parte de definição (283) define a área-alvo de processamento do objeto (12), com base em uma imagem capturada pelo dispositivo de captura de imagem (20).
12. O sistema robotizado de acordo com a reivindicação 10 ou 11, em que a ferramenta do robô (16A, 16B) é um dispositivo de sucção (166a, 166b) capaz de içar o objeto por meio de sucção; e a primeira parte de definição (281) define uma área-alvo de sucção com a área-alvo de contato do objeto (12).
13. O sistema robotizado de acordo com qualquer uma entre as reivindicações 10 à 12, compreendendo adicionalmente: um cortador (22) compreendendo uma lâmina (2221) que corta o objeto (12) como o processamento predeterminado; em que a segunda parte de controle (2861) controla o robô (16A, 16B) de modo que a área-alvo de processamento do objeto (12) içado pela ferramenta (166a, 166b) do robô (16A, 16B) seja guiada até um local da lâmina (2221) do cortador (22) como o local onde o processamento deve ser executado.
14. Método de produção de um objeto processado executado pelo uso de ao menos um robô para processar um objeto, compreendendo: um transporte que transporta o objeto (12) em um trajeto de transporte; uma detecção que detecta o formato tridimensional do objeto (12) transportado no trajeto de transporte por meio de um primeiro sensor (18); um controle que controla o robô (16A, 16B) de modo que a ferramenta (166a, 166b) instalada no robô (16A, 16B) seja posta em contato com uma área-alvo de contado do objeto (12) quando o objeto (12) é transportado dentro de uma faixa de movimento da ferramenta (166a, 166b), com base no resultado de uma detecção pelo primeiro sensor (18), e faça o içamento e mova o objeto (12) até um local predeterminado; uma detecção que detecta uma posição do objeto (12) que foi movido até um local predeterminado por um segundo sensor (20); uma definição que define uma área-alvo de processamento do objeto (12) içado pela ferramenta (166a, 166b) do robô (16A, 16B), com base no resultado de uma detecção pelo segundo sensor (20); e um controle que controla o robô (16A, 16B) de modo que a área-alvo de processamento do objeto (12) içado pela ferramenta (166a, 166b) seja guiada até um local onde o processamento dever ser executado.
BR102012003829-3A 2011-10-20 2012-02-22 Robotized system and processed object production method. BR102012003829A2 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-230685 2011-10-20
JP2011-230684 2011-10-20
JP2011230684A JP5440885B2 (ja) 2011-10-20 2011-10-20 ロボットシステム
JP2011230685A JP5370788B2 (ja) 2011-10-20 2011-10-20 対象物加工システム

Publications (1)

Publication Number Publication Date
BR102012003829A2 true BR102012003829A2 (pt) 2017-10-24

Family

ID=45655811

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102012003829-3A BR102012003829A2 (pt) 2011-10-20 2012-02-22 Robotized system and processed object production method.

Country Status (4)

Country Link
US (1) US8930009B2 (pt)
EP (1) EP2583796A2 (pt)
CN (1) CN103056884A (pt)
BR (1) BR102012003829A2 (pt)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
CN103342140B (zh) * 2013-06-07 2015-05-20 上海发那科机器人有限公司 一种用于机器人的随行跟踪系统
JP2015100075A (ja) * 2013-11-20 2015-05-28 株式会社東芝 画像処理装置、システムおよび方法
JP6475409B2 (ja) * 2013-12-20 2019-02-27 蛇の目ミシン工業株式会社 ロボット、ロボットの制御方法、及びロボットの制御プログラム
JP6350011B2 (ja) 2014-06-20 2018-07-04 オムロン株式会社 ロボット制御システム
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
CN105045290A (zh) * 2015-08-24 2015-11-11 铜陵学院 一种单轮全自动中低速灭火机器人伺服控制系统
WO2017033352A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 産業用遠隔操作ロボットシステム
CN106054805B (zh) * 2016-07-07 2019-12-20 中邮科技有限责任公司 一种用于分拣机的纠偏控制系统
JP6450737B2 (ja) * 2016-12-08 2019-01-09 ファナック株式会社 ロボットシステム
JP6470321B2 (ja) * 2017-01-11 2019-02-13 ファナック株式会社 物品搬送装置
KR101963643B1 (ko) * 2017-03-13 2019-04-01 한국과학기술연구원 식물의 표현형 분석을 위한 3d 영상 생성 방법 및 그 시스템
EP3630417A1 (en) 2017-05-22 2020-04-08 ABB Schweiz AG Robot-conveyor calibration method, robot system and control system
US10339670B2 (en) * 2017-08-29 2019-07-02 Trimble Inc. 3D tool tracking and positioning using cameras
EP3820655B1 (en) * 2018-07-13 2023-06-14 ABB Schweiz AG Diagnosis method and apparatus
WO2020028807A1 (en) 2018-08-03 2020-02-06 Walmart Apollo, Llc Mobile assembly apparatus
CN109625957A (zh) * 2018-12-29 2019-04-16 广州瑞松智能科技股份有限公司 一种利用3d视觉及机器人抓手的上料机构
CN109605381A (zh) * 2019-01-29 2019-04-12 欧米瑞(广东)智能制造有限公司 一种三维定位取料系统及取料方法
JP7313049B2 (ja) * 2019-09-30 2023-07-24 Johnan株式会社 ロボット制御システム、ロボット制御方法およびプログラム
CN113910269B (zh) * 2021-10-27 2022-12-20 因格(苏州)智能技术有限公司 一种机器人总控系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5845884A (ja) 1981-09-14 1983-03-17 株式会社妙徳製作所 自動機械化装置
JPS60127988A (ja) 1983-12-09 1985-07-08 ダイキン工業株式会社 複合ハンド
JP3296643B2 (ja) 1992-12-21 2002-07-02 松下電工株式会社 部品供給方法およびその装置
JPH07136959A (ja) 1993-11-11 1995-05-30 Nippon Telegr & Teleph Corp <Ntt> ロボット位置決め方法
JPH1158187A (ja) 1997-08-26 1999-03-02 Matsushita Electric Works Ltd 生産ラインにおける部品の移送供給制御方法及びその装置
JP3129693B2 (ja) 1998-03-19 2001-01-31 川崎重工業株式会社 ワーク把持装置
JP4236793B2 (ja) 2000-03-28 2009-03-11 セイコーインスツル株式会社 収納装置及び収納方法
JP2003237940A (ja) 2002-02-18 2003-08-27 Meidensha Corp 搬送装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
WO2006035259A1 (en) * 2004-09-30 2006-04-06 Abb As Door opener arrangement for use with an industrial robot
US8821099B2 (en) * 2005-07-11 2014-09-02 Brooks Automation, Inc. Load port module
JP2007030087A (ja) 2005-07-26 2007-02-08 Fanuc Ltd 物流トラッキング装置
GB0620955D0 (en) * 2006-10-20 2006-11-29 Speakman Stuart P Methods and apparatus for the manufacture of microstructures
EP2166830B1 (en) * 2007-05-31 2013-08-07 Monsanto Technology, LLC Seed sorter
JP5293442B2 (ja) * 2009-06-18 2013-09-18 株式会社安川電機 ロボットシステム及び物品並置方法
JP5229253B2 (ja) * 2010-03-11 2013-07-03 株式会社安川電機 ロボットシステム及びロボット装置並びにワーク取り出し方法

Also Published As

Publication number Publication date
US20130103179A1 (en) 2013-04-25
CN103056884A (zh) 2013-04-24
EP2583796A2 (en) 2013-04-24
US8930009B2 (en) 2015-01-06

Similar Documents

Publication Publication Date Title
BR102012003829A2 (pt) Robotized system and processed object production method.
JP5440885B2 (ja) ロボットシステム
KR101265859B1 (ko) 판유리 절단설비
JPWO2020009148A1 (ja) ワーク搬送システムおよびワーク搬送方法
JP6545519B2 (ja) 基板搬送ロボットおよび基板検出方法
CN112437750B (zh) 用于印版的输送系统和方法
JP2018006518A (ja) 搬送システム
KR20180132606A (ko) 문서 및 파스너 식별에 관련되는 시스템 및 방법
JP2019151421A (ja) 物品移載装置及び荷取位置検出装置
CN110383453B (zh) 基板搬送装置
JP6104429B2 (ja) 搬送システム
JP2014014346A (ja) 魚の小骨抜き取り機
JP2013145532A (ja) 加工装置、ツール、加工方法および加工位置の設定方法
JP5370788B2 (ja) 対象物加工システム
US20230182284A1 (en) Component Supply Device
JP2021094662A (ja) 移載装置
JP6259987B2 (ja) 部品実装装置
US20220219922A1 (en) Unloading apparatus and unloading method
WO2018225827A1 (ja) ワークの認識装置及びワークを認識する方法
KR20200001976A (ko) 기판 가공 장치에서의 기판 위치 결정 기구 및 기판 위치 결정 방법
JP2000211718A (ja) 切断パ―ツ搬出装置
KR101528360B1 (ko) 마킹유닛과 이것을 이용한 웨이퍼 분류장치
JP7362776B2 (ja) 部品供給装置および部品搬送システム
JP2021094664A (ja) 移載装置
JP2023164246A (ja) インテリジェントレーザー切断機器

Legal Events

Date Code Title Description
B03A Publication of an application: publication of a patent application or of a certificate of addition of invention
B08F Application fees: dismissal - article 86 of industrial property law
B08K Lapse as no evidence of payment of the annual fee has been furnished to inpi (acc. art. 87)