KR102122200B1 - 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법 - Google Patents

스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법 Download PDF

Info

Publication number
KR102122200B1
KR102122200B1 KR1020180170449A KR20180170449A KR102122200B1 KR 102122200 B1 KR102122200 B1 KR 102122200B1 KR 1020180170449 A KR1020180170449 A KR 1020180170449A KR 20180170449 A KR20180170449 A KR 20180170449A KR 102122200 B1 KR102122200 B1 KR 102122200B1
Authority
KR
South Korea
Prior art keywords
workpiece
module
automated process
function
distinguishing
Prior art date
Application number
KR1020180170449A
Other languages
English (en)
Inventor
허준영
김은기
이종혁
권용빈
김태진
박한동
이상현
허준행
김세훈
김형준
장석훈
송해림
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020180170449A priority Critical patent/KR102122200B1/ko
Application granted granted Critical
Publication of KR102122200B1 publication Critical patent/KR102122200B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법이 개시된다. 본 발명의 스마트 팩토리를 위한 자동화 공정 실습 장치는, 공작물의 모양을 구분하는 제1 공정과, 상기 제1 공정과 연결되고 공작물의 색깔을 구분하는 제2 공정으로 이루어지는 자동화 공정 시스템; 및 상기 자동화 공정 시스템의 각 모듈을 구동하는 제어 모듈을 포함하고, 상기 자동화 공정 시스템은, 공작물의 도착 여부를 감지하여 공작물을 정렬하여 투입할 수 있도록 기능을 수행하는 투입모듈; 투입된 공작물의 모양을 구분하여 선별할 수 있도록 기능을 수행하는 제1 영상처리 모듈; 상기 제1 영상처리 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행하는 제1 이송 모듈; 3축 방향으로 자유로운 구동이 가능하며, 선별된 공작물을 픽업하여 AGV(Automated Guided Vehicle)에 로딩할 수 있도록 기능을 수행하는 로딩 모듈; 상기 AGV에 의해 운송된 공작물을 언로딩할 수 있도록, 3축 방향으로 자유로운 구동이 가능한 언로딩 모듈; 운송된 공작물의 색깔을 구분하여 선별할 수 있도록 기능을 수행하는 제2 영상처리 모듈; 및 상기 제2 영상처리 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행하는 제2 이송 모듈을 포함하고, 상기 제어 모듈은 상기 자동화 공정 시스템의 각 모듈을 구동하는 것을 특징으로 한다. 본 발명에 의하면, 스마트 팩토리를 위한 자동화 공정 시스템에 관한 각종 실습을 통해 구성과 원리를 쉽게 이해할 수 있고, 실시간으로 자동화 공정 시스템을 조작해 볼 수 있는 스마트 팩토리를 위한 자동화 공정 실습 장치를 제공할 수 있게 된다.

Description

스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법{AUTOMATION PROCESS TRAINING DEVICE FOR SMART FACTORY AND PRACTICE METHOD USING IT}
본 발명은 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법에 관한 것으로, 보다 상세하게는, 자동화 공정이 이루어지는 과정 및 활용을 교육할 수 있는 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법에 관한 것이다.
현재 우리나라는 인구 고령화로 인해 국내 생산가능 인구는 2016년 3,704만 명을 정점으로 2017년부터 3,702만 명으로 줄어들기 시작하면서 노동력 부족 현상이 심화될 전망이며, 젊은 층의 제조업 기피현상은 이러한 면을 더욱 악화시킬 것으로 예상된다. 또한, 국내 제조업 생산성은 2010년 이후로 둔화되었고 앞으로도 하락세가 계속 될 것으로 예상된다.
이러한 문제를 해결하기 위해 제품의 기획·설계, 생산(제조·공정), 유통·판매 등 전 과정을 ICT 기술로 통합하여 최소비용과 최소시간으로 고객맞춤형 제품을 생산하는 스마트 팩토리 관련 기술이 주목받고 있다.
스마트 팩토리 개념이 적용되면 기획·설계 과정에서는 사전 제품성능 시뮬레이션을 통하여 제작 기간을 단축시킬 수 있고 맞춤형 제품개발이 쉬워지고, 특히, 설비-자재-시스템 간 실시간 통신이 가능해질 생산 과정에서는 다품종 복합생산이 가능해지고 설비의 관리가 용이해지며 에너지효율을 높일 수 있는 이점이 있다.
하지만, 이러한 스마트 팩토리를 위한 자동화 공정을 이루는 장치는 구성과 제어가 복잡하여 상당한 제작기술과 이해도가 요구되며 고가의 장치이므로, 아직 일부 대기업에서만 사용될 뿐, 중소·중견기업이나 학교 등에서 사용하기에 어려움이 있었다.
또한, 작동 오류나 고장이 발생하거나 장치의 지속적인 감시 및 관리가 요구되어 과도한 인력 및 비용이 소모되는 문제가 있었다.
대한민국 공개특허공보 제10-2017-0082713호(공개일: 2017.07.17)
본 발명의 목적은, 스마트 팩토리를 위한 자동화 공정 시스템에 관한 각종 실습을 통해 구성과 원리를 쉽게 이해할 수 있고, 실시간으로 자동화 공정 시스템을 조작해 볼 수 있는 스마트 팩토리를 위한 자동화 공정 실습 장치를 제공하는 것이다.
한편, 본 발명이 해결하고자 하는 기술적 과제는 전술한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 목적은, 본 발명에 따라, 공작물의 모양을 구분하는 제1 공정과, 상기 제1 공정과 연결되고 공작물의 색깔을 구분하는 제2 공정으로 이루어지는 자동화 공정 시스템; 및 상기 자동화 공정 시스템의 각 모듈을 구동하는 제어 모듈을 포함하고, 상기 자동화 공정 시스템은, 공작물의 도착 여부를 감지하여 공작물을 정렬하여 투입할 수 있도록 기능을 수행하는 투입모듈; 투입된 공작물의 모양을 구분하여 선별할 수 있도록 기능을 수행하는 제1 영상처리 모듈; 상기 제1 영상처리 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행하는 제1 이송 모듈; 3축 방향으로 자유로운 구동이 가능하며, 선별된 공작물을 픽업하여 AGV(Automated Guided Vehicle)에 로딩할 수 있도록 기능을 수행하는 로딩 모듈; 상기 AGV에 의해 운송된 공작물을 언로딩할 수 있도록, 3축 방향으로 자유로운 구동이 가능한 언로딩 모듈; 운송된 공작물의 색깔을 구분하여 선별할 수 있도록 기능을 수행하는 제2 영상처리 모듈; 및 상기 제2 영상처리 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행하는 제2 이송 모듈을 포함하고, 상기 제어 모듈은 상기 자동화 공정 시스템의 각 모듈을 구동하는 것을 특징으로 하는 스마트 팩토리를 위한 자동화 공정 실습 장치에 의하여 달성된다.
상기 자동화 공정 시스템은, 각 모듈의 위치, 속도, 및 시간을 다양한 변수로 구동될 수 있도록 제어하는 각각의 위치 제어 모듈, 속도 제어 모듈, 및 시간 제어 모듈을 더 포함하여 이루어질 수 있다.
상기 제1 공정의 상기 제어 모듈은, MELSEC PLC 통신신호에 의해 제어를 받고, 상기 제2 공정의 상기 제어 모듈은, XGK PLC 통신신호에 의해 제어를 받아 이루어질 수 있다.
스마트 팩토리를 위한 자동화 공정 실습 장치를 이용한 실습 방법으로, 제1 컨베이어에 공작물을 투입하는 단계; 라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 촬영하여 하는 단계; 상기 공작물의 모양을 구분하는 단계; 상기 공작물의 모양을 구분하는 단계에서 선별된 공작물을 이송하는 단계; 상기 공작물을 제1 로봇팔로 AGV에 로딩하는 단계; 상기 공작물이 AGV에 의해 제2 공정으로 운송되는 단계; 상기 공작물을 제2 로봇팔로 AGV에서 언로딩하는 단계; 라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 다시 촬영하여 하는 단계; 상기 공작물의 색깔을 구분하는 단계; 및 상기 공작물의 색깔을 구분하는 단계에서 선별된 공작물을 이송하는 단계를 포함하여 이루어지는 것을 특징으로 하는 스마트 팩토리를 위한 자동화 공정 실습 장치를 이용한 실습 방법에 의하여 달성된다.
본 발명에 의하면, 현장에 설치된 자동화 공정 시스템에 대해 각종 실습을 통해 구성과 원리를 보다 쉽게 이해할 수 있게 된다. 즉, 저비용으로, 기업의 수습생 또는 학교의 실습생이 비교적 복잡한 스마트 팩토리의 구성과 흐름을 손쉽게 파악하고 이해할 수 있는 스마트 팩토리를 위한 자동화 공정 실습 장치를 제공할 수 있게 된다.
한편, 본 발명의 효과는 상기 언급한 효과에 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 스마트 팩토리를 위한 자동화 공정 실습 장치의 자동화 공정 시스템을 나타내는 블록도,
도 2는 도 1에 따른 스마트 팩토리를 위한 자동화 공정 실습 장치의 실습 방법을 나타내는 플로차트, 및
도 3은 도 1에 따른 스마트 팩토리를 위한 자동화 공정 실습 장치의 제1, 2 영상처리 모듈을 나타내는 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세하게 설명하면 다음과 같다. 다만, 본 발명을 설명함에 있어서, 이미 공지된 기능 혹은 구성에 대한 설명은, 본 발명의 요지를 명료하게 하기 위하여 생략하기로 한다.
또한, "포함하다" 또는 "이루어진다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.
또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
또한, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 발명의 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법은, 현장에 설치된 자동화 공정 시스템에 대해 각종 실습을 통해 구성과 원리를 보다 쉽게 이해할 수 있게 된다. 즉, 저비용으로, 기업의 수습생 또는 학교의 실습생이 비교적 복잡한 스마트 팩토리의 구성과 흐름을 손쉽게 파악하고 이해하기 위해 안출된 발명이다.
도 1은 본 발명에 따른 스마트 팩토리를 위한 자동화 공정 실습 장치의 자동화 공정 시스템을 나타내는 블록도이고, 도 2는 도 1에 따른 스마트 팩토리를 위한 자동화 공정 실습 장치의 실습 방법을 나타내는 플로차트이며, 도 3은 도 1에 따른 스마트 팩토리를 위한 자동화 공정 실습 장치의 제1, 2 영상처리 모듈을 나타내는 블록도이다.
도 1에 도시된 바와 같이, 자동화 공정 시스템(10)은, 공작물의 모양을 구분하는 제1 공정(100)과, 제1 공정(100)과 연결되고 공작물의 색깔을 구분하는 제2 공정(200), 및 제어 모듈로 이루어질 수 있다.
본 발명에서는, 제1 공정(100)과 제2 공정(200)만 언급했지만, 필요에 따라서 제3 공정, ... , 제N 공정을 연결할 수 있음은 물론이다.
제1 공정(100)은, 도 2에 도시된 바와 같이, 공작물의 모양을 구분하는 것으로, 투입 모듈(110), 제1 영상처리 모듈(120), 제1 이송 모듈(130), 및 로딩 모듈(140)을 포함하여 이루어질 수 있다.
투입 모듈(110)은, 공작물의 도착 여부를 감지하여 공작물을 정렬하고 투입할 수 있도록 기능을 수행할 수 있다.
제1 영상처리 모듈(120)은, 투입된 공작물의 모양을 구분하여 선별할 수 있도록 기능을 수행할 수 있다.
제1 이송 모듈(130)은, 제1 영상계측 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행할 수 있다.
로딩 모듈(140)은, 3축 방향으로 자유로운 구동이 가능하며, 선별된 공작물을 픽업하여 AGV(Automated Guided Vehicle)에 로딩할 수 있도록 기능을 수행할 수 있다.
제2 공정(200)은, 도 2에 도시된 바와 같이, 공작물의 색깔을 구분하는 것으로, 언로딩 모듈(210), 제2 영상처리 모듈(220), 및 제2 이송 모듈(230)을 포함하여 이루어질 수 있다.
언로딩 모듈(210)은, AGV에 의해 운송된 공작물을 언로딩할 수 있도록, 3축 방향으로 자유로이 구동하는 기능을 수행할 수 있다.
제2 영상처리 모듈(220)은, 운송된 공작물의 색깔을 구분하여 선별할 수 있도록 기능을 수행할 수 있다.
제2 이송 모듈(230)은, 제2 영상계측 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행할 수 있다.
제1 공정(100) 및 제2 공정(200)에서 사용되는 각 모듈은 제어 모듈로 구현될 수 있는데, 이 제어 모듈(20)은, PLC 모듈로 이루어질 수 있다.
일반적으로, PLC(Programmable Logic Controller)는, 입력을 프로그램에 의해 순차적으로 논리 처리하고 그 출력 결과를 이용해 연결된 외부장치를 제어하는, 산업 플랜트의 자동 제어 및 감시에 사용하는 것으로 순차제어(Sequential Control)에 사용되는 대표적 장치이다.
본 발명에서는, 제1 공정(100)에서는 MITSUBISHI 社의 MELSEC PLC 통신신호에 의해 제어를 받고, 제2 공정(200)에서는 LS산전 社의 XGK PLC 통신신호에 의해 제어를 받는 것을 기준으로 설명한다. 이렇게 구성됨으로써 다른 방식의 PLC를 실습할 수 있게 된다.
한편, 자동화 공정 시스템(10)은, 각 모듈의 위치, 속도, 및 시간을 다양한 변수로 구동될 수 있도록 제어하는 각각의 위치 제어 모듈, 속도 제어 모듈, 및 시간 제어 모듈을 더 포함하여 이루어질 수 있다.
도 3에 도시된 바와 같이, 제1 영상처리 모듈(120) 및 제2 영상처리 모듈(220)은, 생산된 공작물의 품질을 검사하기 위해(불량 유무를 판별하기 위해) 영상처리를 할 수 있다.
본 발명의 프로그래밍 라이브러리는 Python 용 OpenCV로 구현될 수 있다. 즉, 이 라이브러리의 다양한 함수와 Python언어를 활용한 알고리즘으로 제1 영상처리 모듈(120) 및 제2 영상처리 모듈(220)을 구현할 수 있다. 물론, 영상획득은 라즈베리파이 카메라로 이루어진다.
제어 모듈은, PLC 모듈로 이루어질 수 있다.
일반적으로, PLC(Programmable Logic Controller)는, 입력을 프로그램에 의해 순차적으로 논리 처리하고 그 출력 결과를 이용해 연결된 외부장치를 제어하는, 산업 플랜트의 자동 제어 및 감시에 사용하는 것으로 순차제어(Sequential Control)에 사용되는 대표적 장치이다.
또한, 본 발명의 자동화 공정 시스템(10)은, 하나의 서버를 통해 제어할 수 있는데, 산업용 표준 프로토콜인 OPC-UA(Open Platform Communications Unified Architecture)를 사용하여 통신 부분에서 많은 양의 데이터를 주고받으면서 보안, 데이터 손실, 안정성 등 다양한 문제를 해결할 수 있게 된다.
또한, 자동화 공정 시스템(10)은, 센서와 메모리도 중요하다. 센서와 메모리를 기계설비 뿐만 아니라 소재반제품까지 부착시켜 자율제어 생산체계를 구현하면 이들은 주문에 따라 설비에 가공 명령을 주고 생산 공정의 병목현상을 자가 진단하고 최적 생산 경로를 안내해주지만, 당업자 수준에서 다양한 방식 및 형태로 손쉽게 이루어질 수 있는바, 이에 대한 구체적인 설명은 생략하기로 한다.
본 발명에 따른, 스마트 팩토리를 위한 자동화 공정 실습 장치(1)를 이용한 실습 방법은, 제1 컨베이어에 공작물을 투입하는 단계, 라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 촬영하여 하는 단계, 상기 공작물의 모양을 구분하는 단계, 상기 공작물의 모양을 구분하는 단계에서 선별된 공작물을 이송하는 단계, 상기 공작물을 제1 로봇팔로 AGV에 로딩하는 단계, 상기 공작물이 AGV에 의해 제2 공정(200)으로 운송되는 단계, 상기 공작물을 제2 로봇팔로 AGV에서 언로딩하는 단계, 라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 다시 촬영하여 하는 단계, 상기 공작물의 색깔을 구분하는 단계, 및 상기 공작물의 색깔을 구분하는 단계에서 선별된 공작물을 이송하는 단계를 포함하여 이루어질 수 있다.
제1 컨베이어에 공작물을 투입하는 단계는, 투입 모듈(110)에 생산된 공작물들을 투입하는 단계로, 공작물들이 일렬로 제1 컨베이어에 투입된다.
라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 촬영하여 하는 단계 및 상기 공작물의 모양을 구분하는 단계는, 제1 영상처리 모듈(120)을 사용하여 공작물의 단면이 동그라미인지, 사각형인지 구분할 수 있다. 여기서는, 공작물의 단면이 원인 형태를 선별하기로 설정한다.
제1 영상처리 모듈(120)은, 도 3에 도시된 바와 같이, 영상을 획득하고, 전처리를 거쳐, 영역을 분할하여 인식 및 해석하게 된다. 이는 Python 용 OpenCV로 구현될 수 있다.
예컨대, 전처리는 우선 획득한 영상을 gray 함수로 흑백 처리하고, 다음으로 BilateralFilter 함수로 영상에서 화소값이 급격하게 변하는 부분들을 감소시켜 점진적으로 변하게 함으로써 영상이 전체적으로 부드러운 느낌이 나게 한다. 다음으로 Canny 함수를 이용해 Edge(윤곽선)을 검출하면 Canny는 문턱치를 가리키는 두 개의 인수를 갖는데 이 인수들의 값을 조정하여 약한 Edge를 무시함으로써 결과 영상이 보다 깨끗해 질 수 있다. 마지막으로 GaussianBlur 함수를 활용해 영상의 유의미한 정보를 제외하고 나머지를 흐리게 만들면 전처리가 끝나게 된다.
영역 분할은, getStructuringElement 함수를 사용해 사각형모양의 9*9 커널로 설정하고 morphologyEx 함수를 close로 사용하여 전경 오브젝트 내부의 작은 구멍이나 오브젝트의 작은 검은 점을 제거할 수 있게 된다.
인식 및 해석은, 원과 사각형의 판별이 이루어지는데 원 검출은 HoughCircle 함수를 이용해 원의 중심점과 반지름을 구할 수 있다. 이 구한 값들이 프로그램상 설정한 값의 오차범위 안에 속할 경우에 원으로 인식되고, 사각형은 전처리된 데이터에서 꼭지점을 찾아내 그 꼭지점으로 이어진 변들의 내부 각도를 판별한다. 이때 내부 각도의 총합이 360° 내외이면서, 각각의 내부 각도가 90° 내외일 때 사각형으로 판별한다. 이때 최소 면적값을 설정하여 너무 작은 직사각형은 무시하면서 우리가 사용하는 공작물 정도의 크기를 잘 인식할 수 있도록 할 수 있다.
상기 공작물의 모양을 구분하는 단계에서 선별된 공작물을 이송하는 단계는, 단면이 원인 형태의 선별된 공작물을 일렬로 제1 이송 모듈(130)로 이송하는 단계이다.
상기 공작물을 AGV에 로딩하는 단계는, 제1 이송 모듈(130)의 공작물을 로딩 모듈(140)을 사용하여 AGV에 로딩하는 것으로, 여기서 로딩 모듈(140)은 제1 로봇팔로 구현될 수 있다.
제1 로봇팔은, 안정성을 위해 무게중심이 하단부에 위치하도록 마련된 것으로, 당업자 수준에서 다양한 방식 및 형태로 손쉽게 이루어질 수 있는바, 이에 대한 구체적인 설명은 생략하기로 한다.
상기 공작물이 AGV에 의해 제2 공정(200)으로 운송되는 단계는, 제1 공정(100)과 제2 공정(200)은 떨어져 있는데 이것을 이어주는 기능을 하는 것으로, 종래의 물류운반방식인 작업자의 노동과 함께 이루어지는 것과는 달리 더 정확하고 작업자에게 일어날 안전 문제를 감소시킬 수 있게 된다.
여기서는, AGV가 이동할 경로위에 반사테이프 또는 자기유도선을 깔아놓는 광전자기 유도형과 같이 라인트레이싱 기술로 검은테이프로 이루어진 경로를 추적해 AGV가 이동할 수 있게 된다.
예컨대, AGV는 4채널IR센서를 사용하여 라인트레이싱을 하여, AGV가 라인을 인식할 수 있게 된다. 한 줄로 정렬되어 있는 4개의 적외선센서의 입력에 따라 모터의 출력을 달리할 수 있게 된다.
상기 공작물을 AGV에서 언로딩하는 단계는, 제1 공정(100)에서 제2 공정(200)으로 AGV에 의해 운송된 공작물을 언로딩 모듈(210)로 언로딩하는 단계이다. 언로딩 모듈(210)은 제2 로봇팔로 구현될 수 있으며, 제2 로봇팔은 제1 로봇팔과 같은 기능을 할 수 있다.
언로딩 모듈(210)에 의해 언로딩된 공작물은 또 제2 영상처리 모듈(220)로 촬영되는데, 이것이 라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 다시 촬영하여 하는 단계이다. 제1 공정(100)에서 사용된 라즈베리파이 카메라와 동일한 카메라로 구현될 수 있다.
상기 공작물의 색깔을 구분하는 단계는, 제2 영상처리 모듈(220)로 이루어지며, 제2 영상처리 모듈(220)은, 도 3에 도시된 바와 같이, 영상을 획득하고, 전처리를 거쳐, 영역을 분할하여 인식 및 해석하게 된다. 이는 Python 용 OpenCV로 구현될 수 있다.
예컨대, 촬영된 영상의 Edge 내부의 색을 전처리되기 이전의 영상의 RGB값으로 판별하고, 이를 위해 특정 색의 RGB값을 설정하는데, 여기서는 회색과 노란색의 RGB범위를 설정하여 영상의 데이터가 그 값에 속할 경우 각각의 색을 검출할 수 있다.
다시 말하면, 제1 공정(100)의 제1 영상처리 모듈(120)은, 라즈베리파이 카메라로 촬영된 영상으로 공작물의 모양을 구분하고, 제2 공정(200)의 제2 영상처리 모듈(220)은 촬영된 영상으로 공작물의 색깔을 구분할 수 있게 된다.
상기 공작물의 색깔을 구분하는 단계에서 선별된 공작물을 이송하는 단계는, 제2이송 모듈(230)을 이용하여 선별된 공작물로 배열할 수 있게 된다.
상술한 바와 같이, 스마트 팩토리를 위한 자동화 공정 실습 장치(1) 및 이를 이용한 실습 방법은, 현장에 설치된 자동화 공정 시스템에 대해 각종 실습을 통해 구성과 원리를 보다 쉽게 이해할 수 있게 된다. 즉, 저비용으로, 기업의 수습생 또는 학교의 실습생이 비교적 복잡한 스마트 팩토리의 구성과 흐름을 손쉽게 파악하고 이해할 수 있게 된다. 다시 말하면, 떨어져 있는 제1 공정(100)과 제2 공정(200)의 자동화 공정에 대해, 그 일련의 세부 과정 등을 실습할 수 있게 된다.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명한 일이다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 기술적 사상이나 관점으로부터 개별적으로 이해되어서는 안되며, 변형된 실시예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.
1 : 스마트 팩토리를 위한 자동화 공정 실습 장치
10 : 자동화 공정 시스템
100 : 제1 공정
110 : 투입 모듈
120 : 제1 영상처리 모듈
130 : 제1 이송 모듈
140 : 로딩 모듈
200 : 제2 공정
210 : 언로딩 모듈
220 : 제2 영상처리 모듈
230 : 제2 이송 모듈

Claims (4)

  1. 공작물의 모양을 구분하는 제1 공정과, 상기 제1 공정과 연결되고 공작물의 색깔을 구분하는 제2 공정으로 이루어지는 자동화 공정 시스템; 및
    상기 자동화 공정 시스템의 각 모듈을 구동하는 제어 모듈을 포함하고,
    상기 자동화 공정 시스템은,
    공작물의 도착 여부를 감지하여 공작물을 정렬하고 투입할 수 있도록 기능을 수행하는 투입모듈;
    투입된 공작물의 모양을 구분하여 선별할 수 있도록 기능을 수행하는 제1 영상처리 모듈;
    상기 제1 영상처리 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행하는 제1 이송 모듈;
    3축 방향으로 자유로운 구동이 가능하며, 선별된 공작물을 픽업하여 AGV(Automated Guided Vehicle)에 로딩할 수 있도록 기능을 수행하는 로딩 모듈;
    상기 AGV에 의해 운송된 공작물을 언로딩할 수 있도록, 3축 방향으로 자유로이 구동하는 기능을 수행하는 언로딩 모듈;
    운송된 공작물의 색깔을 구분하여 선별할 수 있도록 기능을 수행하는 제2 영상처리 모듈; 및
    상기 제2 영상처리 모듈에 의해 선별된 공작물을 이송할 수 있도록 기능을 수행하는 제2 이송 모듈을 포함하고,
    상기 제어 모듈은 상기 자동화 공정 시스템의 각 모듈을 구동하는 것을 특징으로 하는 스마트 팩토리를 위한 자동화 공정 실습 장치.
  2. 제1항에 있어서,
    상기 자동화 공정 시스템은,
    각 모듈의 위치, 속도, 및 시간을 다양한 변수로 구동될 수 있도록 제어하는 각각의 위치 제어 모듈, 속도 제어 모듈, 및 시간 제어 모듈을 더 포함하여 이루어지는 것을 특징으로 하는 스마트 팩토리를 위한 자동화 공정 실습 장치.
  3. 제1항에 있어서,
    상기 제1 공정의 상기 제어 모듈은,
    MELSEC PLC 통신신호에 의해 제어를 받고,
    상기 제2 공정의 상기 제어 모듈은,
    XGK PLC 통신신호에 의해 제어를 받아 이루어지는 것을 특징으로 하는 스마트 팩토리를 위한 자동화 공정 실습 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 따른, 스마트 팩토리를 위한 자동화 공정 실습 장치를 이용한 실습 방법으로,
    제1 컨베이어에 공작물을 투입하는 단계;
    라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 촬영하여 하는 단계;
    상기 공작물의 모양을 구분하는 단계;
    상기 공작물의 모양을 구분하는 단계에서 선별된 공작물을 이송하는 단계;
    상기 공작물을 제1 로봇팔로 AGV에 로딩하는 단계;
    상기 공작물이 AGV에 의해 제2 공정으로 운송되는 단계;
    상기 공작물을 제2 로봇팔을 사용하여 AGV에서 제2 컨베이어로 언로딩하는 단계;
    라즈베리파이(Raspberry Pi) 카메라로 상기 공작물을 다시 촬영하여 하는 단계;
    상기 공작물의 색깔을 구분하는 단계; 및
    상기 공작물의 색깔을 구분하는 단계에서 선별된 공작물을 이송하는 단계를 포함하여 이루어지는 것을 특징으로 하는 스마트 팩토리를 위한 자동화 공정 실습 장치를 이용한 실습 방법.
KR1020180170449A 2018-12-27 2018-12-27 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법 KR102122200B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180170449A KR102122200B1 (ko) 2018-12-27 2018-12-27 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180170449A KR102122200B1 (ko) 2018-12-27 2018-12-27 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법

Publications (1)

Publication Number Publication Date
KR102122200B1 true KR102122200B1 (ko) 2020-06-12

Family

ID=71088493

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180170449A KR102122200B1 (ko) 2018-12-27 2018-12-27 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법

Country Status (1)

Country Link
KR (1) KR102122200B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001018619A1 (en) * 1999-09-03 2001-03-15 Euroelektro International Oy Camera control in a process control system
KR20120121125A (ko) * 2011-04-26 2012-11-05 한국콘베어공업주식회사 이미지 정보를 이용한 반품 분류시스템
KR101226892B1 (ko) * 2012-08-02 2013-02-05 주식회사 지백프로 가죽품질 추적시스템
KR20170082713A (ko) 2016-01-07 2017-07-17 한국기술교육대학교 산학협력단 Plc기반 필드버스 실습장비
KR101813983B1 (ko) * 2017-02-13 2018-01-30 황명숙 제품 조립 참관 및 주문자 피드백 요청 기반의 산업 로봇 자동화 시스템
WO2018213053A2 (en) * 2015-12-31 2018-11-22 Fives Intralogistics Corp. Vision based item typing and separation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001018619A1 (en) * 1999-09-03 2001-03-15 Euroelektro International Oy Camera control in a process control system
KR20120121125A (ko) * 2011-04-26 2012-11-05 한국콘베어공업주식회사 이미지 정보를 이용한 반품 분류시스템
KR101226892B1 (ko) * 2012-08-02 2013-02-05 주식회사 지백프로 가죽품질 추적시스템
WO2018213053A2 (en) * 2015-12-31 2018-11-22 Fives Intralogistics Corp. Vision based item typing and separation system
KR20170082713A (ko) 2016-01-07 2017-07-17 한국기술교육대학교 산학협력단 Plc기반 필드버스 실습장비
KR101813983B1 (ko) * 2017-02-13 2018-01-30 황명숙 제품 조립 참관 및 주문자 피드백 요청 기반의 산업 로봇 자동화 시스템

Similar Documents

Publication Publication Date Title
CN106672345B (zh) 一种工业机器人自动分拣的方法及系统
Pajaziti et al. Identification and classification of fruits through robotic system by using artificial intelligence
Al Hinai et al. Building color sensor based on image processing technology for automatic color object sorting using PLC system
CN109712509B (zh) 一种模拟生产线实训平台
KR102122200B1 (ko) 스마트 팩토리를 위한 자동화 공정 실습 장치 및 이를 이용한 실습 방법
Setiawan et al. Ann design model to recognize the direction of multi-robot agv
Chauhan et al. Design and development of a machine vision system for part color detection and sorting
CN106470307A (zh) 可编程机器视觉装置
Yang et al. Research on an Automatic Sorting System Based on Machine Vision
TW202326114A (zh) 長碼拉鏈的缺陷或瑕疵檢測系統
CN107671002A (zh) 基于视觉检测的服装分拣方法及其装置
Ojiro et al. A study of smart factory with artificial intelligence
CN112184665A (zh) 一种应用于纸塑行业的人工智能缺陷侦测系统
Abicht et al. Interface-free connection of mobile robot cells to machine tools using a camera system
Yan et al. Design of industrial robot sorting system based on smart camera
Soetedjo et al. Development of Industrial Control Training Module using Distance and Color Sensors for Detecting Objects
Jin et al. Determination of defects for dynamic objects using instance segmentation
Huayta-Uribe et al. Design of an Automated System for the Rocoto Selection Process Based on Color and Size
Shaloo et al. Flexible automation of quality inspection in parts assembly using CNN-based machine learning
Orozco Evaluation of a Machine Vision System Applied to Quality Control in a Liquid Filling, Lid and Labeling Line for Bottles
Utintu et al. 6D Valves Pose Estimation based on YOLACT and DenseFusion for the Offshore Robot Application
Abicht et al. New automation solution for brownfield production–Cognitive robots for the emulation of operator capabilities
Nikolakis et al. A digital twin-enabled cyber-physical system approach for mixed packaging
Fang Application of XueJie vision system in the workpiece sorting of Huibo robot
Chavan et al. Intelligent object sorting insolent system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
R401 Registration of restoration