KR102576673B1 - 증강 현실 기반의 작업 가이드 방법 - Google Patents

증강 현실 기반의 작업 가이드 방법 Download PDF

Info

Publication number
KR102576673B1
KR102576673B1 KR1020220172316A KR20220172316A KR102576673B1 KR 102576673 B1 KR102576673 B1 KR 102576673B1 KR 1020220172316 A KR1020220172316 A KR 1020220172316A KR 20220172316 A KR20220172316 A KR 20220172316A KR 102576673 B1 KR102576673 B1 KR 102576673B1
Authority
KR
South Korea
Prior art keywords
work
parts
workbench
image
management server
Prior art date
Application number
KR1020220172316A
Other languages
English (en)
Inventor
최기성
Original Assignee
(주)투비시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)투비시스템 filed Critical (주)투비시스템
Priority to KR1020220172316A priority Critical patent/KR102576673B1/ko
Application granted granted Critical
Publication of KR102576673B1 publication Critical patent/KR102576673B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06316Sequencing of tasks or work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Manufacturing & Machinery (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Factory Administration (AREA)

Abstract

상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 작업자가 작업을 수행하는 공간인 작업대에 그래픽 영상을 프로젝션하여 작업자를 가이드 하기 위한 증강 현실 기반의 작업 가이드 방법을 제안한다. 상기 방법은 관리 서버가, 작업을 수행하는 공간인 작업대를 촬영한 영상을 수신하는 단계, 상기 관리 서버가, 상기 수신한 작업대 영상에서 작업 대상물을 식별하는 단계, 상기 관리 서버가, 상기 식별된 작업 대상물에 대응하는 작업을 검색하고, 상기 검색된 작업에 대응되게 부품 공급 장치를 제어하여 부품을 정렬하는 단계, 상기 관리 서버가, 상기 검색된 작업에 따라 설정된 가이드 정보를 추출하는 단계 및 상기 관리 서버가, 상기 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하여 상기 작업대 상에 프로젝션(projection) 시키는 단계를 포함할 수 있다.

Description

증강 현실 기반의 작업 가이드 방법{Method for augmented reality based task guidance}
본 발명은 작업 가이드 방법에 관한 것이다. 보다 상세하게는, 작업자가 작업을 수행하는 공간인 작업대에 그래픽 영상을 프로젝션(projection)하여 작업자를 가이드 하기 위한 증강 현실 기반의 작업 가이드 방법에 관한 것이다.
증강 현실(AR)은 실제 현실 영상의 일부에 가상 이미지를 오버레이(overlay)하여 하나의 영상으로 보여주는 기술이다. 가상 현실(Virtual Reality, VR)은 착용자의 신체, 배경(background) 및 전경(foreground)가 모두 가상의 영상인 것과 비교하여, 증강 현실(AR)은 착용자의 신체, 배경 및 전경의 일부가 실제 현실 영상이라는 점에서 차이가 있다.
한편, 스마트 팩토리(smart factory)는 설계 및 개발, 제조, 유통 등 생산 과정에 디지털 자동화 솔루션이 결합된 정보통신기술(ICT)를 적용하여 생산성, 품질 및 고객만족도를 향상시키는 지능형 생산공장으로 공장 내 설비와 기계에 사물인터넷(IoT)을 설치하여 공정 데이터를 실시간으로 수집하고, 이를 분석해 스스로 제어할 수 있게 만든 미래형 공장이다.
특히, 기계부품 산업 분야에서 스마트 팩토리는 원재료나 부품을 조립하고 검사하는 노동집약적 산업으로써, 자재를 부착 및 조립하여 검사하는 공정이 중요하며, 부착 및 조립 시 발생하는 공정 데이터와 검사 시 수집되는 검사 데이터를 연계하여 품질분석을 실시해야 한다.
이러한, 기계부품 산업 분야에서 스마트 팩토리는 전체적인 공정을 자동화로 구축하기 위한 노력이 수행되고 있지만, 고난이도의 수작업 조립 공정의 경우, 그 중요성과 작업 공정의 난이도로 인해 현재까지도 사람의 손을 거쳐야하는 작업 공정으로 남아 있는 실정이다.
특히, 고난이도 수작업 공정은 숙련 노동자의 절대적인 인원증가가 필요하나 공정의 난이도, 인력의 수급, 노령화 등에 의해 그 활용도가 현저히 떨어지는 문제점이 있었다.
따라서, 수작업 공정에서 작업 안내, 기록 지시, 작업 표준서 등을 가이드 함으로써, 비숙련자의 공정 적응도를 높여 품질 유지 및 인력 활용을 최적화할 수 있는 방안이 필요한 실정이다.
대한민국 등록특허공보 제10-1407916호, ‘조립라인의 부품공급장치 및 그 방법’, (2014.06.10. 등록) 대한민국 등록특허공보 제10-1859229호, '건설기계의 작업 가이드 정보 표시 장치 및 방법', (2018.05.11. 등록)
본 발명의 일 목적은 작업자가 작업을 수행하는 공간인 작업대에 그래픽 영상을 프로젝션하여 작업자를 가이드 하기 위한 증강 현실 기반의 작업 가이드 방법을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 작업자가 작업을 수행하는 공간인 작업대에 그래픽 영상을 프로젝션하여 작업자를 가이드 하기 위한 증강 현실 기반의 작업 가이드 방법을 제안한다. 상기 방법은 관리 서버가, 작업을 수행하는 공간인 작업대를 촬영한 영상을 수신하는 단계, 상기 관리 서버가, 상기 수신한 작업대 영상에서 작업 대상물을 식별하는 단계, 상기 관리 서버가, 상기 식별된 작업 대상물에 대응하는 작업을 검색하고, 상기 검색된 작업에 대응되게 부품 공급 장치를 제어하여 부품을 정렬하는 단계, 상기 관리 서버가, 상기 검색된 작업에 따라 설정된 가이드 정보를 추출하는 단계 및 상기 관리 서버가, 상기 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하여 상기 작업대 상에 프로젝션(projection) 시키는 단계를 포함하는 것을 특징으로 한다.
상기 작업 대상물을 식별하는 단계는 상기 촬영된 영상 내에 존재하는 엣지(edge)를 추출하고, 상기 추출된 엣지에 의해 폐쇄된 영역(enclosure)을 하나 이상 추출하고, 상기 추출된 하나 이상의 폐쇄된 영역의 형성과 사전에 설정된 작업 대상물의 형상을 대비하여, 상기 작업 대상물을 식별하는 것을 특징으로 한다.
상기 부품을 정렬하는 단계는 상기 부품 공급 장치에 구비된 슬롯의 배열 순서에 따라 작업 순서에 대응하여 해당 부품을 구비하는 부품 박스를 순차적으로 제공하는 것을 특징으로 한다.
상기 프로젝션 시키는 단계는 상기 부품 공급 장치로부터 제공된 각 부품 박스의 위치와 대응하는 작업대 상의 위치에, 작업 순서를 나타내는 식별 정보를 프로젝션 시키는 것을 특징으로 한다.
상기 프로젝션 시키는 단계는 상기 그래픽 영상이 프로젝션 된 상기 작업대를 촬영하고, 상기 촬영된 작업대 영상에서 작업 대상물의 반사율(reflectivity)을 추정하고, 상기 추정된 반사율에 따라 상기 그래픽 영상의 광량을 조절하는 것을 특징으로 한다.
상기 프로젝션 시키는 단계는 상기 그래픽 영상의 광량을 조절하되, 상기 그래픽 영상의 RGB(Red, Green, Blue) 값 중 B 값을 조절하는 것을 특징으로 한다.
상기 프로젝션 시키는 단계는 상기 촬영된 작업대 영상에 포함된 작업 대상물의 종류를 식별하고, 상기 식별된 종류에 대응하는 재질에 따라 반사율을 추정하는 것을 특징으로 한다.
상기 프로젝션 시키는 단계는 상기 촬영된 작업대 영상에서 작업자의 손을 식별하고, 사전 설정된 시간 동안 식별된 손의 크기에 대한 평균 값을 통해 작업자의 자세를 추정하고, 상기 추정된 작업자의 자세에 따라 상기 그래픽 영상의 크기를 조절하는 것을 특징으로 한다.
상기 프로젝션 시키는 단계는 상기 식별된 손의 크기에 대한 평균 값을 통해 카메라를 기준으로 작업자의 손과의 거리를 추정하고, 상기 추정된 거리를 기초로 상기 작업자의 자세를 추정하는 것을 특징으로 한다.
상기 프로젝션 시키는 단계는 수행중인 작업에 대응하는 작업 표준서를 포함하는 그래픽 영상을 프로젝션 하되, 상기 추정된 자세에 따라 크기를 달리하여 프로젝션 하는 것을 특징으로 한다.
기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시 예들에 따르면, 작업자가 작업을 수행하는 공간인 작업대에 작업을 가이드 하기 위한 그래픽 영상을 프로젝션하여 작업자를 가이드 함으로써, 비숙련자 및 숙련자 간의 작업 품질 편차를 줄이고, 비숙련자의 작업 현장 적응도를 높일 수 있다.
본 발명의 효과들은 이상에서 언급한 효과로 제한되지 아니하며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속한 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 작업 시스템을 나타낸 구성도이다.
도 2는 본 발명의 일 실시예에 따른 부품 공급 장치를 나타낸 사시도이다.
도 3은 본 발명의 일 실시예에 따른 부품 공급부를 나타낸 사시도이다.
도 4는 본 발명의 일 실시예에 따른 이동 슬롯을 나타낸 사시도이다.
도 5는 본 발명의 일 실시예에 따른 위치 이동부를 나타낸 사시도이다.
도 6은 본 발명의 일 실시예에 따른 부품 보관부를 나타낸 사시도이다.
도 7은 본 발명의 일 실시예에 따른 부품 보관부의 후면을 나타낸 평면도이다.
도 8은 본 발명의 일 실시예에 따른 관리 서버의 논리적 구성도이다.
도 9는 본 발명의 일 실시예에 따른 관리 서버의 하드웨어 구성도이다.
도 10은 본 발명의 일 실시예에 따른 작업 가이드 방법을 설명하기 위한 순서도이다.
도 11은 본 발명의 일 실시예에 따른 작업 검증 방법을 설명하기 위한 순서도이다.
도 12는 본 발명의 일 실시예에 따른 작업 가이드 방법을 설명하기 위한 예시도이다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.
한편, 기계부품 산업 분야에서 스마트 팩토리는 원재료나 부품을 조립하고 검사하는 노동집약적 산업으로써, 자재를 부착 및 조립하여 검사하는 공정이 중요하며, 부착 및 조립 시 발생하는 공정 데이터와 검사 시 수집되는 검사 데이터를 연계하여 품질분석을 실시해야 한다.
이러한, 기계부품 산업 분야에서 스마트 팩토리는 전체적인 공정을 자동화로 구축하기 위한 노력이 수행되고 있지만, 고난이도의 수작업 조립 공정의 경우, 그 중요성과 작업 공정의 난이도로 인해 현재까지도 사람의 손을 거쳐야하는 작업 공정으로 남아 있는 실정이다.
특히, 고난이도 수작업 공정은 숙련 노동자의 절대적인 인원증가가 필요하나 공정의 난이도, 인력의 수급, 노령화 등에 의해 그 활용도가 현저히 떨어지는 문제점이 있었다.
따라서, 수작업 공정에서 작업 안내, 기록 지시, 작업 표준서 등을 가이드 함으로써, 비숙련자의 공정 적응도를 높여 품질 유지 및 인력 활용을 최적화할 수 있는 방안이 필요한 실정이다.
이러한 한계를 극복하고자, 본 발명은 품질 유지 및 인력 활용을 최적화할 수 있는 다양한 수단들을 제안하고자 한다.
도 1은 본 발명의 일 실시예에 따른 작업 시스템을 나타낸 구성도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 작업 시스템은 부품 공급 장치(100), 카메라(200), 프로젝터(300), 관리 서버(400) 및 관리자 단말기(500)를 포함하여 구성될 수 있다.
이와 같은, 본 발명의 일 실시예에 따른 작업 시스템의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.
각각의 구성 요소에 대하여 설명하면, 부품 공급 장치(100)는 작업자가 작업을 수행하는 작업대의 일측에 배치되어, 작업에 사용되는 부품을 보관하고, 보관된 부품을 작업 순서에 대응하여 정렬한 후 작업자에게 공급할 수 있다.
이러한, 부품 공급 장치(100)는 작업대와 일체로 형성되되, 작업대를 기준으로 작업자와 서로 마주하도록 형성될 수 있다. 하지만 이에 한정된 것은 아니고, 부품 공급 장치(100)는 작업대와 별도로 구비되어, 작업대의 일측에 배치되되, 작업대를 기준으로 작업자와 서로 마주하도록 배치되어, 작업대를 기준으로 작업자 방향으로 부품을 공급할 수 있다.
구체적으로, 부품 공급 장치(100)는 다층으로 적재(load)된 부품 박스를 개별적으로 취출(unload)한 후 수직 또는 수평 이동시킬 수 있다. 또한, 부품 공급 장치(100)는 부품 박스를 작업 순서에 대응하여 정렬하고, 정렬이 완료된 부품 박스를 슬라이딩 방식으로 작업대 상에 돌출시켜 작업자에게 제공할 수 있다.
부품 공급 장치(100)는 작업이 완료되면, 슬라이딩 방식으로 돌출된 부품 박스를 후퇴시키고, 후퇴된 부품 박스를 다시 원래의 위치로 이동시킬 수 있다.
이와 같이, 부품 공급 장치(100)는 작업에 필요한 부품을 보관하고, 보관된 부품을 작업 순서에 대응되게 정렬하여 작업자에게 제공함으로써, 작업 변경에 빠른 대처가 가능하며, 부품의 오사용을 미연에 방지할 수 있다.
한편, 부품 공급 장치(100)에 관한 구체적인 구성은 도 2 내지 도 7을 참조하여 후술하도록 한다.
다음 구성으로, 카메라(camera, 200)는 작업대의 상단에 구비되어, 작업자가 작업을 수행하기 위한 공간인 작업대를 촬영할 수 있다.
구체적으로, 카메라(200)는 작업대를 촬영하여, 작업대 상에 존재하는 작업 대상물, 부품, 부품 공급 장치(100)의 일부 및 작업자의 신체 일부에 대한 이미지를 획득할 수 있다. 여기서, 부품 공급 장치(100)의 일부는 작업자에게 부품을 공급하기 위하여 작업대 상으로 돌출된 부품 박스가 될 수 있다. 또한, 작업자의 신체의 일부는 작업자의 손이 될 수 있다.
또한, 카메라(200)는 부품 공급 장치(100)의 상단에 구비되어, 부품 공급 장치(100)의 위치 이동부(120)를 촬영할 수 있다.
구체적으로, 카메라(200)는 위치 이동부(120)에 의해 파지 된 부품 박스의 내부에 구비된 부품을 촬영할 수 있다.
이러한, 카메라(200)는 컬러(color) 정보를 획득할 수 있는 RGB 카메라 이거나, 컬러 정보 및 깊이(depth) 정보를 함께 획득할 수 있는 RGB-D 카메라가 될 수 있다.
다음 구성으로, 프로젝터(projector, 300)는 관리 서버(400)의 제어 하에 카메라(200)로부터 획득된 이미지를 기초로 식별된 작업 대상물의 표면이나 주변에 상황에 적합한 그래픽 영상을 오버레이(overlay)하여 출력할 수 있다.
구체적으로, 프로젝터(300)는 작업대에서 이루어지고 있는 작업에 따라 설정된 가이드 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션(projection) 시킬 수 있다.
또한, 프로젝터(300)는 관리 서버(400)의 제어 하에 작업 검증 결과와 대응하는 검증 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
다음 구성으로, 관리 서버(400)는 부품 공급 장치(100), 카메라(200) 및 프로젝터(300), 관리자 단말기(500)의 전반적인 기능을 제어하기 위한 장치이다.
구체적으로, 관리 서버(400)는 카메라(200)를 통해 작업을 수행하는 공간인 작업대를 촬영하고, 촬영된 작업대 영상에서 작업 대상물을 식별할 수 있다. 또한, 관리 서버(400)는 식별된 작업 대상물에 대응하는 작업을 검색하고, 검색된 작업에 대응되게 부품 공급 장치를 제어하여 부품을 정렬할 수 있다. 그리고, 관리 서버(400)는 검색된 작업에 따라 설정된 가이드 정보를 추출하고, 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
또한, 관리 서버(400)는 작업자가 작업을 수행하는 공간인 작업대를 촬영하고, 촬영된 작업대 이미지를 기초로 작업이 완료된 부품에 대하여 조립 위치 및 조립 상태에 대한 작업을 검증할 수 있다. 또한, 관리 서버(400)는 검증 결과와 대응하는 검증 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
이와 같은, 관리 서버(400)의 구체적인 구성 및 동작에 대해서는 추후 도 8 및 도 9를 참조하여 보다 구체적으로 설명하도록 한다.
상술한 바와 같은, 관리 서버(400)는 서버(server)라는 용어에 한정되지 아니하고, 서로 데이터를 송수신하고 송수신된 데이터를 이용하여 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 관리 서버(400)는 데스크탑(desktop), 워크스테이션(workstation) 또는 서버 등과 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.
다음 구성으로, 관리자 단말기(500)는 관리 서버(400)의 기능을 원격으로 제어하거나, 관리 서버(400)로부터 부품 공급 장치(100)의 제어 상태, 작업대 영상 등을 모니터링 할 수 있다.
이러한, 관리자 단말기(500)는 3GPP(3rd Generation Partnership Project)에서 규정하고 있는 사용자 장치(User Equipment, UE)에 한정되지 아니하며, 관리 서버(400)와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 관리자 단말기(500)는 데스크탑(desktop), 워크스테이션(workstation) 또는 서버(server)와 같은 고정식 컴퓨팅 장치, 또는 스마트폰(smart phone), 랩탑(laptop), 태블릿(tablet), 패블릿(phablet), 휴대용 멀티미디어 재생장치(Portable Multimedia Player, PMP), 개인용 휴대 단말기(Personal Digital Assistants, PDA) 또는 전자책 단말기(E-book reader)과 같은 이동식 컴퓨팅 장치 중 어느 하나가 될 수 있다.
지금까지 상술한 바와 같은, 작업 시스템을 구성하는 부품 공급 장치(100), 카메라(200), 프로젝터(300), 관리 서버(400) 및 관리자 단말기(500)는 장치들 사이를 직접 연결하는 보안 회선, 근거리 통신망, 공용 유선 통신망 또는 이동통신망 중 하나 이상이 조합된 네트워크를 이용하여 데이터를 송수신할 수 있다.
예를 들어, 근거리 통신망에는 블루투스(bluetooth), 와이파이(wifi), 지그비(zigbee), 및 NFC(Near Field Communication) 중 하나 이상이 포함될 수 있으나, 이에 한정되는 것은 아니다.
또한, 공용 유선 통신망에는 이더넷(ethernet), 디지털가입자선(x Digital Subscriber Line, xDSL), 광동축 혼합망(Hybrid Fiber Coax, HFC) 및 광가입자망(Fiber To The Home, FTTH) 중 하나 이상이 포함될 수 있으나, 이에 한정되는 것은 아니다.
또한, 이동통신망에는 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 와이드 밴드 코드 분할 다중 접속(Wideband CDMA, WCDMA), 고속 패킷 접속(High Speed Packet Access, HSPA), 롱텀 에볼루션(Long Term Evolution, LTE) 및 5세대 이동통신(5th generation mobile telecommunication) 중 하나 이상이 포함될 수 있으나, 이에 한정되는 것도 아니다.
이하, 본 발명의 일 실시예에 따른 부품 공급 장치(100)에 대하여 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 부품 공급 장치를 나타낸 사시도이고, 도 3은 본 발명의 일 실시예에 따른 부품 공급부를 나타낸 사시도이고, 도 4는 본 발명의 일 실시예에 따른 이동 슬롯을 나타낸 사시도이고, 도 5는 본 발명의 일 실시예에 따른 위치 이동부를 나타낸 사시도이고, 도 6은 본 발명의 일 실시예에 따른 부품 보관부를 나타낸 사시도이다. 도 7은 본 발명의 일 실시예에 따른 부품 보관부의 후면을 나타낸 평면도이다.
도 2 내지 도 7을 참조하면, 본 발명의 일 실시예에 따른 부품 공급 장치(100)는 부품 공급부(110), 위치 이동부(120), 부품 부관부(130) 및 제어부(140)를 포함하여 구성될 수 있다.
먼저, 부품 공급부(110)는 작업을 수행하는 작업대(10)의 일측에 배치되어, 적어도 하나의 부품 박스(20)를 적재(load)하기 위한 복수의 슬롯(slot)이 형성되며, 슬롯에 적재된 부품 박스(20) 중 적어도 하나를 작업 순서에 대응되게 정렬하여 작업자에게 공급할 수 있다.
이러한, 부품 공급부(110)는 프레임(111) 및 복수의 단위 슬롯(112)을 포함하여 구성될 수 있다.
프레임(111)은 작업 순서에 대응하여 지면과 수평하게 배열된 복수의 공간이 형성될 수 있다. 즉, 프레임(111)은 지면과 수직한 방향으로 길이를 갖도록 형성된 복수의 단위 프레임(111a)이 일정 간격으로 이격 배치되어, 지면과 수평하게 배열된 복수의 공간을 형성할 수 있다.
복수의 단위 슬롯(112)은 이동 슬롯(113) 및 복수의 고정 슬롯(114)을 포함하여 구성될 수 있다.
이동 슬롯(113)은 프레임(111)에 형성된 복수의 공간 각각의 최하단부에 구비되고, 위치 이동부(120)에 의해 작업 순서에 대응하여 부품 박스(20)가 적재되며, 적재된 부품 박스(20)를 작업대(10) 방향으로 전진 또는 후진하여 적업자에게 부품을 공급할 수 있다.
구체적으로, 이동 슬롯(113)은 슬롯 몸체(113a), 슬롯 가이드 바(113b) 및 슬롯 이동 몸체(113c)를 포함하여 구성될 수 있다.
슬롯 몸체(113a)는 프레임(111)에 형성된 복수의 공간 각각의 양측 단위 프레임(111a)에 고정 설치될 수 있다. 슬롯 가이드 바(113b)는 슬롯 몸체(113a)의 길이 방향을 따라 슬롯 몸체(113a)에 각각 고정 설치될 수 있다. 슬롯 이동 몸체(113c)는 상부에 부품 박스(20)가 적재되고, 슬롯 가이드 바(113b)를 따라 전진 또는 후진하여 작업자에게 부품을 공급할 수 있다.
복수의 고정 슬롯(114)은 이동 슬롯(113) 각각의 상부에 지면과 수직하게 배열되어, 이동 슬롯(113)에 공급될 부품 박스(20)가 적재될 수 있다. 구체적으로, 복수의 고정 슬롯(114) 각각은 프레임(111)에 형성된 각 공간의 양측 단위 프레임(111a)에 부품 박스(20)를 지지할 수 있는 지지대(114a)를 포함하여 구성될 수 있다.
한편, 상술한 설명에서는 이동 슬롯(113)이 최하단부에 일렬로 배치되고, 이동 슬롯(113)의 상단부에 복수의 고정 슬롯(114)이 다단으로 배치된 것으로 설명하지만, 이에 한정된 것은 아니고, 이동 슬롯(113)이 다단으로 배치되거나, 복수의 고정 슬롯(114)이 일렬로 배치되도록 구성될 수도 있다.
다음 구성으로, 위치 이동부(120)는 부품 공급부(110)에 부품 박스를 적재시키거나, 복수의 슬롯에 적재된 부품 박스(20)를 취출한 후 수평 또는 수직 이동시켜 부품 박스(20)의 위치를 변경시킬 수 있다.
이러한, 위치 이동부(120)는 수직 이동부(121), 수평 이동부(122) 및 파지부(123)를 포함하여 구성될 수 있다.
구체적으로, 수직 이동부(121)는 복수의 단위 슬롯(112) 각각에 포함된 슬롯의 배열 방향을 따라 부품 박스(20)를 수직 이동시킬 수 있다. 이러한, 수직 이동부(121)는 제1 몸체(121a), 제1 가이드 바(121b) 및 제1 구동부(121c)를 포함하여 구성될 수 있다.
제1 몸체(121a)는 복수의 단위 슬롯(112) 각각에 포함된 슬롯의 배열 방향으로 길이를 갖도록 형성될 수 있다. 제1 가이드 바(121b)는 제1 몸체(121a)를 따라 길이를 갖도록 형성되어 부품 박스(20)의 수직 이동을 가이드 할 수 있다. 제1 구동부(121c)는 제1 가이드 바(121b)를 따라 수평 이동부(122)를 이동시킬 수 있다.
수평 이동부(122)는 수직 이동부(121)에 수직 이동 가능하도록 결합되고, 부품 박스(20)를 복수의 단위 슬롯(112)의 배열 방향을 따라 수평 이동시킬 수 있다. 이러한, 수평 이동부(122)는 제2 몸체(122a), 제2 가이드 바(122b) 및 제2 구동부(122c)를 포함하여 구성될 수 있다.
제2 몸체(122a)는 제1 몸체(121a)와 수직한 방향으로 길이를 갖도록 형성되며, 제1 가이드 바(121b)에 슬라이드 이동 가능하도록 결합되어, 제1 구동부(121c)에 의해 제1 가이드 바(121b)를 따라 이동할 수 있다. 제2 가이드 바(122b)는 제2 몸체(122a)를 따라 길이를 갖도록 형성되어 부품 박스(20)의 수평 이동을 가이드 할 수 있다. 제2 구동부(122c)는 제2 가이드 바(122b)를 따라 파지부(123)를 이동시킬 수 있다.
파지부(123)는 수평 이동부(122)에 수평 이동 가능하도록 결합되며, 부품 박스(20)를 파지 한 상태로 전진 또는 후진하여, 부품 공급부(110) 또는 보품 보관부(130)에 부품 박스(20)를 적재하거나 취출할 수 있다. 이러한, 파지부(123)는 제3 몸체(123a), 제3 가이드바(123b) 및 그리퍼(123c)를 포함하여 구성될 수 있다.
제3 몸체(123a)는 제2 몸체(122a)와 수직한 방향으로 길이를 갖도록 형성되며, 제2 가이드 바(122b)에 슬라이드 이동 가능하도록 결합되어, 제2 구동부(122c)에 의해 제2 가이드 바(122b)를 따라 이동할 수 있다. 제3 가이드 바(123b)는 제3 몸체(123a)를 따라 길이를 갖도록 형성되어 부품 박스(20)의 전진 또는 후진 이동을 가이드 할 수 있다.
그리퍼(123c)는 부품 박스(20)를 파지한 상태로 제3 가이드 바(123b)를 따라 부품 공급부(110) 또는 부품 보관부(130)를 향해 전진 또는 후진하여, 부품 공급부(110) 또는 부품 보관부(130)에 부품 박스(20)를 적재하거나 취출할 수 있다. 여기서, 그리퍼(123c)는 적재된 부품 박스(20)의 하부로 삽입되어 수직 이동부(121)에 의해 부품 박스(20)를 상부로 들어올리는 형태로 부품 박스(20)를 파지할 수 있다. 하지만, 이에 한정된 것은 아니고, 그리퍼(123c)는 흡착 방식을 통해 부품 박스(20)를 파지하는 등 부품 박스(20)를 파지할 수 있는 다양한 수단이 적용될 수 있다.
또한, 그리퍼(123c)는 파지 한 부품 박스(20)의 중량을 측정하기 위한 무게 감지 센서를 포함할 수 있다.
다음 구성으로, 부품 보관부(130)는 위치 이동부(120)를 기준으로 부품 공급부(110)와 대향하도록 배치되어, 부품 공급부(110)에 공급하기 위한 부품 박스(20)를 보관할 수 있다. 이러한, 보품 보관부(130)는 프레임(131) 및 복수의 고정 슬롯(132)을 포함하여 구성될 수 있다.
프레임(131)은 작업 순서에 대응하여 지면과 수평하게 배열된 복수의 공간이 형성될 수 있다. 즉, 프레임(131)은 지면과 수직한 방향으로 길이를 갖도록 형성된 복수의 단위 프레임(131a)이 일정 간격으로 이격 배치되어, 지면과 수평하게 배열된 복수의 공간을 형성할 수 있다.
복수의 고정 슬롯(132)은 복수의 단위 프레임(131a) 사이에 지면과 수직하게 배열되어, 부품 공급부(110)에 공급될 부품 박스(20)가 적재될 수 있다. 구체적으로, 복수의 고정 슬롯(132) 각각은 프레임(131)에 형성된 각 공간의 양측 단위 프레임(131a)에 부품 박스(20)를 지지할 수 있는 지지대(132a)를 포함하여 구성될 수 있다.
또한, 부품 보관부(130)는 적재된 부품 박스에 포함된 잔여 부품 개수를 출력하는 출력부(133)를 포함하여 구성될 수 있다.
출력부(133)는 프레임(131)의 후면에 설치되되, 복수의 고정 슬롯(132) 각각과 대응되는 위치에 설치되어, 각 고정 슬롯(132)에 적재된 부품 박스(20)에 포함된 잔여 부품 개수를 출력할 수 있다. 이때, 출력부(133)는 잔여 부품 개수와 함께 해당 부품 종류와 대응하는 식별 정보를 함께 출력할 수 있다.
이러한, 출력부(133)는 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic LED, OLED) 및/또는 능동형 유기 발광 다이오드(Active Matrix OLED, AMOLED) 등과 같은 영상 출력 장치를 포함할 수 있다.
다음 구성으로, 제어부(140)는 부품 공급 장치(100)의 전반적인 기능을 제어하는 역할을 수행할 수 있다.
구체적으로, 제어부(140)는 부품 공급부(110)를 제어하여 복수의 슬롯에 적재된 부품 박스(20) 중 적어도 하나를 작업 순서에 대응되게 정렬하여 작업대(20)에 공급하고, 위치 이동부(120)를 제어하여 부품 공급부(110)에 부품 박스(20)를 적재시키거나, 부품 공급부(110)에 적재된 부품 박스(20)를 취출 후 수평 또는 수직 이동시켜 위치를 변경시킬 수 있다.
특히, 제어부(140)는 카메라를 통해 그리퍼(123c)에 파지 된 부품 박스(20) 내부 영상을 통해 파지 된 부품 박스(20)에 구비된 부품의 종류를 식별할 수 있다. 즉, 제어부(140)는 파지 된 부품 박스(20) 내부에 구비된 부품의 형상을 사전 저장된 부품의 형상 이미지와 비교하여 부품의 종류를 식별할 수 있다.
또한, 제어부(140)는 식별된 부품의 단위 중량 및 무게 감지 센서로부터 측정된 파지 된 부품 박스(20)의 중량을 기초로, 파지 된 부품 박스 내부에 구비된 부품 개수를 추정할 수 있다.
그리고, 제어부(140)는 추정된 부품의 개수가, 작업자가 수행하고 있는 작업에 요구되는 부품의 개수 보다 적은 경우, 파지 된 부품 박스(20)를 부품 보관부(130)의 빈 슬롯 중 하나에 적재하고, 부품 보관부(130)에 구비된 동일한 종류의 부품을 구비하고 있는 부품 박스(20)를 파지하여 부품 공급부(110)에 제공할 수 있다.
또한, 제어부(140)는 위치 이동부(120)를 제어하여 부품 공급부(110)에서 작업 완료된 부품 박스(20)를 취출하여, 작업 완료된 부품 박스(20)에 포함된 잔여 부품의 개수를 추정할 수 있다.
그리고, 제어부(140)는 작업 완료된 부품 박스(20)를 부품 보관부(130)에 적재함과 동시에, 식별된 부품의 종류에 대응하는 식별 정보와 함께 추정된 잔여 부품의 개수를 출력부(133)를 통해 출력할 수 있다.
이하, 상술한 바와 같은, 관리 서버(400)의 구성에 대하여 보다 구체적으로 설명하기로 한다.
도 8은 본 발명의 일 실시예에 따른 관리 서버의 논리적 구성도이다.
도 8을 참조하면, 관리 서버(400)는 통신부(405), 입출력부(410), 저장부(415), 부품 공급 제어부(420), 작업 가이드부(425) 및 작업 검증부(430)를 포함하여 구성될 수 있다.
이와 같은, 관리 서버(400)의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.
통신부(405)는 부품 공급 장치(100)를 제어하기 위한 제어 신호를 부품 공급 장치(100)에 전송할 수 있다.
또한, 통신부(405)는 카메라(200)로부터 촬영된 이미지를 수신할 수 있다. 구체적으로, 통신부(405)는 카메라(200)에 의해 작업자가 작업을 수행하는 공간인 작업대를 촬영하여 획득된 컬러 정보 및 깊이 정보를 수신할 수 있다.
또한, 통신부(405)는 가이드 정보를 포함하는 그래픽 영상을 프로젝터(300)로 전송할 수 있다. 또한, 통신부(405)는 검증 결과와 대응하는 검증 정보를 포함하는 그래픽 영상을 프로젝터(300)로 전송할 수 있다.
다음 구성으로, 입출력부(410)는 사용자 인터페이스(User Interface, UI)를 통해 사용자로부터 신호를 입력 받거나, 또는 연산된 결과를 외부로 출력할 수 있다.
구체적으로, 입출력부(410)는 부품 공급 장치(100)를 제어하기 위한 제어 신호를 입력 받을 수 있다. 또한, 입출력부(410)는 카메라(200)로부터 촬영된 이미지, 부품 공급 장치(100)의 제어 상태 등을 출력할 수 있다.
다음 구성으로, 저장부(415)는 관리 서버(400)의 동작에 필요한 데이터를 저장할 수 있다.
구체적으로, 저장부(415)는 부품 공급 장치(100)를 제어하기 위한 프로그램, 카메라(200)로부터 촬영된 이미지 등을 저장할 수 있다. 또한, 저장부(415)는 각 작업에 대응하여 설정된 가이드 정보를 저장할 수 있다. 또한, 저장부(415)는 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하기 위한 프로그램 및 데이터를 저장할 수 있다. 또한, 저장부(415)는 촬영된 작업대 이미지를 기초로 작업이 완료된 부품에 대하여 조립 위치 및 조립 상태에 대한 작업을 검증하기 위한 프로그램 및 데이터를 저장할 수 있다. 또한, 저장부(415)는 검증 결과와 대응하는 검증 정보를 포함하는 그래픽 영상을 생성하기 위한 프로그램 및 데이터를 저장할 수 있다.
다음 구성으로, 부품 공급 제어부(420)는 부품 공급 장치(100)의 전반적인 기능을 제어하는 역할을 수행할 수 있다.
구체적으로, 부품 공급 제어부(420)는 부품 공급부를 제어하여 복수의 슬롯에 적재된 부품 박스 중 적어도 하나를 작업 순서에 대응되게 정렬하여 작업대에 공급하고, 위치 이동부를 제어하여 부품 공급부에 부품 박스를 적재시키거나, 부품 공급부에 적재된 부품 박스를 취출 후 수평 또는 수직 이동시켜 위치를 변경시킬 수 있다.
특히, 부품 공급 제어부(420)는 카메라를 통해 그리퍼에 파지 된 부품 박스 내부 영상을 통해 파지 된 부품 박스에 구비된 부품의 종류를 식별할 수 있다. 즉, 부품 공급 제어부는 파지 된 부품 박스 내부의 부품의 형상을 사전 저장된 부품의 형상 이미지와 유사도를 비교하여 부품의 종류를 식별할 수 있다.
또한, 부품 공급 제어부(420)는 식별된 부품의 단위 중량 및 무게 감지 센서로부터 측정된 파지 된 부품 박스의 중량을 기초로 파지 된 부품 박스 내부에 구비된 부품 개수를 추정할 수 있다.
그리고, 부품 공급 제어부(420)는 추정된 부품의 개수가, 작업자가 수행하고 있는 작업에 요구되는 부품의 개수 보다 적은 경우, 파지 된 부품 박스를 부품 보관부의 빈 슬롯 중 하나에 적재하고, 부품 보관부에 구비된 동일한 종류의 부품을 구비하고 있는 부품 박스를 파지하여 부품 공급부에 제공할 수 있다.
또한, 부품 공급 제어부(420)는 위치 이동부를 제어하여 부품 공급부에서 작업 완료된 부품 박스를 취출하여, 작업 완료된 부품 박스에 포함된 잔여 부품의 개수를 추정할 수 있다.
그리고, 부품 공급 제어부는 작업 완료된 부품 박스를 부품 보관부에 적재함과 동시에, 식별된 부품의 종류에 대응하는 식별 정보와 함께 추정된 잔여 부품의 개수를 출력부에 출력할 수 있다.
다음 구성으로, 작업 가이드부(425)는 작업을 수행하는 공간인 작업대를 촬영한 이미지를 수신하고, 수신한 작업대 영상에서 작업 대상물을 식별할 수 있다.
구체적으로, 작업 가이드부(425)는 촬영된 영상 내에 존재하는 엣지(edge)를 추출할 수 있다. 작업 가이드부(425)는 영상으로부터 엣지를 추출(edge detection)하기 위하여, LoG(Laplacian of Gaussian) 알고리즘 또는 DoG(Difference of Gaussian) 알고리즘 중 어느 하나를 사용할 수 있다.
예를 들어, LoG 알고리즘을 이용할 경우, 작업 가이드부(425)는 가우시안 필터(Gaussian filter)를 이용하여 영상 내에 존재하는 잡음을 제거할 수 있다. 작업 가이드부(425)는 잡음이 제거된 영상에 라플라시안 필터(Laplacian)를 적용할 수 있다. 그리고, 작업 가이드부(425)는 라플라시안 필터가 적용된 영상에 영교차(zerocrossing)을 검출하여 엣지를 추출할 수 있다.
다른 예를 들어, DoG 알고리즘을 이용할 경우, 작업 가이드부(425)는 영상으로부터 분산이 서로 다른 가우시안 마스크(Gaussian mask)를 두 개 생성한다. 작업 가이드부(425)는 생성된 하나의 마스크에서 다른 하나의 마스크를 뺀다. 그리고, 작업 가이드부(425)는 뺀 마스크를 영상에 적용하여 엣지를 추출할 수 있다.
작업 가이드부(425)는 추출된 엣지에 의한 폐쇄 영역(enclosure)을 하나 이상 추출할 수 있다. 이 경우, 작업 가이드부(425)는 엣지 영역이 폐쇄되었는지 명확히 하기 위하여, 영상에 이진화(binarization)를 먼저 처리할 수 있다.
작업 가이드부(425)는 추출된 하나 이상의 폐쇄된 영역의 형상과 사전에 설정된 정비 대상이 되는 객체의 형상을 대비하여, 영상으로부터 작업 대상물을 식별할 수 있다.
또한, 작업 가이드부(425)는 식별된 작업 대상물에 대응하는 작업을 검색하고, 검색된 작업에 대응되게 부품 공급 장치(100)를 제어하여 부품을 정렬할 수 있다.
이때, 작업 가이드부(425)는 부품 공급 장치(100)에 구비된 슬롯의 배열 순서에 따라 작업 순서에 대응하여 해당 부품을 구비하는 부품 박스를 순차적으로 제공할 수 있다.
예를 들어, 작업 가이드부(425)는 검색된 작업에 대응되게 부품 공급 장치(100)를 제어하여 부품을 정렬한 후 일괄적으로 작업대에 제공하거나, 작업 순서에 대응하여 해당 부품을 개별적으로 작업대에 제공할 수 있다.
또한, 작업 가이드부(425)는 검색된 작업에 따라 설정된 가이드 정보를 추출할 수 있다.
또한, 작업 가이드부(425)는 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
구체적으로, 작업 가이드부(425)는 검색된 작업에 대응되게 설정된 컨텐츠(contents)를 포함시켜, 증강 현실(AR)을 구현하기 위한 그래픽 영상을 생성할 수 있다. 이와 같이, 증강 현실을 구현하기 위한 그래픽 영상에 포함되는 컨텐츠에는 작업 표준서(work operation sheet), 작업 대상물의 표면이나 주변에 작업에 관한 그래픽 영상을 오버레이(overlay)시키기 위한 정보, 부품 정보 등이 포함될 수 있다.
즉, 작업 가이드부(425)는 실제공간에 가상공간을 결합하여 생성된 증강 컨텐츠를 프로젝터(300)를 통해 가시화할 수 있다. 이를 위해, 작업 가이드부(425)는 카메라(200)와 프로젝터(300)를 연계한 캘리브레이션(calibration) 단계를 거쳐, 증강 컨텐츠를 프로젝션 하기 위한 실제공간과 가상의 3차원 좌표공간 간의 연관 관계를 계산하기 위해 매핑 파라미터를 산출한다.
예를 들어, 작업 가이드부(425)는 캘리브레이션 단계에서 카메라(200)와 프로젝터(300)의 내부 파라미터(intrinsic parameter)와 외부 파라미터(extrinsic parameter)를 구한 후 이를 조합하여 가상공간과 실제공간이 동일하게 매핑될 수 있도록 한다.
작업 가이드부(425)의 전술한 과정들은 컴퓨터 비전(computer vision)에서 활용되는 다양한 패턴 기반의 연관점 분석에 기반하여 수행될 수 있다
또한, 작업 가이드부(425)는 부품 공급 장치(100)로부터 제공된 각 부품 박스의 위치와 대응하는 작업대 상의 위치에, 작업 순서를 나타내는 식별 정보를 프로젝션 시킬 수 있다.
예를 들어, 작업 가이드부(425)는 부품 공급 장치(100)에 의해 복수의 부품 박스가 제공되면, 각 부품 박스의 위치에 대응하는 작업대의 위치에 작업 순서를 나타내는 숫자를 프로젝션 시켜 작업자가 작업 순서를 직관적으로 인지할 수 있도록 할 수 있다.
또한, 작업 가이드부(425)는 그래픽 영상이 프로젝션 된 작업대를 촬영하고, 촬영된 작업대 영상에서 작업 대상물의 반사율(reflectivity)을 추정하고, 추정된 반사율에 따라 그래픽 영상의 광량을 조절할 수 있다.
여기서, 작업 가이드부(425)는 촬영된 작업대 영상에 포함된 작업 대상물의 종류를 식별하고, 식별된 종류에 대응하는 재질에 따라 작업 대상물의 반사율을 추정할 수 있다.
예를 들어, 작업 가이드부(425)는 작업 대상물의 반사율이 높은 경우, 프로젝터(300)로부터 방사되는 광에 의해 작업자의 눈이 부셔 작업에 영향을 미칠 수 있다. 이에 따라, 작업 가이드부(425)는 작업 대상물의 반사율이 사전 설정된 값보다 높은 경우, 프로젝터(300)로부터 방사되는 그래픽 영상의 광량을 조절할 수 있다.
이때, 작업 가이드부(425)는 그래픽 영상의 광량을 조절하되, 그래픽 영상의 RGB(Red, Green, Blue) 값 중 B 값을 조절함으로써, 작업자에게 선명한 그래픽 영상을 제공함과 동시에 작업자 눈에 대한 피로도를 줄일 수 있다.
또한, 작업 가이드부(425)는 촬영된 작업대 영상에서 작업자의 손을 식별하고, 사전 설정된 시간 동안 식별된 손의 크기에 대한 평균 값을 통해 작업자의 자세를 추정할 수 있다. 작업 가이드부(425)는 추정된 작업자의 자세에 따라 그래픽 영상의 크기를 조절할 수 있다.
이때, 작업 가이드부(425)는 식별된 손의 크기에 대한 평균 값을 통해 카메라를 기준으로 작업자의 손과의 거리를 추정하고, 추정된 거리를 기초로 작업자의 자세를 추정할 수 있다.
예를 들어, 작업자의 상부에 고정 설치된 카메라에 의해 촬영된 이미지에서 작업자의 손을 식별하는 경우, 카메라를 기준으로 작업자 손까지의 거리에 따라 식별된 손의 크기가 달라 진다.
위와 같은 현상을 이용하여 작업 가이드부(425)는 식별된 손의 크기에 대한 평균 값이 사전 설정된 값보다 큰 경우, 작업자가 일어서 있는 자세로 작업을 수행하는 것으로 판단할 수 있다.
또한, 작업 가이드부(425)는 식별된 손의 크기에 대한 평균 값이 사전 설정된 값보다 작은 경우, 작업자가 앉은 자세로 작업을 수행하는 것으로 판단할 수 있다.
작업 가이드부(425)는 수행중인 작업에 대응하는 작업 표준서를 포함하는 그래픽 영상을 프로젝션 하되, 추정된 자세에 따라 크기를 달리하여 프로젝션 할 수 있다.
예를 들어, 작업 가이드부(425)는 작업자가 일어서서 작업하는 경우에 작업자의 눈과 작업대 사이의 거리가 멀기 때문에 작업 표준서의 크기를 크게 하여 프로젝션 할 수 있다. 또한, 작업 가이드부(425)는 작업자가 앉아서 작업하는 경우에 작업자의 눈과 작업대 사이의 거리가 가깝기 때문에 작업 표준서의 크기를 작게 하여 프로젝션 할 수 있다.
다음 구성으로, 작업 검증부(430)는 작업자가 작업을 수행하는 공간인 작업대를 촬영한 영상을 수신하고, 수신한 작업대 영상을 기초로 작업이 완료된 부품에 대하여 조립 위치 및 조립 상태에 대한 작업을 검증할 수 있다.
구체적으로, 작업 검증부(430)는 부품 공급 장치(100)에 의해 작업 순서에 대응하여 정렬된 부품 박스 중 하나에서 작업자가 부품을 꺼내는 동작을 감지하면, 직전 단계의 부품을 이용한 작업이 완료된 것으로 판단할 수 있다.
이때, 작업 검증부(430)는 부품 공급 장치(100)로부터 부품 박스의 하중에 대한 정보를 수신하고, 수신한 하중의 변화량을 통해 작업자가 부품을 꺼내는 동작을 감지할 수 있다.
또한, 작업 검증부(430)는 부품 공급 장치(100)로부터 작업 순서에 대응하여 부품 박스가 제공되면, 제공된 부품 박스를 촬영한 제1 이미지 및 제1 이미지에 포함된 부품 박스에 구비된 부품이 조립되기 직전에 촬영한 제2 이미지를 통해 작업을 검증할 수 있다. 여기서, 부품이 조립되기 직전의 순간은 제2 이미지에 식별된 부품의 폭이 줄어드는 시점이 될 수 있다.
구체적으로, 작업 검증부(430)는 제1 이미지 및 제2 이미지 각각에 포함된 부품을 식별하고, 식별된 부품 각각의 폭(width)을 측정하고, 제1 이미지에서 식별된 부품의 폭 및 제2 이미지에서 식별된 부품의 폭의 차이를 기초로 제2 이미지에 포함된 부품의 깊이 값을 추정할 수 있다.
즉, 작업 검증부(430)는 고정 설치된 카메라를 이용하여, 부품 박스에 구비된 부품의 폭을 기준으로, 해당 부품의 위치에 따른 상대적인 폭의 변화량을 통해 해당 부품이 조립되기 직전의 부품의 깊이 값을 추정할 수 있다.
그리고, 작업 검증부(430)는 제2 이미지 상의 부품의 좌표 값 및 추정된 깊이 값을 기초로 조립 위치를 검증할 수 있다. 즉, 작업 검증부(430)는 제2 이미지를 통해 부품의 x 및 y 좌표를 획득할 수 있으며, 추정된 깊이 값을 기초로 부품의 z 좌표를 획득하여, 조립 위치를 검증할 수 있다.
또한, 작업 검증부(430)는 촬영된 작업자의 이미지로부터 사전에 설정된 작업대의 색상을 배경(background)으로 인식하여 제거하고, 배경이 제거된 이미지로부터 엣지(edge)를 추출하고, 추출된 엣지에 의해 폐쇄된 영역(enclosure)을 하나 이상 추출할 수 있다.
여기서, 작업 검증부(430)는 추출된 폐쇄된 영역 중 작업자의 신체로 판단된 영역을 제거하고, 작업자의 신체로 판단된 영역이 제거된 이미지를 통해 작업을 검증할 수 있다.
이때, 작업 검증부(430)는 폐쇄된 영역의 밝기 값을 산출하고, 산출된 밝기 값이 사전에 설정된 임계 값 이하인 경우 작업자의 신체로 판단하여 제거할 수 있다.
즉, 작업 검증부(430)는 프로젝터(300)가 작업자와 마주하는 방향에서 그래픽 영상을 프로젝션 하고, 카메라(200)가 작업대의 상부에서 작업대를 촬영한다는 전제 하에, 프로젝터(300)로부터 출력되는 광이 조사되는 영역과, 조사되지 않는 영역의 차이를 통해 작업자의 신체를 판단할 수 있다.
또한, 작업 검증부(430)는 부품 공급 장치(100)에 의해 작업 순서에 대응하여 정렬된 부품 박스 중 하나에서 작업자가 부품을 꺼내는 행동을 감지하면, 작업자가 꺼낸 부품과 대응하는 기준(standard) 영상을 작업대의 일측에 프로젝션하고, 프로젝션 된 기준 영상 내에 부품이 위치하면, 기준 영상 및 작업자가 꺼낸 부품 이미지를 대비하여 부품의 불량 여부를 판단할 수 있다.
즉, 작업 검증부(430)는 작업자가 부품 박스 중 하나에서 부품을 꺼내 작업을 수행하기 이전에, 프로젝션 된 기준 영상 내에 꺼낸 부품을 정위치 시킬 경우, 기준 영상과 촬영된 부품 이미지를 대비하여 부품의 불량 여부를 판단할 수 있다,
여기서, 기준 영상은 작업자가 꺼낸 부품에 대한 양품 이미지이며, 부품의 실물 크기와 동일하게 프로젝션 될 수 있다.
또한, 작업 검증부(430)는 검증 결과와 대응하는 검증 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
예를 들어, 작업 검증부(430)는 조립 위치 또는 조립 상태가 불량인 부품에 대하여, 해당 부품이 조립된 위치에 불량 사유를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
이하, 상술한 바와 같은 관리 서버(400)의 논리적 구성요소를 구현하기 위한, 하드웨어에 대하여 보다 구체적으로 설명한다.
도 9는 본 발명의 일 실시예에 따른 관리 서버의 하드웨어 구성도이다.
도 9에 도시된 바와 같이, 관리 서버(400)는 프로세서(Processor, 450), 메모리(Memory, 455), 송수신기(Transceiver, 460), 입출력장치(Input/output device, 465), 데이터 버스(Bus, 470) 및 스토리지(Storage, 475)를 포함하여 구성될 수 있다.
프로세서(450)는 메모리(455)에 상주된 소프트웨어(480a)에 따른 명령어를 기초로, 관리 서버(400)의 동작 및 기능을 구현할 수 있다. 메모리(455)에는 본 발명에 따른 방법이 구현된 소프트웨어(480a)가 상주(loading)될 수 있다. 송수신기(260)는 부품 공급 장치(100), 카메라(200), 프로젝터(300) 및 관리자 단말기(500)와 데이터를 송수신할 수 있다. 입출력장치(465)는 관리 서버(400)의 동작에 필요한 데이터를 입력 받고, 부품 관리 장치(100), 프로젝터(300)의 제어 상태 정보 등을 출력할 수 있다. 데이터 버스(470)는 프로세서(450), 메모리(455), 송수신기(460), 입출력장치(465) 및 스토리지(475)와 연결되어, 각각의 구성 요소 사이가 서로 데이터를 전달하기 위한 이동 통로의 역할을 수행할 수 있다.
스토리지(475)는 본 발명에 다른 방법이 구현된 소프트웨어(480a)의 실행을 위해 필요한 애플리케이션 프로그래밍 인터페이스(Application Programming Interface, API), 라이브러리(library) 파일, 리소스(resource) 파일 등을 저장할 수 있다. 스토리지(475)는 본 발명에 따른 방법이 구현된 소프트웨어(480b)를 저장할 수 있다. 또한, 스토리지(475)는 작업 가이드 방법 또는 작업 검증 방법의 수행에 필요한 정보들을 저장할 수 있다.
본 발명의 일 실시예에 따르면, 메모리(455)에 상주되거나 또는 스토리지(475)에 저장된 소프트웨어(480a, 480b)는 프로세서(450)가 작업을 수행하는 공간인 작업대를 촬영한 이미지를 수신하는 단계, 프로세서(450)가, 수신한 작업대 영상에서 작업 대상물을 식별하는 단계, 프로세서(450)가 식별된 작업 대상물에 대응하는 작업을 검색하고, 검색된 작업에 대응되게 부품 공급 장치를 제어하여 부품을 정렬하는 단계, 프로세서(450)가 검색된 작업에 따라 설정된 가이드 정보를 추출하는 단계 및 프로세서(450)가 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시키는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.
본 발명의 다른 실시예에 따르면, 메모리(455)에 상주되거나 또는 스토리지(475)에 저장된 소프트웨어(480a, 480b)는 프로세서(450)가 작업자가 작업을 수행하는 공간인 작업대를 촬영한 영상을 수신하는 단계, 프로세서(450)가 수신한 작업대 영상을 기초로 작업이 완료된 부품에 대하여 조립 위치 및 조립 상태에 대한 작업을 검증하는 단계 및 프로세서(450)가 검증 결과와 대응하는 검증 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시키는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.
보다 구체적으로, 프로세서(450)는 ASIC(Application-Specific Integrated Circuit), 다른 칩셋(chipset), 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리(455)는 ROM(Read-Only Memory), RAM(Random Access Memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 송수신기(460)는 유무선 신호를 처리하기 위한 베이스밴드 회로를 포함할 수 있다. 입출력장치(465)는 키보드(keyboard), 마우스(mouse), 및/또는 조이스틱(joystick) 등과 같은 입력 장치 및 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic LED, OLED) 및/또는 능동형 유기 발광 다이오드(Active Matrix OLED, AMOLED) 등과 같은 영상 출력 장치 프린터(printer), 플로터(plotter) 등과 같은 인쇄 장치를 포함할 수 있다.
본 명세서에 포함된 실시 예가 소프트웨어로 구현될 경우, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리(455)에 상주되고, 프로세서(450)에 의해 실행될 수 있다. 메모리(455)는 프로세서(450)의 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(450)와 연결될 수 있다.
도 9에 도시된 각 구성요소는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한, 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이하, 본 발명의 일 실시예에 따른 작업 가이드 방법에 대하여 상세히 설명하도록 한다.
도 10은 본 발명의 일 실시예에 따른 작업 가이드 방법을 설명하기 위한 순서도이다.
도 10을 참조하면, 먼저 S110 단계에서 관리 서버는 카메라로부터 작업을 수행하는 공간인 작업대를 촬영한 영상을 수신할 수 있다.
다음으로, S120 단계에서 관리 서버는 수신한 작업대 영상에서 작업 대상물을 식별할 수 있다.
구체적으로, 관리 서버는 촬영된 영상 내에 존재하는 엣지(edge)를 추출하고, 추출된 엣지에 의해 폐쇄된 영역(enclosure)을 하나 이상 추출하고, 추출된 하나 이상의 폐쇄된 영역의 형성과 사전에 설정된 작업 대상물의 형상을 대비하여, 작업 대상물을 식별할 수 있다.
다음으로, S130 단계에서 관리 서버는 S120 단계에서 식별된 작업 대상물에 대응하는 작업을 검색하고, 검색된 작업에 대응되게 부품 공급 장치를 제어하여 부품을 정렬할 수 있다.
이때, 관리 서버는 부품 공급 장치에 구비된 슬롯의 배열 순서에 따라 작업 순서에 대응하여 해당 부품을 구비하는 부품 박스를 순차적으로 제공할 수 있다.
다음으로, S140 단계에서 관리 서버는 검색된 작업에 따라 설정된 가이드 정보를 추출할 수 있다.
그리고, S150 단계에서 관리 서버는 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
구체적으로, 관리 서버는 검색된 작업에 대응되게 설정된 컨텐츠(contents)를 포함시켜, 증강 현실(AR)을 구현하기 위한 그래픽 영상을 생성할 수 있다. 이와 같이, 증강 현실을 구현하기 위한 그래픽 영상에 포함되는 컨텐츠에는 작업 표준서(work operation sheet), 작업 대상물의 표면이나 주변에 작업에 관한 그래픽 영상을 오버레이(overlay)시키기 위한 정보, 부품 정보 등이 포함될 수 있다.
즉, 관리 서버는 실제공간에 가상공간을 결합하여 생성된 증강 컨텐츠를 프로젝터를 통해 가시화할 수 있다. 이를 위해, 관리 서버는 카메라와 프로젝터를 연계한 캘리브레이션(calibration) 단계를 거쳐, 증강 컨텐츠를 프로젝션 하기 위한 실제공간과 가상의 3차원 좌표공간 간의 연관 관계를 계산하기 위해 매핑 파라미터를 산출한다.
또한, 관리 서버는 부품 공급 장치로부터 제공된 각 부품 박스의 위치와 대응하는 작업대 상의 위치에, 작업 순서를 나타내는 식별 정보를 프로젝션 시킬 수 있다.
또한, 관리 서버는 그래픽 영상이 프로젝션 된 작업대를 촬영하고, 촬영된 작업대 영상에서 작업 대상물의 반사율(reflectivity)을 추정하고, 추정된 반사율에 따라 그래픽 영상의 광량을 조절할 수 있다.
여기서, 관리 서버는 촬영된 작업대 영상에 포함된 작업 대상물의 종류를 식별하고, 식별된 종류에 대응하는 재질에 따라 작업 대상물의 반사율을 추정할 수 있다.
이때, 관리 서버는 그래픽 영상의 광량을 조절하되, 그래픽 영상의 RGB(Red, Green, Blue) 값 중 B 값을 조절함으로써, 작업자에게 선명한 그래픽 영상을 제공함과 동시에 작업자의 피로도를 줄일 수 있다.
또한, 관리 서버는 촬영된 작업대 영상에서 작업자의 손을 식별하고, 사전 설정된 시간 동안 식별된 손의 크기에 대한 평균 값을 통해 작업자의 자세를 추정하고, 추정된 작업자의 자세에 따라 그래픽 영상의 크기를 조절할 수 있다.
이때, 관리 서버는 식별된 손의 크기에 대한 평균 값을 통해 카메라를 기준으로 작업자의 손과의 거리를 추정하고, 추정된 거리를 기초로 작업자의 자세를 추정할 수 있다.
또한, 관리 서버는 식별된 손의 크기에 대한 평균 값이 사전 설정된 값보다 작은 경우, 작업자가 앉은 자세로 작업을 수행하는 것으로 판단할 수 있다.
관리 서버는 수행중인 작업에 대응하는 작업 표준서를 포함하는 그래픽 영상을 프로젝션 하되, 추정된 자세에 따라 크기를 달리하여 프로젝션 할 수 있다.
이하, 본 발명의 일 실시예에 따른 작업 검증 방법에 대하여 상세히 설명하도록 한다.
도 11은 본 발명의 일 실시예에 따른 작업 검증 방법을 설명하기 위한 순서도이다.
도 11을 참조하면, 먼저 S210 단계에서 관리 서버는 카메라로부터 작업자가 작업을 수행하는 공간인 작업대를 촬영한 영상을 수신할 수 있다.
다음으로, S220 단계에서 관리 서버는 수신한 작업대 영상을 기초로 작업이 완료된 부품에 대하여 조립 위치 및 조립 상태에 대한 작업을 검증할 수 있다.
구체적으로, 관리 서버는 부품 공급 장치에 의해 작업 순서에 대응하여 정렬된 부품 박스 중 하나에서 작업자가 부품을 꺼내는 동작을 감지하면, 직전 단계의 부품을 이용한 작업이 완료된 것으로 판단할 수 있다.
이때, 관리 서버는 부품 공급 장치로부터 부품 박스의 하중에 대한 정보를 수신하고, 수신한 하중의 변화량을 통해 작업자가 부품을 꺼내는 동작을 감지할 수 있다.
또한, 관리 서버는 부품 공급 장치로부터 작업 순서에 대응하여 부품 박스가 제공되면, 제공된 부품 박스를 촬영한 제1 이미지 및 제1 이미지에 포함된 부품 박스에 구비된 부품이 조립되기 직전에 촬영한 제2 이미지를 통해 작업을 검증할 수 있다. 여기서, 부품이 조립되기 직전의 순간은 제2 이미지에 식별된 부품의 폭이 줄어드는 시점이 될 수 있다.
구체적으로, 관리 서버는 제1 이미지 및 제2 이미지 각각에 포함된 부품을 식별하고, 식별된 부품 각각의 폭(width)을 측정하고, 제1 이미지에서 식별된 부품의 폭 및 제2 이미지에서 식별된 부품의 폭의 차이를 기초로 제2 이미지에 포함된 부품의 깊이 값을 추정할 수 있다.
즉, 관리 서버는 고정 설치된 카메라를 이용하여, 부품 박스에 구비된 부품의 폭을 기준으로, 해당 부품의 위치에 따른 상대적인 폭의 변화량을 통해 해당 부품이 조립되기 직전의 부품의 깊이 값을 추정할 수 있다.
이때, 관리 서버는 제2 이미지 상의 부품의 좌표 값 및 추정된 깊이 값을 기초로 조립 위치를 검증할 수 있다. 즉, 관리 서버는 제2 이미지를 통해 부품의 x 및 y 좌표를 획득할 수 있으며, 추정된 깊이 값을 기초로 부품의 z 좌표를 획득하여, 조립 위치를 검증할 수 있다.
또한, 관리 서버는 촬영된 작업자의 이미지로부터 사전에 설정된 작업대의 색상을 배경(background)으로 인식하여 제거하고, 배경이 제거된 이미지로부터 엣지(edge)를 추출하고, 추출된 엣지에 의해 폐쇄된 영역(enclosure)을 하나 이상 추출할 수 있다.
또한, 관리 서버는 추출된 폐쇄된 영역 중 작업자의 신체로 판단된 영역을 제거하고, 작업자의 신체로 판단된 영역이 제거된 이미지를 통해 작업을 검증할 수 있다.
이때, 관리 서버는 폐쇄된 영역의 밝기 값을 산출하고, 산출된 밝기 값이 사전에 설정된 임계 값 이하인 경우 작업자의 신체로 판단하여 제거할 수 있다.
또한, 관리 서버는 부품 공급 장치(100)에 의해 작업 순서에 대응하여 정렬된 부품 박스 중 하나에서 작업자가 부품을 꺼내는 행동을 감지하면, 작업자가 꺼낸 부품과 대응하는 기준(standard) 영상을 작업대의 일측에 프로젝션하고, 프로젝션 된 기준 영상 내에 부품이 위치하면, 기준 영상 및 작업자가 꺼낸 부품을 대비하여 부품의 불량 여부를 판단할 수 있다.
여기서, 기준 영상은 작업자가 꺼낸 부품에 대한 양품 이미지이며, 부품의 실물 크기와 동일하게 프로젝션 될 수 있다.
그리고, S230 단계에서 관리 서버는 검증 결과와 대응하는 검증 정보를 포함하는 그래픽 영상을 생성하여 작업대 상에 프로젝션 시킬 수 있다.
도 12는 본 발명의 일 실시예에 따른 작업 가이드 방법을 설명하기 위한 예시도이다.
도 12에 도시된 바와 같이, 관리 서버는 검색된 작업에 대응되게 설정된 컨텐츠(contents)를 포함시켜, 증강 현실(AR)을 구현하기 위한 그래픽 영상을 생성할 수 있다.
이와 같이, 증강 현실을 구현하기 위한 그래픽 영상에 포함되는 컨텐츠에는 작업 표준서(work operation sheet), 작업 대상물(real work object)의 표면이나 주변에 작업에 관한 그래픽 영상(virtual image)을 오버레이(overlay)시키기 위한 정보, 부품 정보(parts information) 등이 포함될 수 있다.
즉, 관리 서버는 실제공간에 가상공간을 결합하여 생성된 증강 컨텐츠를 프로젝터(300)를 통해 가시화할 수 있다. 이를 위해, 관리 서버는 카메라(200)와 프로젝터(300)를 연계한 캘리브레이션(calibration) 단계를 거쳐, 증강 컨텐츠를 프로젝션 하기 위한 실제공간과 가상의 3차원 좌표공간 간의 연관 관계를 계산하기 위해 매핑 파라미터를 산출한다.
예를 들어, 관리 서버는 캘리브레이션 단계에서 카메라(200)와 프로젝터(300)의 내부 파라미터(intrinsic parameter)와 외부 파라미터(extrinsic parameter)를 구한 후 이를 조합하여 가상공간과 실제공간이 동일하게 매핑될 수 있도록 한다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100 : 부품 공급 장치 110 : 부품 공급부
111 : 프레임 112 : 단위 슬롯
113 : 이동 슬롯 114 : 고정 슬롯
120 : 위치 이동부 121 : 수직 이동부
122 : 수평 이동부 123 : 파지부
130 : 부품 보관부 131 : 프레임
132 : 고정 슬롯 140 : 제어부
200 : 카메라 300 : 프로젝터
400 : 관리 서버 405 : 통신부
410 : 입출력부 415 : 저장부
420 : 부품 공급 제어부 425 : 작업 가이드부
430 : 작업 검증부 500 : 관리 단말기

Claims (10)

  1. 관리 서버가, 작업을 수행하는 공간인 작업대를 촬영한 영상을 수신하는 단계;
    상기 관리 서버가, 상기 수신한 작업대 영상에서 작업 대상물을 식별하는 단계;
    상기 관리 서버가, 상기 식별된 작업 대상물에 대응하는 작업을 검색하고, 상기 검색된 작업에 대응되게 상기 작업대의 일측에 배치된 부품 공급 장치를 제어하여 부품을 정렬하는 단계;
    상기 관리 서버가, 상기 검색된 작업에 따라 설정된 가이드 정보를 추출하는 단계; 및
    상기 관리 서버가, 상기 추출된 가이드 정보를 포함하는 그래픽 영상을 생성하여 상기 작업대 상에 프로젝션(projection) 시키는 단계; 를 포함하고,
    상기 작업 대상물을 식별하는 단계는
    상기 촬영된 영상 내에 존재하는 엣지(edge)를 추출하고, 상기 추출된 엣지에 의해 폐쇄된 영역(enclosure)을 하나 이상 추출하고, 상기 추출된 하나 이상의 폐쇄된 영역의 형상과 사전에 설정된 작업 대상물의 형상을 대비하여, 상기 작업 대상물을 식별하는 것을 특징으로 하며,
    상기 부품을 정렬하는 단계는
    상기 부품 공급 장치에 구비된 슬롯의 배열 순서에 따라 작업 순서에 대응하여 해당 부품을 구비하는 부품 박스를 순차적으로 작업대에 제공하는 것을 특징으로 하고,
    상기 프로젝션 시키는 단계는
    상기 부품 공급 장치로부터 제공된 각 부품 박스의 위치와 대응하는 작업대 상의 위치에, 작업 순서를 나타내는 식별 정보를 프로젝션 시키는 것을 특징으로 하며,
    상기 프로젝션 시키는 단계는
    상기 관리 서버가, 상기 부품 공급 장치에 의해 복수의 부품 박스가 제공되면, 각 부품 박스의 위치에 대응하는 작업대의 위치에 작업 순서를 나타내는 숫자를 프로젝션 시키는 것을 특징으로 하는, 작업 가이드 방법.
  2. 제1 항에 있어서, 상기 프로젝션 시키는 단계는
    상기 그래픽 영상이 프로젝션 된 상기 작업대를 촬영하고, 상기 촬영된 작업대 영상에서 작업 대상물의 반사율(reflectivity)을 추정하고, 상기 추정된 반사율에 따라 상기 그래픽 영상의 광량을 조절하는 것을 특징으로 하는, 작업 가이드 방법.
  3. 제2 항에 있어서, 상기 프로젝션 시키는 단계는
    상기 그래픽 영상의 광량을 조절하되, 상기 그래픽 영상의 RGB(Red, Green, Blue) 값 중 B 값을 조절하는 것을 특징으로 하는, 작업 가이드 방법.
  4. 제2 항에 있어서, 상기 프로젝션 시키는 단계는
    상기 촬영된 작업대 영상에 포함된 작업 대상물의 종류를 식별하고, 상기 식별된 종류에 대응하는 재질에 따라 반사율을 추정하는 것을 특징으로 하는, 작업 가이드 방법.
  5. 제2 항에 있어서, 상기 프로젝션 시키는 단계는
    상기 촬영된 작업대 영상에서 작업자의 손을 식별하고, 사전 설정된 시간 동안 식별된 손의 크기에 대한 평균 값을 통해 작업자의 자세를 추정하고, 상기 추정된 작업자의 자세에 따라 상기 그래픽 영상의 크기를 조절하는 것을 특징으로 하는, 작업 가이드 방법.
  6. 제5 항에 있어서, 상기 프로젝션 시키는 단계는
    상기 식별된 손의 크기에 대한 평균 값을 통해 카메라를 기준으로 작업자의 손과의 거리를 추정하고, 상기 추정된 거리를 기초로 상기 작업자의 자세를 추정하는 것을 특징으로 하는, 작업 가이드 방법.
  7. 제6 항에 있어서, 상기 프로젝션 시키는 단계는
    수행중인 작업에 대응하는 작업 표준서를 포함하는 그래픽 영상을 프로젝션 하되, 상기 추정된 자세에 따라 크기를 달리하여 프로젝션 하는 것을 특징으로 하는, 작업 가이드 방법.
  8. 삭제
  9. 삭제
  10. 삭제
KR1020220172316A 2022-12-12 2022-12-12 증강 현실 기반의 작업 가이드 방법 KR102576673B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220172316A KR102576673B1 (ko) 2022-12-12 2022-12-12 증강 현실 기반의 작업 가이드 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220172316A KR102576673B1 (ko) 2022-12-12 2022-12-12 증강 현실 기반의 작업 가이드 방법

Publications (1)

Publication Number Publication Date
KR102576673B1 true KR102576673B1 (ko) 2023-09-08

Family

ID=88018376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220172316A KR102576673B1 (ko) 2022-12-12 2022-12-12 증강 현실 기반의 작업 가이드 방법

Country Status (1)

Country Link
KR (1) KR102576673B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659579B2 (ja) * 1985-09-04 1994-08-10 キヤノン株式会社 物品自動供給装置
KR101407916B1 (ko) 2012-12-26 2014-06-17 주식회사 프라코 조립라인의 부품공급장치 및 그 방법
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
KR101859229B1 (ko) 2011-12-19 2018-05-17 두산인프라코어 주식회사 건설기계의 작업 가이드 정보 표시 장치 및 방법
JP2020095720A (ja) * 2018-12-11 2020-06-18 株式会社プラン 保管ボックスの管理方法、及び、保管ボックス
KR20210086207A (ko) * 2019-12-31 2021-07-08 주식회사 버넥트 증강현실 기반 작업 공정 모니터링 및 작업 숙련도 평가방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659579B2 (ja) * 1985-09-04 1994-08-10 キヤノン株式会社 物品自動供給装置
KR101859229B1 (ko) 2011-12-19 2018-05-17 두산인프라코어 주식회사 건설기계의 작업 가이드 정보 표시 장치 및 방법
KR101407916B1 (ko) 2012-12-26 2014-06-17 주식회사 프라코 조립라인의 부품공급장치 및 그 방법
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
JP2020095720A (ja) * 2018-12-11 2020-06-18 株式会社プラン 保管ボックスの管理方法、及び、保管ボックス
KR20210086207A (ko) * 2019-12-31 2021-07-08 주식회사 버넥트 증강현실 기반 작업 공정 모니터링 및 작업 숙련도 평가방법

Similar Documents

Publication Publication Date Title
US9552656B2 (en) Image-based color palette generation
KR102326097B1 (ko) 물리적 길이의 단위를 사용하는 팔렛 검출
US20160335784A1 (en) Image-based color palette generation
US20150379743A1 (en) Image-based color palette generation
US20140050387A1 (en) System and Method for Machine Vision Inspection
WO2013111373A1 (ja) 画像検査方法および画像検査装置
JP6089886B2 (ja) 領域分割方法および検査装置
CN110291855B (zh) 检查在印刷电路板贴装的部件的装置、其运转方法及计算机可读记录介质
US9679386B2 (en) Image processing device capable of segmenting an image into plural areas
EP2528035A2 (en) Apparatus and method for detecting a vertex of an image
US9563956B2 (en) Efficient free-space finger recognition
JP6405124B2 (ja) 検査装置、検査方法およびプログラム
CN115937170A (zh) 电路板检测方法、装置、计算机设备及存储介质
US20210213615A1 (en) Method and system for performing image classification for object recognition
US11113680B2 (en) Self-service checkout counter checkout
KR102576673B1 (ko) 증강 현실 기반의 작업 가이드 방법
KR102576677B1 (ko) 증강 현실 기반의 작업 검증 방법
CN117392042A (zh) 缺陷检测方法、缺陷检测设备及存储介质
KR102497722B1 (ko) 과일을 식별하는 장치 및 방법
KR102556422B1 (ko) 다층 순환식 부품 공급 장치
CN114184143A (zh) 一种pcb平整度测量方法及测量装置
CN113888472A (zh) 一种针对消费电子产品缺陷的检测方法和设备
WO2022012365A1 (zh) 机器人标定方法、设备及存储介质
CN111079575B (zh) 一种基于包装图像特征的物料识别方法及系统
CN110335253B (zh) 眼部图像处理方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant