KR20240025248A - A method of teaching a screw assembly location based on a deep learning automatically, an apparatus of teaching a screw assembly location based on a deep learning automatically, and medium of storitng a program teaching a screw assembly location based on a deep learning automatically - Google Patents

A method of teaching a screw assembly location based on a deep learning automatically, an apparatus of teaching a screw assembly location based on a deep learning automatically, and medium of storitng a program teaching a screw assembly location based on a deep learning automatically Download PDF

Info

Publication number
KR20240025248A
KR20240025248A KR1020220103254A KR20220103254A KR20240025248A KR 20240025248 A KR20240025248 A KR 20240025248A KR 1020220103254 A KR1020220103254 A KR 1020220103254A KR 20220103254 A KR20220103254 A KR 20220103254A KR 20240025248 A KR20240025248 A KR 20240025248A
Authority
KR
South Korea
Prior art keywords
image
screw fastening
screw
hole area
deep learning
Prior art date
Application number
KR1020220103254A
Other languages
Korean (ko)
Inventor
노현진
김찬규
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020220103254A priority Critical patent/KR20240025248A/en
Publication of KR20240025248A publication Critical patent/KR20240025248A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/231Analysis of motion using block-matching using full search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

실시예들에 따른 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법은 이미지를 획득하는 단계; 이미지에 대한 전처리를 수행하는 단계; 이미지를 탐색하는 단계; 이미지로부터 스크류 체결 영역을 추출하는 단계; 추출된 이미지에 대한 전처리를 수행하는 단계; 스크류 체결 영역으로부터 홀 영역을 추출하는 단계; 및 홀 영역에 대한 좌표를 저장하는 단계; 를 포함할 수 있다.The deep learning-based screw fastening position automation teaching method according to embodiments includes the steps of acquiring an image; performing preprocessing on the image; Browsing images; Extracting the screw fastening area from the image; Performing preprocessing on the extracted image; Extracting the hole area from the screw fastening area; and storing coordinates for the hole area; may include.

Description

딥러닝 기반 스크류 체결 위치 자동화 티칭 방법, 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치, 딥러닝 기반 스크류 체결 위치 자동화 티칭 프로그램을 저장하는 저장매체{A METHOD OF TEACHING A SCREW ASSEMBLY LOCATION BASED ON A DEEP LEARNING AUTOMATICALLY, AN APPARATUS OF TEACHING A SCREW ASSEMBLY LOCATION BASED ON A DEEP LEARNING AUTOMATICALLY, AND MEDIUM OF STORITNG A PROGRAM TEACHING A SCREW ASSEMBLY LOCATION BASED ON A DEEP LEARNING AUTOMATICALLY}Deep learning-based screw tightening position automation teaching method, deep learning-based screw tightening position automation teaching device, deep learning-based screw tightening position automation teaching program {A METHOD OF TEACHING A SCREW ASSEMBLY LOCATION BASED ON A DEEP LEARNING AUTOMATICALLY, AN APPARATUS OF TEACHING A SCREW ASSEMBLY LOCATION BASED ON A DEEP LEARNING AUTOMATICALLY, AND MEDIUM OF STORITNG A PROGRAM TEACHING A SCREW ASSEMBLY LOCATION BASED ON A DEEP LEARNING AUTOMATICALLY}

본 실시예들은 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법, 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치, 딥러닝 기반 스크류 체결 위치 자동화 티칭 프로그램을 저장하는 저장매체에 관한 것이다.These embodiments relate to a deep learning-based screw fastening position automation teaching method, a deep learning-based screw fastening position automation teaching device, and a storage medium that stores a deep learning-based screw fastening position automation teaching program.

현존하는 스크류 체결 위치 조정 기술의 경우 현업 담당자가 제품의 체결 영역에 대해서 육안으로 확인하고 스크류 체결 장비의 위치를 수치적으로 조절하여 이동시키고 있다. 제품 특성상 다 면의 체결 위치 포인트에 대해서 각각 위치 조정이 반복적으로 필요하다. 현업 담당자가 수행하는 체결 영역별 위치 조절하는 반복적인 업무를 최소화하며, 신규 제품에 대해서 체결 영역 위치에 대한 가이드가 가능한 딥러닝 기반 스크류 체결 위치 자동 티칭 시스템을 구성하기 위한 이론적이고 기술적인 고려가 요구된다.In the case of the existing screw fastening position adjustment technology, the person in charge visually checks the fastening area of the product and numerically adjusts the position of the screw fastening equipment to move it. Due to the nature of the product, repeated position adjustments are required for each fastening position point on multiple surfaces. Theoretical and technical considerations are required to construct a deep learning-based automatic screw fastening position teaching system that minimizes the repetitive work of adjusting the position of each fastening area performed by field personnel and provides guidance on the fastening area position for new products. do.

현재 체결 위치 산정 방법의 경우 현업 담당자가 육안으로 제품의 체결면을 판단하고, 체결 면에 존재하는 체결 포인트를 산정하여 체결기로 좌표를 수동 기입하여 이동시킨다. 현업 담당자가 체결 면을 산정하고 한 면을 대상으로 체결 포인트를 개별적으로 구분하는 반복적인 작업이 필요하다. 제품마다 체결 위치가 상이하여 제품별로 위치를 변경하는 과정에서 현업담당자는 어려움을 얻게 된다. 또한 제품의 각 체결 면마다 체결기가 존재하여, 공정별로 이동하여 체결기의 위치 조정이 필요하여 추가 공수가 발생하는 문제점과 한계점이 있다. In the case of the current fastening position calculation method, the person in charge visually determines the fastening surface of the product, calculates the fastening points existing on the fastening surface, and manually enters the coordinates with the fastener and moves them. It is necessary for the person in charge to calculate the fastening surface and individually distinguish the fastening points for one surface. Since the fastening location is different for each product, field managers face difficulties in the process of changing the location for each product. In addition, since there is a fastener on each fastening surface of the product, the position of the fastener needs to be adjusted as it moves for each process, which is a problem and limitation in that additional man-hours are incurred.

이하에서, 개시하는 실시예들의 목적은 상술한 문제점 및 한계점을 해결하기 위한, 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법, 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치, 딥러닝 기반 스크류 체결 위치 자동화 티칭 프로그램을 저장하는 저장매체를 제공하는 것이다.Hereinafter, the purpose of the disclosed embodiments is to provide a deep learning-based screw fastening position automation teaching method, a deep learning-based screw fastening position automation teaching device, and a deep learning-based screw fastening position automation teaching program to solve the above-mentioned problems and limitations. It provides a storage medium for storing data.

나아가, 실시예들의 목적은 제품의 체결 영역 구분 및 이미지 취득 방법을 포함하는 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법, 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치, 딥러닝 기반 스크류 체결 위치 자동화 티칭 프로그램을 저장하는 저장매체를 제공하는 것이다. Furthermore, the purpose of the embodiments is to store a deep learning-based screw fastening position automation teaching method, a deep learning-based screw fastening position automation teaching device, and a deep learning-based screw fastening position automation teaching program including a method for classifying the fastening area of the product and image acquisition. It provides a storage medium that

나아가, 실시예들의 목적은 체결면의 스크류 체결 포인트 확인을 위한 예측 알고리즘을 포함하는 포함하는 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법, 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치, 딥러닝 기반 스크류 체결 위치 자동화 티칭 프로그램을 저장하는 저장매체를 제공하는 것이다. Furthermore, the purpose of the embodiments is a deep learning-based screw fastening position automation teaching method, a deep learning-based screw fastening position automation teaching device, and a deep learning-based screw fastening position automation including a prediction algorithm for confirming the screw fastening point of the fastening surface. It provides a storage medium for storing teaching programs.

나아가, 실시예들의 목적은 예측된 체결 좌표로 동작되는 체결 시스템 구성 방안을 포함하는 포함하는 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법, 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치, 딥러닝 기반 스크류 체결 위치 자동화 티칭 프로그램을 저장하는 저장매체를 제공하는 것이다. Furthermore, the purpose of the embodiments is a deep learning-based screw fastening position automation teaching method, a deep learning-based screw fastening position automation teaching device, and a deep learning-based screw fastening position automation including a method of configuring a fastening system operated with predicted fastening coordinates. It provides a storage medium for storing teaching programs.

이하에서, 상술한 과제를 해결하기 위해서, 실시예들에 따른 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법은 이미지를 획득하는 단계; 이미지에 대한 전처리를 수행하는 단계; 이미지를 탐색하는 단계; 이미지로부터 스크류 체결 영역을 추출하는 단계; 추출된 이미지에 대한 전처리를 수행하는 단계; 스크류 체결 영역으로부터 홀 영역을 추출하는 단계; 및 홀 영역에 대한 좌표를 저장하는 단계; 를 포함할 수 있다.Hereinafter, in order to solve the above-described problem, a deep learning-based screw fastening position automation teaching method according to embodiments includes the steps of acquiring an image; performing preprocessing on the image; Browsing images; Extracting the screw fastening area from the image; Performing preprocessing on the extracted image; Extracting the hole area from the screw fastening area; and storing coordinates for the hole area; may include.

실시예들에 따르면, 실시예들은 제품의 체결 영역별 체결 포인트를 예측하며, 예측된 체결 포인트로 체결 장비를 이동하여 작업 공수를 최소화할 수 있다. 또한 체결 위치가 변경된 신규 제품에 대해서 대응이 가능한 자동화 시스템을 구성할 수 있다. According to embodiments, fastening points for each fastening area of a product can be predicted, and work man-hours can be minimized by moving fastening equipment to the predicted fastening point. Additionally, it is possible to configure an automated system that can respond to new products with changed fastening positions.

실시예들은 (1) 제품의 체결 영역 구분 및 이미지 취득하고, (2) 이미지를 바탕으로 체결 면의 스크류 체결 포인트를 알고리즘으로 예측하여 (3) 예측된 체결 좌표로 변환하여 각 체결장비들이 동작하는 시스템을 구성할 수 있다. Embodiments (1) classify the fastening area of the product and acquire an image, (2) predict the screw fastening point of the fastening surface using an algorithm based on the image, and (3) convert it to the predicted fastening coordinates to determine how each fastening equipment operates. The system can be configured.

실시예들은 현업담당자가 체결 포인트를 수동으로 설정하는 반복 작업을 최소화하여 공수 절감의 효과를 얻을 수 있다. 구분된 제품의 체결 영역 이미지를 취득하고, 딥러닝 알고리즘으로 체결 포인트 위치를 예측하여 변화되는 체결 영역에 대해서 대응이 가능하다. 이미지를 취득하는 한 개 공정에서 각 면을 체결하는 다수의 공정으로 예측된 체결 좌표를 전달하여, 각 체결 장비들의 위치 조정 작업이 간소화된다. 새로운 체결영역 및 포인트 이미지를 가지고 알고리즘의 추가 학습을 통해 체결 포인트가 예측되어 유사 제품의 체결 공정에서도 확대 전개가 가능하다. Embodiments can achieve the effect of reducing man-hours by minimizing the repetitive work of manually setting fastening points by field personnel. It is possible to respond to changing fastening areas by acquiring images of the fastening areas of classified products and predicting the fastening point locations using a deep learning algorithm. By transmitting predicted fastening coordinates from one image acquisition process to multiple processes for fastening each side, the positioning work of each fastening equipment is simplified. The fastening point is predicted through additional learning of the algorithm using the new fastening area and point image, enabling expansion in the fastening process of similar products.

도면은 실시예들을 더욱 이해하기 위해서 포함되며, 도면은 실시예들에 관련된 설명과 함께 실시예들을 나타낸다. 이하에서 설명하는 다양한 실시예들의 보다 나은 이해를 위하여, 하기 도면들에 걸쳐 유사한 참조 번호들이 대응하는 부분들을 포함하는 다음의 도면들과 관련하여 이하의 실시예들의 설명을 반드시 참조해야 한다.
도1은 실시예들에 따른 이미지 취득 및 스크류 체결 위치 예측하는 방법을 나타낸다.
도2는 실시예들에 따른 스크류 체결 홀 좌표 산출 방법을 나타낸다.
도3은 실시예들에 따른 딥러닝 알고리즘 학습 방법을 나타낸다.
도4는 실시예들에 따른 스크류 홀 예측 방법을 나타낸다.
도5는 실시예들에 따른 체결 장비의 위치를 자동으로 조절하는 방법을 나타낸다.
도6은 실시예들에 따른 이미지 취득 공정 및 체결 공정을 위한 좌표 전달하는 방법을 나타낸다.
도7은 실시예들에 따른 스크류 체결 위치 자동화 티칭 장치를 나타낸다.
The drawings are included to further understand the embodiments, and the drawings represent the embodiments along with descriptions related to the embodiments. For a better understanding of the various embodiments described below, reference should be made to the following description of the embodiments in conjunction with the following drawings, in which like reference numerals refer to corresponding parts throughout the drawings.
Figure 1 shows a method for acquiring images and predicting screw fastening positions according to embodiments.
Figure 2 shows a method for calculating screw fastening hole coordinates according to embodiments.
Figure 3 shows a deep learning algorithm learning method according to embodiments.
Figure 4 shows a screw hole prediction method according to embodiments.
Figure 5 shows a method for automatically adjusting the position of fastening equipment according to embodiments.
Figure 6 shows a method of transmitting coordinates for an image acquisition process and a fastening process according to embodiments.
Figure 7 shows a screw fastening position automated teaching device according to embodiments.

실시예들의 바람직한 실시예에 대해 구체적으로 설명하며, 그 예는 첨부된 도면에 나타낸다. 첨부된 도면을 참조한 아래의 상세한 설명은 실시예들의 실시예에 따라 구현될 수 있는 실시예만을 나타내기보다는 실시예들의 바람직한 실시예를 설명하기 위한 것이다. 다음의 상세한 설명은 실시예들에 대한 철저한 이해를 제공하기 위해 세부 사항을 포함한다. 그러나 실시예들이 이러한 세부 사항 없이 실행될 수 있다는 것은 당업자에게 자명하다.Preferred embodiments of the embodiments will be described in detail, examples of which are shown in the attached drawings. The detailed description below with reference to the accompanying drawings is intended to explain preferred embodiments of the embodiments rather than showing only embodiments that can be implemented according to the embodiments. The following detailed description includes details to provide a thorough understanding of the embodiments. However, it will be apparent to those skilled in the art that embodiments may be practiced without these details.

실시예들에서 사용되는 대부분의 용어는 해당 분야에서 널리 사용되는 일반적인 것들에서 선택되지만, 일부 용어는 출원인에 의해 임의로 선택되며 그 의미는 필요에 따라 다음 설명에서 자세히 서술한다. 따라서 실시예들은 용어의 단순한 명칭이나 의미가 아닌 용어의 의도된 의미에 근거하여 이해되어야 한다.Most of the terms used in the embodiments are selected from common ones widely used in the field, but some terms are arbitrarily selected by the applicant and their meaning is detailed in the following description as necessary. Accordingly, the embodiments should be understood based on the intended meaning of the terms rather than their mere names or meanings.

본 문서에서 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법, 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치, 딥러닝 기반 스크류 체결 위치 자동화 티칭 프로그램을 저장하는 저장매체를 실시예들에 따른 방법/장치로 줄여서 지칭할 수 있다.In this document, a deep learning-based screw fastening position automation teaching method, a deep learning-based screw fastening position automation teaching device, and a storage medium for storing a deep learning-based screw fastening position automation teaching program will be abbreviated as a method/device according to embodiments. You can.

실시예들에 따른 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법 및 장치는 딥러닝 기반 스크류 체결 위치 자동 티칭 방법/시스템으로서 체결 면에 존재하는 체결 포인트를 예측하고, 사용자의 체결 장비 이동 공수를 최소화 하기 위한 방법을 포함할 수 있다.The deep learning-based screw fastening position automatic teaching method and device according to embodiments is a deep learning-based screw fastening position automatic teaching method/system for predicting fastening points existing on the fastening surface and minimizing the user's man-hours for moving fastening equipment. Method may be included.

예를 들어, (1) 제품의 체결 영역을 구분하여 이미지를 취득하고, 스크류 체결 포인트를 예측하는 딥러닝 기반의 알고리즘을 포함하고, (2) 한 개의 이미지 취득 공정에서 다수의 체결 공정으로 예측된 체결 좌표를 전송하여, 각 체결 장비들의 위치를 조정하는 동작을 포함할 수 있다.For example, (1) it includes a deep learning-based algorithm that acquires images by dividing the fastening area of the product and predicts the screw fastening point, and (2) predicts multiple fastening processes from one image acquisition process. It may include an operation of transmitting fastening coordinates to adjust the positions of each fastening equipment.

도1은 실시예들에 따른 이미지 취득 및 스크류 체결 위치 예측하는 방법을 나타낸다.Figure 1 shows a method for acquiring images and predicting screw fastening positions according to embodiments.

도1은 실시예들에 따른 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법을 나타낸다.Figure 1 shows a deep learning-based automated teaching method for screw fastening positions according to embodiments.

도1은 이미지를 취득하여 스크류 체결 포인트의 위치를 예측하는 과정을 도시한다.Figure 1 shows a process for predicting the location of a screw fastening point by acquiring an image.

실시예들에 따른 방법/장치는 제품의 체결 영역을 구분하고, 각 영역에 맞는 카메라 및 조명 환경을 최적화하여 체결 영역 이미지를 저장한다. 저장된 이미지를 알고리즘에 전달하여 체결이 필요한 스크류 홀을 인식하고, 해당 영역을 좌표로 변환한다.The method/device according to embodiments divides the fastening area of the product, optimizes the camera and lighting environment for each area, and stores the image of the fastening area. The saved image is passed to the algorithm to recognize the screw hole that requires fastening and convert the area into coordinates.

실시예들에 따른 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법은 도1과 같은 각 단계를 포함할 수 있다.The deep learning-based screw fastening position automation teaching method according to embodiments may include each step as shown in FIG. 1.

1000, 카메라 및 제품 위치를 정렬하는 단계는 스크류 체결 포인트가 있는 위치에 관한 영역에 관한 정보를 획득하기 위해서, 카메라의 위치를 정렬할 수 있다. 또한, 제품의 위치를 정렬할 수 있다. 체결 포인트가 있는 제품의 영역 및 실시예들에 따른 장치의 카메라가 촬영하는 영역 간 위치가 정렬이 되도록, 제품 및/또는 카메라의 위치가 조절될 수 있다. 위치 정렬하는 단계는 자동으로 수행될 수 있다. 또한, 위치 정렬하는 단계는 사용자에 의해 제어될 수 있다. 실시예들에 따른 스크류 체결 위치 자동화 티칭 장치는 카메라를 포함할 수 있다.Step 1000, aligning the camera and product positions may align the positions of the cameras to obtain information about the area where the screw fastening point is located. Additionally, the positions of products can be aligned. The position of the product and/or the camera may be adjusted so that the position between the area of the product where the fastening point is located and the area captured by the camera of the device according to the embodiments are aligned. The position alignment step can be performed automatically. Additionally, the position alignment step can be controlled by the user. The screw fastening position automation teaching device according to embodiments may include a camera.

1001, 조명(밝기)을 제어하는 단계는 스크류 체결 포인트가 있는 위치에 관한 영역에 관한 정보를 획득하기 위해서, 조명을 발광할 수 있다. 실시예들에 따른 스크류 체결 위치 자동화 티칭 장치는 조명 발광부를 포함할 수 있다. 조명의 밝기를 조절함으로써, 스크류 체결 포인트가 있는 위치에 관한 영역에서 생성되는 음영 지역을 획득할 수 있다. 조명 및 밝기에 의한 음영 및/또는 그림자의 형태에 기초하여 스크류 체결 위치를 자동적으로 티칭할 수 있다. 스크류 체결부의 홀이 있고, 홀 및 홀 주변 영역에 빛이 닿으면 음영 지역이 생성될 수 있다. 음영 정보로부터 홀의 위치를 추정할 수 있다.1001, the step of controlling lighting (brightness) may emit lighting in order to obtain information about the area where the screw fastening point is located. The screw fastening position automation teaching device according to embodiments may include a lighting emitting unit. By adjusting the brightness of the lighting, it is possible to obtain a shaded area created in the area relative to the location of the screw fastening point. The screw fastening position can be automatically taught based on the shape of the shadow and/or shadow caused by lighting and brightness. There is a hole in the screw fastening part, and when light hits the hole and the area around the hole, a shaded area may be created. The location of the hole can be estimated from shadow information.

1002, 제품 이미지(모든 영역)를 촬영하는 단계는 제품의 스크류 체결 포인트가 있는 위치에 관한 영역을 캡쳐(촬영)할 수 있다. 포인트 영역에 관한 영상 데이터를 생성할 수 있다. 영상 데이터는 이미지 데이터 등으로 다양하게 호칭될 수 있다. 영상 데이터 또는 제품 이미지는 모든 영역을 포함할 수 있다.1002, the step of photographing a product image (all areas) may capture (photograph) an area related to the location of the screw fastening point of the product. Image data about the point area can be generated. Video data may be called variously, such as image data. Video data or product images can cover any area.

1003, 알고리즘을 수행하는 단계는 스크류 체결 위치 자동화 티칭을 위한 동작을 수행할 수 있다. 실시예들에 따른 구체적 알고리즘은 이하 도면들을 참조하여 설명한다.Step 1003, performing the algorithm, may perform an operation for automated teaching of the screw fastening position. Specific algorithms according to embodiments will be described with reference to the drawings below.

1004, 좌표를 저장하고 표기하는 단계는 생성된 좌표를 메모리에 저장하고, 좌표 데이터를 표기할 수 있다. In step 1004, storing and displaying coordinates, the generated coordinates can be stored in memory and coordinate data can be displayed.

도2는 실시예들에 따른 스크류 체결 홀 좌표 산출 방법을 나타낸다.Figure 2 shows a method for calculating screw fastening hole coordinates according to embodiments.

도2는 도1에 도시된 좌표를 저장하고 표기하는 단계에서, 스크류 체결 홀 좌표를 산출하는 과정을 더 구체적으로 나타낸다.Figure 2 shows in more detail the process of calculating screw fastening hole coordinates in the step of storing and marking the coordinates shown in Figure 1.

도1과 같이 촬영(캡쳐)된 이미지가 입력 데이터로서 실시예들에 따른 스크류 체결 위치 자동화 티칭 장치에 입력될 수 있다. 입력 후 알고리즘에 수행 능력을 높이기 위해 리사이즈(Resize) 및/또는 그레이 스케일(Gray Scale)과 같은 이미지 전처리를 수행할 수 있다. An image photographed (captured) as shown in FIG. 1 may be input as input data to an automatic teaching device for screw fastening position according to embodiments. After input, image preprocessing such as resize and/or gray scale can be performed to increase the performance of the algorithm.

이미지 촬영 시 암실의 환경에서 제품에 강한 조명을 비추었을 때 스크류 홀을 제외한 부분은 상대적으로 밝게 표기되고, 스크류 홀은 주변 영역보다 어두운 특징을 가지고 있다. 조명 비춘 뒤 이러한 특성 활용하여 카메라에 의해 이미지(영상)을 캡쳐할 수 있다. 스크류홀(객체)를 탐지하기 위해서 다양한 제품 및 촬영 조건을 변경한 다량의 이미지를 획득하고, 알고리즘(예를 들어, CNN)을 활용하여 스크롤 홀 위치를 산출할 수 있다. 도2와 같이, 실시예들에 따른 방법/장치는 스크류 체결 홀 좌표를 산출할 수 있다.When taking an image, when a strong light is shined on the product in a dark room environment, the parts excluding the screw hole are displayed relatively brightly, and the screw hole has the characteristic of being darker than the surrounding area. After lighting, you can capture images (videos) with a camera using these characteristics. In order to detect screw holes (objects), a large amount of images with various products and shooting conditions can be acquired, and the scroll hole location can be calculated using an algorithm (e.g., CNN). As shown in Figure 2, the method/device according to embodiments can calculate screw fastening hole coordinates.

2000, 실시예들에 따른 방법/장치는 제품 이미지를 입력 데이터로 수신할 수 있다. 카메라에 의해 촬영된 제품 이미지를 수신한다.2000, a method/device according to embodiments may receive a product image as input data. Receive product images captured by a camera.

2001, 실시예들에 따른 방법/장치는 제품 이미지에 대한 전처리 과정을 수행할 수 있다. 예를 들어, 전처리는 이미지의 사이즈를 조절하거나, 이미지에 그레이 스케일을 적용할 수 있다. 2001, a method/apparatus according to embodiments may perform a pre-processing process for a product image. For example, preprocessing can adjust the size of the image or apply gray scale to the image.

2002, 실시예들에 따른 방법/장치는 스크류 체결 영역을 감지하기 위해서 이미지를 탐색할 수 있다. 제품 이미지가 스크류 체결 영역을 포함하는지를 알기 위해서, 객체의 구조, 위치, 촬영 환경 등에 따른 밝고 어두운 특징을 탐지할 수 있다.2002, a method/apparatus according to embodiments may scan an image to detect a screw fastening area. To determine whether a product image includes a screw fastening area, bright and dark features can be detected depending on the object's structure, location, shooting environment, etc.

2003, 실시예들에 따른 방법/장치는 스크류 체결 영역을 추출할 수 있다. 복수의 이미지들을 비교하고 학습하여 스크류 체결 영역이 가지는 특성 또는 규칙을 파악하고, 딥러닝과 같은 알고리즘에 기초하여 스크류 체결 영역을 추출할 수 있다. 2003, a method/apparatus according to embodiments can extract a screw fastening area. By comparing and learning multiple images, the characteristics or rules of the screw fastening area can be identified, and the screw fastening area can be extracted based on an algorithm such as deep learning.

2004, 실시예들에 따른 방법/장치는 추출된 이미지에 대한 전처리를 수행할 수 있다. 예를 들어, 임계값 또는 스레스홀드(threshold)에 기초하여, 일정한 값 또는 범위를 만족하는 추출된 이미지를 선택할 수 있다. 스크류 위치 추출에 대한 정확도를 개선할 수 있다.2004, a method/device according to embodiments may perform preprocessing on an extracted image. For example, based on a threshold or threshold, extracted images that satisfy a certain value or range can be selected. The accuracy of screw position extraction can be improved.

2005, 실시예들에 따른 방법/장치는 추출 이미지로부터 스크류 홀 영역을 재추출할 수 있다. 2005, a method/apparatus according to embodiments may re-extract the screw hole area from the extracted image.

2006, 실시예들에 따른 방법/장치는 추출된 홀 영역에 대한 픽셀 좌표를 저장하고, 표기할 수 있다.2006, a method/device according to embodiments can store and display pixel coordinates for the extracted hole area.

도3은 실시예들에 따른 딥러닝 알고리즘 학습 방법을 나타낸다.Figure 3 shows a deep learning algorithm learning method according to embodiments.

도3은 도2에서 산출환 스크류 체결 홀 좌표를 통해 스크류 홀 영역 위치를 산출하는 과정을 나타낸다. Figure 3 shows the process of calculating the screw hole area position through the calculated screw fastening hole coordinates in Figure 2.

스크류홀의 위치를 픽셀 좌표를 박스형태로 변환하여 라벨링된 좌표와 이미지를 학습시킨다. 이러한 학습 과정을 도3이 도시한다. 다양한 이미지 획득을 위한 조건은 1) 스크류 체결 위치가 상이한 다양한 제품군 가변 조건, 2) 조명값 변경을 통해 촬영된 이미지의 밝기 가변 조건, 3)제품을 고정 시키는 지그 변경을 통해 편차 가변 조건을 통해 동일 제품에서도 여러 형태의 이미지 획득이 가능하다. 획득한 이미지는 리사이즈(Resize) 및 그레이스케일(GrayScale)을 통해 학습에 적합한 이미지로 변경하고, 스크류홀이 존재 영역와 미존재 영역을 알고리즘이 구분하기 위해, 스크류홀이 존재하는 영역을 사각 박스 형태의 픽셀 좌표로 라벨링 한다. CNN 알고리즘의 경우 이미지의 공간 정보를 유지하며 학습을 진행하고, 합성곱 필터를 통해 특징 맵(Features Map)을 산출할 수 있다. 예를 들어, 스크류 홀 영역은 이미지에서 주변 영역 보다 더 어두운 영역인 특징을 가질 수 있다. 이러한 스크류 홀 영역의 특징을 바탕으로 특징 맵(Features Map)을 산출할 수 있다. 특징 맵(Features Map)을 바탕으로 스크류 홀 영역을 좌표 변환 하며 다량의 이미지 학습을 통해 정확한 위치 예측이 가능하다.The location of the screw hole is converted from pixel coordinates into a box format to learn labeled coordinates and images. Figure 3 shows this learning process. The conditions for acquiring various images are 1) variable conditions for various product groups with different screw fastening positions, 2) conditions for variable brightness of the image taken by changing the lighting value, and 3) conditions for variable deviation through changing the jig that fixes the product. Various types of images can be acquired from the product. The acquired image is changed into an image suitable for learning through resize and grayscale, and in order for the algorithm to distinguish between the area where the screw hole exists and the area where the screw hole does not exist, the area where the screw hole exists is divided into a square box. Label with pixel coordinates. In the case of the CNN algorithm, learning is performed while maintaining the spatial information of the image, and a feature map can be calculated through a convolution filter. For example, the screw hole area may be characterized as being a darker area than the surrounding area in the image. A features map can be calculated based on the characteristics of these screw hole areas. Based on the features map, the screw hole area is converted to coordinates, and accurate location prediction is possible through learning a large amount of images.

제품의 전체 이미지를 입력하고 알고리즘을 통해 스크류홀 영역의 위치를 사각 박스 형태로 표기되나, 스크류 홀의 센터(center) 위치의 정확도를 높이기 위해 사각 박스 형태의 이미지 크롭(Crop) 하여 전처리를 재진행할 수 있다.After inputting the entire image of the product, the location of the screw hole area is displayed in the form of a square box through an algorithm, but preprocessing can be re-processed by cropping the image in the form of a square box to increase the accuracy of the center position of the screw hole. there is.

예를 들어, 크랍(Crop)된 이미지를 스레드홀드(Threshold) 처리하여 스크류 홀과 주변 영역을 구분하고, 스크류 홀의 최외각 검정 픽셀 정보를 바탕으로 박스 형태 크롭(Crop) 이미지를 재추출할 수 있다. 이때 픽셀의 좌표를 저장 및 표기한다. 이는 스크류 홀의 위치를 정확하게 하기 위함이다. For example, the cropped image can be processed through threshold to distinguish the screw hole and the surrounding area, and a box-shaped cropped image can be re-extracted based on the outermost black pixel information of the screw hole. . At this time, the coordinates of the pixel are stored and displayed. This is to ensure the exact location of the screw hole.

알고리즘의 예측률을 높이고, 유사 제품에 대응하기 위해서는 딥러닝 알고리즘 학습과정은 필수적이다. 이미지 데이터 추가 학습을 통해 유의미한 판단을 내리고, 이를 바탕으로 최적의 알고리즘으로 업데이트되어 정확하게 예측할 수 있다.The deep learning algorithm learning process is essential to increase the prediction rate of the algorithm and respond to similar products. Through additional learning from image data, meaningful decisions can be made, and based on this, the optimal algorithm can be updated to accurately predict.

3000, 실시예들에 따른 방법/장치는 제품 이미지 및 스크류 홀 영역 좌표를 수신할 수 있다. 도2와 같은 순서도에 의해 제품 이미지 및 스크류 홀 영역 좌표를 획득할 수 있다.3000, a method/device according to embodiments may receive a product image and screw hole area coordinates. Product image and screw hole area coordinates can be obtained through the flow chart as shown in Figure 2.

3001, 실시예들에 따른 방법/장치는 이미지 전처리를 수행할 수 있다. 이미지의 리사이즈 및/또는 그레이 스케일과 같은 전처리를 포함할 수 있다.3001, a method/apparatus according to embodiments may perform image pre-processing. May include preprocessing such as resizing and/or gray scale of the image.

3002, 실시예들에 따른 방법/장치는 CNN 알고리즘을 수행할 수 있다. CNN 알고리즘을 통해 이미지를 학습할 수 있다.3002, a method/apparatus according to embodiments may perform a CNN algorithm. Images can be learned through the CNN algorithm.

3003, 실시예들에 따른 방법/장치는 특징 맵을 추출할 수 있다. CNN 알고리즘을 이미지에 적용하면, 이미지가 가지는 특징들이 추출될 수 있고, 이러한 특징들에 대한 맵 데이터를 생성할 수 있다. 예를 들어, 이미지는 조명에 의해 밝은 영역 및 홀의 뎁스 또는 모형로 인해 어두운 영역을 가질 수 있다. 이러한 규칙적인 피쳐(Feature)를 추출할 수 있다.3003, a method/apparatus according to embodiments may extract a feature map. When a CNN algorithm is applied to an image, the features of the image can be extracted and map data for these features can be generated. For example, an image may have bright areas due to lighting and dark areas due to the depth or shape of the hole. These regular features can be extracted.

3004, 실시예들에 따른 방법/장치는 스크류 홀 영역 위치를 산출할 수 있다. 특징 맵을 통해 이미지로부터 스크류 홀 영역의 위치를 추정할 수 있다. CNN 알고리즘 및 이미지를 통해서 위치 추정의 정확도를 증가시킬 수 있다. 3004, a method/apparatus according to embodiments may calculate a screw hole area location. The location of the screw hole area can be estimated from the image through the feature map. The accuracy of location estimation can be increased through CNN algorithms and images.

3005, 실시예들에 따른 방법/장치는 스크류 홀 영역 위치의 좌표를 저장할 수 있다. 3005, the method/apparatus according to embodiments may store the coordinates of the screw hole area location.

도4는 실시예들에 따른 스크류 홀 예측 방법을 나타낸다.Figure 4 shows a screw hole prediction method according to embodiments.

도4는 도2 내지 도3에서 설명한 제품 이미지 상 스크류 홀의 좌표 예측 과정을 도시한다. 도4는 도2 내지 도3에 포함된 제품 이미지 획득 단계, 이미지 탐색 단계, 영역 추출 단계, 이미지 전처리 단계, 영역 재추출 단계, 좌표 저장 단계를 예시로 설명한다.Figure 4 shows the coordinate prediction process of the screw hole on the product image described in Figures 2 and 3. Figure 4 illustrates the product image acquisition step, image search step, region extraction step, image pre-processing step, region re-extraction step, and coordinate storage step included in Figures 2 and 3 as examples.

제품 이미지4000는 카메라에 의해 촬영된 전체 영역을 포함하는 제품 이미지일 수 있다. 제품 이미지4000는 하나 또는 하나 이상의 스크류 홀 영역들4001을 포함할 수 있다. Product image 4000 may be a product image including the entire area captured by a camera. Product image 4000 may include one or more screw hole areas 4001.

이미지 탐색을 통해 스크류 홀 영역에 관한 박스 영역4002을 탐색할 수 있다. 박스 영역4002는 주변 영역보다 어두운 영역일 수 있다. 음영 특성을 통해 박스 영역4002을 탐색할 수 있다. You can search the box area 4002 for the screw hole area through image search. Box area 4002 may be a darker area than surrounding areas. Box area 4002 can be explored through shading characteristics.

영역 추출을 통해, 스크류 홀을 포함하는 영역4003을 제품 이미지4000로부터 추출할 수 있다. 영역4003은 스크류 홀을 포함하나, 정확한 스크류 홀의 위치보다는 스크류 홀 주변 영역까지 포함하는 영역일 수 있다.Through region extraction, region 4003 including the screw hole can be extracted from product image 4000. Area 4003 includes a screw hole, but may also include an area surrounding the screw hole rather than the exact location of the screw hole.

이미지 전처리를 통해, 영역4003을 영역4004로 변환할 수 있다. 전술한 바와 같이, 리사이즈 및/또는 그레이스케일을 통해서, 스크류 홀 영역이 좀 더 정확하게 구별되도록 영역 이미지4004를 생성할 수 있다. Through image preprocessing, area 4003 can be converted to area 4004. As described above, area image 4004 can be generated through resizing and/or grayscale so that the screw hole area can be more accurately distinguished.

영역 재추출을 통해, 영역4004보다 좀 더 정교한 영역4005를 추출할 수 있다. 영역4005는 영역4003 내지 영역4004보다 스크류 홀을 좀 더 정교하게 포함할 수 있다. 불필요한 영역들이 크롭될 수 있다.Through region re-extraction, region 4005, which is more precise than region 4004, can be extracted. Area 4005 may include more elaborate screw holes than areas 4003 to 4004. Unnecessary areas may be cropped.

좌표 저장 단계를 통해, 영역4005에 대한 사각형 박스 형태의 X축, Y축의 좌표 정보를 산출할 수 있다. 영역4005에 대해 X축 상 최소 좌표 및 최대 좌표, Y축 상 최소 좌표 및 최대 좌표 등에 기초하여 스크류 홀을 포함하는 영역에 대한 위치 정보를 생성할 수 있다.Through the coordinate storage step, coordinate information on the X and Y axes in the form of a rectangular box for area 4005 can be calculated. For area 4005, location information for the area including the screw hole can be generated based on the minimum and maximum coordinates on the X-axis and the minimum and maximum coordinates on the Y-axis.

도5는 실시예들에 따른 체결 장비의 위치를 자동으로 조절하는 방법을 나타낸다.Figure 5 shows a method for automatically adjusting the position of fastening equipment according to embodiments.

도5는 실시예들에 따른 방법/장치가 수행하는, 한 개의 공정에서 다수의 체결 공정으로 좌표를 전송하여 각 체결 장비의 위치를 조절하는 자동화 시스템을 나타낸다. 예를 들어, 실시예들에 따른 방법/장치는 도3과 같은 알고리즘 동작 이후 저장된 사각 박스의 픽셀 좌표에서 센터(Center) 좌표를 바탕으로 이미지 취득 공정의 원점과 비교하여 길이 좌표로 변경한다. 길이 좌표의 환산 기준은 각 체결 영역을 찍는 카메라의 좌측 상단을 원점으로 삼으며 카메라 영역별로 픽셀당 실제 길이를 환산하여, 제품이 원점 기준으로 얼마나 위치하고 있는지 변환하여 저장한다. Figure 5 shows an automated system that adjusts the position of each fastening equipment by transmitting coordinates from one process to multiple fastening processes, which is performed by a method/device according to embodiments. For example, the method/device according to the embodiments changes the pixel coordinates of the stored rectangular box into length coordinates by comparing them with the origin of the image acquisition process based on the center coordinates after the algorithm operation as shown in FIG. 3. The standard for converting length coordinates is to use the upper left corner of the camera that captures each fastening area as the origin, convert the actual length per pixel for each camera area, and convert and store how far the product is located relative to the origin.

PC 간 통신으로 전달된 길이 좌표는 다시 각 체결 공정의 좌측 원점을 기준으로 보정되어 PLC에 전달하여 체결기 좌표로 저장된다. 각 체결 장비는 3축으로 움직이게 되어있다. 현업 담당자는 변화된 체결기 좌표를 기반으로 X, Y 축의 이동작업을 최소화하며, Z축에 대한 확인 점검 후 최종 좌표로 저장한다. 또한, 좌표 저장 및 장비 움직임 제어는 자동으로 수행될 수 있다. The length coordinates transmitted through PC-to-PC communication are corrected based on the left origin of each fastening process and transmitted to the PLC and stored as fastener coordinates. Each fastening equipment moves in three axes. The field manager minimizes movement work on the X and Y axes based on the changed fastener coordinates, and saves them as the final coordinates after checking the Z axis. Additionally, coordinate storage and equipment movement control can be performed automatically.

5000, 실시예들에 따른 방법/장치는 픽셀 좌표를 수신할 수 있다. 도1 내지 도3과 같은 방법에 의해 픽셀 좌표를 획득할 수 있다. 5000, a method/device according to embodiments may receive pixel coordinates. Pixel coordinates can be obtained by the same method as shown in Figures 1 to 3.

5001, 실시예들에 따른 방법/장치는 실시예들에 따른 장치(장비)가 이미지 취득 공정의 원점에 있는지를 확인할 수 있다. 위치가 원점이 아닌 경우, 위치를 조정할 수 있다. 위치 조정은 담당자 또는 시스템에 의해 수행될 수 있다.5001, the method/apparatus according to the embodiments may confirm whether the device (equipment) according to the embodiments is at the origin of the image acquisition process. If the position is not the origin, the position can be adjusted. Position adjustment may be performed by personnel or the system.

5002, 실시예들에 따른 방법/장치는 길이 좌표를 변환할 수 있다. 좌표 값은 원점을 기준으로 변환될 수 있다.5002, a method/device according to embodiments may convert length coordinates. Coordinate values can be converted based on the origin.

5003, 실시예들에 따른 방법/장치는 각 체결 공정 좌표를 전달할 수 있다. 체결 공정 좌표 전달은 PC 통신에 의해 수행될 수 있다. 5003, a method/device according to embodiments may transmit each fastening process coordinate. Fastening process coordinate transfer can be performed by PC communication.

5004, 실시예들에 따른 방법/장치는 체결 공정 제품을 투입할 수 있다.5004, the method/apparatus according to the embodiments can input the fastening process product.

5005, 실시예들에 따른 방법/장치는 제품이 체결기 원점에 있는지를 확인할 수 있다. 원점이 아닌 경우, 위치를 조정할 수 있다. 위치 조정은 담당자 또는 시스템에 의해 수행될 수 있다.5005, a method/device according to embodiments can confirm whether the product is at the fastener origin. If it is not the origin, the position can be adjusted. Position adjustment may be performed by personnel or the system.

5006, 실시예들에 따른 방법/장치는 체결기 좌표를 변환할 수 있다. 좌표 값은 원점을 기준으로 변환될 수 있다. 5006, a method/device according to embodiments can transform fastener coordinates. Coordinate values can be converted based on the origin.

5007, 실시예들에 따른 방법/장치는 체결 장비를 이동시킬 수 있다. 장비의 이동은 X축 및/또는 Y축으로 이동할 수 있다. 5007, a method/apparatus according to embodiments can move fastening equipment. The movement of the equipment can be along the X-axis and/or Y-axis.

5008, 실시예들에 따른 방법/장치는 X축, Y축 이동 후 Z축을 점검할 수 있다. 5008, the method/device according to embodiments can inspect the Z-axis after moving the X-axis and Y-axis.

5009, 실시예들에 따른 방법/장치는 Z축을 확인하여 체결 위치인지 여부를 확인할 수 있다. 위치가 적합하지 않으면 다시 조정할 수 있다.5009, the method/device according to embodiments can check whether the fastening position is by checking the Z axis. If the position is not suitable, it can be readjusted.

5010, 실시예들에 따른 방법/장치는 최종 좌표를 저장할 수 있다.5010, a method/device according to embodiments may store final coordinates.

도6은 실시예들에 따른 이미지 취득 공정 및 체결 공정을 위한 좌표 전달하는 방법을 나타낸다.Figure 6 shows a method of transmitting coordinates for an image acquisition process and a fastening process according to embodiments.

도6은 한 개의 공정에서 다수의 체결 공정으로 전달하는 방법을 나타낸다.Figure 6 shows a method of transferring from one process to multiple fastening processes.

도6은 실시예들에 따른 방법/장치가 도1 내지 도5와 같은 동작들에 기반하여, 다수의 체결 공정들을 효율적으로 처리하는 과정을 나타낸다.Figure 6 shows a process in which a method/device according to embodiments efficiently processes multiple fastening processes based on the operations shown in Figures 1 to 5.

이미지 취득 공정은 제품의 체결 위치에 관한 이미지를 획득하는 과정을 나타낸다. 제품의 적어도 하나 이상의 체결면은 적어도 하나 이상의 스크류 체결 위치를 포함할 수 있다. 실시예들에 따른 장치의 적어도 하나 이상의 카메라가 모든 체결면에 대한 이미지를 촬영할 수 있다. 예를 들어, 체결면이 3개라고 하면, 실시예들에 따른 방법은 체결 A공정, 체결 B공정, 체결 C공정을 포함할 수 있다. The image acquisition process refers to the process of acquiring an image of the fastening position of the product. At least one fastening surface of the product may include at least one screw fastening position. At least one camera of the device according to embodiments may capture images of all fastening surfaces. For example, if there are three fastening surfaces, methods according to embodiments may include fastening process A, fastening B process, and fastening C process.

체결 A공정은 스크류 체결 위치A에 대한 이미지로부터 체결 위치 영역을 전술한 바와 같이 획득하고, 체결 위치 영역으로부터 좌표를 생성하고 변환할 수 있다. 그리고, 좌표에 대해 체결 위치를 조정할 수 있다. The fastening A process can obtain the fastening position area from the image of the screw fastening position A as described above, and generate and transform coordinates from the fastening position area. And, the fastening position can be adjusted with respect to the coordinates.

마찬가지로, 체결 B공정은 스크류 체결 위치B에 대한 이미지로부터 체결 위치 영역을 전술한 바와 같이 획득하고, 체결 위치 영역으로부터 좌표를 생성하고 변환할 수 있다. 그리고, 좌표에 대해 체결 위치를 조정할 수 있다. Likewise, the fastening B process can obtain the fastening position area from the image for the screw fastening position B as described above, and generate and transform coordinates from the fastening position area. And, the fastening position can be adjusted with respect to the coordinates.

마찬가지로, 체결 C공정은 스크류 체결 위치C에 대한 이미지로부터 체결 위치 영역을 전술한 바와 같이 획득하고, 체결 위치 영역으로부터 좌표를 생성하고 변환할 수 있다. 그리고, 좌표에 대해 체결 위치를 조정할 수 있다. Likewise, the fastening C process can obtain the fastening position area from the image for the screw fastening position C as described above, and generate and transform coordinates from the fastening position area. And, the fastening position can be adjusted with respect to the coordinates.

도7은 실시예들에 따른 스크류 체결 위치 자동화 티칭 장치를 나타낸다.Figure 7 shows a screw fastening position automated teaching device according to embodiments.

도7은 도1 내지 도6의 방법, 동작, 및/또는 흐름도를 수행하는 실시예들에 따른 딥러닝 기반 스크류 체결 위치 티칭 시스템(또는 장치, 7000)를 나타낸다.Figure 7 shows a deep learning-based screw fastening position teaching system (or device, 7000) according to embodiments that performs the method, operation, and/or flowchart of Figures 1 to 6.

인터페이스 유닛7001은 장치가 신호, 데이터, 및/또는 정보를 송수신할 수 있다. 장치는 추가로 카메라 및/또는 조명부를 더 포함할 수 있다. 카메라에 의해 획득된 이미지 데이터를 인터페이스 유닛에 의해 수신하고, 프로세서, 메모리 등에 송신할 수 있다. The interface unit 7001 allows the device to transmit and receive signals, data, and/or information. The device may further include a camera and/or lighting unit. Image data acquired by the camera may be received by the interface unit and transmitted to a processor, memory, etc.

프로세서7002는 도1 내지 도6의 동작, 흐름도, 방법 등을 수행하고, 관련된 동작들을 제어할 수 있다.Processor 7002 may perform the operations, flowcharts, and methods of FIGS. 1 to 6 and control related operations.

메모리7003는 도1 내지 도6의 동작, 흐름도, 방법 등에서 생성되고 송수신되는 정보, 데이터 등을 저장하고, 제공할 수 있다. The memory 7003 can store and provide information, data, etc. generated and transmitted and received in the operations, flowcharts, and methods of FIGS. 1 to 6.

도1 내지 도2를 참조하면, 실시예들에 따른 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법은 이미지를 획득하는 단계; 이미지에 대한 전처리를 수행하는 단계; 이미지를 탐색하는 단계; 이미지로부터 스크류 체결 영역을 추출하는 단계; 추출된 이미지에 대한 전처리를 수행하는 단계; 스크류 체결 영역으로부터 홀 영역을 추출하는 단계; 및 홀 영역에 대한 좌표를 저장하는 단계; 를 포함할 수 있다.Referring to Figures 1 and 2, the deep learning-based screw fastening position automation teaching method according to embodiments includes the steps of acquiring an image; performing preprocessing on the image; Browsing images; Extracting the screw fastening area from the image; Performing preprocessing on the extracted image; Extracting the hole area from the screw fastening area; and storing coordinates for the hole area; may include.

도3을 참조하면, 실시예들에 따른 딥러닝 알고리즘 관련하여, 실시예들에 따른 방법은, 홀 영역에 대한 좌표에 기반하여, 이미지에 대한 전처리를 수행하는 단계; 이미지에 대한 특징 맵을 추출하는 단계; 특징 맵에 기초하여, 스크류 홀 영역 위치를 산출하는 단계; 및 스크류 홀 영역 위치에 대한 좌표를 저장하는 단계; 를 더 포함할 수 있다.Referring to Figure 3, with respect to deep learning algorithms according to embodiments, methods according to embodiments include performing preprocessing on an image based on coordinates for a hole area; extracting a feature map for the image; Calculating a screw hole area location based on the feature map; and storing coordinates for the screw hole area location; may further include.

도4를 참조하면, 실시예들에 따른 이미지를 탐색하는 단계는, 이미지에 포함된 스크류 체결 홀 영역을 탐색하고, 스크류 체결 홀 영역을 추출하고, 스크류 체결 홀 영역의 사이즈 또는 색상(그레이스케일: 이미지 색상 반전 등으로, 어두운 영역에 대한 색상을 더 눈에 띄도록 조정할 수 있음) 중 적어도 하나를 조정하고, 사이즈 또는 색상 중 적어도 하나가 조정된 스크류 체결 홀 영역을 추출하고, 스크류 체결 영역에 대한 좌표를 생성할 수 있다.Referring to Figure 4, the step of searching images according to embodiments includes searching for the screw fastening hole area included in the image, extracting the screw fastening hole area, and determining the size or color of the screw fastening hole area (grayscale: (the color for the dark area can be adjusted to make it more visible, such as by inverting the image color), extract the screw fastening hole area in which at least one of the size or color has been adjusted, and Coordinates can be created.

도5를 참조하면, 실시예들에 따른 방법은 좌표에 기반하여, 스크류 체결 공정을 수행하는 단계를 더 포함하고, 스크류 체결 공정을 수행하는 단계는, 좌표에 기반하여 스크류 체결을 위한 체결기를 제어하는 단계를 포함할 수 있다.Referring to Figure 5, the method according to the embodiments further includes performing a screw fastening process based on coordinates, and the step of performing the screw fastening process includes controlling a fastener for screw fastening based on the coordinates. It may include steps.

도6을 참조하면, 실시예들에 따른 방법은, 제품의 스크류 홀 영역이 위치한 적어도 하나 이상의 체결면으로부터, 복수의 좌표 정보를 산출할 수 있다.Referring to Figure 6, methods according to embodiments may calculate a plurality of coordinate information from at least one fastening surface where the screw hole area of the product is located.

도7을 참조하면, 실시예들에 따른 방법은 딥러닝 기반 스크류 체결 위치 자동화 티칭 장치에 의해 수행될 수 있다. 장치는 메모리; 및 메모리에 연결된 프로세서; 를 포함하고, 프로세서는, 이미지를 획득하고, 이미지에 대한 전처리를 수행하고, 이미지를 탐색하고, 이미지로부터 스크류 체결 영역을 추출하고, 추출된 이미지에 대한 전처리를 수행하고, 스크류 체결 영역으로부터 홀 영역을 추출하고; 및 홀 영역에 대한 좌표를 저장할 수 있다.Referring to Figure 7, the method according to embodiments may be performed by a deep learning-based screw fastening position automation teaching device. The device has memory; and a processor coupled to the memory; It includes, the processor acquires an image, performs preprocessing on the image, searches the image, extracts the screw fastening area from the image, performs preprocessing on the extracted image, and extracts the hole area from the screw fastening area. extract; and coordinates for the hole area can be stored.

또한, 프로세서는, 홀 영역에 대한 상기 좌표에 기반하여, 이미지에 대한 전처리를 수행하고, 이미지에 대한 특징 맵을 추출하고, 특징 맵에 기초하여, 스크류 홀 영역 위치를 산출하고, 스크류 홀 영역 위치에 대한 좌표를 저장할 수 있다.Additionally, the processor performs preprocessing on the image based on the coordinates for the hole region, extracts a feature map for the image, calculates a screw hole region location based on the feature map, and calculates a screw hole region location. You can store the coordinates for .

또한, 프로세서는, 이미지를 탐색하기 위해서, 이미지에 포함된 스크류 체결 홀 영역을 탐색하고, 스크류 체결 홀 영역을 추출하고, 스크류 체결 홀 영역의 사이즈 또는 색상 중 적어도 하나를 조정하고, 사이즈 또는 색상 중 적어도 하나가 조정된 스크류 체결 홀 영역을 추출하고, 스크류 체결 영역에 대한 좌표를 생성할 수 있다.Additionally, in order to search the image, the processor searches for a screw fastening hole area included in the image, extracts the screw fastening hole area, adjusts at least one of the size or color of the screw fastening hole area, and selects the size or color of the screw fastening hole area. At least one adjusted screw fastening hole area may be extracted, and coordinates for the screw fastening area may be generated.

또한, 프로세서는, 좌표에 기반하여, 스크류 체결 공정을 수행하고, 좌표에 기반하여 스크류 체결을 위한 체결기가 제어될 수 있다.Additionally, the processor may perform a screw fastening process based on coordinates and control a fastener for screw fastening based on the coordinates.

또한, 프로세서는, 제품의 스크류 홀 영역이 위치한 적어도 하나 이상의 체결면으로부터, 복수의 좌표 정보를 산출할 수 있다.Additionally, the processor may calculate a plurality of coordinate information from at least one fastening surface where the screw hole area of the product is located.

실시예들에 따른 딥러닝 기반 스크류 체결 위치 자동화 티칭 방법을 프로그램을 저장하는 저장매체는 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체일 수 있다. 저장매체는 컴퓨터 명령은 컴퓨터가 이미지를 획득하는 단계; 이미지에 대한 전처리를 수행하는 단계; 이미지를 탐색하는 단계; 이미지로부터 스크류 체결 영역을 추출하는 단계; 추출된 이미지에 대한 전처리를 수행하는 단계; 스크류 체결 영역으로부터 홀 영역을 추출하는 단계; 및 홀 영역에 대한 좌표를 저장하는 단계; 를 포함하는, 딥러닝 기반 스크류 체결 위치 자동화 방법을 수행하도록 하기 위한 것인 저장매체일 수 있다.A storage medium storing a program for a deep learning-based screw fastening position automation teaching method according to embodiments may be a non-transitory computer-readable storage medium in which computer instructions are stored. The storage medium includes computer instructions that cause the computer to acquire an image; performing preprocessing on the image; Browsing images; Extracting the screw fastening area from the image; Performing preprocessing on the extracted image; Extracting the hole area from the screw fastening area; and storing coordinates for the hole area; It may be a storage medium for performing a deep learning-based screw fastening position automation method, including.

이로 인하여, 체결 포인트를 수동으로 설정하는 반복 작업을 최소화하여 공수 절감의 효과를 얻을 수 있다. 구분된 제품의 체결 영역 이미지를 취득하고, 딥러닝 알고리즘으로 체결 포인트 위치를 예측하여 변화되는 체결 영역에 대해서 대응이 가능하다. 이미지를 취득하는 한 개 공정에서 각 면을 체결하는 다수의 공정으로 예측된 체결 좌표를 전달하여, 각 체결 장비들의 위치 조정 작업이 간소화된다. 새로운 체결영역 및 포인트 이미지를 가지고 알고리즘의 추가 학습을 통해 체결 포인트가 예측되어 유사 제품의 체결 공정에서도 확대 전개가 가능하다.As a result, the repetitive work of manually setting the fastening point can be minimized, thereby reducing man-hours. It is possible to respond to changing fastening areas by acquiring images of the fastening areas of classified products and predicting the fastening point locations using a deep learning algorithm. By transmitting predicted fastening coordinates from one image acquisition process to multiple processes for fastening each side, the positioning work of each fastening equipment is simplified. The fastening point is predicted through additional learning of the algorithm using the new fastening area and point image, enabling expansion in the fastening process of similar products.

실시예들은 방법 및/또는 장치 관점에서 설명되었으며, 방법의 설명 및 장치의 설명은 상호 보완하여 적용될 수 있다.The embodiments have been described in terms of a method and/or an apparatus, and the description of the method and the description of the apparatus may be applied to complement each other.

설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 실시예들의 권리범위에 속한다. 실시예들에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. 실시예들의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 실시예들은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 실시예들의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 실시예들의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.For convenience of explanation, each drawing has been described separately, but it is also possible to design a new embodiment by merging the embodiments described in each drawing. In addition, according to the needs of those skilled in the art, designing a computer-readable recording medium on which programs for executing the previously described embodiments are recorded also falls within the scope of the rights of the embodiments. The apparatus and method according to the embodiments are not limited to the configuration and method of the embodiments described above, but all or part of the embodiments can be selectively combined so that various modifications can be made. It may be composed. Although preferred embodiments of the embodiments have been shown and described, the embodiments are not limited to the specific embodiments described above, and are within the scope of common knowledge in the technical field to which the invention pertains without departing from the gist of the embodiments claimed in the claims. Of course, various modifications are possible by those who have, and these modifications should not be understood individually from the technical ideas or perspectives of the embodiments.

실시예들의 장치의 다양한 구성요소들은 하드웨어, 소프트웨어, 펌웨어 또는 그것들의 조합에 의해 수행될 수 있다. 실시예들의 다양한 구성요소들은 하나의 칩, 예를 들면 하나의 하드웨어 서킷으로 구현될 수 있다 실시예들에 따라, 실시예들에 따른 구성요소들은 각각 별도의 칩들로 구현될 수 있다. 실시예들에 따라, 실시예들에 따른 장치의 구성요소들 중 적어도 하나 이상은 하나 또는 그 이상의 프로그램들을 실행 할 수 있는 하나 또는 그 이상의 프로세서들로 구성될 수 있으며, 하나 또는 그 이상의 프로그램들은 실시예들에 따른 동작/방법들 중 어느 하나 또는 그 이상의 동작/방법들을 수행시키거나, 수행시키기 위한 인스트럭션들을 포함할 수 있다. 실시예들에 따른 장치의 방법/동작들을 수행하기 위한 실행 가능한 인스트럭션들은 하나 또는 그 이상의 프로세서들에 의해 실행되기 위해 구성된 일시적이지 않은 CRM 또는 다른 컴퓨터 프로그램 제품들에 저장될 수 있거나, 하나 또는 그 이상의 프로세서들에 의해 실행되기 위해 구성된 일시적인 CRM 또는 다른 컴퓨터 프로그램 제품들에 저장될 수 있다. 또한 실시예들에 따른 메모리는 휘발성 메모리(예를 들면 RAM 등)뿐 만 아니라 비휘발성 메모리, 플래쉬 메모리, PROM등을 전부 포함하는 개념으로 사용될 수 있다. 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함될 수 있다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The various components of the devices of the embodiments may be implemented by hardware, software, firmware, or a combination thereof. Various components of the embodiments may be implemented with one chip, for example, one hardware circuit. Depending on the embodiments, the components according to the embodiments may be implemented with separate chips. Depending on the embodiments, at least one or more of the components of the device according to the embodiments may be composed of one or more processors capable of executing one or more programs, and the one or more programs may be executed. It may perform one or more of the operations/methods according to the examples, or may include instructions for performing them. Executable instructions for performing methods/operations of a device according to embodiments may be stored in a non-transitory CRM or other computer program product configured for execution by one or more processors, or may be stored in one or more processors. It may be stored in temporary CRM or other computer program products configured for execution by processors. Additionally, memory according to embodiments may be used as a concept that includes not only volatile memory (eg, RAM, etc.) but also non-volatile memory, flash memory, and PROM. Additionally, it may also be implemented in the form of a carrier wave, such as transmission over the Internet. Additionally, the processor-readable recording medium is distributed in a computer system connected to a network, so that the processor-readable code can be stored and executed in a distributed manner.

이 문서에서 “/”와 “,”는 “및/또는”으로 해석된다. 예를 들어, “A/B”는 “A 및/또는 B”로 해석되고, “A, B”는 “A 및/또는 B”로 해석된다. 추가적으로, “A/B/C”는 “A, B 및/또는 C 중 적어도 하나”를 의미한다. 또한, “A, B, C”도 “A, B 및/또는 C 중 적어도 하나”를 의미한다. 추가적으로, 이 문서에서 “또는”는 “및/또는”으로 해석된다. 예를 들어, “A 또는 B”은, 1) “A” 만을 의미하고, 2) “B” 만을 의미하거나, 3) “A 및 B”를 의미할 수 있다. 달리 표현하면, 본 문서의 “또는”은 “추가적으로 또는 대체적으로(additionally or alternatively)”를 의미할 수 있다. In this document, “/” and “,” are interpreted as “and/or.” For example, “A/B” is interpreted as “A and/or B”, and “A, B” is interpreted as “A and/or B”. Additionally, “A/B/C” means “at least one of A, B and/or C.” Additionally, “A, B, C” also means “at least one of A, B and/or C.” Additionally, in this document, “or” is interpreted as “and/or.” For example, “A or B” may mean 1) only “A”, 2) only “B”, or 3) “A and B”. In other words, “or” in this document may mean “additionally or alternatively.”

제1, 제2 등과 같은 용어는 실시예들의 다양한 구성요소들을 설명하기 위해 사용될 수 있다. 하지만 실시예들에 따른 다양한 구성요소들은 위 용어들에 의해 해석이 제한되어서는 안된다. 이러한 용어는 하나의 구성요소를 다른 구성요소와 구별하기 위해 사?熾幷? 것에 불과하다. 것에 불과하다. 예를 들어, 제1 사용자 인풋 시그널은 제2사용자 인풋 시그널로 지칭될 수 있다. 이와 유사하게, 제2사용자 인풋 시그널은 제1사용자 인풋시그널로 지칭될 수 있다. 이러한 용어의 사용은 다양한 실시예들의 범위 내에서 벗어나지 않는 것으로 해석되어야만 한다. 제1사용자 인풋 시그널 및 제2사용자 인풋 시그널은 모두 사용자 인풋 시그널들이지만, 문맥 상 명확하게 나타내지 않는 한 동일한 사용자 인풋 시그널들을 의미하지 않는다.Terms such as first, second, etc. may be used to describe various components of the embodiments. However, the interpretation of various components according to the embodiments should not be limited by the above terms. These terms are used to distinguish one component from another. It's just a thing. It's just a thing. For example, a first user input signal may be referred to as a second user input signal. Similarly, the second user input signal may be referred to as the first user input signal. Use of these terms should be interpreted without departing from the scope of the various embodiments. The first user input signal and the second user input signal are both user input signals, but do not mean the same user input signals unless clearly indicated in the context.

실시예들을 설명하기 위해 사용된 용어는 특정 실시예들을 설명하기 위한 목적으로 사용되고, 실시예들을 제한하기 위해서 의도되지 않는다. 실시예들의 설명 및 청구항에서 사용된 바와 같이, 문맥 상 명확하게 지칭하지 않는 한 단수는 복수를 포함하는 것으로 의도된다. 및/또는 표현은 용어 간의 모든 가능한 결합을 포함하는 의미로 사용된다. 포함한다 표현은 특징들, 수들, 단계들, 엘리먼트들, 및/또는 컴포넌트들이 존재하는 것을 설명하고, 추가적인 특징들, 수들, 단계들, 엘리먼트들, 및/또는 컴포넌트들을 포함하지 않는 것을 의미하지 않는다. 실시예들을 설명하기 위해 사용되는, ~인 경우, ~때 등의 조건 표현은 선택적인 경우로만 제한 해석되지 않는다. 특정 조건을 만족하는 때, 특정 조건에 대응하여 관련 동작을 수행하거나, 관련 정의가 해석되도록 의도되었다.The terminology used to describe the embodiments is for the purpose of describing specific embodiments and is not intended to limit the embodiments. As used in the description of the embodiments and the claims, the singular is intended to include the plural unless the context clearly dictates otherwise. The expressions and/or are used in a sense that includes all possible combinations between the terms. The expression includes describes the presence of features, numbers, steps, elements, and/or components and does not imply the absence of additional features, numbers, steps, elements, and/or components. . Conditional expressions such as when, when, etc. used to describe the embodiments are not limited to optional cases. It is intended that when a specific condition is satisfied, the relevant action is performed or the relevant definition is interpreted in response to the specific condition.

또한, 본 문서에서 설명하는 실시예들에 따른 동작은 실시예들에 따라서 메모리 및/또는 프로세서를 포함하는 송수신 장치에 의해 수행될 수 있다. 메모리는 실시예들에 따른 동작을 처리/제어하기 위한 프로그램들을 저장할 수 있고, 프로세서는 본 문서에서 설명한 다양한 동작을 제어할 수 있다. 프로세서는 컨트롤러 등으로 지칭가능하다. 실시예들에 동작들은 펌웨어, 소프트웨어, 및/또는 그것들의 조합에 의해 수행될 수 있고, 펌웨어, 소프트웨어, 및/또는 그것들의 조합은 프로세서에 저장되거나 메모리에 저장될 수 있다.Additionally, operations according to embodiments described in this document may be performed by a transmitting and receiving device including a memory and/or a processor depending on the embodiments. The memory may store programs for processing/controlling operations according to embodiments, and the processor may control various operations described in this document. A processor may be referred to as a controller, etc. In embodiments, operations may be performed by firmware, software, and/or a combination thereof, and the firmware, software, and/or combination thereof may be stored in a processor or stored in memory.

한편, 상술한 실시예들에 따른 동작은 실시예들 따른 송신 장치 및/또는 수신 장치에 의해서 수행될 수 있다. 송수신 장치는 미디어 데이터를 송수신하는 송수신부, 실시예들에 따른 프로세스에 대한 인스트럭션(프로그램 코드, 알고리즘, flowchart 및/또는 데이터)을 저장하는 메모리, 송/수신 장치의 동작들을 제어하는 프로세서를 포함할 수 있다.Meanwhile, operations according to the above-described embodiments may be performed by a transmitting device and/or a receiving device according to the embodiments. The transmitting and receiving device may include a transmitting and receiving unit that transmits and receives media data, a memory that stores instructions (program code, algorithm, flowchart and/or data) for the process according to embodiments, and a processor that controls the operations of the transmitting and receiving device. You can.

프로세서는 컨트롤러 등으로 지칭될 수 있고, 예를 들어, 하드웨어, 소프트웨어, 및/또는 그것들의 조합에 대응할 수 있다. 상술한 실시예들에 따른 동작은 프로세서에 의해 수행될 수 있다. 또한, 프로세서는 상술한 실시예들의 동작을 위한 인코더/디코더 등으로 구현될 수 있다.A processor may be referred to as a controller, etc., and may correspond to, for example, hardware, software, and/or a combination thereof. Operations according to the above-described embodiments may be performed by a processor. Additionally, the processor may be implemented as an encoder/decoder, etc. for the operations of the above-described embodiments.

Claims (15)

이미지를 획득하는 단계;
상기 이미지에 대한 전처리를 수행하는 단계;
상기 이미지를 탐색하는 단계;
상기 이미지로부터 스크류 체결 영역을 추출하는 단계;
상기 추출된 이미지에 대한 전처리를 수행하는 단계;
상기 스크류 체결 영역으로부터 홀 영역을 추출하는 단계; 및
상기 홀 영역에 대한 좌표를 저장하는 단계; 를 포함하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 방법.
acquiring an image;
performing preprocessing on the image;
searching the image;
Extracting a screw fastening area from the image;
performing preprocessing on the extracted image;
extracting a hole area from the screw fastening area; and
storing coordinates for the hole area; Including,
Deep learning-based automated teaching method for screw fastening positions.
제1항에 있어서, 상기 방법은,
상기 홀 영역에 대한 상기 좌표에 기반하여, 상기 이미지에 대한 전처리를 수행하는 단계;
상기 이미지에 대한 특징 맵을 추출하는 단계;
상기 특징 맵에 기초하여, 스크류 홀 영역 위치를 산출하는 단계; 및
상기 스크류 홀 영역 위치에 대한 좌표를 저장하는 단계; 를 더 포함하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 방법.
The method of claim 1, wherein
performing preprocessing on the image based on the coordinates for the hole area;
extracting a feature map for the image;
calculating a screw hole area location based on the feature map; and
storing coordinates for the screw hole area location; Containing more,
Deep learning-based automated teaching method for screw fastening positions.
제1항에 있어서,
상기 이미지를 탐색하는 단계는,
상기 이미지에 포함된 스크류 체결 홀 영역을 탐색하고,
상기 스크류 체결 홀 영역을 추출하고,
상기 스크류 체결 홀 영역의 사이즈 또는 색상 중 적어도 하나를 조정하고,
상기 사이즈 또는 색상 중 적어도 하나가 조정된 스크류 체결 홀 영역을 추출하고,
상기 스크류 체결 영역에 대한 좌표를 생성하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 방법.
According to paragraph 1,
The step of searching the image is,
Explore the screw fastening hole area included in the image,
Extract the screw fastening hole area,
Adjusting at least one of the size or color of the screw fastening hole area,
Extracting a screw fastening hole area in which at least one of the size or color is adjusted,
Generating coordinates for the screw fastening area,
Deep learning-based automated teaching method for screw fastening positions.
제3항에 있어서, 상기 방법은
상기 좌표에 기반하여, 스크류 체결 공정을 수행하는 단계를 더 포함하고,
상기 스크류 체결 공정을 수행하는 단계는, 상기 좌표에 기반하여 스크류 체결을 위한 체결기를 제어하는 단계를 포함하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 방법.
The method of claim 3, wherein the method
Based on the coordinates, further comprising performing a screw fastening process,
The step of performing the screw fastening process includes controlling a fastener for screw fastening based on the coordinates,
Deep learning-based automated teaching method for screw fastening positions.
제4항에 있어서, 상기 방법은,
제품의 스크류 홀 영역이 위치한 적어도 하나 이상의 체결면으로부터, 복수의 좌표 정보를 산출하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 방법.
The method of claim 4, wherein
Calculating a plurality of coordinate information from at least one fastening surface where the screw hole area of the product is located,
Deep learning-based automated teaching method for screw fastening positions.
메모리; 및
상기 메모리에 연결된 프로세서; 를 포함하고, 상기 프로세서는,
이미지를 획득하고,
상기 이미지에 대한 전처리를 수행하고,
상기 이미지를 탐색하고,
상기 이미지로부터 스크류 체결 영역을 추출하고,
상기 추출된 이미지에 대한 전처리를 수행하고,
상기 스크류 체결 영역으로부터 홀 영역을 추출하고; 및
상기 홀 영역에 대한 좌표를 저장하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 장치.
Memory; and
a processor connected to the memory; Includes, and the processor,
acquire the image,
Perform preprocessing on the image,
Explore the image above,
Extract the screw fastening area from the image,
Perform preprocessing on the extracted image,
extracting a hole area from the screw fastening area; and
storing coordinates for the hole area,
Deep learning-based screw tightening position automation teaching device.
제6항에 있어서, 상기 프로세서는,
상기 홀 영역에 대한 상기 좌표에 기반하여, 상기 이미지에 대한 전처리를 수행하고,
상기 이미지에 대한 특징 맵을 추출하고,
상기 특징 맵에 기초하여, 스크류 홀 영역 위치를 산출하고,
상기 스크류 홀 영역 위치에 대한 좌표를 저장하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 장치.
The method of claim 6, wherein the processor:
Based on the coordinates for the hole area, perform preprocessing on the image,
Extract a feature map for the image,
Based on the feature map, calculate the screw hole area location,
Storing coordinates for the screw hole area location,
Deep learning-based screw tightening position automation teaching device.
제6항에 있어서, 상기 프로세서는,
상기 이미지를 탐색하기 위해서,
상기 이미지에 포함된 스크류 체결 홀 영역을 탐색하고,
상기 스크류 체결 홀 영역을 추출하고,
상기 스크류 체결 홀 영역의 사이즈 또는 색상 중 적어도 하나를 조정하고,
상기 사이즈 또는 색상 중 적어도 하나가 조정된 스크류 체결 홀 영역을 추출하고,
상기 스크류 체결 영역에 대한 좌표를 생성하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 장치.
The method of claim 6, wherein the processor:
To navigate the image,
Explore the screw fastening hole area included in the image,
Extract the screw fastening hole area,
Adjusting at least one of the size or color of the screw fastening hole area,
Extracting a screw fastening hole area in which at least one of the size or color is adjusted,
Generating coordinates for the screw fastening area,
Deep learning-based screw tightening position automation teaching device.
제8항에 있어서, 상기 프로세서는,
상기 좌표에 기반하여, 스크류 체결 공정을 수행하고,
여기서, 상기 좌표에 기반하여 스크류 체결을 위한 체결기가 제어되는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 장치.
The method of claim 8, wherein the processor:
Based on the coordinates, perform a screw fastening process,
Here, the fastener for screw fastening is controlled based on the coordinates,
Deep learning-based screw tightening position automation teaching device.
제8항에 있어서, 상기 프로세서는,
제품의 스크류 홀 영역이 위치한 적어도 하나 이상의 체결면으로부터, 복수의 좌표 정보를 산출하는,
딥러닝 기반 스크류 체결 위치 자동화 티칭 장치.
The method of claim 8, wherein the processor:
Calculating a plurality of coordinate information from at least one fastening surface where the screw hole area of the product is located,
Deep learning-based screw tightening position automation teaching device.
컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체에 있어서,
상기 컴퓨터 명령은 컴퓨터가
이미지를 획득하는 단계; 상기 이미지에 대한 전처리를 수행하는 단계; 상기 이미지를 탐색하는 단계; 상기 이미지로부터 스크류 체결 영역을 추출하는 단계; 상기 추출된 이미지에 대한 전처리를 수행하는 단계; 상기 스크류 체결 영역으로부터 홀 영역을 추출하는 단계; 및 상기 홀 영역에 대한 좌표를 저장하는 단계; 를 포함하는, 딥러닝 기반 스크류 체결 위치 자동화 방법을 수행하도록 하기 위한 것인 저장매체.
In a non-transitory computer-readable storage medium storing computer instructions,
The computer command is
acquiring an image; performing preprocessing on the image; searching the image; Extracting a screw fastening area from the image; performing preprocessing on the extracted image; extracting a hole area from the screw fastening area; and storing coordinates for the hole area; A storage medium for performing a deep learning-based screw fastening position automation method, including.
제11항에 있어서, 상기 방법은,
상기 홀 영역에 대한 상기 좌표에 기반하여, 상기 이미지에 대한 전처리를 수행하는 단계;
상기 이미지에 대한 특징 맵을 추출하는 단계;
상기 특징 맵에 기초하여, 스크류 홀 영역 위치를 산출하는 단계; 및
상기 스크류 홀 영역 위치에 대한 좌표를 저장하는 단계; 를 더 포함하는,
딥러닝 기반 스크류 체결 위치 자동화 방법을 수행하도록 하기 위한 것인 저장매체.
The method of claim 11, wherein
performing preprocessing on the image based on the coordinates for the hole area;
extracting a feature map for the image;
calculating a screw hole area location based on the feature map; and
storing coordinates for the screw hole area location; Containing more,
A storage medium intended to perform a deep learning-based screw fastening position automation method.
제11항에 있어서,
상기 이미지를 탐색하는 단계는,
상기 이미지에 포함된 스크류 체결 홀 영역을 탐색하고,
상기 스크류 체결 홀 영역을 추출하고,
상기 스크류 체결 홀 영역의 사이즈 또는 색상 중 적어도 하나를 조정하고,
상기 사이즈 또는 색상 중 적어도 하나가 조정된 스크류 체결 홀 영역을 추출하고,
상기 스크류 체결 영역에 대한 좌표를 생성하는,
딥러닝 기반 스크류 체결 위치 자동화 방법을 수행하도록 하기 위한 것인 저장매체.
According to clause 11,
The step of searching the image is,
Explore the screw fastening hole area included in the image,
Extract the screw fastening hole area,
Adjusting at least one of the size or color of the screw fastening hole area,
Extracting a screw fastening hole area in which at least one of the size or color is adjusted,
Generating coordinates for the screw fastening area,
A storage medium intended to perform a deep learning-based screw fastening position automation method.
제13항에 있어서, 상기 방법은
상기 좌표에 기반하여, 스크류 체결 공정을 수행하는 단계를 더 포함하고,
상기 스크류 체결 공정을 수행하는 단계는, 상기 좌표에 기반하여 스크류 체결을 위한 체결기를 제어하는 단계를 포함하는,
딥러닝 기반 스크류 체결 위치 자동화 방법을 수행하도록 하기 위한 것인 저장매체.
The method of claim 13, wherein the method
Based on the coordinates, further comprising performing a screw fastening process,
The step of performing the screw fastening process includes controlling a fastener for screw fastening based on the coordinates,
A storage medium intended to perform a deep learning-based screw fastening position automation method.
제14항에 있어서, 상기 방법은,
제품의 스크류 홀 영역이 위치한 적어도 하나 이상의 체결면으로부터, 복수의 좌표 정보를 산출하는,
딥러닝 기반 스크류 체결 위치 자동화 방법을 수행하도록 하기 위한 것인 저장매체.
15. The method of claim 14, wherein
Calculating a plurality of coordinate information from at least one fastening surface where the screw hole area of the product is located,
A storage medium intended to perform a deep learning-based screw fastening position automation method.
KR1020220103254A 2022-08-18 2022-08-18 A method of teaching a screw assembly location based on a deep learning automatically, an apparatus of teaching a screw assembly location based on a deep learning automatically, and medium of storitng a program teaching a screw assembly location based on a deep learning automatically KR20240025248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220103254A KR20240025248A (en) 2022-08-18 2022-08-18 A method of teaching a screw assembly location based on a deep learning automatically, an apparatus of teaching a screw assembly location based on a deep learning automatically, and medium of storitng a program teaching a screw assembly location based on a deep learning automatically

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220103254A KR20240025248A (en) 2022-08-18 2022-08-18 A method of teaching a screw assembly location based on a deep learning automatically, an apparatus of teaching a screw assembly location based on a deep learning automatically, and medium of storitng a program teaching a screw assembly location based on a deep learning automatically

Publications (1)

Publication Number Publication Date
KR20240025248A true KR20240025248A (en) 2024-02-27

Family

ID=90058982

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220103254A KR20240025248A (en) 2022-08-18 2022-08-18 A method of teaching a screw assembly location based on a deep learning automatically, an apparatus of teaching a screw assembly location based on a deep learning automatically, and medium of storitng a program teaching a screw assembly location based on a deep learning automatically

Country Status (1)

Country Link
KR (1) KR20240025248A (en)

Similar Documents

Publication Publication Date Title
EP3740897B1 (en) License plate reader using optical character recognition on plural detected regions
CN110248096B (en) Focusing method and device, electronic equipment and computer readable storage medium
CN111797650B (en) Obstacle identification method, obstacle identification device, computer equipment and storage medium
US10824906B2 (en) Image processing device, non-transitory computer readable storage medium, and image processing system
CN111401146A (en) Unmanned aerial vehicle power inspection method, device and storage medium
CN108810423B (en) Illumination angle adjusting method and system based on image brightness gradient
US20120170804A1 (en) Method and apparatus for tracking target object
CN109911481B (en) Cabin frame target visual identification and positioning method and system for metallurgical robot plugging
CN111340879B (en) Image positioning system and method based on up-sampling
JP7222231B2 (en) Action recognition device, action recognition method and program
KR100647750B1 (en) Image processing apparatus
CN114972421A (en) Workshop material identification tracking and positioning method and system
CN111860099A (en) Article identification system and article identification method
US10789472B1 (en) Multiple image processing and sensor targeting for object detection
CN114187312A (en) Target object grabbing method, device, system, storage medium and equipment
CN111738264A (en) Intelligent acquisition method for data of display panel of machine room equipment
KR20240025248A (en) A method of teaching a screw assembly location based on a deep learning automatically, an apparatus of teaching a screw assembly location based on a deep learning automatically, and medium of storitng a program teaching a screw assembly location based on a deep learning automatically
US20100091125A1 (en) Template matching device, camera with template matching device, and program for allowing computer to carry out template matching
CN112514366A (en) Image processing method, image processing apparatus, and image processing system
JP2014006852A (en) Recognition processing method, recognition processing device, robot system and recognition processing program
JP2021026599A (en) Image processing system
KR102220173B1 (en) Automatic calibration method and apparatus for robot vision system
TW202024994A (en) Image positioning system based on upsampling and method thereof
JPH1151611A (en) Device and method for recognizing position and posture of object to be recognized
JP7245749B2 (en) Evaluation support system, evaluation support method, and program