KR102052304B1 - Control methods and systems for welding automation - Google Patents
Control methods and systems for welding automation Download PDFInfo
- Publication number
- KR102052304B1 KR102052304B1 KR1020190107615A KR20190107615A KR102052304B1 KR 102052304 B1 KR102052304 B1 KR 102052304B1 KR 1020190107615 A KR1020190107615 A KR 1020190107615A KR 20190107615 A KR20190107615 A KR 20190107615A KR 102052304 B1 KR102052304 B1 KR 102052304B1
- Authority
- KR
- South Korea
- Prior art keywords
- welding
- server
- task
- welding machine
- information
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K9/00—Arc welding or cutting
- B23K9/095—Monitoring or automatic control of welding parameters
- B23K9/0953—Monitoring or automatic control of welding parameters using computing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K9/00—Arc welding or cutting
- B23K9/12—Automatic feeding or moving of electrodes or work for spot or seam welding or cutting
- B23K9/127—Means for tracking lines during arc welding or cutting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K9/00—Arc welding or cutting
- B23K9/16—Arc welding or cutting making use of shielding gas
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Plasma & Fusion (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Arc Welding Control (AREA)
Abstract
Description
본 발명은 용접 자동화를 위한 제어 방법 및 시스템에 관한 것이다. The present invention relates to a control method and system for welding automation.
용접은 두 개의 똑같은 금속끼리 혹은 다른 금속 사이에 고열을 가해 접합하는 기술이다. 자동차 생산, 선박 생산뿐만 아니라 일상 생황에서 사용되는 다양한 기계 장치들은 용접을 통해 생성된다. 그러나 용접은 강한 빛과 열, 유해가스 배출 등으로 인하여 용접을 수행하는 용접공들의 건강에 해로우며, 용접 도중에 발생하는 사고는 고온 화상, 고전압 감전, 가스 중독 등 대형 사고인 경우가 많다. Welding is a technique of joining two identical metals to each other or by applying a high temperature. In addition to automobile production and ship production, various mechanical devices used in everyday life are produced by welding. However, welding is detrimental to the health of welders performing welding due to strong light, heat, and harmful gas discharge, and accidents occurring during welding are often large accidents such as high temperature burns, high voltage electric shock, and gas poisoning.
이러한 용접공들의 안전을 보장함과 동시에 생산량을 늘리기 위한 방안으로 다양한 용접 기계가 개발되고 있으며, 용접 기계의 자동화를 통해 용접공들의 업무량을 경감시키려는 시도가 존재한다. 다만, 아직까지 용접의 완벽한 자동화는 이루어 지지 않고 있으며, 용접의 자동화는 용접공들의 업무를 경감시켜 줄 뿐, 상술한 다양한 위험 요소는 여전히 존재한다.Various welding machines are being developed as a way to ensure the safety of these welders and increase the yield, and there are attempts to reduce the workload of welders through the automation of welding machines. However, the complete automation of welding has not been achieved yet, and the automation of welding only reduces the work of welders, and the various risk factors described above still exist.
따라서, 용접의 자동화기술의 발전과는 별개로, 용접 현장에서 근무하는 근로자의 안전을 지키기 위한 시스템의 개발이 필요한 실정이다.Therefore, apart from the development of the automation technology of welding, it is necessary to develop a system for protecting the safety of workers working at the welding site.
본 발명이 해결하고자 하는 과제는 본 발명은 용접 자동화를 위한 제어 방법 및 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a control method and system for welding automation.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 서버, 용접 기계 및 디스플레이 장치를 포함하는 시스템의 용접 자동화의 제어 방법은, 상기 서버가, 용접 대상 정보를 바탕으로 상기 용접 기계가 수행할 제1 업무 스케쥴 및 상기 디스플레이 장치를 착용하는 사용자가 수행할 제2 업무 스케쥴을 획득하는 단계; 상기 서버가, 상기 제1 업무 스케쥴을 상기 용접 기계로 전송하고, 상기 제2 업무 스케쥴을 상기 디스플레이 장치로 전송하는 단계; 상기 서버가, 상기 용접 기계로부터 상기 용접 기계가 수행한 상기 용접 대상에 대한 제1 업무 수행 결과 및 상기 디스플레이 장치로부터 상기 사용자가 수행한 상기 용접 대상에 대한 제2 업무 수행 결과를 수신하는 단계; 상기 서버가, 상기 제1 업무 스케쥴을 바탕으로 상기 용접 기계가 용접을 수행하는데 필요한 예상 리소스 정보를 획득하고, 상기 예상 리소스 정보와 상기 제1 업무 수행 결과를 바탕으로 제1 업무 처리 완성도를 획득하는 단계; 상기 서버가, 상기 제2 업무 스케쥴을 바탕으로, 상기 사용자가 업무를 수행하는데 필요한 예상 시간 정보를 획득하고, 상기 예상 시간 정보와 상기 제2 업무 수행 결과를 바탕으로 제2 업무 처리 완성도를 획득하는 단계; 상기 서버가, 상기 제1 업무 스케쥴, 상기 제1 업무 수행 결과 및 상기 제1 업무 처리 완성도를 학습 데이터로 인공지능 모델에 입력하여, 상기 용접 기계의 제1 업무 스케쥴을 갱신하기 위한 상기 인공지능 모델을 학습시키는 단계;를 포함한다.According to an aspect of the present invention, there is provided a method for controlling welding automation of a system including a server, a welding machine, and a display device, wherein the server is configured to be performed by the welding machine based on welding target information. Obtaining a first task schedule and a second task schedule to be performed by a user wearing the display device; Sending, by the server, the first work schedule to the welding machine and sending the second work schedule to the display device; Receiving, by the server, a first task performance result of the welding object performed by the welding machine from the welding machine and a second task performance result of the welding object performed by the user from the display device; The server acquires the expected resource information required for the welding machine to perform the welding based on the first task schedule, and obtains the first task process completeness based on the expected resource information and the first task execution result. step; The server acquires estimated time information necessary for the user to perform a task based on the second task schedule, and obtains a second task process completeness based on the estimated time information and the result of performing the second task. step; The artificial intelligence model for updating the first task schedule of the welding machine by inputting the first task schedule, the first task execution result, and the first task process completeness as learning data into the artificial intelligence model by the server It includes; learning.
이때, 상기 제어 방법은, 상기 서버가, 상기 제2 업무 스케쥴, 상기 제2 업무 수행 결과 및 상기 제2 업무 처리 완성도를 학습 데이터로 상기 인공지능 모델에 입력하여, 상기 사용자의 제2 업무 스케쥴을 갱신하기 위한 상기 인공지능 모델을 학습시키는 단계; 상기 서버가, 용접 대상, 용접 수량 및 업무 가능 시간을 입력 데이터로 상기 인공지능 모델에 입력하여, 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 갱신하는 단계; 를 더 포함하고, 상기 제1 업무 스케쥴은, 상기 용접 대상의 재질 정보, 상기 용접 기계의 스펙 정보, 상기 용접 대상의 용접 포인트 정보, 상기 용접 대상에 대한 용접 조건 정보를 포함하고, 상기 제2 업무 스케쥴은, 상기 사용자의 예상 동선 정보, 상기 사용자의 업무 처리 히스토리 정보를 포함하고, 상기 제1 업무 수행 결과는, 상기 용접 대상에 대한 용접 결과를 촬영한 촬상 데이터, 상기 용접 기계의 용접 수행시 전압 및 전류 정보, 상기 용접 기계가 사용하는 소모품의 소모량 정보, 상기 용접에 의해 발생한 유해 가스 정보를 포함하고, 상기 제2 업무 수행 결과는, 상기 용접 대상의 용접 수행에 대한 시간 정보, 상기 용접 수행에 따른 상기 사용자의 동선 정보, 상기 용접 수행에 따른 상기 사용자의 이동시간 정보를 포함하고, 상기 예상 리소스는, 상기 용접 대상에 대한 용접시 소비되는 전력량 및 상기 소모품의 소모량에 대한 리소스일 수 있다.In this case, in the control method, the server inputs the second task schedule, the second task execution result, and the second task process completeness into the artificial intelligence model as learning data, and sets the second task schedule of the user. Training the artificial intelligence model to update; Updating, by the server, the first task schedule and the second task schedule by inputting a welding target, a welding quantity, and a workable time into the artificial intelligence model as input data; The first task schedule further includes material information of the welding target, specification information of the welding machine, welding point information of the welding target, and welding condition information of the welding target. The schedule may include the expected copper wire information of the user and the work processing history information of the user, and the first work performance result may include imaging data of photographing a welding result of the welding target, and a voltage during welding of the welding machine. And current information, consumption information of consumables used by the welding machine, and harmful gas information generated by the welding, wherein the second task performance result includes time information on the welding performance of the welding target and the welding performance. Copper wire information of the user, the movement time information of the user according to the welding is performed, the expected resource, It can be a resource for the consumption of energy and the supplies that are consumed during welding machine for welding target.
이때, 상기 용접 기계는, 경고음을 출력하기 위한 스피커, 상기 용접 대상의 용접 과정을 촬영하기 위해 용접 기계의 용접 토치와 동일한 방향에 위치한 전방 카메라, 상기 용접 기계의 좌우측 및 을 촬영하기 위한 좌측 카메라, 우측 카메라 및 후방 카메라, 상기 용접 기계의 좌우측 및 전후방에 위치한 오브젝트와의 거리를 판단하기 위한 좌측 레이저 센서, 우측 레이저 센서, 전방 레이저 센서 및 후방 레이저 센서를 포함하고, 상기 디스플레이 장치는 헤드 마운티드 디스플레이를 포함하며, 상기 제어 방법은, 상기 용접 기계가, 상기 전방 카메라를 통해 획득된 이미지를 바탕으로 상기 용접 대상의 용접 포인트를 결정하는 단계; 상기 용접 기계가, 상기 결정된 용접 포인트를 용접하는 단계; 및 상기 용접 기계가, 상기 용접 대상에 대한 용접이 완료되면, 용접 결과 데이터를 상기 서버로 전송하는 단계; 를 포함하고, 상기 제어 방법은, 상기 용접 기계가, 상기 전방 카메라, 상기 후방 카메라, 상기 좌측 카메라 및 상기 우측 카메라로부터 이동하는 오브젝트에 대한 이미지가 수신되면, 상기 전방 레이저 센서, 상기 후방 레이저 센서, 상기 좌측 레이저 센서 및 상기 후방 레이저 센서를 바탕으로 상기 상기 이동하는 오브젝트와 상기 용접 기계와의 거리를 판단하는 단계; 상기 판단된 거리가 기 설정된 거리 이하인 경우, 상기 이동하는 오브젝트에 대한 정보 및 상기 판단된 거리에 대한 정보를 상기 서버로 전송하는 단계; 상기 서버가, 상기 수신한 오브젝트에 대한 정보에 대응되는 오브젝트가 상기 디스플레이 장치인 경우, 상기 디스플레이 장치로 상기 용접 기계로부터 물러날 것을 안내하는 메시지를 전달하는 단계; 및 상기 서버가, 상기 수신한 오브젝트에 대한 정보에 대응되는 기 저장된 오브젝트가 없는 경우, 상기 스피커를 통해 경고음을 출력하도록 상기 용접 기계로 제어 신호를 전송하는 단계; 를 포함할 수 있다.At this time, the welding machine, a speaker for outputting a warning sound, a front camera located in the same direction as the welding torch of the welding machine for photographing the welding process of the welding target, left and right cameras for photographing the left and right, and A right side camera and a rear side camera, a left side laser sensor, a right side laser sensor, a front side laser sensor, and a rear side laser sensor for determining a distance to an object located on left, right, and front and rear sides of the welding machine, and the display device includes a head mounted display. The control method may further include: determining, by the welding machine, a welding point of the welding target based on an image obtained through the front camera; Welding, by the welding machine, the determined welding point; And transmitting, by the welding machine, welding result data to the server when welding of the welding target is completed. The control method may include the front laser sensor, the rear laser sensor, when the welding machine receives an image of an object moving from the front camera, the rear camera, the left camera, and the right camera. Determining a distance between the moving object and the welding machine based on the left laser sensor and the rear laser sensor; If the determined distance is less than or equal to a predetermined distance, transmitting information on the moving object and information on the determined distance to the server; Transmitting, by the server, a message for instructing to withdraw from the welding machine to the display device when the object corresponding to the received information about the object is the display device; And transmitting, by the server, a control signal to the welding machine to output a warning sound through the speaker when there is no pre-stored object corresponding to the information about the received object. It may include.
이때, 상기 용접 기계는, 용접에 의해 발생하는 유해 가스의 종류 및 발생하는 유해가스량을 측정하기 위한 가스 감지 센서를 더 포함하고, 상기 가스 감지 센서는, 상기 용접 기계의 좌측 및 우측에 이동 가능한 레일 상에 배치되며, 상기 용접 기계가, 상기 가스 감지 센서를 바탕으로 용접시 발생하는 유해 가스의 종류를 측정하는 단계; 상기 용접 기계가, 상기 가스 감지 센서가 상기 레일을 따라 기 설정된 제1 지점에 위치하는 경우의 발생하는 제1 유해 가스량, 기 설정된 제2 지점에 위치하는 경우의 발생하는 제2 유해 가스량 및 기 설정된 제3 지점에 위치하는 경우의 발생하는 제3 유해 가스량을 획득하는 단계; 상기 유해 가스의 종류, 상기 제1 유해 가스량, 상기 제2 유해 가스량 및 상기 제3 유해 가스량에 대한 정보를 상기 서버로 전송하는 단계; 상기 서버가, 상기 유해 가스의 종류, 상기 제1 유해 가스량, 상기 제2 유해 가스량 및 상기 제3 유해 가스량에 대한 정보를 바탕으로 상기 유해 가스의 확산 속도를 획득하는 단계; 상기 서버가, 상기 용접 기계 주변의 사용자의 위치 정보를 획득하고, 상기 획득된 위치 정보 및 상기 획득된 확산 속도를 바탕으로, 상기 사용자의 위치에 대응되는 유해 가스량을 예측하는 단계; 상기 서버가, 상기 예측된 유해 가스량이, 기 설정된 값 이상인 경우, 상기 디스플레이 장치로 경고 메시지를 전송하는 단계; 를 포함할 수 있다.At this time, the welding machine further includes a gas detection sensor for measuring the type of harmful gas generated by welding and the amount of harmful gas generated, the gas detection sensor, the rail movable on the left and right of the welding machine A type of harmful gas generated at the time of welding based on the gas detection sensor, by the welding machine; The welding machine, the first harmful gas amount generated when the gas detection sensor is located at a predetermined first point along the rail, the second harmful gas amount generated when the gas detection sensor is located at a predetermined second point and the preset Acquiring a third amount of harmful gas generated when the third point is located; Transmitting information on the type of the harmful gas, the first harmful gas amount, the second harmful gas amount, and the third harmful gas amount to the server; Acquiring, by the server, a diffusion rate of the noxious gas based on the type of the noxious gas, the first noxious gas amount, the second noxious gas amount, and the third noxious gas amount; Acquiring, by the server, location information of a user around the welding machine and predicting an amount of harmful gas corresponding to the location of the user based on the acquired location information and the acquired diffusion speed; Transmitting, by the server, a warning message to the display apparatus when the predicted amount of harmful gas is greater than or equal to a preset value; It may include.
이때, 상기 갱신하는 단계는, 상기 서버가, 상기 제1 업무 스케쥴 및 상기 제1 업무 수행 결과를 바탕으로, 상기 용접 기계의 제1 유휴 시간을 획득하는 단계; 상기 서버가, 상기 제2 업무 스케쥴 및 상기 제2 업무 수행 결과를 바탕으로, 상기 사용자의 제2 유휴 시간을 획득하는 단계; 및 상기 서버가, 상기 제1 유휴 시간 및 상기 제2 유휴시간을 바탕으로 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 갱신하는 단계; 를 포함할 수 있다.The updating may include: acquiring, by the server, a first idle time of the welding machine based on the first task schedule and the first task execution result; Acquiring, by the server, a second idle time of the user based on the second task schedule and the result of performing the second task; And updating, by the server, the first task schedule and the second task schedule based on the first idle time and the second idle time. It may include.
이때, 상기 시스템은, 상기 용접 대상을 포장한 패키지에 구비된 개봉 신호 발생 장치를 더 포함하고, 상기 개봉 신호 발생 장치는, 압력 센서 및 통신부를 더 포함하고, 상기 제어 방법은, 상기 서버가, 복수의 용접 대상 중, 기 설정된 시점에서의 복수의 용접 대상 중 적어도 하나의 용접 대상의 패키지가 개봉되었음을 알리는 적어도 하나의 개봉 신호를 상기 개봉 신호 발생 장치로부터 획득하는 단계; 상기 서버가, 상기 획득된 적어도 하나의 개봉신호에 대응되는 용접 대상의 수량 및 용접 대상의 정보를 판단하는 단계; 및 상기 서버가, 상기 판단된 수량 및 정보를 바탕으로 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 획득하는 단계; 를 포함할 수 있다.In this case, the system further includes an unsealing signal generating device provided in a package wrapping the welding object, the unsealing signal generating device further includes a pressure sensor and a communication unit, and the control method includes the server, Acquiring at least one unsealed signal from the unsealed signal generator, which indicates that at least one of the plurality of welded objects has been opened, a package of the plurality of welded objects to be opened; Determining, by the server, the quantity of welding objects and information of welding objects corresponding to the obtained at least one unsealed signal; And obtaining, by the server, the first task schedule and the second task schedule based on the determined quantity and information. It may include.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
상술한 본 발명의 다양한 실시예에 따라, 본 발명의 용접 자동화 시스템은 근로자의 안전을 보장함과 함께 용접 효율을 높일 수 있는 효과가 존재한다. According to various embodiments of the present invention described above, the welding automation system of the present invention has the effect of increasing the welding efficiency while ensuring the safety of workers.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 시스템을 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 용접 기계 및 사용자의 업무 스케쥴을 획득하는 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 업무 스케쥴을 갱신하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 오브젝트와 용접 기계의 거리를 판단하여 경고 메시지를 출력하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 유해 가스량을 바탕으로 경고 메시지를 출력하는 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 유휴 시간을 바탕으로 업무 스케쥴을 갱신하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 개봉 신호를 바탕으로 업무 스케쥴을 획득하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 개봉 신호 발생 장치를 설명하기 위한 예시도이다.
도 9은 일 실시 예에 따른 장치의 구성도이다.1 is an exemplary view for explaining a system according to an embodiment of the present invention.
2 is a flowchart illustrating a method of obtaining a work schedule of a welding machine and a user according to an embodiment of the present invention.
3 is a flowchart illustrating a method of updating a work schedule according to an embodiment of the present invention.
4 is a flowchart illustrating a method of outputting a warning message by determining a distance between an object and a welding machine according to an embodiment of the present invention.
5 is a flowchart illustrating a method of outputting a warning message based on the amount of harmful gas according to an embodiment of the present invention.
6 is a flowchart illustrating a method of updating a work schedule based on idle time according to an embodiment of the present invention.
7 is a flowchart illustrating a method of obtaining a work schedule based on an opening signal according to an embodiment of the present invention.
8 is an exemplary diagram for describing an opening signal generator according to an exemplary embodiment of the present invention.
9 is a block diagram of an apparatus according to an embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component such as software, FPGA, or ASIC, and the "part" or "module" plays certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, a "part" or "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and "parts" or "modules" may be combined into smaller numbers of components and "parts" or "modules" or into additional components and "parts" or "modules". Can be further separated.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms " below ", " beneath ", " lower ", " above ", " upper " It can be used to easily describe a component's correlation with other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, when flipping a component shown in the drawing, a component described as "below" or "beneath" of another component may be placed "above" the other component. Can be. Thus, the exemplary term "below" can encompass both an orientation of above and below. Components may be oriented in other directions as well, so spatially relative terms may be interpreted according to orientation.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, the computer refers to any kind of hardware device including at least one processor, and according to an embodiment, it may be understood as a meaning encompassing a software configuration that operates on the hardware device. For example, a computer may be understood as including, but not limited to, a smartphone, a tablet PC, a desktop, a notebook, and a user client and an application running on each device.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.
도 1은 본 발명의 일 실시예에 따른 시스템을 설명하기 위한 예시도이다.1 is an exemplary view for explaining a system according to an embodiment of the present invention.
본 발명에 따른 시스템은, 서버(10), 용접 기계(20) 및 디스플레이 장치(30)를 포함할 수 있다.The system according to the invention may comprise a
서버(10)는 용접 기계(20) 및 디스플레이 장치(30)로부터 다양한 정보를 수신하고, 용접 기계(20) 및 디스플레이 장치(30)로부터 수신한 정보를 바탕으로 업무 스케쥴을 획득하거나 경고 메시지를 송신하기 위한 구성이다.The
서버(10)는 통신부, 메모리 및 프로세서를 포함할 수 있다.The
용접 기계(20)는 용접을 수행하기 위한 장치이다. 일 실시예에 따라, 용접 기계(20)는 위빙 장치로 구현될 수 있다. 용접 기계(20)가 위빙 장치로 구현되는 경우, 용접 기계(20)는 플레이트, 모터, 위빙동작부, 용접 토치를 포함할 수 있다.The
한편, 용접 기계(20)는 필요에 따라 다양한 용접 방식을 수행하는 다양한 용접 기계일 수 있다. 일 실시예로, 용접 기계(20)는 아크 용접, 저항 용접, 에이저 용접 중 적어도 하나의 용접을 수행하기 위한 장치로 구현될 수 있다. 구체적으로, 용접 기계(20)는 아크 용접 방식 중 TIG 용접 또는 MIG 용접 중 적어도 하나의 용접을 수행하기 위한 장치로 구현될 수 있다.Meanwhile, the
한편, 용접 기계(20)는, 경고음을 출력하기 위한 스피커, 상기 용접 대상의 용접 과정을 촬영하기 위해 용접 기계의 용접 토치와 동일한 방향에 위치한 전방 카메라, 용접 기계(20)의 좌우측 및 을 촬영하기 위한 좌측 카메라, 우측 카메라 및 후방 카메라, 용접 기계(20)의 좌우측 및 전후방에 위치한 오브젝트와의 거리를 판단하기 위한 좌측 레이저 센서, 우측 레이저 센서, 전방 레이저 센서 및 후방 레이저 센서를 포함할 수 있다. 다만, 본 발명의 다양한 실시예에 따라, 레이저 센서는 거리를 측정하기 위한 적외선 센서로 대체될 수 있음은 물론이다.On the other hand, the
또 다른 실시예로, 용접 기계(20)는, 용접에 의해 발생하는 유해 가스의 종류 및 발생하는 유해가스량을 측정하기 위한 가스 감지 센서를 더 포함하고, 상기 가스 감지 센서는, 용접 기계(20)의 좌측 및 우측에 이동 가능한 레일 상에 배치될 수 있다. 일 실시예에 따라, 가스 감지 센서는, LPG, LNG, CO, 알코올, NH3, H2S 를 측정하기 위한 반도체 방식의 센서로 구현되거나, H, NH3, LPG, 아세틸렌을 측정하기 위한 접촉 연소 방식의 센서로 구현되거나, O2, NH3, H2S, PH3를 측정하기 위한 전기 화학 방식의 센서로 구현되거나, 디타 이핵분자로 구성된 가스를 측정하기 위한 적외선 흡수 산란 방식의 센서로 구현되거나, 그외 다양한 가스를 감지하기 위한 광간섭 방식 또는 열전도율 방식의 센서로 구현될 수 있다. 또 다른 실시예로, 가스 감지 센서는, 분산방식 분광기 또는 FTIR (Fourier Transform Infrared) 분광기를 이용한 다중 가스 감지 센서로 구현될 수도 있음은 물론이다.In another embodiment, the
디스플레이 장치(30)는 근로자가 구비하는 장치로서, 헤드 마운티드 지스플레이 장치(HMD)로 구현될 수 있다. 디스플레이 장치(30)는 서버(10)로부터 경고 메시지를 수신하거나, 현재 사용자의 위치에서의 유해 가스 정보를 수신하거나, 현재 사용자가 수행하여야될 업무 정보를 수신할 수 있다.The
도 2는 본 발명의 일 실시예에 따른 용접 기계 및 사용자의 업무 스케쥴을 획득하는 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of obtaining a work schedule of a welding machine and a user according to an embodiment of the present invention.
단계 S110에서, 서버(10)는, 용접 대상 정보를 바탕으로 용접 기계(20)는 수행할 제1 업무 스케쥴에 대한 업무 및 디스플레이 장치(30)를 착용하는 사용자가 수행할 제2 업무 스케쥴을 획득할 수 있다.In operation S110, the
즉, 제1 업무 스케쥴은 용접 대상에 대한 용접 기계(20)가 수행하여야 할 스케쥴을 의미하고, 제2 업무 스케쥴은 용접 대상에 대한 사용자가 수행하여야 할 스케쥴을 의미한다.That is, the first task schedule refers to a schedule to be performed by the
업무 스케쥴은 용접 기계(20)의 스펙에 따라 달라지거나, 사용자의 업무 처리 속도 및 숙련도에 따라 달라질 수 있다. 용접 기계(20)는 기계의 특성 상 고장이나 소모품 부족등의 문제가 없는 한 안정적인 스케쥴 확보가 가능하나, 사용자는 사람의 컨디션, 업무 시간 등 다양한 요인에 의해 안정적인 스케쥴 확보가 불가능할 수 있다. 따라서, 제1 업무 스케쥴과 제2 업무 스케쥴은 서로 다른 정보를 바탕으로 획득되어야 한다.The work schedule may vary depending on the specifications of the
일 실시예로, 상기 제1 업무 스케쥴은, 상기 용접 대상의 재질 정보, 용접 기계(20)의 스펙 정보, 상기 용접 대상의 용접 포인트 정보, 상기 용접 대상에 대한 용접 조건 정보로부터 획득되고, 상기 제2 업무 스케쥴은, 상기 사용자의 예상 동선 정보, 상기 사용자의 업무 처리 히스토리 정보로부터 획득될 수 있다.In an embodiment, the first work schedule is obtained from material information of the welding target, specification information of the
단계 S120에서, 서버(10)는, 상기 제1 업무 스케쥴을 용접 기계(20)로 전송하고, 상기 제2 업무 스케쥴을 디스플레이 장치(30)로 전송할 수 있다.In operation S120, the
단계 S130에서, 서버(10)는, 용접 기계(20)로부터 용접 기계(20)는 수행한 상기 용접 대상에 대한 제1 업무 수행 결과 및 디스플레이 장치(30)로부터 상기 사용자가 수행한 상기 용접 대상에 대한 제2 업무 수행 결과를 수신할 수 있다.In step S130, the
구체적으로, 제1 업무 수행 결과 및 제2 업무 수행 결과는 각각 제1 업무 스케쥴 및 제2 업무 스케쥴을 바탕으로 수행된 용접 결과를 의미할 수 있다.Specifically, the first task execution result and the second task execution result may refer to welding results performed based on the first task schedule and the second task schedule, respectively.
이때, 상기 제1 업무 수행 결과는, 상기 용접 대상에 대한 용접 결과를 촬영한 촬상 데이터, 용접 기계(20)의 용접 수행시 전압 및 전류 정보, 용접 기계(20)는 사용하는 소모품의 소모량 정보, 상기 용접에 의해 발생한 유해 가스 정보를 포함하고, 상기 제2 업무 수행 결과는, 상기 용접 대상의 용접 수행에 대한 시간 정보, 상기 용접 수행에 따른 상기 사용자의 동선 정보, 상기 용접 수행에 따른 상기 사용자의 이동시간 정보를 포함할 수 있다.At this time, the result of performing the first task may include imaging data photographing the welding result of the welding target, voltage and current information when performing welding of the
단계 S140에서, 서버(10)는, 상기 제1 업무 스케쥴을 바탕으로 용접 기계(20)는 용접을 수행하는데 필요한 예상 리소스 정보를 획득하고, 상기 예상 리소스 정보와 상기 제1 업무 수행 결과를 바탕으로 제1 업무 처리 완성도를 획득할 수 있다.In step S140, the
이때, 상기 예상 리소스는, 상기 용접 대상에 대한 용접시 소비되는 전력량 및 상기 소모품의 소모량에 대한 리소스일 수 있다.In this case, the expected resource may be a resource for the amount of power consumed during welding and the consumption of the consumable.
일 실시예로, 용접 기계(20)는 용접 대상 하나를 용접하는데 소비된 전력량 및 소모품의 소모량, 완성된 용접 결과를 서버(10)로 전송할 수 있다. 서버(10)는 완성된 용접 결과를 분석하여 용접 상태를 판단할 수 있다. 서버(10)는 용접 상태를 바탕으로 재1 업무 처리 완성도를 획득할 수 있으며, 제1 업무 처리 완성도는 예를 들어 점수화 될 수 있다. 서버(10)는, 기 설정된 점수 이하의 용접 결과는 불량품으로 판단할 수 있다. 서버(20)는 용접 결과에 대한 점수 및 해당 점수에 대응되는 소비된 전력량 및 소모품의 소모량을 매칭하여 저장할 수 있다. 서버(10)는 매칭된 데이터를 인공지능 모델의 학습 데이터로 입력하여 기 설정된 점수 이상의 용접 결과를 얻기 위해 필요한 최소한의 소비 전력량 및 소모품의 소모량에 대한 정보를 획득할 수 있다. 서버(10)는 용접 기계가 획득된 소비 전력량 및 소모량에 따라 용접 대상을 용접하도록 용접 기계(20)를 제어할 수 있다.In one embodiment, the
단계 S150에서, 서버(10)는, 상기 제2 업무 스케쥴을 바탕으로, 상기 사용자가 업무를 수행하는데 필요한 예상 시간 정보를 획득하고, 상기 예상 시간 정보와 상기 제2 업무 수행 결과를 바탕으로 제2 업무 처리 완성도를 획득할 수 있다.In operation S150, the
단계 S160에서, 서버(10)는, 상기 제1 업무 스케쥴, 상기 제1 업무 수행 결과 및 상기 제1 업무 처리 완성도를 학습 데이터로 인공지능 모델에 입력하여, 용접 기계(20)의 제1 업무 스케쥴을 갱신하기 위한 상기 인공지능 모델을 학습시킬 수 있다.In step S160, the
구체적으로, 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.Specifically, an artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike conventional rule-based smart systems, a machine learns and judges itself and becomes smart. As the AI system is used, the recognition rate is improved and the user's taste can be understood more accurately. The existing Rule-based smart system is gradually replaced by the deep learning-based AI system.
인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.AI technology is composed of elementary technologies that utilize machine learning (deep learning) and machine learning.
기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Machine learning is an algorithm technology that classifies / learns characteristics of input data by itself, and element technology is a technology that simulates the functions of human brain cognition and judgment by using machine learning algorithms such as deep learning. It consists of technical areas such as understanding, reasoning / prediction, knowledge representation, and motion control.
구체적으로, 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. Specifically, deep learning is a machine learning algorithm that attempts to achieve high levels of abstraction (summarizing key content or functions in large amounts of data or complex data) through a combination of several nonlinear transformations. It is defined as a set of. Deep learning can be seen as a field of machine learning that teaches computers how people think in a large framework.
어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. When there is any data, it is represented in a form that can be understood by a computer (for example, in the case of an image, the pixel information is represented by a column vector), and a lot of research (how to do it better) is applied to learning. How to make representational techniques and how to build models for learning them. As a result of these efforts, various deep learning techniques have been developed. Deep learning techniques include Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Reccurent Neural Networks (RNN), and Deep Belief Networks (DBN). have.
심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.Deep Neural Networks (DNNs) are artificial neural networks (ANNs) made up of a plurality of hidden layers between an input layer and an output layer.
이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다. At this time, the structure of the deep neural network may be composed of a perceptron (perceptron). A perceptron consists of several inputs, one processor, and one output. The processor multiplies a plurality of input values by each weight, and then sums all the multiplied input values. The processor then outputs one output value by assigning the sum to the activation function. If a specific value is desired as the output value of the activation function, the weight multiplied by each input value may be modified, and the output value may be recalculated using the modified weight. At this time, each perceptron may use a different activation function. Each perceptron also accepts the output from the previous layer as input, then uses the activation function to get the output. The output obtained is passed to the input of the next layer. Through the above process, several output values can be obtained finally.
개시된 일 실시예에 따르면, 서버(20)는 사용자의 다양한 사용자 정보를 판매자 단말(10)로부터 수집하여, 딥러닝에 활용되는 가중치를 설정하는데 사용할 수 있다. 이때, 사용자 정보란, 단말을 통해 수집된 사용자의 생체 정보, 단말을 통해 수집된 단말의 사용 히스토리 기록(사용 히스토리 기록은, 사용한 어플리케이션의 종류, 사용 시간, 접속한 웹사이트 주소, 접속 시간, 알람 설정 시간, 단말 사용 시간 및 분포 등 단말을 통한 모든 사용자 명령 중 적어도 하나일 수 있다.) 예를 들어, 캐릭터를 학습시키기 위한 인공 지능 모델은 상술한 다양한 사용자 정보에 기초하여 캐릭터를 보완하는 정보를 수집할 수 있으며, 이에 기초하여 각각의 가중치를 재설정할 수 있다.According to an exemplary embodiment of the present disclosure, the
딥 러닝 기법에 대한 설명으로 다시 돌아가면, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다. 합성곱 신경망은 입력 영상에 대하여 합성곱과 서브샘플링을 번갈아 수행함으로써 입력 영상으로부터 특징을 추출한다.Returning to the deep learning technique, Convolutional Deep Neural Networks (CNNs) are a type of multilayer perceptrons designed to use minimal preprocessing. A convolutional neural network consists of one or several convolutional layers and a general artificial neural network layer on top of them, which further utilizes weights and pooling layers. This structure allows the convolutional neural network to fully utilize the input data of the two-dimensional structure. In addition, convolutional neural networks can be trained through standard backpropagation. The multiplicative neural network is more easily trained than other feedforward neural network techniques and has the advantage of using fewer parameters. The convolutional neural network extracts features from the input image by performing alternating convolutional and subsampling on the input image.
합성곱 신경망은 여러 개의 합성곱 계층(Convolution layer), 여러 개의 서브샘플링 계층(Subsampling layer, Lacal pooling layer, Max-Pooling layer), 완전 연결 층(Fully Connected layer)을 포함한다. 합성곱 계층은 입력 영상(Input Image)에 대해 합성곱을 수행하는 계층이다. 그리고 서브샘플링 계층은 입력 영상에 대해 지역적으로 최대값을 추출하여 2차원 영상으로 매핑하는 계층으로, 국소적인 영역을 더 크게 하고, 서브샘플링을 수행한다. The convolutional neural network includes a plurality of convolution layers, a plurality of subsampling layers, a lacal pooling layer, a max-pooling layer, and a fully connected layer. The convolution product layer is a layer that performs a convolution product on an input image. The subsampling layer is a layer that locally extracts the maximum value of the input image and maps it to the 2D image. The subsampling layer enlarges the local region and performs subsampling.
합성곱 계층에서는 커널의 크기(kernel size), 사용할 커널의 개수(즉, 생성할 맵의 개수), 및 합성곱 연산 시에 적용할 가중치 테이블 등의 정보가 필요하다. 예를 들어, 입력 영상의 크기가 32×32이고, 커널의 크기가 5×5이고, 사용할 커널의 개수가 20개인 경우를 예로 들자. 이 경우, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하면, 입력 영상의 위, 아래, 왼쪽, 오른쪽에서 각각 2개의 픽셀(pixel)에는 커널을 적용하는 것이 불가능하다. 입력 영상의 위에 커널을 배치한 후 합성곱을 수행하면, 그 결과 값인 '-8'은 커널에 포함된 입력 영상의 픽셀들 중에서 커널의 중심요소(center element)에 대응하는 픽셀의 값으로 결정되기 때문이다. 따라서, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하여 합성곱을 수행하면 28×28 크기의 맵(map)이 생성된다. 앞서, 사용할 커널의 개수가 총 20개인 경우를 가정하였으므로, 첫 번째 합성곱 계층에서는 총 20개의 28×28 크기의 맵이 생성된다. In the product multiplication layer, information such as kernel size, the number of kernels to be used (that is, the number of maps to be generated), and a weight table to be applied in the product calculation are required. For example, assume that an input image has a size of 32 × 32, a kernel size of 5 × 5, and a number of kernels to use 20. In this case, if a 5 × 5 kernel is applied to an input image having a size of 32 × 32, it is impossible to apply the kernel to two pixels at the top, bottom, left, and right sides of the input image. When the kernel is placed on the input image and then the result is composite, the resulting value of '-8' is determined as the pixel value corresponding to the center element of the kernel among the pixels of the input image included in the kernel. to be. Therefore, when a composite product is performed by applying a 5 × 5 kernel to a 32 × 32 input image, a 28 × 28 map is generated. Since it is assumed that the total number of kernels to be used is 20 in total, 20 total 28 × 28 maps are generated in the first convolutional layer.
서브샘플링 계층에서는 서브샘플링할 커널의 크기에 대한 정보, 커널 영역 내의 값들 중 최대값을 선택할 것인지 최소값을 선택할 것인지에 대한 정보가 필요하다.In the subsampling layer, information on the size of the kernel to be subsampled and information on whether to select the maximum value or the minimum value among the values in the kernel region are needed.
딥 러닝 기법에 대한 설명으로 다시 돌아가면, 순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.Returning to the deep learning technique, a cyclic neural network (RNN) refers to a neural network in which a connection between units forming an artificial neural network forms a directed cycle. The cyclic neural network, unlike the front neural network, can utilize the memory inside the neural network to process arbitrary input.
심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다. Deep Belief Networks (DBN) is a generic graphical model used in machine learning. In deep learning, deep Belief Networks (DBN) is a deep neural network composed of multiple layers of latent variables. There is a connection between layers, but there is no connection between units within a layer.
심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다. Deep trust neural networks can be used for preliminary learning due to the nature of the generation model, and after the initial weights are learned through prior learning, the weights can be fine-tuned through back propagation or other discrimination algorithms. This characteristic is very useful when the training data is small, because the smaller the training data, the greater the impact of the initial value of the weight on the resulting model. The pre-learned weight initial value is closer to the optimal weight than the arbitrarily set weight initial value, which enables the performance and speed improvement of the fine tuning step.
상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 이하에서 설명되는 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.Details of the above-described artificial intelligence and its learning method are described for the purpose of illustration, and the artificial intelligence used in the embodiments described below and its learning method are not limited. For example, all kinds of artificial intelligence techniques and learning methods that can be applied by those skilled in the art to solve the same problem may be utilized to implement a system according to the disclosed embodiments.
도 3은 본 발명의 일 실시예에 따른 업무 스케쥴을 갱신하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of updating a work schedule according to an embodiment of the present invention.
단계 S210에서, 서버(10)는, 상기 제2 업무 스케쥴, 상기 제2 업무 수행 결과 및 상기 제2 업무 처리 완성도를 학습 데이터로 상기 인공지능 모델에 입력하여, 상기 사용자의 제2 업무 스케쥴을 갱신하기 위한 상기 인공지능 모델을 학습시킬 수 있다.In step S210, the
즉, 서버(10)는 최초에는 용접 대상의 정보만을 바탕으로 제1 업무 스케쥴 및 제2 업무 스케쥴을 획득하나, 용접 기계(20) 및 사용자의 용접 업무 수행에 따라 용접 업무 데이터를 학습 데이터로 획득하고, 획득된 학습 데이터를 바탕으로 용접 기계(20) 및 사용자에게 최적화된 업무 스케쥴을 획득하기 위하여 인공지능 모델을 학습 시킬 수 있다.That is, the
단계 S220에서, 서버(10)는, 용접 대상, 용접 수량 및 업무 가능 시간을 입력 데이터로 상기 인공지능 모델에 입력하여, 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 갱신할 수 있다.In operation S220, the
도 4는 본 발명의 일 실시예에 따른 오브젝트와 용접 기계의 거리를 판단하여 경고 메시지를 출력하는 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of outputting a warning message by determining a distance between an object and a welding machine according to an embodiment of the present invention.
상술한 바와 같이, 용접 기계(20)는, 경고음을 출력하기 위한 스피커, 상기 용접 대상의 용접 과정을 촬영하기 위해 용접 기계의 용접 토치와 동일한 방향에 위치한 전방 카메라, 용접 기계(20)의 좌우측 및 을 촬영하기 위한 좌측 카메라, 우측 카메라 및 후방 카메라, 용접 기계(20)의 좌우측 및 전후방에 위치한 오브젝트와의 거리를 판단하기 위한 좌측 레이저 센서, 우측 레이저 센서, 전방 레이저 센서 및 후방 레이저 센서를 포함하고, 디스플레이 장치(30)는 헤드 마운티드 디스플레이를 포함할 수 있다.As described above, the
단계 S310에서, 용접 기계(20)는, 상기 전방 카메라를 통해 획득된 이미지를 바탕으로 상기 용접 대상의 용접 포인트를 결정할 수 있다.In operation S310, the
일 실시예로, 용접 포인트는 사용자에 의해 표시된 특정 마크 정보를 바탕으로 획득될 수 있다. 즉, 용접 기계(20)는 용접 대상 중 특정 마크를 용접 포인트로 인식할 수 있다.In one embodiment, the welding point may be obtained based on the specific mark information displayed by the user. That is, the
또 다른 실시예로, 용접 포인트는 용접 대상의 정보를 바탕으로 획득될 수 있다. 구체적으로, 서버(10)는 다양한 용접 대상에 대한 용접 포인트에 대한 정보를 메모리에 저장할 수 있으며, 용접 기계(20)는 전방 카메라를 통해 획득된 이미지로부터 용접 대상을 판단하고, 판단된 용접 대상에 매칭되어 있는 기 저장된 용접 포인트를 전방 카메라를 통해 획득할 수 있다.In another embodiment, the welding point may be obtained based on the information of the welding target. In detail, the
예를 들어, 서버(10)는 A용접 대상의 용접 포인트를 (a,b)와 같이 좌표화 하여 메모리에 저장할 수 있다. 이때, 메모리에 저장되는 정보는 A 용접 대상의 크기 정보 및 좌표 정보일 수 있다. 용접 기계(20)는 촬영된 A 용접 대상에 대한 이미지와 A 용접 대상에 대한 정보를 바탕으로 용접 포인트를 획득할 수 있다.For example, the
단계 S320에서, 용접 기계(20)는, 상기 결정된 용접 포인트를 용접할 수 있다.In operation S320, the
단계 S330에서, 용접 기계(20)는, 상기 용접 대상에 대한 용접이 완료되면, 용접 결과 데이터를 서버(10)로 전송할 수 있다. 상술한 바와 같이, 용접 결과 데이터는 용접 결과의 완성도를 판단하는데 사용될 수 있다.In operation S330, when the welding of the welding target is completed, the
단계 S340에서, 용접 기계(20)는, 상기 전방 카메라, 상기 후방 카메라, 상기 좌측 카메라 및 상기 우측 카메라로부터 이동하는 오브젝트에 대한 이미지가 수신되면, 상기 전방 레이저 센서, 상기 후방 레이저 센서, 상기 좌측 레이저 센서 및 상기 후방 레이저 센서를 바탕으로 상기 상기 이동하는 오브젝트와 용접 기계(20)와의 거리를 판단할 수 있다.In step S340, the
즉, 용접은 안전상의 이유로 인하여 용접이 진행되고 있는 경우에는 일정 거리의 안전 거리를 확보할 필요성이 있으므로, 용접 기계(20)는 용접이 수행되는 동안 용접 기계(20) 주변의 오브젝트를 판단하고, 판단된 오브젝트와 용접 기계(20) 사이의 거리를 판단할 수 있다. 다만, 거리 판단은 용접 기계(20)가 아닌 서버(10)에 의해 수행될 수 있음은 물론이다.That is, since the welding needs to secure a safety distance of a certain distance when welding is in progress for safety reasons, the
단계 S350에서, 상기 판단된 거리가 기 설정된 거리 이하인 경우, 상기 이동하는 오브젝트에 대한 정보 및 상기 판단된 거리에 대한 정보를 서버(10)로 전송할 수 있다. In operation S350, when the determined distance is less than or equal to a predetermined distance, information about the moving object and information about the determined distance may be transmitted to the
단계 S360에서, 서버(10)는, 상기 수신한 오브젝트에 대한 정보에 대응되는 오브젝트가 디스플레이 장치(30)인 경우, 디스플레이 장치(30)로 용접 기계(20)로부터 물러날 것을 안내하는 메시지를 전달할 수 있다.In operation S360, when the object corresponding to the information about the received object is the
이때, 디스플레이 장치(30)가 디스플레이 장치(30)는 스피커를 통해 경고음을 출력함과 함께, 디스플레이에 경고 메시지를 함께 표시할 수 있다.In this case, the
또 다른 실시예로, 디스플레이 장치(30)는 GPS 센서를 포함하고, 서버(10)는 용접 기계(20)로부터 용접이 수행되는지 유휴 상태인지에 대한 정보 및 용접 기계(20)의 위치 정보를 수신하고, 용접이 수행되는 도중 디스플레이 장치(30)가 용접 기계(20)로부터 기 설정된 거리 내로 이동하면, 경고 메시지를 출력할 수 있음은 물론이다. In another embodiment, the
단계 S370에서, 서버(10)는, 상기 수신한 오브젝트에 대한 정보에 대응되는 기 저장된 오브젝트가 없는 경우, 상기 스피커를 통해 경고음을 출력하도록 용접 기계(20)로 제어 신호를 전송할 수 있다.In operation S370, when there is no pre-stored object corresponding to the information about the received object, the
구체적으로, 사용자가 디스플레이 장치(30)를 착용하고 있지 않은 경우나, 사용자가 아닌 동물 등이 용접 기계(20) 근처로 이동하는 경우, 서버(10)는 용접 기계(20)가 자체적으로 경고음을 출력하도록 용접 기계(20)를 제어하여 디스플레이 장치(20)를 착용하지 않은 오브젝트가 안전 거리를 유지하도록 가이드 할 수 있다.Specifically, when the user is not wearing the
도 5는 본 발명의 일 실시예에 따른 유해 가스량을 바탕으로 경고 메시지를 출력하는 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of outputting a warning message based on the amount of harmful gas according to an embodiment of the present invention.
상술한 바와 같이, 용접 기계(20)는, 용접에 의해 발생하는 유해 가스의 종류 및 발생하는 유해가스량을 측정하기 위한 가스 감지 센서를 더 포함하고, 상기 가스 감지 센서는, 용접 기계(20)의 좌측 및 우측에 이동 가능한 레일 상에 배치될 수 있다.As described above, the
단계 S410에서, 용접 기계(20)는, 상기 가스 감지 센서를 바탕으로 용접시 발생하는 유해 가스의 종류를 측정할 수 있다.In operation S410, the
단계 S420에서, 용접 기계(20)는, 상기 가스 감지 센서가 상기 레일을 따라 기 설정된 제1 지점에 위치하는 경우의 발생하는 제1 유해 가스량, 기 설정된 제2 지점에 위치하는 경우의 발생하는 제2 유해 가스량 및 기 설정된 제3 지점에 위치하는 경우의 발생하는 제3 유해 가스량을 획득할 수 있다.In step S420, the
구체적으로, 서버(10)는 제1 지점과 용접 포인트와의 직선거리인 제1 직선 거리, 제2 지점과 용접 포인트와의 직선거리인 제2 직선 거리, 제3 지점과 용접 포인트와의 직선거리인 제3 직선 거리를 획득하고, 제1 거리 내지 제3 거리 각각에서 측정되는 유해 가스량을 획득할 수 있다.Specifically, the
단계 S430에서, 용접 기계(20)는 상기 유해 가스의 종류, 상기 제1 유해 가스량, 상기 제2 유해 가스량 및 상기 제3 유해 가스량에 대한 정보를 서버(10)로 전송할 수 있다.In operation S430, the
단계 S440에서, 서버(10)는, 상기 유해 가스의 종류, 상기 제1 유해 가스량, 상기 제2 유해 가스량 및 상기 제3 유해 가스량에 대한 정보를 바탕으로 상기 유해 가스의 확산 속도를 획득할 수 있다. 구체적으로, 유해 가스의 확산 속도는 유해 가스의 종류에 따라 상이하므로, 서버(10)는 유해 가스의 종류에 따른 확산 속도를 결정하고, 이상적인 확장 속도와 현실적인 확장 속도는 차이점이 존재하므로, 제1 유해 가스량 내지 제3 유해가스량과 이상적인 확산 속도를 바탕으로 현실적인 유해 가스의 확산 속도를 결정할 수 있다. In operation S440, the
단계 S450에서, 서버(10)는, 용접 기계(20) 주변의 사용자의 위치 정보를 획득하고, 상기 획득된 위치 정보 및 상기 획득된 확산 속도를 바탕으로, 상기 사용자의 위치에 대응되는 유해 가스량을 예측할 수 있다. 구체적으로, 서버(10)는 제1 유해 가스량과 제1 거리를 매칭한 데이터, 제2 유해 가스량과 제2 거리를 매칭한 데이터, 제3 유해 가스량과 제3 거리를 매칭한 데이터 및 유해 가스의 종류를 바탕으로 거리에 따른 유해 가스 량을 예측할 수 있다. In operation S450, the
단계 S460에서, 서버(10)는, 상기 예측된 유해 가스량이, 기 설정된 값 이상인 경우, 디스플레이 장치(30)로 경고 메시지를 전송할 수 있다.In operation S460, the
도 6은 본 발명의 일 실시예에 따른 유휴 시간을 바탕으로 업무 스케쥴을 갱신하는 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method of updating a work schedule based on idle time according to an embodiment of the present invention.
단계 S510에서, 서버(10)는, 상기 제1 업무 스케쥴 및 상기 제1 업무 수행 결과를 바탕으로, 용접 기계(20)의 제1 유휴 시간을 획득할 수 있다.In operation S510, the
단계 S520에서, 서버(10)는, 상기 제2 업무 스케쥴 및 상기 제2 업무 수행 결과를 바탕으로, 상기 사용자의 제2 유휴 시간을 획득할 수 있다.In operation S520, the
단계 S530에서, 서버(10)는, 상기 제1 유휴 시간 및 상기 제2 유휴 시간을 바탕으로 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 갱신할 수 있다.In operation S530, the
즉, 용접 기계(20) 및 사용자의 유휴시간이 길수록 업무의 효율이 떨어지는 것이므로, 서버(10)는제1 유휴 시간 및 제2 유휴 시간을 바탕으로 제1 업무 스케쥴 및 제2 업무 스케쥴을 갱신 할 수 있다.In other words, the longer the idle time of the
이때, 유휴 시간은 연속된 시간이 아니라, 업무 시간 과 혼합된 시간이다. 예를 들어, 유휴시간이 한시간인 경우, 제1 업무 시간, 제1 유휴 시간, 제2 업무 시간, 제2 유휴시간, 제3 업무 시간과 같은 순서로 업무가 진행될 것이고, 제1 유휴 시간과 제2 유휴 시간의 합이 전체 유휴 시간이 될 것이다.In this case, the idle time is not a continuous time, but a time mixed with the work time. For example, if the idle time is one hour, the work will proceed in the order of the first working time, the first idle time, the second working time, the second idle time, the third working time, and the first idle time and the first idle time. The sum of 2 idle times will be the total idle time.
따라서, 서버(10)는 제1 유휴 시간에 포함된 독립된 세부 유휴 시간에 대한 정보 및 제2 유휴 시간에 포함된 독립된 세부 유휴 시간에 대한 정보를 획득할 수 있다. 예를 들어, 제1 유휴 시간은 제1-1 유휴 시간 내지 제 1-3 유휴시간을 포함하고, 제2 유휴 시간은 제2-1 유휴 시간 내지 제 2-3 유휴시간을 포함할 수 있다. 이때, 제1-1 유휴시간 내지 제2-3 유슈시간은 연속된 시간일 수 있다.Therefore, the
일 실시예로, 서버(10)는 세부 유휴 시간에 대한 정보를 바탕으로, 세부 유휴 시간에 수행할 업무에 대한 정보를 획득할 수 있다. 예를 들어, 서버(10)는 제1-1 유휴 시간에는 용접 기계(20)의 전원을 오프하여 전력 소모를 방지할 수 있다. 또는, 서버(10)는 제2-1 유휴 시간에 사용자에게 주변 청소 업무를 할당할 수 있다. 또는 서버(10)는 제1-1 유휴시간과 제2-1 유휴시간이 겹치는 경우, 사용자가 용접 기계(20)를 점검하는 업무를 할당할 수 있다.In an embodiment, the
또 다른 실시예로, 서버(10)는 기 설정된 제1 업무 스케쥴 및 제2 업무 스케쥴의 순서를 변경하여 유휴 시간을 최소화 할 수 있는 최적의 업무 시간을 획득할 수 있다.In another embodiment, the
도 7은 본 발명의 일 실시예에 따른 개봉 신호를 바탕으로 업무 스케쥴을 획득하는 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a method of obtaining a work schedule based on an opening signal according to an embodiment of the present invention.
상술한 바와 같이, 상기 시스템은, 상기 용접 대상을 포장한 패키지에 구비된 개봉 신호 발생 장치(15)를 더 포함할 수 있다. 이때, 개봉 신호 발생 장치(15)는, 압력 센서 및 통신부를 더 포함할 수 있다. As described above, the system may further include an
구체적으로, 도 8에 도시된 바와 같이, 개봉 신호 발생 장치(15)는, 덮개 결합부(11,12) 및 덮개부(13,14)를 포함할 수 있다. 용접 대상은 덮개 결합부(11,12)가 포장 박스를 덮고, 덮힌 덮개 결합부 (11,12)가 테이프 등으로 밀봉되어 포장될 수 있다. 이때, 덮개 결합부 (11,12)의 내측면과, 덮개부(13,14)의 외측면은 서로 맞닿아 있을 수 있으며, 개봉 신호 발생 장치(15)는 덮개부(13,14)의 외측면에 배치될 수 있다.Specifically, as shown in FIG. 8, the
용접 대상의 포장이 완료된 상태에서는, 덮개 결합부 (11,12)의 내측면과, 덮개부(13,14)의 외측면은 서로 맞닿아 있으므로, 압력 센서는 일정한 강도의 압력을 받게 된다. 그러나, 용접 대상이 개봉된 경우, 압력 센서에 감지되는 압력은 밀봉된 상태보다 낮다. 따라서, 개봉 신호 발생 장치(15)는 압력 센서에 의해 감지된 압력이 기 설정된 값보다 낮으면, 용접 대상이 개봉되었다고 판단할 수 있다.In the state where the packaging to be welded is completed, since the inner surfaces of the
한편, 본 개시에 따른 개봉 신호 발생 장치(15)는 필요에 따라 다양한 방법으로 구현될 수 있다. 일 실시예로, 개봉 신호 발생 장치(15)는, 압력 센서 대신 빛 감지 센서(CDS)를 포함할 수 있으며, 포장 박스 내부에 위치할 수 있다. 즉, 포장 박스가 빛을 차단할 수 있는 재질로 이루어진 경우, 개봉 신호 발생 장치(15)는 빛 감지 센서를 포함하고, 빛 감지 센서에 의해 감지된 조도가 기 설정된 값 이상인 경우, 개봉 신호를 생성할 수 있다.On the other hand, the opening
단계 S610에서, 서버(10)는, 복수의 용접 대상 중, 기 설정된 시점에서의 복수의 용접 대상 중 적어도 하나의 용접 대상의 패키지가 개봉되었음을 알리는 적어도 하나의 개봉 신호를 상기 개봉 신호 발생 장치로부터 획득할 수 있다.In operation S610, the
단계 S620에서, 서버(10)는, 상기 획득된 적어도 하나의 개봉신호에 대응되는 용접 대상의 수량 및 용접 대상의 정보를 판단할 수 있다.In operation S620, the
단계 S630에서, 서버(10)는, 상기 판단된 수량 및 정보를 바탕으로 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 획득할 수 있다.In operation S630, the
즉, 서버(10)는 용접 대상이 기 설정된 시점(예를 들어 오전 10시)에 개봉된 개수가 그날의 총 업무 처리량으로 판단하고, 개봉된 용접 대상에 대한 용접을 업무 시간에 완료하기 위한 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 획득할 수 있다.That is, the
한편, 본 발명의 다양한 실시예에 따라, 용접 기계(20)는 디스플레이 장치(30)의 사용자와 직접 통신을 수행할 수 있음은 물론이다.Meanwhile, according to various embodiments of the present disclosure, the
일 실시예로, 용접 기계(20)는 기 설정된 제스쳐와 제스쳐에 매핑된 제어 신호를 저장할 수 있다. 예를 들어, 사용자가 손가락을 한개를 펴는 제스처 내지 손가락을 한개를 펴는 제스처는 손가락의 개수에 대응되는 용접 속도에 대한 제어 신호와 매핑될 수 있다. 또 다른 실시예로, 사용자가 두팔로 엑스자를 그리는 제스쳐는 용접을 중단하기 위한 제어 신호와 매핑될 수 있다.In one embodiment, the
용접 기계(20)는 사용자의 제스쳐에 대한 정보를 카메라를 통해 획득하는 단계, 상기 제스쳐에 대응되는 사용자가 디스플레이 장치(30)를 착용하고 있는지 여부를 판단하는 단계 및 상기제스쳐에 대응되는 사용자가 디스플레이 장치(30)를 착용하고 있는 경우, 상기 제스쳐에 매핑된 제어 신소에 따른 제어 동작을 수행하는 단계의 동작을 수행할 수 있다.The
즉, 디스플레이 장치(30)를 착용하지 않은 사용자는 업무와 관련이 없는 사람일 수 있으므로, 용접 기계(20)는 디스플레이 장치(30)를 착용한 사용자의 제스쳐만을 판단하여 제스쳐에 대응되는 명령을 수행할 수 있다.That is, since the user who does not wear the
도 9는 일 실시 예에 따른 장치의 구성도이다.9 is a block diagram of an apparatus according to an embodiment.
프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The
일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 7과 관련하여 설명된 방법을 수행한다.
예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다. For example, the
한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. Meanwhile, the
메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. Software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be embodied as a program (or an application) and stored in a medium for execution in combination with a computer which is hardware. The components of the present invention may be implemented in software programming or software elements, and similarly, embodiments include C, C ++, including various algorithms implemented in combinations of data structures, processes, routines, or other programming constructs. It may be implemented in a programming or scripting language such as Java, an assembler, or the like. The functional aspects may be implemented with an algorithm running on one or more processors.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may realize the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.
10 : 서버
20 : 용접 기계
30: 디스플레이 장치10: server
20: welding machine
30: display device
Claims (6)
상기 서버가, 용접 대상 정보를 바탕으로 상기 용접 기계가 수행할 제1 업무 스케쥴 및 상기 디스플레이 장치를 착용하는 사용자가 수행할 제2 업무 스케쥴을 획득하는 단계;
상기 서버가, 상기 제1 업무 스케쥴을 상기 용접 기계로 전송하고, 상기 제2 업무 스케쥴을 상기 디스플레이 장치로 전송하는 단계;
상기 서버가, 상기 용접 기계로부터 상기 용접 기계가 수행한 상기 용접 대상에 대한 제1 업무 수행 결과 및 상기 디스플레이 장치로부터 상기 사용자가 수행한 상기 용접 대상에 대한 제2 업무 수행 결과를 수신하는 단계;
상기 서버가, 상기 제1 업무 스케쥴을 바탕으로 상기 용접 기계가 용접을 수행하는데 필요한 예상 리소스 정보를 획득하고, 상기 예상 리소스 정보와 상기 제1 업무 수행 결과를 바탕으로 제1 업무 처리 완성도를 획득하는 단계;
상기 서버가, 상기 제2 업무 스케쥴을 바탕으로, 상기 사용자가 업무를 수행하는데 필요한 예상 시간 정보를 획득하고, 상기 예상 시간 정보와 상기 제2 업무 수행 결과를 바탕으로 제2 업무 처리 완성도를 획득하는 단계;
상기 서버가, 상기 제1 업무 스케쥴, 상기 제1 업무 수행 결과 및 상기 제1 업무 처리 완성도를 학습 데이터로 인공지능 모델에 입력하여, 상기 용접 기계의 제1 업무 스케쥴을 갱신하기 위한 상기 인공지능 모델을 학습시키는 단계;를 포함하는 제어 방법.In the control method of welding automation of a system comprising a server, a welding machine and a display device,
Acquiring, by the server, a first task schedule to be performed by the welding machine and a second task schedule to be performed by a user wearing the display apparatus based on the welding object information;
Sending, by the server, the first work schedule to the welding machine and sending the second work schedule to the display device;
Receiving, by the server, a first task performance result of the welding object performed by the welding machine from the welding machine and a second task performance result of the welding object performed by the user from the display device;
The server acquires the expected resource information required for the welding machine to perform the welding based on the first task schedule, and obtains the first task process completeness based on the expected resource information and the first task execution result. step;
The server acquires estimated time information necessary for the user to perform a task based on the second task schedule, and obtains a second task process completeness based on the estimated time information and the result of performing the second task. step;
The artificial intelligence model for updating the first task schedule of the welding machine by inputting the first task schedule, the first task execution result, and the first task process completeness as learning data into the artificial intelligence model by the server Learning; control method comprising a.
상기 제어 방법은,
상기 서버가, 상기 제2 업무 스케쥴, 상기 제2 업무 수행 결과 및 상기 제2 업무 처리 완성도를 학습 데이터로 상기 인공지능 모델에 입력하여, 상기 사용자의 제2 업무 스케쥴을 갱신하기 위한 상기 인공지능 모델을 학습시키는 단계;
상기 서버가, 용접 대상, 용접 수량 및 업무 가능 시간을 입력 데이터로 상기 인공지능 모델에 입력하여, 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 갱신하는 단계; 를 더 포함하고,
상기 제1 업무 스케쥴은, 상기 용접 대상의 재질 정보, 상기 용접 기계의 스펙 정보, 상기 용접 대상의 용접 포인트 정보, 상기 용접 대상에 대한 용접 조건 정보 바탕으로 획득되고,
상기 제2 업무 스케쥴은, 상기 사용자의 예상 동선 정보, 상기 사용자의 업무 처리 히스토리 정보를 바탕으로 획득되고,
상기 제1 업무 수행 결과는, 상기 용접 대상에 대한 용접 결과를 촬영한 촬상 데이터, 상기 용접 기계의 용접 수행시 전압 및 전류 정보, 상기 용접 기계가 사용하는 소모품의 소모량 정보, 상기 용접에 의해 발생한 유해 가스 정보를 포함하고,
상기 제2 업무 수행 결과는, 상기 용접 대상의 용접 수행에 대한 시간 정보, 상기 용접 수행에 따른 상기 사용자의 동선 정보, 상기 용접 수행에 따른 상기 사용자의 이동시간 정보를 포함하고,
상기 예상 리소스는, 상기 용접 대상에 대한 용접시 소비되는 전력량 및 상기 소모품의 소모량에 대한 리소스인 것을 특징으로 하는 제어 방법.The method of claim 1,
The control method,
The artificial intelligence model for updating the second task schedule of the user by inputting the second task schedule, the second task execution result, and the second task process completeness into the artificial intelligence model as training data; Learning;
Updating, by the server, the first task schedule and the second task schedule by inputting a welding target, a welding quantity, and a workable time into the artificial intelligence model as input data; More,
The first work schedule is obtained based on material information of the welding target, specification information of the welding machine, welding point information of the welding target, and welding condition information of the welding target.
The second work schedule is obtained based on the expected copper line information of the user and the work processing history information of the user.
The first task performance result is imaging data photographing a welding result for the welding target, voltage and current information when performing welding of the welding machine, consumption information of consumables used by the welding machine, and harmfulness caused by the welding. Contains gas information,
The second work performance result includes time information on the welding performance of the welding target, copper wire information of the user according to the welding performance, and movement time information of the user according to the welding performance,
The expected resource is a control method, characterized in that the resource for the amount of power consumed during welding to the welding target and the consumption of the consumables.
상기 용접 기계는, 경고음을 출력하기 위한 스피커, 상기 용접 대상의 용접 과정을 촬영하기 위해 용접 기계의 용접 토치와 동일한 방향에 위치한 전방 카메라, 상기 용접 기계의 좌우측 및 을 촬영하기 위한 좌측 카메라, 우측 카메라 및 후방 카메라, 상기 용접 기계의 좌우측 및 전후방에 위치한 오브젝트와의 거리를 판단하기 위한 좌측 레이저 센서, 우측 레이저 센서, 전방 레이저 센서 및 후방 레이저 센서를 포함하고,
상기 디스플레이 장치는 헤드 마운티드 디스플레이를 포함하며,
상기 제어 방법은,
상기 용접 기계가, 상기 전방 카메라를 통해 획득된 이미지를 바탕으로 상기 용접 대상의 용접 포인트를 결정하는 단계;
상기 용접 기계가, 상기 결정된 용접 포인트를 용접하는 단계; 및
상기 용접 기계가, 상기 용접 대상에 대한 용접이 완료되면, 용접 결과 데이터를 상기 서버로 전송하는 단계; 를 포함하고,
상기 제어 방법은,
상기 용접 기계가, 상기 전방 카메라, 상기 후방 카메라, 상기 좌측 카메라 및 상기 우측 카메라로부터 이동하는 오브젝트에 대한 이미지가 수신되면, 상기 전방 레이저 센서, 상기 후방 레이저 센서, 상기 좌측 레이저 센서 및 상기 후방 레이저 센서를 바탕으로 상기 이동하는 오브젝트와 상기 용접 기계와의 거리를 판단하는 단계;
상기 판단된 거리가 기 설정된 거리 이하인 경우, 상기 이동하는 오브젝트에 대한 정보 및 상기 판단된 거리에 대한 정보를 상기 서버로 전송하는 단계;
상기 서버가, 상기 수신한 오브젝트에 대한 정보에 대응되는 오브젝트가 상기 디스플레이 장치인 경우, 상기 디스플레이 장치로 상기 용접 기계로부터 물러날 것을 안내하는 메시지를 전달하는 단계; 및
상기 서버가, 상기 수신한 오브젝트에 대한 정보에 대응되는 기 저장된 오브젝트가 없는 경우, 상기 스피커를 통해 경고음을 출력하도록 상기 용접 기계로 제어 신호를 전송하는 단계; 를 포함하는 제어 방법.The method of claim 2,
The welding machine may include a speaker for outputting a warning sound, a front camera positioned in the same direction as the welding torch of the welding machine to photograph the welding process of the welding target, left and right cameras for photographing the left and right sides of the welding machine, and a right camera. And a rear camera, a left laser sensor, a right laser sensor, a front laser sensor, and a rear laser sensor for determining a distance from an object located on left, right, and front and rear sides of the welding machine.
The display device includes a head mounted display,
The control method,
Determining, by the welding machine, a welding point of the welding target based on an image obtained through the front camera;
Welding, by the welding machine, the determined welding point; And
Transmitting, by the welding machine, welding result data to the server when welding to the welding target is completed; Including,
The control method,
When the welding machine receives an image of an object moving from the front camera, the rear camera, the left camera and the right camera, the front laser sensor, the rear laser sensor, the left laser sensor and the rear laser sensor are received. Determining a distance between the moving object and the welding machine based on the position;
If the determined distance is less than or equal to a predetermined distance, transmitting information on the moving object and information on the determined distance to the server;
Transmitting, by the server, a message for instructing to withdraw from the welding machine to the display device when the object corresponding to the received information about the object is the display device; And
Transmitting, by the server, a control signal to the welding machine to output a warning sound through the speaker when there is no pre-stored object corresponding to the information about the received object; Control method comprising a.
상기 용접 기계는, 용접에 의해 발생하는 유해 가스의 종류 및 발생하는 유해 가스량을 측정하기 위한 가스 감지 센서를 더 포함하고,
상기 가스 감지 센서는, 상기 용접 기계의 좌측 및 우측에 이동 가능한 레일 상에 배치되며,
상기 용접 기계가, 상기 가스 감지 센서를 바탕으로 용접시 발생하는 유해 가스의 종류를 측정하는 단계;
상기 용접 기계가, 상기 가스 감지 센서가 상기 레일을 따라 기 설정된 제1 지점에 위치하는 경우의 발생하는 제1 유해 가스량, 기 설정된 제2 지점에 위치하는 경우의 발생하는 제2 유해 가스량 및 기 설정된 제3 지점에 위치하는 경우의 발생하는 제3 유해 가스량을 획득하는 단계;
상기 유해 가스의 종류, 상기 제1 유해 가스량, 상기 제2 유해 가스량 및 상기 제3 유해 가스량에 대한 정보를 상기 서버로 전송하는 단계;
상기 서버가, 상기 유해 가스의 종류, 상기 제1 유해 가스량, 상기 제2 유해 가스량 및 상기 제3 유해 가스량에 대한 정보를 바탕으로 상기 유해 가스의 확산 속도를 획득하는 단계;
상기 서버가, 상기 용접 기계 주변의 사용자의 위치 정보를 획득하고, 상기 획득된 위치 정보 및 상기 획득된 확산 속도를 바탕으로, 상기 사용자의 위치에 대응되는 유해 가스량을 예측하는 단계;
상기 서버가, 상기 예측된 유해 가스량이, 기 설정된 값 이상인 경우, 상기 디스플레이 장치로 경고 메시지를 전송하는 단계; 를 포함하는 제어 방법.The method of claim 2,
The welding machine further includes a gas detection sensor for measuring the type of harmful gas generated by welding and the amount of harmful gas generated,
The gas sensor is disposed on the rail movable on the left and right sides of the welding machine,
Measuring, by the welding machine, a kind of harmful gas generated during welding based on the gas detection sensor;
The welding machine, the first harmful gas amount generated when the gas detection sensor is located at a predetermined first point along the rail, the second harmful gas amount generated when the gas detection sensor is located at a predetermined second point and the preset Acquiring a third amount of harmful gas generated when the third point is located;
Transmitting information on the type of the noxious gas, the first noxious gas amount, the second noxious gas amount, and the third noxious gas amount to the server;
Acquiring, by the server, a diffusion rate of the noxious gas based on the type of the noxious gas, the first noxious gas amount, the second noxious gas amount, and the third noxious gas amount;
Acquiring, by the server, location information of a user around the welding machine and predicting an amount of harmful gas corresponding to the location of the user based on the acquired location information and the acquired diffusion speed;
Transmitting, by the server, a warning message to the display apparatus when the predicted amount of harmful gas is greater than or equal to a preset value; Control method comprising a.
상기 갱신하는 단계는,
상기 서버가, 상기 제1 업무 스케쥴 및 상기 제1 업무 수행 결과를 바탕으로, 상기 용접 기계의 제1 유휴 시간을 획득하는 단계;
상기 서버가, 상기 제2 업무 스케쥴 및 상기 제2 업무 수행 결과를 바탕으로, 상기 사용자의 제2 유휴 시간을 획득하는 단계; 및
상기 서버가, 상기 제1 유휴 시간 및 상기 제2 유휴 시간을 바탕으로 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 갱신하는 단계; 를 포함하는 제어 방법. The method of claim 2,
The updating step,
Acquiring, by the server, a first idle time of the welding machine based on the first task schedule and the first task execution result;
Acquiring, by the server, a second idle time of the user based on the second task schedule and the result of performing the second task; And
Updating, by the server, the first task schedule and the second task schedule based on the first idle time and the second idle time; Control method comprising a.
상기 시스템은, 상기 용접 대상을 포장한 패키지에 구비된 개봉 신호 발생 장치를 더 포함하고,
상기 개봉 신호 발생 장치는, 압력 센서 및 통신부를 더 포함하고,
상기 제어 방법은,
상기 서버가, 복수의 용접 대상 중, 기 설정된 시점에서의 복수의 용접 대상 중 적어도 하나의 용접 대상의 패키지가 개봉되었음을 알리는 적어도 하나의 개봉 신호를 상기 개봉 신호 발생 장치로부터 획득하는 단계;
상기 서버가, 상기 획득된 적어도 하나의 개봉신호에 대응되는 용접 대상의 수량 및 용접 대상의 정보를 판단하는 단계; 및
상기 서버가, 상기 판단된 수량 및 정보를 바탕으로 상기 제1 업무 스케쥴 및 상기 제2 업무 스케쥴을 획득하는 단계; 를 포함하는 제어 방법.
The method of claim 2,
The system further includes an unsealing signal generator provided in a package wrapping the welding object,
The opening signal generator further includes a pressure sensor and a communication unit,
The control method,
Acquiring, by the server, at least one unsealed signal from the unsealed signal generator, indicating that a package of at least one welded object among the plurality of welded objects has been opened among a plurality of welded objects;
Determining, by the server, the quantity of welding objects and information of welding objects corresponding to the obtained at least one unsealed signal; And
Acquiring, by the server, the first task schedule and the second task schedule based on the determined quantity and information; Control method comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190107615A KR102052304B1 (en) | 2019-08-30 | 2019-08-30 | Control methods and systems for welding automation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190107615A KR102052304B1 (en) | 2019-08-30 | 2019-08-30 | Control methods and systems for welding automation |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102052304B1 true KR102052304B1 (en) | 2020-01-08 |
Family
ID=69154469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190107615A KR102052304B1 (en) | 2019-08-30 | 2019-08-30 | Control methods and systems for welding automation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102052304B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102297520B1 (en) | 2020-10-12 | 2021-09-02 | (주)삼성텍 | Welding automation system using heterogeneous nut of metal product for electric and combustion vehicle |
KR102565643B1 (en) * | 2022-09-16 | 2023-08-11 | 흥일기업주식회사 | Component welding apparatus and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100327704B1 (en) | 1999-07-21 | 2002-03-14 | 은 종 목 | An artificial intelligence type automatic welder |
KR20120053266A (en) * | 2010-11-17 | 2012-05-25 | (주)대영배선 | System and method for supervising welding machine |
KR101439758B1 (en) * | 2013-03-26 | 2014-09-16 | 주식회사 포스코 | Apparatus and method of inspecting defect of laser welding |
KR20170096470A (en) * | 2016-02-16 | 2017-08-24 | 한국생산기술연구원 | Welding managing method, apparatus and computer-readable medium recording the method |
KR102006806B1 (en) * | 2018-07-31 | 2019-08-02 | 주식회사 스마트랩 | A real-time system for measuring quality of ultrasonic welding |
-
2019
- 2019-08-30 KR KR1020190107615A patent/KR102052304B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100327704B1 (en) | 1999-07-21 | 2002-03-14 | 은 종 목 | An artificial intelligence type automatic welder |
KR20120053266A (en) * | 2010-11-17 | 2012-05-25 | (주)대영배선 | System and method for supervising welding machine |
KR101439758B1 (en) * | 2013-03-26 | 2014-09-16 | 주식회사 포스코 | Apparatus and method of inspecting defect of laser welding |
KR20170096470A (en) * | 2016-02-16 | 2017-08-24 | 한국생산기술연구원 | Welding managing method, apparatus and computer-readable medium recording the method |
KR102006806B1 (en) * | 2018-07-31 | 2019-08-02 | 주식회사 스마트랩 | A real-time system for measuring quality of ultrasonic welding |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102297520B1 (en) | 2020-10-12 | 2021-09-02 | (주)삼성텍 | Welding automation system using heterogeneous nut of metal product for electric and combustion vehicle |
KR102565643B1 (en) * | 2022-09-16 | 2023-08-11 | 흥일기업주식회사 | Component welding apparatus and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11769056B2 (en) | Synthetic data for neural network training using vectors | |
Islam et al. | Understanding human motion and gestures for underwater human–robot collaboration | |
US10460470B2 (en) | Recognition and reconstruction of objects with partial appearance | |
CN111418198B (en) | Electronic device for providing text-related image and method of operating the same | |
KR102052304B1 (en) | Control methods and systems for welding automation | |
Selvan | Transforming Consumer Behavior Analysis with Cutting-Edge Machine Learning | |
Baumgartl et al. | Development of a highly precise place recognition module for effective human-robot interactions in changing lighting and viewpoint conditions | |
KR101970297B1 (en) | Robot system for generating and representing emotion and method thereof | |
US20190392195A1 (en) | Electronic apparatus and operating method thereof | |
Conati et al. | Further Results on Predicting Cognitive Abilities for Adaptive Visualizations. | |
US20220366244A1 (en) | Modeling Human Behavior in Work Environment Using Neural Networks | |
KR102187831B1 (en) | Control method, device and program of congestion judgment system using cctv | |
Lu et al. | A single shot multibox detector based on welding operation method for biometrics recognition in smart cities | |
US11222439B2 (en) | Image processing apparatus with learners for detecting orientation and position of feature points of a facial image | |
Wang et al. | Penetration recognition based on machine learning in arc welding: a review | |
KR102509698B1 (en) | Dancing smart robot studied dance gesture | |
KR102440963B1 (en) | Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium | |
US20230359348A1 (en) | Personalized electronic device inferring user input, and method for controlling same | |
Araluce et al. | Leveraging Driver Attention for an End-to-End Explainable Decision-Making From Frontal Images | |
Bai et al. | Depth feature fusion based surface defect region identification method for steel plate manufacturing | |
Gupta et al. | An optimized deep convolutional neural network for adaptive learning using feature fusion in multimodal data | |
Kataev et al. | Application of artificial intelligence methods in the school educational process | |
KR102296578B1 (en) | An apparatus for welding aids using augmented reality | |
US11651390B1 (en) | Cognitively improving advertisement effectiveness | |
Yoheswari | OPTIMIZING CONSUMER BEHAVIOUR ANALYTICS THROUGH ADVANCED MACHINE LEARNING ALGORITHMS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |