KR102065893B1 - Method and apparatus for controlling wiper manufacturing process for cleanroom - Google Patents

Method and apparatus for controlling wiper manufacturing process for cleanroom Download PDF

Info

Publication number
KR102065893B1
KR102065893B1 KR1020190106323A KR20190106323A KR102065893B1 KR 102065893 B1 KR102065893 B1 KR 102065893B1 KR 1020190106323 A KR1020190106323 A KR 1020190106323A KR 20190106323 A KR20190106323 A KR 20190106323A KR 102065893 B1 KR102065893 B1 KR 102065893B1
Authority
KR
South Korea
Prior art keywords
manufacturing process
wiper
clean room
cameras
controlling
Prior art date
Application number
KR1020190106323A
Other languages
Korean (ko)
Inventor
노상인
Original Assignee
노상인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노상인 filed Critical 노상인
Priority to KR1020190106323A priority Critical patent/KR102065893B1/en
Application granted granted Critical
Publication of KR102065893B1 publication Critical patent/KR102065893B1/en

Links

Images

Classifications

    • DTEXTILES; PAPER
    • D06TREATMENT OF TEXTILES OR THE LIKE; LAUNDERING; FLEXIBLE MATERIALS NOT OTHERWISE PROVIDED FOR
    • D06HMARKING, INSPECTING, SEAMING OR SEVERING TEXTILE MATERIALS
    • D06H7/00Apparatus or processes for cutting, or otherwise severing, specially adapted for the cutting, or otherwise severing, of textile materials
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L13/00Implements for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L13/10Scrubbing; Scouring; Cleaning; Polishing
    • A47L13/16Cloths; Pads; Sponges
    • DTEXTILES; PAPER
    • D06TREATMENT OF TEXTILES OR THE LIKE; LAUNDERING; FLEXIBLE MATERIALS NOT OTHERWISE PROVIDED FOR
    • D06HMARKING, INSPECTING, SEAMING OR SEVERING TEXTILE MATERIALS
    • D06H3/00Inspecting textile materials
    • D06H3/08Inspecting textile materials by photo-electric or television means

Landscapes

  • Engineering & Computer Science (AREA)
  • Textile Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Materials Engineering (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method of controlling a wiper manufacturing process for a clean room, and an apparatus thereof. According to one embodiment of the present invention, an apparatus of controlling a wiper manufacturing process for a clean room is configured to: photograph each point in a wiper fabric for a clean room, desired to be manufactured, by using cameras corresponding to different constants; obtain first images photographed by the cameras; generate an input vector corresponding to an input layer of a convolutional neural network which has been previously learned to generate a panoramic image of a wiper cutting specification for a clean room from a plurality of images based on the first images; obtain an output vector by applying the input vector to the convolutional neural network; generate, based on the output vector, position control data to align photographing positions of the cameras in the formation based on the constants; align the cameras in the formation based on the position control data; obtain second images photographed by the aligned cameras; generate a target panoramic image of each point in a wiper fabric for a target clean room based on the second images; generate control information for manufacturing from information related to a wiper for a clean room; and control a packaging device. According to embodiments of the present invention, control information associated with a process of cutting, washing, drying and packing is estimated based on artificial intelligence to optimize process control.

Description

클린룸용 와이퍼 제조 공정을 제어하기 위한 방법 및 장치{METHOD AND APPARATUS FOR CONTROLLING WIPER MANUFACTURING PROCESS FOR CLEANROOM}METHOOD AND APPARATUS FOR CONTROLLING WIPER MANUFACTURING PROCESS FOR CLEANROOM

아래 실시예들은 클린룸용 와이퍼 제조 공정을 제어하는 기술에 관한 것이다. The following examples relate to techniques for controlling the wiper manufacturing process for clean rooms.

클린룸은 반도체 소자나 LCD 등의 정밀 전자 제품 및 유전자 조작과 같은 극미산업에서 미세먼지와 세균을 제거하는 작업실을 말한다. 클린룸용 와이퍼는 클린룸 내의 제조 과정에서 설비의 표면을 청소하거나, 액체의 확산을 막기 위해 주로 사용된다.Clean room refers to a workshop that removes fine dust and bacteria in the microscopic industry such as semiconductor devices, precision electronic products such as LCD, and genetic engineering. Clean room wipers are often used to clean the surface of equipment during manufacturing in clean rooms or to prevent the spread of liquids.

따라서 설비의 오염을 최대한 효과적으로 제거하기 위해선 클린룸용 와이퍼 또한 클린룸 환경에서 미세 입자의 접촉이 최소화되도록 제작되어야 한다. 따라서 원단의 재단에서부터 세탁, 건조, 포장에 이르기까지 총체적으로 이러한 환경이 유지되는 것은 무엇보다 중요한데, 여기에는 여러 어려움이 따를 수밖에 없다. 따라서 최소의 오염상태를 유지하며, 최대의 효과를 낼 수 있도록 클린룸용 와이퍼를 제조하기 위한 기술의 연구가 요구된다.Therefore, in order to remove the contamination of the equipment as effectively as possible, clean room wipers should also be manufactured to minimize the contact of fine particles in the clean room environment. Therefore, it is important to maintain this environment as a whole, from cutting of fabric to washing, drying, and packaging, which has many difficulties. Therefore, there is a need for research of a technology for manufacturing a wiper for a clean room to maintain a minimum pollution state and to maximize the effect.

KR100908217KR100908217 KR101933517KR101933517 KR20000008677KR20000008677 KR1020080028925KR1020080028925

실시예들은 클린룸용 와이퍼 원단 내 재단하고자 하는 대상의 이미지를 인공 지능을 기반으로 생성하여, 재단의 정밀도를 높이고자 한다.Embodiments are intended to increase the precision of the cutting by generating an image of an object to be cut in a clean room wiper fabric based on artificial intelligence.

실시예들은 클린룸용 와이퍼의 재단, 세탁, 건조 및 포장하는 공정과 관련된 제어 정보를 인공 지능을 기반으로 추론하여 공정 제어를 최적화하고자 한다.Embodiments aim to optimize process control by inferring control information related to the process of cutting, washing, drying, and packaging a clean room wiper based on artificial intelligence.

실시예들은 공정에 필요한 설비간 피드백 명령을 통해 공정 단계를 효율화하고, 공정 중 오류가 자주 발생하는 위치 및 영역을 피드백 명령을 통해 히스토리로 관리하고, 공정의 품질을 높이고자 한다.Embodiments aim to streamline the process steps through inter-facility feedback commands required for the process, manage locations and areas where errors frequently occur during the process through the feedback command, and improve the quality of the process.

실시예들은 클린룸용 와이퍼의 제조 공정에 필요한 정보를 유형화하여 공정 설비 제어의 정밀도를 높이고자 한다.Embodiments attempt to increase the precision of process equipment control by tying the information necessary for the manufacturing process of a wiper for a clean room.

일실시예에 따른 클린룸용 와이퍼 제조 공정을 제어하기 위한 방법은 제조하고자 하는 클린룸용 와이퍼 원단 내 각 지점들을 서로 다른 상수(constant)들에 각각 대응하는 카메라들을 이용하여 촬영하는 단계;상기 카메라들에 의해 촬영된 제1 이미지들을 획득하는 단계; 상기 제 1 이미지들에 기초하여 복수의 이미지들로부터 클린룸용 와이퍼 재단 규격의 파노라마 이미지를 생성하도록 미리 학습된 컨볼루션 신경망(convolutional neural network)의 인풋 레이어(input layer)에 대응하는 입력 벡터를 생성하는 단계; 상기 입력 벡터를 상기 컨볼루션 신경망에 적용하여 출력 벡터를 획득하는 단계; 상기 출력 벡터에 기초하여, 상기 상수들에 기초한 대형(formation)으로 상기 카메라들의 촬영 위치들을 정렬하도록 하는 위치 조정 데이터를 생성하는 단계; 상기 위치 조정 데이터에 기초하여 상기 대형으로 상기 카메라들을 정렬하는 단계; 상기 정렬된 상기 카메라들에 의해 촬영된 제2 이미지들을 획득하는 단계; 상기 제2 이미지들에 기초하여 상기 대상 클린룸용 와이퍼 원단 내 상기 각 지점들의 대상 파노라마 이미지를 생성하는 단계; 상기 대상 파노라마 이미지에 기초하여 상기 대상 클린룸용 와이퍼 원단 내 상기 각 지점들에 대응하는 식별자를 획득하는 단계; 식별자들, 클린룸용 와이퍼의 재단 유형들 및 클린룸용 와이퍼의 제조 공정들을 매칭시킨 데이터베이스로부터, 상기 식별자에 대응하는 상기 대상 클린룸용 와이퍼의 재단 유형 및 제조 공정을 획득하는 단계; 상기 식별자, 상기 대상 클린룸용 와이퍼의 상기 재단 유형 및 상기 제조 공정에 기초하여 제1 입력 신호를 생성하는 단계; 클린룸용 와이퍼와 관련된 정보로부터 제조를 위한 제어 정보를 생성하도록 미리 학습된 제1 뉴럴 네트워크의 입력 레이어로 상기 제1 입력 신호를 인가하는 단계; 상기 제1 뉴럴 네트워크의 출력 레이어로부터 생성된 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여 제1 제어 명령들을 생성하는 단계; 상기 제1 제어 명령들에 기초하여, 제조 공정 설비들을 제어하는 단계; 상기 제조 공정 설비들의 제어 결과에 따른 제품들을 클린룸 내 재단품 보관함에 적재하기 위한 제1 적재 신호를 생성하는 단계; 상기 제1 적재 신호에 기초하여, 제1 적재 설비를 제어하는 단계; 상기 재단품 보관함 내 자체 적재 평가 장치의 신호에 기초하여, 제2 적재 신호를 생성하는 단계; 상기 제2 적재 신호에 기초하여, 제2 적재 설비를 제어하는 단계; 상기 제2 적재 설비의 제어 결과에 따른 제품들을 동시에 세탁하기 위한 제2 제어 명령을 생성하는 단계; 상기 제2 제어 명령에 기초하여, 세탁 장치를 제어하는 단계; 상기 세탁 장치의 제어 결과에 따른 상기 제품들을 건조장치로 옮기기 위한 제3 적재 신호를 생성하는 단계; 상기 제3 적재 신호에 기초하여, 제3 적재 설비를 제어하는 단계; 상기 제3 적재 설비의 제어 결과에 따른 상기 제품들을 동시에 건조하기 위한 제3 제어 명령을 생성하는 단계; 상기 제3 제어 명령에 기초하여, 건조 장치를 제어하는 단계; 상기 건조 장치의 제어 결과에 따른 상기 제품들을 컨베이어 벨트로 옮기기 위한 제4 적재 신호를 생성하는 단계; 상기 제4 적재 신호에 기초하여, 제4 적재 설비를 제어하는 단계; 상기 제4 적재 설비의 제어 결과에 따른 상기 제품들을 컨베이어 벨트 상에서 개별 진공 포장하기 위한 제4 제어 명령을 생성하는 단계; 및 상기 제4 제어 명령에 기초하여, 포장 장치를 제어하는 단계를 포함할 수 있다.According to one or more exemplary embodiments, a method for controlling a wiper manufacturing process for a clean room includes photographing points of a clean room wiper fabric to be manufactured using cameras corresponding to different constants; Obtaining first images photographed by the camera; Generating an input vector corresponding to an input layer of a convolutional neural network that has been previously learned to generate a panoramic image of a wiper cutting standard for a clean room from a plurality of images based on the first images. step; Applying the input vector to the convolutional neural network to obtain an output vector; Based on the output vector, generating position adjustment data for aligning the photographing positions of the cameras in formation based on the constants; Aligning the cameras in the large format based on the position adjustment data; Acquiring second images taken by the aligned cameras; Generating a target panoramic image of each of the points in the wiper fabric for the target clean room based on the second images; Obtaining an identifier corresponding to each of the points in the wiper fabric for the target clean room based on the target panoramic image; Obtaining a cutting type and manufacturing process of the target clean room wiper corresponding to the identifier from a database matching identifiers, cutting types of clean room wipers and manufacturing processes of the clean room wiper; Generating a first input signal based on the identifier, the cutting type of the target cleanroom wiper and the manufacturing process; Applying the first input signal to an input layer of a first learned neural network to generate control information for manufacturing from information associated with a clean room wiper; Obtaining a first output signal generated from an output layer of the first neural network; Generating first control commands based on the first output signal; Based on the first control instructions, controlling manufacturing process facilities; Generating a first loading signal for loading products according to a control result of the manufacturing process facilities into a cutting locker in a clean room; Controlling a first loading facility based on the first loading signal; Generating a second loading signal based on a signal of the self loading evaluation device in the cutout box; Controlling a second loading facility based on the second loading signal; Generating a second control command for simultaneously washing products according to the control result of the second loading facility; Controlling a laundry machine based on the second control command; Generating a third loading signal for transferring the products to a drying apparatus according to the control result of the washing apparatus; Controlling a third loading facility based on the third loading signal; Generating a third control command for simultaneously drying the products according to the control result of the third loading facility; Controlling a drying device based on the third control command; Generating a fourth loading signal for transferring the products to a conveyor belt according to a control result of the drying apparatus; Controlling a fourth loading facility based on the fourth loading signal; Generating a fourth control command for individually vacuum packaging the products on a conveyor belt according to the control result of the fourth loading facility; And controlling the packaging apparatus based on the fourth control command.

일실시예에 따르면, 상기 출력 벡터는 상기 카메라들 중 어느 하나의 카메라가 촬영한 제1 이미지에서 나머지 카메라들이 촬영한 제1 이미지들과 중복되는 부분들의 위치 및 크기 데이터를 각각의 카메라들별로 그룹화한 제1 중복 부분 데이터를 포함하며, 상기 대형은 상기 상수들에 기초하여 정의된 순서에 따라 기준 위치의 방위각(azimuthal) 방향으로 상기 상수들에 각각 대응하는 상기 카메라들이 순차로 배치되는 대형이며, 상기 위치 조정 데이터는 상기 제 1 중복 부분 데이터에 기초하여, 상기 카메라들의 제 1 상대적 위치들을 획득하고, 상기 카메라들이 상기 대형으로 촬영 위치를 정렬했을 경우, 인접하게 되는 카메라들에 의해 촬영되는 제 2 이미지들에서 서로 중복되는 부분들이 상기 인접하게 되는 카메라들에 의해 촬영되는 제 2 이미지들에서 차지하는 위치 및 크기가 미리 정의된 제 2 중복 부분 데이터와 일치하도록 만드는 상기 카메라들의 제 2 상대적 위치들을 계산하여, 상기 카메라들이 상기 제 1 상대적 위치들로부터 상기 제 2 상대적 위치들로 각각 이동하도록 제어하는 데이터일 수 있다.According to an embodiment, the output vector groups position and size data of portions of the first image photographed by one of the cameras, which overlap with the first images photographed by the other cameras, for each camera. A first overlapping partial data, wherein the large size is a large size in which the cameras respectively corresponding to the constants are sequentially arranged in the azimuthal direction of the reference position according to the order defined based on the constants; The position adjustment data is based on the first overlapping partial data, and acquires first relative positions of the cameras, and is photographed by adjacent cameras when the cameras align the photographing position in the large format. Portions overlapping each other in the images are taken to the second images taken by the adjacent cameras. Compute the second relative positions of the cameras to make the occupied position and size coincide with the predefined second overlapping partial data to control the cameras to move from the first relative positions to the second relative positions, respectively. Data.

일실시예에 따르면, 상기 제조 공정 설비들을 제어하는 단계는 상기 제1 제어 명령들에 기초하여, 상기 대상 클린룸용 와이퍼를 제조하기 위한 구조 사양 정보-상기 구조 사양 정보는 상기 대상 클린룸용 와이퍼 원단 내 공간 상에 재단 도구를 위치시키기 위한 구조적인 사양으로서, 위치 좌표, 연결 관계, 계층 구조 및 깊이를 포함함-, 기계 사양 정보-상기 기계 사양 정보는 상기 대상 클린룸용 와이퍼 원단 및 재단 도구들의 물리적, 화학적 작용 및 반응에 따른 사양으로서, 크기, 길이, 형상, 두께, 무게, 재질, 적정 압력, 적정 온도, 규격 및 강도, pH, 산화도를 포함함-를 생성하는 단계; 상기 구조 사양 정보 및 상기 기계 사양 정보에 기초하여, 상기 대상 클린룸용 와이퍼를 제조하기 위한 테스트 신호들 및 상기 테스트 신호들을 인가하기 위한 타임 스탬프들을 생성하는 단계; 및 상기 테스트 신호들 및 상기 타임 스탬프들의 시퀀스에 기초하여 상기 제조 공정 설비들을 제어하는 단계를 포함할 수 있다.According to one embodiment, the step of controlling the manufacturing process facilities is based on the first control commands, the structural specification information for manufacturing the wiper for the target clean room-the structural specification information is in the wiper fabric for the target clean room Structural specifications for positioning the cutting tool in space, including position coordinates, connection relationships, hierarchies, and depths, machine specification information, wherein the machine specification information includes physical, wiper fabric and cutting tools for the target cleanroom. Creating a specification according to chemical action and reaction, including size, length, shape, thickness, weight, material, proper pressure, proper temperature, specification and strength, pH, degree of oxidation; Generating test signals for manufacturing the wiper for the target clean room and time stamps for applying the test signals based on the structural specification information and the machine specification information; And controlling the manufacturing process facilities based on the sequence of test signals and the time stamps.

일시시예에 따르면, 상기 제조 공정 설비들을 제어하는 단계는 구조 사양 정보들, 기계 사양 정보들 및 재단 도구들을 매칭시킨 데이터베이스를 조회하여, 상기 구조 사양 정보 및 상기 기계 사양 정보에 대응하는 상기 재단 도구들을 획득하는 제1 제조 공정 설비를 제어하는 단계; 상기 제1 제조 공정 설비의 제어 결과에 기초하여, 상기 구조 사양 정보에 대응하는 제조 공정 서열 조건-상기 도구들을 제조 공정의 서열에 맞는 위치에 배치시키기 위한 조건임-을 생성하는 단계; 상기 제조 공정 서열 조건에 기초하여, 상기 도구들을 배치하는 제2 제조 공정 설비를 제어하는 단계; 상기 제2 제조 공정 설비의 제어 결과와 상기 제조 공정 서열 조건을 비교하여, 상기 도구들의 배치를 조정하기 위한 피드백 명령을 생성하는 단계; 및 상기 생성된 피드백 명령에 기초하여 상기 제2 제조 공정 설비를 제어하는 단계를 포함할 수 있다.According to one embodiment, the controlling of the manufacturing process equipments may include querying a database that matches structural specification information, machine specification information, and cutting tools, such that the cutting tool corresponds to the structural specification information and the machine specification information. Controlling a first manufacturing process facility for obtaining the food; Generating a manufacturing process sequence condition corresponding to the structural specification information, the condition for placing the tools in a position that matches the sequence of the manufacturing process, based on the control result of the first manufacturing process facility; Controlling a second manufacturing process facility to place the tools based on the manufacturing process sequence conditions; Comparing the control result of the second manufacturing process facility with the manufacturing process sequence conditions to generate a feedback command for adjusting the placement of the tools; And controlling the second manufacturing process facility based on the generated feedback command.

일실시예에 따르면, 상기 제조 공정 서열 조건을 생성하는 단계는 상기 구조 사양 정보들에 따라 클러스터링된 도구들의 제1 히스토리에 기초하여, 상기 획득된 도구들 중 제1 도구, 제2 도구, 제3 도구 및 제4 도구를 상기 대상 클린룸용 와이퍼 원단 내 공간 상에 시계열적으로 제1 위치, 제2 위치, 제3 위치 및 제4 위치에 각각 배치시키기 위한 위치 명령들 및 타임 스탬프들의 시퀀스를 생성하는 단계; 및 상기 생성된 시퀀스에 기초하여, 상기 제조 공정 서열 조건을 생성하는 단계를 포함할 수 있다.According to one embodiment, the step of generating the manufacturing process sequence condition is based on a first history of tools clustered according to the structural specification information, the first of the obtained tools, a second tool, a third Generating a sequence of position instructions and time stamps for placing a tool and a fourth tool in a first position, a second position, a third position and a fourth position, respectively, in time series on the space in the wiper fabric for the object cleanroom step; And generating the manufacturing process sequence conditions based on the generated sequence.

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.The apparatus according to one embodiment may be controlled by a computer program stored in a medium in combination with hardware to carry out the method of any one of the aforementioned methods.

실시예들은 클린룸용 와이퍼 원단 내 재단하고자 하는 대상의 이미지를 인공 지능을 기반으로 생성하여, 재단의 정밀도를 높일 수 있다.Embodiments may generate an image of an object to be cut in a clean room wiper fabric based on artificial intelligence to increase the precision of the cutting.

실시예들은 클린룸용 와이퍼의 재단, 세탁, 건조 및 포장하는 공정과 관련된 제어 정보를 인공 지능을 기반으로 추론하여 공정 제어를 최적화할 수 있다.Embodiments may infer control information related to a process of cutting, washing, drying, and packaging a wiper for a clean room based on artificial intelligence to optimize process control.

실시예들은 공정에 필요한 설비간 피드백 명령을 통해 공정 단계를 효율화하고, 공정 중 오류가 자주 발생하는 위치 및 영역을 피드백 명령을 통해 히스토리로 관리하고, 공정의 품질을 높일 수 있다.Embodiments can streamline the process steps through inter-facility feedback commands required for the process, manage locations and areas where errors frequently occur during the process through the feedback command, and improve the quality of the process.

실시예들은 클린룸용 와이퍼의 제조 공정에 필요한 정보를 유형화하여 공정 설비 제어의 정밀도를 높일 수 있다.Embodiments can type information necessary for the manufacturing process of the wiper for a clean room to increase the precision of the process equipment control.

도 1은 일실시예에 따른 클린룸용 와이퍼의 제조 공정을 제어하기 위한 방법을 설명하기 위한 순서도이다.
도 2는 일실시예에 따른 클린룸용 와이퍼의 재단을 위한 파노라마 이미지를 생성하는 방법을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 클린룸용 와이퍼의 재단을 위한 파노라마 이미지를 생성하는 방법을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 클린룸용 와이퍼의 재단을 위한 파노라마 이미지를 생성하는데 채용되는 컨볼루션 신경망의 학습 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 클린룸용 와이퍼의 제조 공정을 제어하기 위한 방법을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 클린룸용 와이퍼의 제조 공정을 제어하기 위한 방법을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a flowchart illustrating a method for controlling a manufacturing process of a wiper for a clean room according to an embodiment.
FIG. 2 is a diagram for describing a method of generating a panoramic image for cutting of a wiper for a clean room, according to an exemplary embodiment.
3 is a diagram for describing a method of generating a panoramic image for cutting of a wiper for a clean room, according to an exemplary embodiment.
4 is a diagram illustrating a learning process of a convolutional neural network employed to generate a panoramic image for cutting a wiper for a clean room, according to an exemplary embodiment.
5 is a diagram for describing a method for controlling a manufacturing process of a wiper for a clean room, according to an exemplary embodiment.
6 is a diagram for describing a method for controlling a manufacturing process of a wiper for a clean room, according to an exemplary embodiment.
7 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments so that the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, and substitutes for the embodiments are included in the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be practiced in various forms. Accordingly, the embodiments are not limited to the specific disclosure, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but such terms should be interpreted only for the purpose of distinguishing one component from another component. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it should be understood that there may be a direct connection or connection to that other component, but there may be other components in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of description and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components regardless of reference numerals will be given the same reference numerals and duplicate description thereof will be omitted. In the following description of the embodiment, when it is determined that the detailed description of the related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. Embodiments may be implemented in various forms of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.

도 1은 일실시예에 따른 클린룸용 와이퍼의 제조 공정을 제어하기 위한 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method for controlling a manufacturing process of a wiper for a clean room according to an embodiment.

일실시예에 따르면, 클린룸용 와이퍼 제조 공정을 위한 제어 장치(이하, 제어 장치라 함)는 제조하고자 하는 클린룸용 와이퍼 원단 내 각 지점들을 서로 다른 상수(constant)들에 각각 대응하는 카메라들을 이용하여 촬영할 수 있다(101). 제어 장치는 클린룸용 와이퍼의 제조 공정을 제어하는 장치로서, 예를 들어 소프트웨어 모듈, 하드웨어 모듈 또는 이들의 조합으로 구현될 수 있다.According to one embodiment, a control device (hereinafter, referred to as a control device) for a manufacturing process of a wiper for a clean room uses cameras corresponding to different constants of respective points in the fabric of the wiper for a clean room to be manufactured. It is possible to take a picture (101). The control device is a device for controlling the manufacturing process of the wiper for a clean room, and may be implemented, for example, as a software module, a hardware module, or a combination thereof.

일실시예에 따른 제어 장치는 통신 기능이 포함된 전자 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크톱 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트카(smart car) 또는 스마트 와치(smartwatch)중 적어도 하나를 포함할 수 있다.The control device according to an embodiment may be an electronic device including a communication function. For example, the electronic device may be a smart phone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, a desktop personal computer, a laptop. Laptop personal computer (PC), netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical device, camera, or wearable device (e.g., Include at least one of a head-mounted-device (HMD), such as electronic glasses, an electronic garment, an electronic bracelet, an electronic necklace, an electronic accessory, an electronic tattoo, a smart car, or a smartwatch. Can be.

일실시예에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.According to an embodiment, the electronic device may be a smart home appliance having a communication function. Smart home appliances are, for example, electronic devices such as televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, TVs. It may include at least one of a box (eg, Samsung HomeSync ™, Apple TV ™, or Google TV ™), game consoles, electronic dictionaries, electronic keys, camcorders, or electronic photo frames.

일실시예에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present disclosure, the electronic device may include various medical devices (for example, magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT), an imaging device, an ultrasound device, etc.), a navigation device, and a GPS receiver ( global positioning system receiver (EDR), event data recorder (EDR), flight data recorder (FDR), automotive infotainment devices, marine electronic equipment (e.g. marine navigation systems and gyro compasses), avionics, security At least one of a device, a vehicle head unit, an industrial or household robot, an automatic teller's machine (ATM) of a financial institution, or a point of sales (POS) of a store.

일실시예에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 일실시예에에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 일실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 일실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 다양한 실시예에서 이용되는 유저라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.According to one embodiment, an electronic device is a part of a furniture or building / structure including a communication function, an electronic board, an electronic signature receiving device, a projector, or various measurements And at least one of a device (eg, water, electricity, gas, or a radio wave measuring device). An electronic device according to an embodiment may be one or a combination of the above-described various devices. Also, an electronic device according to an embodiment may be a flexible device. In addition, it will be apparent to those skilled in the art that the electronic device according to an embodiment is not limited to the above-described devices. The term user used in various embodiments may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.

일실시예에 따른 전자 장치는 프로세서, 메모리, 유저 인터페이스 및 통신 인터페이스를 포함하고, 다른 전자 장치와 네트워크를 통해 연결될 수 있다. 통신 인터페이스는 유, 무선 네트워크 또는 유선 직렬 통신 등을 통하여 소정 거리 이내의 다른 전자 장치와 데이터를 송수신할 수 있다. 네트워크는 일실시예에 따른 전자 장치와 다양한 개체들(entities) 간의 유, 무선 통신을 가능하게 한다. 전자 장치는 네트워크를 통해 다양한 개체들과 통신할 수 있고, 네트워크는 표준 통신 기술 및/또는 프로토콜들을 사용할 수 있다. 이때, 네트워크(network)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나 이에 한정되지 않으며, 정보를 송, 수신할 수 있는 다른 종류의 네트워크가 될 수도 있음을 통신 기술 분야의 통상의 지식을 가진 자라면 알 수 있다.An electronic device according to an embodiment includes a processor, a memory, a user interface, and a communication interface, and may be connected to another electronic device through a network. The communication interface may transmit / receive data with other electronic devices within a predetermined distance through wired, wireless network, or wired serial communication. The network enables wired and wireless communication between an electronic device and various entities according to an embodiment. The electronic device may communicate with various entities over the network, and the network may use standard communication technologies and / or protocols. In this case, the network includes, but is not limited to, the Internet, a local area network (LAN), a wireless local area network (WLAN), a wide area network (WAN), a personal area network (PAN), and the like. It will be appreciated by those skilled in the art of communication that there may be other types of networks capable of transmitting and receiving information.

일실시예에 따르면, 대상 클린룸용 와이퍼는 클린룸에서 제품 및 클린룸 내부의 이물질을 제거하기 위해 사용되는 섬유 제품으로, 형태에 따라 와이퍼와 롤 와이퍼로 구분할 수 있다. 와이퍼의 경우, 원단의 종류에 따라 폴리, 극세사, 부직포 중 적어도 하나로 분류할 수 있다. 롤 와이퍼의 경우, 용도에 따라 극세사 직물, 니트, 능직 중 적어도 하나로 분류할 수 있다.According to one embodiment, the wiper for the target clean room is a fiber product used to remove foreign substances in the clean room and the product in the clean room, and may be classified into a wiper and a roll wiper depending on the shape. In the case of a wiper, it may be classified into at least one of poly, microfiber, and nonwoven fabric according to the type of fabric. In the case of roll wipers, they may be classified into at least one of a microfiber fabric, a knit, and a twill depending on the application.

일실시예에 따르면, 제어 장치는 대상 클린룸용 와이퍼 원단 내 각 지점들을 촬영하는 카메라들을 제어할 수 있다. 카메라들은 서로 다른 상수(constant)를 통해 표현할 수 있으며, 가령, 상수 1, 2, 및 3을 통해 각각의 카메라를 카메라 1, 카메라 2, 카메라 3과 같은 식으로 표현할 수 있다. 상수들은 반드시 숫자일 필요는 없으며, 문자, 특수문자, 숫자, 또는 이들의 조합으로 이루어져 있을 수도 있다. 각각의 카메라의 위치는 원통형 좌표계(cylindrical coordinate, O)를 통해 표현될 수 있다. 원통형 좌표계(O)의 원점은 미리 정의될 수 있으며, 예를 들어 클린룸용 와이퍼 원단의 중앙을 기준으로 미리 정의된 거리만큼 떨어진 위치일 수 있다. 원통형 좌표계(O)를 중심으로, 카메라 1은 방위각(φ)의 값이 가장 큰 관심 영역의 세부 영역을 촬영하고, 카메라 2는 방위각(φ)의 값이 그 다음으로 큰 관심 영역의 세부 영역을 촬영하고, 카메라 3은 방위각(φ)의 값이 가장 작은 관심 영역의 세부 영역을 촬영할 수 있다. 관심 영역은 대상 클린룸용 와이퍼 원단 내 촬영하고자 하는 대상 지점 중 적어도 하나의 조합일 수 있다. According to an embodiment, the control device may control cameras photographing respective points in the wiper fabric for the target clean room. Cameras can be represented by different constants, for example, through the constants 1, 2, and 3, each camera can be represented in the same manner as camera 1, camera 2, camera 3. Constants are not necessarily numbers, but may consist of letters, special characters, numbers, or a combination thereof. The position of each camera can be represented through a cylindrical coordinate (O). The origin of the cylindrical coordinate system O may be predefined, and for example, may be a position separated by a predefined distance with respect to the center of the wiper fabric for the clean room. Centering on the cylindrical coordinate system O, camera 1 captures the detail region of the region of interest with the largest value of azimuth angle φ, and camera 2 captures the detail region of the region of interest with the next largest value of azimuth angle φ. The camera 3 may capture a detailed region of the ROI having the smallest value of the azimuth angle φ. The region of interest may be a combination of at least one of the target points to be photographed in the wiper fabric for the target clean room.

일실시예에 따르면, 제어 장치는 카메라들에 의해 촬영된 이미지를 수집하여 디스플레이를 통해 표시할 수 있다. 제어 장치는 카메라들의 위치를 변경하거나 이미지 수집 주기를 조정하는 등 카메라 동작을 제어할 수 있다. 카메라들 및 제어 장치 간의 데이터 전달은 무선 네트워크를 통해 이루어질 수 있다. 카메라들 및 제어 장치는 무선 네트워크를 위한 통신 안테나, 하드웨어, 소프트웨어 및 이들의 조합을 포함할 수 있으며, 무선 네트워크는 표준 통신 기술 및/또는 프로토콜들을 사용할 수 있다. According to one embodiment, the control device may collect the image taken by the cameras and display it on the display. The control device may control the camera operation such as changing the position of the cameras or adjusting the image collection period. Data transfer between the cameras and the control device may be via a wireless network. Cameras and control devices may include communication antennas, hardware, software, and combinations thereof for a wireless network, which may use standard communication techniques and / or protocols.

일실시예에 따르면, 서로 다른 상수로 표현되는 각각의 카메라들은 관심 영역의 세부 영역의 제1 이미지들을 각각 촬영할 수 있다. 원통형 좌표계(O)를 중심으로, 카메라 1은 방위각(φ)의 값이 가장 큰 관심 영역의 세부 영역을 제1 이미지로서 촬영하고, 카메라 2는 방위각(φ)의 값이 그 다음으로 큰 관심 영역의 세부 영역을 제1 이미지로서 촬영하고, 카메라 3은 방위각(φ)의 값이 가장 작은 관심 영역의 세부 영역을 제1 이미지로서 촬영할 수 있다.According to an embodiment, each of the cameras, which are represented by different constants, may respectively photograph the first images of the detail region of the ROI. Centering on the cylindrical coordinate system O, camera 1 captures the detail region of the region of interest having the largest value of the azimuth angle φ as the first image, and camera 2 has the next region of interest having the next largest value of the azimuth angle φ. The detailed region of may be photographed as a first image, and the camera 3 may photograph the detailed region of the region of interest having the smallest value of the azimuth angle φ as the first image.

일실시예에 따르면, 제어 장치는 카메라들에 의해 촬영된 제1 이미지들을 획득할 수 있다(102). 제어 장치가 획득한 제1 이미지들은 디스플레이에 의해 표시될 수 있다.According to an embodiment, the control device may acquire 102 first images photographed by the cameras. The first images acquired by the control device may be displayed by the display.

일실시예에 따르면, 제어 장치는 제1 이미지들에 기초하여 복수의 이미지들로부터 클린룸용 와이퍼 재단 규격의 파노라마 이미지를 생성하도록 미리 학습된 컨볼루션 신경망(convolutional neural network)의 인풋 레이어(input layer)에 대응하는 입력 벡터를 생성할 수 있다(103). 제어 장치는 입력 벡터를 컨볼루션 신경망에 적용하여 출력 벡터를 획득할 수 있다(104). 제어 장치는 출력 벡터에 기초하여, 상수들에 기초한 대형(formation)으로 카메라들의 촬영 위치들을 정렬하도록 하는 위치 조정 데이터를 생성할 수 있다(105). 위치 조정 데이터의 생성이 완료되면, 제어 장치는 카메라들에게 위치 조정 데이터를 전송할 수 있다.According to one embodiment, the control device comprises an input layer of a convolutional neural network that has been previously learned to generate a panoramic image of a wiper cutting specification for a clean room from a plurality of images based on the first images. An input vector corresponding to may be generated (103). The control device can apply an input vector to the convolutional neural network to obtain an output vector (104). The control device can generate 105 position adjustment data based on the output vector to align the shooting positions of the cameras in formation based on the constants. When generation of the position adjustment data is completed, the control device may transmit the position adjustment data to the cameras.

일실시예에 따르면, 제어 장치는 위치 조정 데이터에 기초하여 대형으로 카메라들을 정렬할 수 있다(106). 각각의 카메라들은 위치 조정 데이터에서 각자 자신에게 할당된 데이터를 식별하여, 각자 자신에게 할당된 이동 명령을 수행함으로써, 각각의 카메라와 일대일 대응관계로 대응하는 상수들에 기초한 대형(formation)으로 촬영 위치를 정렬할 수 있다. 정렬이 이루어진 상태에서, 카메라들은 제2 이미지를 촬영할 수 있다. 촬영을 마친 카메라들은 제2 이미지들을 제어 장치에게 전송할 수 있다.According to one embodiment, the control device can align the cameras 106 on a large scale based on the position adjustment data. Each camera identifies the data assigned to itself in the position adjustment data and executes a movement command assigned to each of them, thereby forming a shooting position in formation based on constants corresponding to each camera in a one-to-one correspondence. Can be sorted. In the aligned state, the cameras may take a second image. After the photographing, the cameras may transmit the second images to the control device.

일실시예에 따르면, 제어 장치는 정렬된 카메라들에 의해 촬영된 제2 이미지들을 획득할 수 있다(107). 제어 장치는 제2 이미지들에 기초하여 대상 클린룸용 와이퍼의 원단 내 각 지점들의 대상 파노라마 이미지를 생성할 수 있다(108). 제어 장치는 제2 이미지들에 기초하여, 목표 이미지, 가령 관심 영역의 파노라마(panorama) 이미지를 생성할 수 있다.According to one embodiment, the control device can acquire second images captured by the aligned cameras (107). The control device may generate a target panoramic image of respective points in the far end of the wiper for the target clean room based on the second images (108). The control device may generate a target image, such as a panorama image of the ROI, based on the second images.

일실시예에 따르면, 제어 장치는 대상 파노라마 이미지에 기초하여 대상 클린룸용 와이퍼 원단 내 각 지점들에 대응하는 식별자를 획득할 수 있다(109). 대상 클린룸용 와이퍼 원단 내 각 지점들에 대응하는 식별자는 대상 클린룸용 와이퍼 원단 내 각 지점들을 식별하는 정보로서, 예를 들어 제조 공정의 대상이 되는 클린룸용 와이퍼의 형태, 크기 및 재질과 관련된 코드일 수 있지만, 이에 한정되지 않고 공정이 유형 또는 설계 의도에 따라 다양한 방식으로 정의될 수 있다.According to an embodiment, the control device may acquire an identifier corresponding to each point in the wiper far end for the target clean room based on the target panoramic image (109). The identifier corresponding to each point in the wiper fabric for the target cleanroom is information identifying each point in the wiper fabric for the target cleanroom, e.g., a code relating to the shape, size and material of the cleanroom wiper to be subjected to the manufacturing process. Although not limited thereto, the process may be defined in various ways depending on the type or design intent.

일실시예에 따르면, 제어 장치는 식별자들, 클린룸용 와이퍼의 재단 유형들 및 클린룸용 와이퍼의 제조 공정들을 매칭시킨 데이터베이스로부터, 식별자에 대응하는 대상 클린룸용 와이퍼의 재단 유형 및 제조 공정을 획득할 수 있다(110). 예를 들어, 데이터베이스는 식별자들과 클린룸용 와이퍼의 재단 유형들 및 제조 공정들을 서로 매칭시킨 테이블로 구현될 수 있고, 제어 장치는 데이터베이스를 조회할 수 있다.According to an embodiment, the control device may obtain the cutting type and manufacturing process of the target cleanroom wiper corresponding to the identifier from a database that matches the identifiers, the cutting types of the cleanroom wiper and the manufacturing processes of the cleanroom wiper. (110). For example, the database may be implemented with a table that matches the identifiers and cutting types and manufacturing processes of the wiper for the clean room, and the control device may query the database.

일실시예에 따르면, 클린룸용 와이퍼의 재단 유형들은 레이저 커팅, 초음파 커팅, 열 커팅 등의 공정 방법에 따라 구분지을 수 있지만, 이에 한정되지 않고 재단 마감의 형태 및 거칠기 등에 따라 다양한 방식으로 정의될 수 있다.According to one embodiment, the cutting type of the wiper for clean room may be classified according to the processing method such as laser cutting, ultrasonic cutting, thermal cutting, etc., but is not limited thereto and may be defined in various ways according to the shape and roughness of the cutting finish. have.

일실시예에 따르면, 제어 장치는 식별자, 대상 클린룸용 와이퍼의 재단 유형 및 제조 공정에 기초하여 제1 입력 신호를 생성할 수 있다(111). 제어 장치는 식별자, 대상 클린룸용 와이퍼의 재단 유형 및 제조 공정에 각각 가중치를 적용하여 벡터를 생성할 수 있고, 각각의 가중치는 데이터베이스로부터 조회된 정보일 수 있다. 제어 장치는 생성된 벡터에 대응하는 제1 입력 신호를 생성할 수 있다.According to an embodiment, the control device may generate the first input signal based on the identifier, the cutting type of the wiper for the target clean room, and the manufacturing process (111). The control device may generate a vector by applying weights to the identifier, the cutting type of the target clean room wiper, and the manufacturing process, and each weight may be information retrieved from a database. The control device may generate a first input signal corresponding to the generated vector.

일실시예에 따르면, 제어 장치는 클린룸용 와이퍼와 관련된 정보로부터 제조를 위한 제어 정보를 생성하도록 미리 학습된 제1 뉴럴 네트워크의 입력 레이어로 제1 입력 신호를 인가할 수 있다(112). 제어 장치는 딥러닝 기법을 이용하여 제어 명령을 생성할 수 있다.According to one embodiment, the control device may apply 112 a first input signal to an input layer of a first neural network that has been previously learned to generate control information for manufacturing from information associated with a wiper for a clean room. The control device can generate a control command using a deep learning technique.

일실시예에 따르면, 제어 장치는 클린룸용 와이퍼의 식별자, 클린룸용 와이퍼의 재단 유형 및 클린룸용 와이퍼의 제조 공정에 따라 최적화된 제어 명령을 생성하도록 학습된 뉴럴 네트워크를 이용할 수 있다. 제어 장치는 식별자, 대상 클린룸용 와이퍼의 재단 유형 및 제조 공정에 대응하는 변수들을 전처리하여 제1 입력 신호를 생성할 수 있다. 여기서, 입력 신호는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 입력 신호 생성 시 변수들에 각각 가중치들이 적용될 수 있다. 여기서, 가중치들은 뉴럴 네트워크의 학습 시 최적화될 수 있다. According to one embodiment, the control device may utilize a neural network learned to generate control commands optimized according to the identifier of the cleanroom wiper, the cutting type of the cleanroom wiper, and the manufacturing process of the cleanroom wiper. The control device may preprocess the variables corresponding to the identifier, the cutting type of the wiper for the target clean room, and the manufacturing process to generate the first input signal. Here, the input signal may be defined in various forms according to the design intention, such as one-hot vector, real vector. Weights may be applied to variables when generating an input signal. Here, the weights may be optimized when learning the neural network.

일실시예에 따르면, 제어 장치는 제조 공정 설비들에 대한 제어 명령들을 기초로 기 학습된 제1 뉴럴 네트워크로 제1 입력 신호를 적용할 수 있다. 입력 신호는 뉴럴 네트워크의 입력 레이어에 대응할 수 있다. According to an embodiment, the control device may apply the first input signal to the first neural network that has been previously learned based on control commands for the manufacturing process facilities. The input signal may correspond to an input layer of the neural network.

일실시예에 따르면, 제어 장치는 제1 뉴럴 네트워크의 출력 레이어로부터 생성된 제1 출력 신호를 획득할 수 있다(113). 뉴럴 네트워크는 비선형적인 활성화 함수를 이용하여 중간 레이어를 거친 값들을 출력 레이어로 처리하여, 출력 신호를 생성할 수 있다.According to an embodiment, the control device may acquire a first output signal generated from an output layer of the first neural network (113). The neural network may generate output signals by processing values passing through an intermediate layer into an output layer using a nonlinear activation function.

일실시예에 따르면, 출력 신호는 제조 공정 설비들의 제어 명령들에 대응하는 노드들을 포함할 수 있다. 출력 레이어는 특정 제어 명령에 대응하는 값을 출력하는 제1 노드, 특정 제어 명령에 대응하는 값을 출력하는 제2 노드 등을 포함할 수 있다. 노드에 의해 출력되는 값은 위치를 이산화하여 표현하거나 확률과 같은 연속된 값으로 표현할 수 있다.According to one embodiment, the output signal may comprise nodes corresponding to control commands of the manufacturing process facilities. The output layer may include a first node that outputs a value corresponding to the specific control command, a second node that outputs a value corresponding to the specific control command, and the like. The value output by the node can be represented by discrete locations or by successive values such as probability.

일실시예에 따르면, 제어 장치는 제1 출력 신호에 기초하여 제1 제어 명령들을 생성할 수 있다(114). 제1 제어 명령들은 점검 공정 설비들을 제어하기 위한 기계적, 물리적, 전자적 명령 프로파일들을 포함할 수 있다. 제1 출력 신호는 최적화된 제어 명령들에 각각 대응하는 확률과 연관된 정보로 표현될 수 있다.According to one embodiment, the control device can generate 114 first control commands based on the first output signal. The first control commands may include mechanical, physical and electronic command profiles for controlling the inspection process facilities. The first output signal may be represented by information associated with a probability corresponding to each of the optimized control commands.

일실시예에 따르면, 뉴럴 네트워크는 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 레이블들은 공정 설비들을 제어하기 위한 제어 명령들에 대한 추정 결과들에 기초하여 정의될 수 있다. 뉴럴 네트워크는 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to one embodiment, the neural network includes an input layer to which training samples are input and an output layer to output training outputs, and can be learned based on the difference between the training outputs and the labels. Here, the labels can be defined based on the estimation results for the control commands for controlling the process facilities. A neural network is connected to a group of nodes and is defined by weights between the connected nodes and an activation function that activates the nodes.

일실시예에 따르면, 학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 뉴럴 네트워크를 학습시킬 수 있다. 학습 장치는 뉴럴 네트워크의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.According to an embodiment, the learning apparatus may train a neural network using a gradient decent (GD) technique or a stochastic gradient descent (SGD) technique. The learning device may use a loss function designed by the outputs and labels of the neural network.

일실시예에 따르면, 학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 뉴럴 네트워크 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may calculate a training error using a predefined loss function. The loss function can be predefined with labels, outputs and parameters as input variables, where the parameters can be set by weights in the neural network. For example, the loss function may be designed in the form of Mean Square Error (MSE), entropy, or the like. Various embodiments or methods may be employed in embodiments in which the loss function is designed.

일실시예에 따르면, 학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 뉴럴 네트워크 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.According to an embodiment, the learning apparatus may find weights that affect the training error by using a backpropagation technique. Here, the weights are relationships between nodes in the neural network. The learning apparatus may use the SGD technique with labels and outputs to optimize the weights found through the backpropagation technique. For example, the learning apparatus can update the weights of the loss function defined based on the labels, outputs and weights using the SGD technique.

일실시예에 따르면, 제어 장치는 학습이 완료된 뉴럴 네트워크를 이용하여 출력 신호를 획득하고, 제조 공정 설비들을 제어하기 위한 제어 명령들과 관련된 정보를 추정할 수 있다.According to an embodiment, the control device may acquire an output signal using the neural network that has been learned, and estimate information related to control commands for controlling the manufacturing process facilities.

일실시예에 따르면, 제어 장치는 제1 제어 명령들에 기초하여, 제조 공정 설비들을 제어할 수 있다(115). 제어 장치는 제조 공정 설비들을 제어하기 위한 정책들 또는 프로파일들을 포함하는 제1 제어 명령들에 기초하여 제조 공정 설비들을 제어할 수 있다. 제어 장치는 제1 제어 명령들에 따라 응답하는 제조 공정 설비들의 동작들과 모니터링 결과에 기초하여, 제조 공정별 작업을 모니터링해 제조 공정의 진행 속도 및 결과를 확인할 수 있다.According to one embodiment, the control device may control 115 the manufacturing process facilities based on the first control commands. The control apparatus can control the manufacturing process facilities based on first control instructions that include policies or profiles for controlling the manufacturing process facilities. The control device may monitor the operation of each manufacturing process based on the operations and the monitoring results of the manufacturing process facilities responding to the first control commands to check the speed and the result of the manufacturing process.

일실시예에 따르면, 제어 장치는 제1 제어 명령에 기초하여 제조 공정 설비의 물리적 동작, 논리적 동작 및 설정 정보의 변경 중 적어도 하나를 제어할 수 있다. 제어 장치는 제어 신호에 응답하는 제조 공정 설비로부터 획득된 신호에 기초하여 제조 공정 설비를 연쇄적으로 제어할 수 있다. According to an embodiment, the control device may control at least one of physical operation, logical operation, and change of setting information of the manufacturing process facility based on the first control command. The control device may control the manufacturing process facility in series on the basis of a signal obtained from the manufacturing process facility in response to the control signal.

일실시예에 따르면, 제어 장치는 제1 제어 명령들에 기초하여, 대상 클린룸용 와이퍼를 제조하기 위한 구조 사양 정보 및 기계 사양 정보를 생성할 수 있다. 일실시예에 따르면, 제어 장치는 구조 사양 정보 및 기계 사양 정보에 기초하여, 대상 클린룸용 와이퍼를 제조하기 위한 테스트 신호들 및 테스트 신호들을 인가하기 위한 타임 스탬프들을 생성할 수 있다. 제어 장치는 구조 사양 정보 및 기계 사양 정보에 기초하여 입력 벡터를 생성하고, 구조 사양 정보 및 기계 사양 정보에 각각 대응하는 노드들을 포함하는 입력 레이어로 생성된 입력 벡터를 인가할 수 있다. 제어 장치는 뉴럴 네트워크의 출력 레이어로부터 출력 벡터를 획득할 수 있다. 출력 레이어의 노드들은 테스트 신호들 및 타임 스탬프들과 각각 대응할 수 있다. 제어 장치는 출력 벡터에 기초하여 테스트 신호들 및 타임 스탬프들을 생성할 수 있다. 테스트 신호와 타임 스탬프 생성과 관련된 추론 및 학습과 관련된 실시예에는 상술한 내용이 적용될 수 있다.According to an embodiment, the control device may generate structural specification information and machine specification information for manufacturing the wiper for the target clean room based on the first control commands. According to an embodiment, the control device may generate test signals for manufacturing the wiper for the target clean room and time stamps for applying the test signals, based on the structural specification information and the machine specification information. The control device may generate an input vector based on the structural specification information and the machine specification information, and apply the generated input vector to the input layer including nodes corresponding to the structural specification information and the machine specification information, respectively. The control device can obtain an output vector from the output layer of the neural network. Nodes of the output layer may correspond with test signals and time stamps, respectively. The control device can generate test signals and time stamps based on the output vector. The above description may be applied to embodiments related to inference and learning related to test signal and time stamp generation.

일실시예에 따르면, 제어 장치는 테스트 신호들 및 타임 스탬프들의 시퀀스에 기초하여 제조 공정 설비들을 제어할 수 있다. 제어 장치는 제조 공정 설비의 진행 속도와 결과의 피드백을 통해 제조 공정을 효율화하고 공정 속도를 높일 수 있다. According to one embodiment, the control device may control the manufacturing process facilities based on the sequence of test signals and time stamps. The control device can streamline the manufacturing process and increase the processing speed through the speed of the manufacturing process equipment and the feedback of the results.

일실시예에 따르면, 제어 장치는 클린룸용 와이퍼를 제조하는 공정과 관련된 제어 정보를 인공 지능을 기반으로 추론하여 공정 제어를 최적화할 수 있다. 제어 장치는 공정에 필요한 설비간 피드백 명령을 통해 공정 단계를 효율화하고, 공정 중 오류가 자주 발생하는 위치 및 영역을 피드백 명령을 통해 히스토리로 관리하고, 공정의 품질을 높일 수 있다. 제어 장치는 클린룸용 와이퍼의 제조 공정에 필요한 정보를 유형화하여 공정 설비 제어의 정밀도를 높일 수 있다.According to an embodiment, the control device may infer control information related to a process of manufacturing a wiper for a clean room based on artificial intelligence to optimize process control. The control device can streamline the process steps through the inter-facility feedback command required for the process, manage the locations and areas where errors frequently occur during the process through the feedback command, and improve the quality of the process. The control device can increase the precision of process equipment control by tying the information necessary for the manufacturing process of the wiper for clean room.

도 2는 일실시예에 따른 클린룸용 와이퍼의 재단을 위한 파노라마 이미지를 생성하는 방법을 설명하기 위한 도면이다.FIG. 2 is a diagram for describing a method of generating a panoramic image for cutting of a wiper for a clean room, according to an exemplary embodiment.

일실시예에 따르면, 제어 장치는 획득한 제1 이미지들에 기초하여 컨볼루션 신경망(400)의 인풋 레이어(input layer)에 대응하는 입력 벡터(300)을 생성할 수 있다. 제1 이미지들로부터 입력 벡터(300)를 생성함에 있어, 각각의 제1 이미지의 가로 길이와 세로 길이가 서로 동일하도록 처리하는 과정이 있을 수 있다. 길이 단위는 cm, mm, inch 등 물리적인 길이 단위일 수 있으며, dpi, ppi 등의 화상 단위일 수도 있다. According to an embodiment, the control device may generate an input vector 300 corresponding to an input layer of the convolutional neural network 400 based on the obtained first images. In generating the input vector 300 from the first images, there may be a process of processing the horizontal length and the vertical length of each first image to be the same. The length unit may be a physical length unit such as cm, mm, or inch, or may be an image unit such as dpi or ppi.

각각의 제1 이미지의 사이즈를 통일시키는 것을 통해, 제어 장치는 컨볼루션 신경망(400)이 각각의 이미지를 용이하게 비교할 수 있는 입력을 생성할 수 있다. 또한, 제1 이미지들로부터 입력 벡터(300)를 생성함에 있어, 제1 이미지들을 흑백 이미지로 처리하거나, RGB 색상 중에서 특정 색상으로 처리하는 과정이 있을 수 있다. 이를 통해 입력 벡터(300)는 색상 정보가 통일된 단일 채널(channel)의 이미지 파일이 될 수 있다. 단일 채널의 이미지 파일이 컨볼루션 신경망(400)으로 입력될 경우, 컨볼루션 신경망은 높이(height)와 너비(width)만 가지며 깊이(depth)는 가지지 않는 특징맵(feature map)을 연산하면 되므로, 보다 적은 컴퓨팅 파워를 가지고도 보다 빠른 속도로 목표하는 출력을 얻을 수 있다. 이를 통해, 제어 장치가 전용서버나 슈퍼컴퓨터 등이 아닌 경우라도 컨볼루션 신경망(400)의 연산이 용이하게 수행되도록 할 수 있다.By unifying the size of each first image, the control device can generate an input through which the convolutional neural network 400 can easily compare each image. In addition, in generating the input vector 300 from the first images, there may be a process of processing the first images as a black and white image or a specific color among RGB colors. Through this, the input vector 300 may be an image file of a single channel in which color information is unified. When an image file of a single channel is input to the convolutional neural network 400, the convolutional neural network needs to calculate a feature map having only height and width and no depth. With less computing power, you can achieve the target output at higher speeds. Through this, even when the control device is not a dedicated server or a supercomputer, the calculation of the convolutional neural network 400 may be easily performed.

일실시예에 따르면, 제어 장치는 생성한 입력 벡터(300)를 컨볼루션 신경망(400)에 적용하여 출력 벡터를 획득할 수 있다. 출력 벡터는 각각의 카메라들이 촬영한 제1 이미지에서 나머지 카메라들이 촬영한 제1 이미지들과 중복되는 부분들의 위치 및 크기 데이터를 각각의 카메라들별로 그룹화한 제1 중복 부분 데이터(311)일 수 있다.According to an embodiment, the control device may obtain the output vector by applying the generated input vector 300 to the convolutional neural network 400. The output vector may be first overlapped partial data 311 in which position and size data of parts overlapping with the first images captured by the remaining cameras in the first image photographed by each camera are grouped for each camera. .

컨볼루션 신경망(400)의 출력인 제1 중복 부분 데이터(311)를 살펴보면, 미리 설정된 픽셀 단위별 데이터(data per pixel unit)가 원으로 도시되며, 카메라 1에 의해 촬영된 이미지의 픽셀 단위별 데이터들은 좌측 직사각형에, 카메라 2에 의해 촬영된 이미지의 픽셀 단위별 데이터들은 가운데 직사각형에, 카메라 3에 의해 촬영된 이미지의 픽셀 단위별 데이터들은 우측 직사각형에 도시되어 있다.Looking at the first overlapping partial data 311, which is the output of the convolutional neural network 400, the preset data per pixel unit is shown as a circle, and the pixel-specific data of the image captured by the camera 1 is shown. Are shown in the left rectangle, the pixel-by-pixel data of the image photographed by the camera 2 in the middle rectangle, and the pixel-by-pixel data of the image photographed by the camera 3 in the right rectangle.

한편, 각 픽셀 단위별 데이터는 0 또는 1의 값을 가질 수 있다. 픽셀 단위별 데이터가 0의 값을 가지면 색칠되지 않은 원으로, 픽셀 단위별 데이터가 1의 값을 가지면 색칠된 원으로 도시되어 있다. 한 개의 카메라가 촬영한 제 1 이미지에서 미리 설정된 픽셀 단위 하나에 해당하는 부분 이미지에 대하여, 컨볼루션 신경망(400)이 나머지 카메라들이 촬영한 제1 이미지들에 해당 픽셀 단위의 부분 이미지와 중복되는 부분 이미지를 가지는 픽셀 단위가 존재한다고 추론할 경우, 해당 픽셀 단위의 픽셀 단위별 데이터는 1의 값을 가지며, 색칠된 원으로 도시된다. 한편, 한 개의 카메라가 촬영한 제1 이미지에서 미리 설정된 픽셀 단위 하나에 해당하는 부분 이미지에 대하여, 컨볼루션 신경망(400)이 나머지 카메라들이 촬영한 제1 이미지들에 해당 픽셀 단위의 부분 이미지와 중복되는 부분 이미지를 가지는 픽셀 단위가 존재하지 않는다고 추론할 경우, 해당 픽셀의 픽셀 단위별 데이터는 0의 값을 가지며, 색칠되지 않은 원으로 도시된다.Meanwhile, the data for each pixel unit may have a value of 0 or 1. It is shown as an uncolored circle when the pixel-by-pixel data has a value of 0 and as a colored circle when the pixel-by-pixel data has a value of 1. For the partial image corresponding to one preset pixel unit in the first image captured by one camera, the convolutional neural network 400 overlaps the partial image in the pixel unit with the first images captured by the other cameras. When it is inferred that a pixel unit having an image exists, the pixel unit data of the pixel unit has a value of 1 and is shown as colored circles. Meanwhile, with respect to the partial image corresponding to one preset pixel unit in the first image photographed by one camera, the convolutional neural network 400 overlaps the partial image in the pixel unit in the first images photographed by the remaining cameras. If it is inferred that there is no pixel unit having the partial image to be present, the pixel unit data of the pixel has a value of 0 and is shown as an uncolored circle.

일실시예에 따르면, 제1 중복 부분 데이터(311)의 경우, 카메라 1에 의해 촬영된 이미지에 대응하는 좌측 직사각형의 픽셀 단위별 데이터들 중에서, 미리 설정된 픽셀 단위를 기준으로 우측의 다섯 열(column)의 모든 행(row)의 픽셀 단위별 데이터가 1에 해당한다. 이는 카메라 1에 의해 촬영된 이미지에서 미리 설정된 픽셀 단위를 기준으로 우측의 다섯 열(column)의 모든 행(row)에 해당하는 픽셀들로 이루어진 부분 이미지가 카메라 2에 의해 촬영된 이미지의 일부와 중복된다는 것을 의미한다.According to an embodiment, in the case of the first overlapped partial data 311, five columns on the right side of the left rectangular pixel unit data corresponding to the image photographed by the camera 1 based on a preset pixel unit The pixel-specific data of all rows of) correspond to one. This means that a partial image consisting of pixels corresponding to all rows of the five columns on the right, based on preset pixel units in the image taken by Camera 1, overlaps with a portion of the image taken by Camera 2 It means.

일실시예에 따르면, 카메라 2에 의해 촬영된 이미지에 대응하는 가운데 직사각형의 픽셀 단위별 데이터들 중에서, 미리 설정된 픽셀 단위를 기준으로 우측 및 좌측의 세 열(column)의 가운데 부분의 다섯 행(row)의 픽셀 단위별 데이터가 1에 해당한다. 이는 카메라 2에 의해 촬영된 이미지에서 미리 설정된 픽셀 단위를 기준으로 우측 및 좌측의 세 열(column)의 가운데 부분의 다섯 행(row)에 해당하는 픽셀들로 이루어진 부분 이미지들이 카메라 1 및 카메라 3에 의해 촬영된 이미지들의 일부와 중복된다는 것을 의미한다. According to an embodiment, among the data of the pixel unit of the rectangle corresponding to the image photographed by the camera 2, five rows of the middle part of the three columns of the right and the left column based on the preset pixel unit ), Data per pixel unit corresponds to 1. This means that partial images consisting of five rows of pixels in the middle of the three columns on the right and left sides of the image taken by the camera 2 are preset to the camera 1 and camera 3. It means that it overlaps with some of the images taken by it.

또한, 카메라 3에 의해 촬영된 이미지에 대응하는 우측 직사각형의 픽셀 단위별 데이터들 중에서, 미리 설정된 픽셀 단위를 기준으로 좌측의 다섯 열(column)의 모든 행(row)의 픽셀 단위별 데이터가 1에 해당한다. 이는 카메라 3에 의해 촬영된 이미지에서, 미리 설정된 픽셀 단위를 기준으로 좌측의 다섯 열(column)의 모든 행(row)에 해당하는 픽셀들로 이루어진 부분 이미지가 카메라 2에 의해 촬영된 이미지 일부와 중복된다는 것을 의미한다.Further, among the pixel data of the right rectangle corresponding to the image photographed by the camera 3, pixel-by-pixel data of all rows of the five columns on the left side is set to 1 based on a preset pixel unit. Corresponding. This means that in the image captured by Camera 3, a partial image consisting of pixels corresponding to all rows of the five columns on the left, based on a preset pixel unit, overlaps with a portion of the image captured by Camera 2 It means.

일실시예에 따르면, 제어 장치는 각각의 카메라들에 의해 촬영된 제1 이미지들을 기초로 입력 벡터(300)를 생성한 후, 입력 벡터(300)를 컨볼루션 신경망(400)에 적용하여 출력인 제1 중복 부분 데이터(311)를 획득할 수 있으며, 제1 중복 부분 데이터(311)는 각각의 카메라가 촬영한 제1 이미지에서 나머지 카메라들이 촬영한 제1 이미지들과 중복되는 부분들의 위치 및 크기 데이터를 각각의 카메라별로 그룹화한 데이터일 수 있다. 이때, 제1 중복 부분 데이터(311)는 한 가지 값으로 고정되지 않으며, 각각의 카메라의 상대적 위치에 따라 다르게 촬영되는 제1 이미지들이 서로 어떻게 중복 되느냐에 따라 다른 값을 가질 수 있다(312, 313). 입력 벡터(300)를 획득하여 출력 벡터를 생성하는 컨볼루션 신경망(400)의 구체적인 구성 및 동작은 후술된다.According to an embodiment, the control device generates an input vector 300 based on the first images photographed by the respective cameras, and then applies the input vector 300 to the convolutional neural network 400 to output the input vector 300. The first overlapped partial data 311 may be obtained, and the first overlapped partial data 311 may be the location and size of the overlapped portions of the first images photographed by the remaining cameras in the first image photographed by each camera. The data may be grouped by each camera. In this case, the first overlapped partial data 311 is not fixed to one value, and may have different values depending on how the first images photographed differently according to the relative positions of the respective cameras overlap each other (312, 313). ). The detailed configuration and operation of the convolutional neural network 400 for obtaining the input vector 300 and generating the output vector will be described later.

일실시예에 따르면, 제어 장치는 획득한 출력 벡터에 기초하여, 서로 다른 상수와 일대일 대응관계를 가지는 카메라들에게 상수들에 기초한 대형(formation)으로 촬영 위치를 정렬하도록 하는 위치 조정 데이터(320)를 생성할 수 있다. 여기서 상수들에 기초한 대형은, 상수들에 각각 대응하는 멀티 카메라들이 상수들에 기초하여 정의된 순서에 따라 원통형 좌표계(O)의 방위각(azimuthal) 방향으로 순차로 배치되는 대형일 수 있다. 즉, 원통형 좌표계(O)를 기준으로, 멀티 카메라들이 동일한 거리(r)와 높이(z) 값을 가지면서, 상수 1에 대응하는 카메라 1은 가장 큰 방위각(φ) 값을 가지고, 상수 2에 대응하는 카메라 2는 그 다음으로 큰 방위각(φ) 값을 가지고, 상수 3에 대응하는 카메라 3(103)은 가장 작은 방위각(φ) 값을 가지는 대형일 수 있다. 이 때, 원통형 좌표계(O)의 원점은 대상 엘리베이터를 기초로 미리 정의될 수 있다.According to one embodiment, the control device position adjustment data 320 to arrange the shooting position in a form based on the constants to the cameras having a one-to-one correspondence with different constants based on the obtained output vector Can be generated. Here, the large size based on the constants may be a large size in which multiple cameras respectively corresponding to the constants are sequentially arranged in the azimuthal direction of the cylindrical coordinate system O in the order defined based on the constants. That is, based on the cylindrical coordinate system O, the cameras 1 corresponding to the constant 1 have the largest azimuth angle φ while the multiple cameras have the same distance r and height z values. The corresponding camera 2 has the next largest azimuth angle φ, and the camera 3 103 corresponding to the constant 3 may be large having the smallest azimuth angle φ value. In this case, the origin of the cylindrical coordinate system O may be predefined based on the target elevator.

일실시예에 따르면, 각각의 카메라들이 상수들에 기초한 대형으로 이동하도록 제어하는 위치 조정 데이터(320)는 다음과 같은 과정을 통해 생성할 수 있다. 제어 장치는 제1 중복 부분 데이터(311)에 기초하여, 카메라들의 제1 상대적 위치들을 계산할 수 있다. 제어 장치는 컨볼루션 신경망(400)의 출력 벡터가 제1 중복 부분 데이터(311)와 같을 경우, 각각의 카메라들이 촬영한 이미지들의 중복 관계로부터 각각의 카메라들이 서로에 대해 어떤 위치 관계를 가지는지 계산할 수 있으며, 이를 바탕으로 각각의 카메라들의 상대적인 위치들을 계산할 수 있다.According to an embodiment, the position adjustment data 320 for controlling each camera to move to a large size based on the constants may be generated through the following process. The control device may calculate first relative positions of the cameras based on the first overlapped partial data 311. When the output vector of the convolutional neural network 400 is the same as the first overlapped partial data 311, the controller may calculate which positional relationship each camera has with respect to each other from the overlapping relationship of the images taken by the respective cameras. Based on this, the relative positions of the respective cameras can be calculated.

예를 들어, 컨볼루션 신경망(400)의 출력 벡터가 제1 중복 부분 데이터(311)와 같을 경우, 제어 장치는 각각의 카메라의 상대적인 촬영 위치가 원통형 좌표계(O)를 기준으로, 카메라 1, 카메라 2, 및 카메라 3의 높이(z)가 동일하다고 계산할 수 있다. 또한, 카메라 1은 가장 큰 방위각(φ) 값을 가지고, 카메라 2는 그 다음으로 큰 방위각(φ) 값을 가지고, 카메라 3은 가장 작은 방위각(φ) 값을 가지는 것을 계산할 수 있다. 또한, 카메라 1 및 카메라 3은 원통형 좌표계(O)의 원점으로부터 동일한 거리(r)만큼 떨어져 있고, 카메라 2는 이들보다 원점에 가까운 거리(r)에 위치한다는 것을 계산할 수 있다. 제어 장치는 이러한 계산 결과들을 바탕으로 멀티 카메라들의 제1 상대적 위치들을 계산할 수 있다For example, when the output vector of the convolutional neural network 400 is the same as the first overlapped partial data 311, the control device may determine that the relative photographing position of each camera is based on the cylindrical coordinate system O. It can be calculated that the height z of 2 and camera 3 is the same. It is also possible to calculate that camera 1 has the largest azimuth angle φ value, camera 2 has the next largest azimuth angle φ value, and camera 3 has the smallest azimuth angle φ value. Further, it can be calculated that camera 1 and camera 3 are located at a distance r farther from the origin of the cylindrical coordinate system O by the same distance r, and camera 2 is closer to the origin than them. The control device can calculate the first relative positions of the multiple cameras based on these calculation results.

제어 장치는 각각의 카메라들이 상수들에 기초한 대형으로 촬영 위치를 정렬했을 경우, 인접하게 되는 카메라들에 의해 촬영되는 제2 이미지들에서 서로 중복되는 부분들이 인접하게 되는 카메라들에 의해 촬영되는 제2 이미지들에서 차지하는 위치 및 크기가 미리 정의된 제2 중복 부분 데이터와 일치하도록 만드는 카메라들의 제2 상대적 위치들을 계산할 수 있다.When the cameras arrange the photographing positions in a large size based on the constants, the second device photographed by the cameras in which the overlapping portions of the second images photographed by the cameras in the vicinity are adjacent to each other. Second relative positions of the cameras may be calculated such that the position and size occupied in the images coincide with the predefined second overlapping partial data.

제2 중복 부분 데이터는, 미리 설정된 픽셀 단위별 데이터(data per pixel unit)가 원으로 도시될 수 있으며, 각각의 카메라들이 상수들에 기초한 대형으로 촬영 위치를 정렬한다고 했을 때, 카메라 1에 의해 촬영될 이미지의 픽셀 단위별 데이터들은 좌측 직사각형에, 카메라 2에 의해 촬영될 이미지의 픽셀 단위별 데이터들은 가운데 직사각형에, 카메라 3에 의해 촬영될 이미지의 픽셀 단위별 데이터들은 우측 직사각형에 도시될 수 있다. 각 픽셀 단위별 데이터는 0 또는 1의 값을 가질 수 있다. The second overlapping partial data may be captured by the camera 1 when the preset data per pixel unit may be illustrated as a circle, and each of the cameras arranges the shooting positions in a large size based on constants. The pixel-by-pixel data of the image to be imaged may be shown in the left rectangle, the pixel-by-pixel data of the image to be photographed by the camera 2 in the middle rectangle, and the pixel-by-pixel data of the image to be photographed by the camera 3 in the right rectangle. The data for each pixel unit may have a value of 0 or 1.

일실시예에 따르면, 제어 장치는 각각의 카메라들이 상수들에 기초한 대형으로 촬영 위치를 정렬했을 경우, 정렬된 상태의 각각의 카메라들이 촬영할 제2 이미지들 간에 서로 중복되는 부분이 미리 정의된 제2 중복 부분 데이터와 일치하도록 만드는 제2 상대적 위치들을 계산할 수 있다. 보다 구체적으로, 제어 장치는 원통형 좌표계(O)를 기준으로 각각의 카메라들이 동일한 거리(r)와 높이(z) 값을 가지면서; 카메라 1은 가장 큰 방위각(φ) 값을 가지고, 카메라 2는 그 다음으로 큰 방위각(φ) 값을 가지고, 카메라 3은 가장 작은 방위각(φ) 값을 가지며; 카메라 1과 카메라 2 사이의 방위각의 차이값과 카메라 2와 카메라 3 사이의 방위각의 차이값이 동일하고; 카메라 1과 카메라 2 사이의 방위각의 차이값은 카메라 1과 카메라 2에 의해 촬영될 이미지들의 중복되는 부분이 제2 중복 부분 데이터처럼 미리 설정된 픽셀 단위를 기준으로 각각의 이미지의 서로 인접하는 우측 또는 좌측의 한 열(column)의 모든 행(row)에 해당하는 픽셀들로 이루어진 부분이 되도록 만드는 값인; 각각의 카메라들의 제2 상대적 위치들을 계산하여 구할 수 있다.According to one embodiment, the control device, when each of the cameras arranged the shooting position in a large-scale based on the constants, the second predefined portions of the overlapping each other between the second images to be taken by each camera in the aligned state The second relative positions can be calculated to match the duplicate partial data. More specifically, the control device is characterized in that each camera has the same distance r and height z values relative to the cylindrical coordinate system O; Camera 1 has the largest azimuth value, camera 2 has the next largest azimuth value, and camera 3 has the smallest azimuth value; The difference value of the azimuth angle between camera 1 and camera 2 and the difference value of the azimuth angle between camera 2 and camera 3 are the same; The difference between the azimuth angles between the camera 1 and the camera 2 is that the overlapping portions of the images to be photographed by the camera 1 and the camera 2 are right or left adjacent to each other of each image based on a preset pixel unit as the second overlapping portion data. A value that makes it part of the pixels corresponding to all rows of a column of; The second relative positions of the respective cameras may be calculated and obtained.

일실시예에 따르면, 제어 장치는 제1 상대적 위치들 및 제2 상대적 위치들을 바탕으로, 각각의 카메라들이 제1 상대적 위치들로부터 제2 상대적 위치들로 각각 이동하도록 제어하는 위치 조정 데이터(320)를 생성할 수 있다. According to one embodiment, the control device based on the first relative positions and the second relative positions, position adjustment data 320 to control each camera to move from the first relative positions to the second relative positions, respectively Can be generated.

일실시예에 따르면, 제어 장치는 카메라들에게 위치 조정 데이터(320)를 전송할 수 있으며, 각각의 카메라들은 위치 조정 데이터(320)에서 각자 자신에게 할당된 데이터를 식별하여, 각자 자신에게 할당된 이동 명령을 수행함으로써, 각각의 카메라들과 일대일 대응관계로 대응하는 상수들에 기초한 정확한 대형으로 촬영 위치를 정렬할 수 있다. 카메라들은 정렬이 이루어진 상태에서 제2 이미지들을 촬영할 수 있다. 촬영된 각각의 제2 이미지에서 나머지 제2 이미지들과 중복되는 부분들은 제2 중복 부분 데이터에서 픽셀 단위별 데이터가 1의 값을 가지는 부분들에 해당할 것이다. 촬영을 마친 카메라들은 제2 이미지들을 제어 장치에게 전송할 수 있다. 제2 이미지를 획득한 제어 장치는 제2 이미지에 기초하여 목표 이미지를 획득할 수 있다. According to one embodiment, the control device may transmit position adjustment data 320 to the cameras, each of the cameras identify the data assigned to each of them in the position adjustment data 320, so that each movement assigned to itself By executing the command, it is possible to align the photographing position to the exact large size based on the constants corresponding to the respective cameras in a one-to-one correspondence. The cameras may take pictures of the second images in the aligned state. Portions of each second image that are overlapped with the remaining second images may correspond to portions of pixel-specific data having a value of 1 in the second overlapped portion data. After the photographing, the cameras may transmit the second images to the control device. The control device obtaining the second image may acquire the target image based on the second image.

도 3은 일실시예에 따른 클린룸용 와이퍼의 재단을 위한 파노라마 이미지를 생성하는 방법을 설명하기 위한 도면이다.3 is a diagram for describing a method of generating a panoramic image for cutting of a wiper for a clean room, according to an exemplary embodiment.

일실시예에 따르면, 컨볼루션 신경망(400)은 각각의 카메라들이 촬영한 이미지들을 통해 생성된 입력 벡터(300)에 기초하여, 각각의 이미지에서 나머지 이미지들과 중복되는 부분들의 위치 및 크기의 데이터인 제1 중복 데이터(311)를 출력으로 생성할 수 있다. 컨볼루션 신경망(400)은 미리 구축된 데이터베이스로부터 커널(kernel) 또는 입력 벡터(300)을 로딩할 수 있고, 데이터베이스는 제어 장치에 포함된 메모리로 구현되거나 제어 장치와 유선, 무선, 또는 네트워크 등으로 연결 가능한 서버 등의 외부 장치로 구현될 수 있다.According to one embodiment, the convolutional neural network 400 based on the input vector 300 generated through the images taken by each camera, the data of the position and size of the portions of each image overlapping with the remaining images The first duplicated data 311 may be generated as an output. The convolutional neural network 400 may load the kernel or the input vector 300 from a pre-built database, and the database may be embodied as a memory included in the control device or may be connected to the control device and wired, wireless, or network. It can be implemented as an external device such as a server that can be connected.

기계 학습(machine learning)에 있어서, 신경망(neural network)의 일종인 컨볼루션 신경망(400)은 컨볼루션 연산을 수행하도록 설계된 컨볼루션 레이어(convolution layer, 410, 420)들을 포함한다. 컨볼루션 신경망(400)을 구성하는 컨볼루션 레이어(410, 420)는 적어도 하나의 커널을 이용하여 입력과 연관된 컨볼루션 연산을 수행할 수 있다. 컨볼루션 신경망(400)이 복수의 컨볼루션 레이어(410, 420)들을 포함하면, 제어 장치는 각 컨볼루션 레이어(410, 420)에 대응하는 각 컨볼루션 연산을 수행함으로써 복수의 컨볼루션 연산들이 수행되도록 할 수 있다. 각 컨볼루션 레이어(410, 420)의 입력, 커널 및 출력의 크기는 해당 컨볼루션 레이어가 설계된 양상에 따라 정의될 수 있다.In machine learning, a convolutional neural network 400, a type of neural network, includes convolution layers 410 and 420 designed to perform convolution operations. The convolution layers 410 and 420 of the convolutional neural network 400 may perform a convolution operation associated with an input using at least one kernel. When the convolutional neural network 400 includes a plurality of convolutional layers 410 and 420, the control device performs a plurality of convolutional operations by performing respective convolution operations corresponding to the respective convolutional layers 410 and 420. You can do that. The sizes of the inputs, kernels, and outputs of the respective convolution layers 410 and 420 may be defined according to aspects in which the corresponding convolution layers are designed.

일실시예에 따르면, 제1 컨볼루션 레이어(410)는 입력 벡터(300)을 받아들이는 인풋 레이어(input layer)로서의 역할을 수행하며, 입력 벡터(300)은 커널과 컨볼루션 되어 제1 특징맵(feature map, 412)을 생성할 수 있다. 커널은 입력 벡터(300)의 명도 특징을 감지하거나 에지 특징을 감지하는 커널 등으로 구성될 수 있으며, 기 알려진 AlexNet 모델, ConvNet 모델, LeNet-5모델, GoogLeNet 모델 등에서의 커널들이 이용될 수 있다. 그러나 이에 제한되는 것은 아니며, 다양한 컨볼루션 신경망 모델들에서 이용되는 커널들이 이용될 수 있다.According to an embodiment, the first convolutional layer 410 serves as an input layer that receives the input vector 300, and the input vector 300 is convolved with the kernel to form a first feature map. (feature map, 412) can be created. The kernel may be configured as a kernel that detects a brightness feature or an edge feature of the input vector 300, and kernels in the known AlexNet model, ConvNet model, LeNet-5 model, and GoogLeNet model may be used. However, the present invention is not limited thereto, and kernels used in various convolutional neural network models may be used.

일실시예에 따르면, 제어 장치는 제1 특징맵(412)에 활성화함수(activation function, 411)를 적용할 수 있다. 이를 통해, 기계학습이 비선형적인 딥 러닝으로 이루어지도록 할 수 있다. 활성화함수는 기 알려진 시그모이드 함수(sigmoid function), 하이퍼볼릭 탄젠트 함수(hyperbolic tangent function), ReLU(rectified linear unit) 등이 이용될 수 있다. 그러나 이에 제한되는 것은 아니며, 다양한 컨볼루션 신경망 모델들에서 이용되는 활성화함수들이 이용될 수 있다. According to an embodiment, the control device may apply an activation function 411 to the first feature map 412. This allows for machine learning to be nonlinear deep learning. The activation function may be a known sigmoid function, a hyperbolic tangent function, a rectified linear unit, or the like. However, the present invention is not limited thereto, and activation functions used in various convolutional neural network models may be used.

일실시예에 따르면, 제어 장치는 제1 특징맵들(412)을 풀링(pooling, 413)하여, 제1 풀링된 특징맵(pooled feature map, 414)을 생성할 수 있다. 풀링은 기 알려진 최대값 풀링(max pooling), 평균값 풀링(mean pooling) 등이 이용될 수 있다. 그러나 이에 제한되는 것은 아니며, 다양한 컨볼루션 신경망 모델들에서 이용되는 풀링들이 이용될 수 있다. According to an embodiment of the present disclosure, the control device may generate a first pooled feature map 414 by pooling the first feature maps 412. For pooling, known maximum pooling, mean pooling, and the like may be used. However, the present invention is not limited thereto, and poolings used in various convolution neural network models may be used.

풀링(413)을 통해 유의미한 정보는 남겨둔 채 컨볼루션 신경망(400)의 전체 노드(node)의 개수 및 전체 연산량을 줄일 수 있으므로, 제어 장치는 보다 적은 컴퓨팅 파워를 가지고도 보다 빠른 속도로 목표하는 출력을 얻을 수 있다. 이를 통해, 제어 장치가 전용서버나 슈퍼컴퓨터 등이 아닌 경우라도 컨볼루션 신경망(400)의 연산이 용이하게 수행되도록 할 수 있다.The pooling 413 can reduce the total number of nodes and the total amount of computations in the convolutional neural network 400 while leaving meaningful information, so that the control device can output faster targets with less computing power. Can be obtained. Through this, even when the control device is not a dedicated server or a supercomputer, the calculation of the convolutional neural network 400 may be easily performed.

일실시예에 따르면, 컨볼루션 레이어를 통해 특징맵을 생성하고, 특징맵에 활성화함수를 적용한 후 풀링하는 과정은 복수 회 이루어질 수 있다. 구체적으로, 컨볼루션 신경망(400)의 제2 컨볼루션 레이어(420)는 제1 풀링된 특징맵(414)을 입력으로서 획득하여, 컨볼루션 연산을 통해 제2 특징맵(422)을 생성할 수 있다. 이어서, 제2 특징맵(422)에 활성화함수(421)가 적용될 수 있으며, 활성화함수가 적용된 제2 특징맵(422)을 풀링(423)하여 제2 풀링된 특징맵(424)을 생성할 수 있다.According to an embodiment, the process of generating a feature map through a convolution layer, applying the activation function to the feature map, and then pooling may be performed a plurality of times. In detail, the second convolutional layer 420 of the convolutional neural network 400 may obtain the first pooled feature map 414 as an input and generate the second feature map 422 through a convolution operation. have. Subsequently, an activation function 421 may be applied to the second feature map 422, and a second pooled feature map 424 may be generated by pooling 423 the second feature map 422 to which the activation function is applied. have.

또한, 도시되지 않았지만, 제n 컨볼루션 레이어가 있을 수 있다. 제n 컨볼루션 레이어는 제(n-1) 풀링된 특징맵을 입력으로서 획득하여, 컨볼루션 연산을 통해 제n 특징맵을 생성할 수 있다. 이어서, 제n 특징맵에 활성화함수가 적용될 수 있으며, 활성화함수가 적용된 제n 특징맵을 풀링하여 제n 풀링된 특징맵을 생성할 수 있다. 이처럼 풀링된 특징맵을 복수 회 생성하는 과정을 통해, 유의미한 정보는 남겨둔 채 컨볼루션 신경망의 전체 노드의 개수 및 전체 연산량을 줄일 수 있으므로, 보다 적은 컴퓨팅 파워를 가지고도 보다 빠른 속도로 목표하는 출력을 얻을 수 있다.Also, although not shown, there may be an nth convolutional layer. The n th convolution layer may obtain the (n-1) th pooled feature map as an input and generate an n th feature map through a convolution operation. Subsequently, an activation function may be applied to the n-th feature map, and the n-th pooled feature map may be generated by pooling the n-th feature map to which the activation function is applied. This process of generating the pooled feature maps multiple times reduces the total number of nodes and the total amount of computations in the convolutional neural network, while leaving meaningful information, so that the target output can be generated at higher speed with less computing power. You can get it.

일실시예에 따르면, 제어 장치는 풀링된 특징맵(424)을 모두 풀리 커넥티드 레이어(fully connected layer, 490)에 연결하고, 풀리 커넥티드 레이어(490)로부터 출력인 제1 중복 부분 데이터(311)를 생성할 수 있다.According to one embodiment, the control device connects all of the pooled feature maps 424 to a fully connected layer 490, and the first redundant partial data 311 that is output from the pulley connected layer 490. ) Can be created.

도 4는 일실시예에 따른 클린룸용 와이퍼의 재단을 위한 파노라마 이미지를 생성하는데 채용되는 컨볼루션 신경망의 학습 과정을 설명하기 위한 도면이다.4 is a diagram illustrating a learning process of a convolutional neural network employed to generate a panoramic image for cutting a wiper for a clean room, according to an exemplary embodiment.

일실시예에 따르면, 컨볼루션 신경망의 학습은 학습 장치에 의해 수행될 수 있다. 학습 장치는 서로 중복되는 부분들을 포함할 수 있는 복수의 이미지들에서 서로 중복되는 부분들의 위치 및 크기를 추론하는 컨볼루션 신경망을 학습시키는 장치로서, 예를 들어 소프트웨어 모듈, 하드웨어 모듈 또는 이들의 조합으로 구현될 수 있다. According to one embodiment, the learning of the convolutional neural network may be performed by the learning apparatus. A learning device is a device that trains a convolutional neural network that infers the location and size of overlapping portions in a plurality of images that may include overlapping portions, such as software modules, hardware modules, or a combination thereof. Can be implemented.

일실시예에 따르면, 학습 장치는 서로 중복되는 부분들을 포함할 수 있는 이미지들을 트레이닝 데이터(training data)로 획득하고, 획득한 트레이닝 데이터에 기초하여 컨볼루션 신경망의 인풋 레이어에 대응하는 트레이닝 데이터의 입력을 생성할 수 있다. 이후, 학습 장치는 트레이닝 데이터의 입력을 컨볼루션 신경망에 적용하여, 컨볼루션 신경망에 의해 생성된 트레이닝 데이터의 출력을 획득할 수 있고, 이어서, 트레이닝 데이터의 출력을 레이블(label)과 비교하여 컨볼루션 신경망을 최적화할 수 있다. According to an embodiment, the learning apparatus acquires images, which may include portions overlapping each other, as training data, and inputs training data corresponding to an input layer of a convolutional neural network based on the acquired training data. Can be generated. The learning device can then apply the input of training data to the convolutional neural network to obtain an output of the training data generated by the convolutional neural network, and then compare the output of the training data with a label to convolution. Neural network can be optimized.

일실시예에 따르면, 학습 장치는 서로 중복되는 부분들을 포함할 수 있는 이미지들을 트레이닝 데이터(1100)로 삼을 수 있다. 학습 장치는 트레이닝 데이터(1100)에 기초하여 생성한 트레이닝 데이터의 입력(1110)을 컨볼루션 신경망(400)에 적용하여, 트레이닝 데이터의 출력(1120)을 획득할 수 있다. 구체적으로, 컨볼루션 신경망(400)은 컨볼루션 레이어를 통해 입력된 데이터와 커널을 컨볼루션 연산하여 특징맵을 생성하는 단계; 특징맵에 활성화함수를 적용하는 단계; 및 활성화함수가 적용된 특징맵을 풀링하여 풀링된 특징맵을 생성하는 단계를 복수 회 수행할 수 있다. 컨볼루션 신경망(400)은 풀리 커넥티드 레이어를 통해 마지막으로 풀링된 특징맵으로부터 트레이닝 데이터의 출력(1120)을 생성할 수 있다.According to an embodiment, the learning apparatus may use images, which may include portions overlapping each other, as training data 1100. The learning apparatus may obtain the output 1120 of the training data by applying the input 1110 of the training data generated based on the training data 1100 to the convolutional neural network 400. Specifically, the convolutional neural network 400 generates a feature map by convolutional operation of the data and the kernel input through the convolutional layer; Applying an activation function to the feature map; And generating a pooled feature map by pooling the feature map to which the activation function is applied. The convolutional neural network 400 may generate an output 1120 of training data from the feature pool last pulled through the pulley connected layer.

일실시예에 따르면, 학습 장치는 트레이닝 데이터의 출력(1120)과 레이블(1130)을 비교하여 컨볼루션 신경망(400)을 최적화할 수 있다(1140).According to an embodiment, the learning apparatus may compare the output 1120 of the training data with the label 1130 to optimize the convolutional neural network 400 (1140).

일실시예에 따르면, 레이블(1130)은 트레이닝 데이터(1100)의 각각의 이미지에서 나머지 이미지들과 중복되는 부분들의 위치 및 크기를 미리 기록한 데이터일 수 있다. 구체적으로, 레이블(1130)은 트레이닝 데이터(1100)의 각각의 이미지별로, 미리 설정된 픽셀 단위(pixel unit)마다 0 또는 1로 이루어진 픽셀 단위별 데이터(data per pixel unit)가 미리 부여된 데이터일 수 있다. 보다 구체적으로, 레이블(1130)은 트레이닝 데이터(1100)의 각각의 이미지별로, 미리 설정된 픽셀 단위에 대하여, 해당 이미지에서 나머지 이미지들과 중복되는 픽셀 단위들에 대해서는 픽셀 단위별 데이터로 1의 값이 부여되고, 해당 이미지에서 나머지 이미지들과 중복되지 않는 픽셀 단위들에 대해서는 픽셀 단위별 데이터로 0의 값이 미리 부여된 데이터일 수 있다.According to an embodiment of the present disclosure, the label 1130 may be data that pre-records positions and sizes of portions of the training data 1100 that overlap with the remaining images. In detail, the label 1130 may be data to which data per pixel unit consisting of 0 or 1 is preset for each image of the training data 1100, for each pixel unit. have. More specifically, the label 1130 has a value of 1 as pixel data for each image of the training data 1100, for pixel units overlapping with other images in the image for a preset pixel unit. For pixel units that are provided and do not overlap with other images in the corresponding image, a value of 0 may be data that is previously given as data for each pixel unit.

일실시예에 따르면, 트레이닝 데이터의 출력(1120)은 트레이닝 데이터(1100)의 각각의 이미지에서 나머지 이미지들과 중복되는 부분들의 위치 및 크기의 값을 컨볼루션 신경망(400)이 추론한 데이터일 수 있다. 구체적으로, 트레이닝 데이터의 출력(1120)은, 컨볼루션 신경망(400)의 추론 결과에 따라, 트레이닝 데이터(1100)의 각각의 이미지별로, 미리 설정된 픽셀 단위(pixel unit)마다 0 또는 1의 픽셀 단위별 데이터(data per pixel unit)를 가질 수 있다. 보다 구체적으로, 컨볼루션 신경망(400)은 트레이닝 데이터(1100)의 각각의 이미지별로, 미리 설정된 픽셀 단위에 대하여, 해당 이미지에서 나머지 이미지들과 중복된다고 추론한 픽셀 단위들에 대해서는 트레이닝 데이터의 출력(1120)의 대응하는 픽셀 단위별 데이터에 1의 값을 기록하고, 해당 이미지에서 나머지 이미지들과 중복되지 않는다고 추론한 픽셀 단위들에 대해서는 트레이닝 데이터의 출력(1120)의 대응하는 픽셀 단위별 데이터에 0의 값을 기록하는 과정을 통해, 트레이닝 데이터의 출력(1120)을 생성할 수 있다.According to an exemplary embodiment, the output 1120 of the training data may be data obtained by the convolutional neural network 400 inferring values of positions and sizes of portions of the training data 1100 that overlap with the remaining images. have. In detail, the output 1120 of the training data is 0 or 1 pixel unit for each preset pixel unit for each image of the training data 1100 according to the inference result of the convolutional neural network 400. It may have data per pixel unit. More specifically, the convolutional neural network 400 outputs training data for each pixel of the training data 1100, for pixel units inferred to overlap with the rest of the images in the preset pixel unit. A value of 1 is recorded in the corresponding pixel unit data of 1120, and 0 for the corresponding pixel unit data of the output 1120 of the training data for pixel units inferred not to overlap with the remaining images in the image. By recording a value of, the output 1120 of training data may be generated.

일실시예에 따르면, 학습 장치는 위와 같은 추론 결과에 해당하는 트레이닝 데이터의 출력(1120)과 정답에 해당하는 레이블드 데이터(1130)를 비교하여 컨볼루션 신경망(400)을 최적화할 수 있다(1140). 트레이닝 데이터의 출력(1120)과 레이블드 데이터(1130)의 비교는 손실함수(loss function)를 통해 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 트레이닝 데이터의 출력(1120)과 레이블드 데이터(1130)의 편차 내지는 오차를 측정할 수 있다면, 다양한 컨볼루션 신경망 모델들에서 이용되는 손실함수들이 이용될 수 있다.According to an embodiment, the learning apparatus may optimize the convolutional neural network 400 by comparing the output 1120 of the training data corresponding to the above inference result with the labeled data 1130 corresponding to the correct answer (1140). ). The comparison of the training data output 1120 and the labeled data 1130 may be made through a loss function. The loss function may use a known mean squared error (MSE), a cross entropy error (CEE), or the like. However, the present invention is not limited thereto, and a loss function used in various convolutional neural network models may be used as long as the deviation or error of the output 1120 and the labeled data 1130 of the training data can be measured.

일실시예에 따르면, 학습 장치는 손실함수의 최소값을 추정하여, 손실함수가 최소값 추정치가 되도록 컨볼루션 신경망의 웨이트(weight)를 재설정하는 과정을 반복함으로써 컨볼루션 신경망(400)을 최적화할 수 있다. 컨볼루션 신경망(400)의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하강법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 컨볼루션 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.According to an embodiment, the learning apparatus may optimize the convolutional neural network 400 by estimating the minimum value of the lossy function and repeating the process of resetting the weight of the convolutional neural network such that the lossy function becomes the minimum value. . In order to optimize the convolutional neural network 400, a known backpropagation algorithm, stochastic gradient descent, and the like may be used. However, the present invention is not limited thereto, and an optimization algorithm of weights used in various convolution neural network models may be used.

도 5는 일실시예에 따른 클린룸용 와이퍼의 제조 공정을 제어하기 위한 방법을 설명하기 위한 도면이다.5 is a diagram for describing a method for controlling a manufacturing process of a wiper for a clean room, according to an exemplary embodiment.

일실시예에 따르면, 제어 시스템은 제어 장치(201), 제1 제조 공정 설비(202), 제2 제조 공정 설비(203) 및 네트워크(205)를 포함할 수 있다. 제어 시스템 내 주체들은 네트워크(205)를 통해 서로 연결될 수 있으며, 실시예들은 제어 장치(201)의 점검 공정의 제어 동작을 중심으로 설명되지만 시스템 내 적어도 둘 이상의 주체들이 서로 연계하여 해당 제어 동작이 수행될 수도 있다. 제어 장치(201)는 클린룸용 와이퍼(206)의 제조 공정을 위해 제1 제조 공정 설비(202) 및 제2 제조 공정 설비(203)를 제어할 수 있다.According to one embodiment, the control system may include a control device 201, a first manufacturing process facility 202, a second manufacturing process facility 203, and a network 205. The subjects in the control system may be connected to each other via the network 205, and embodiments are described based on the control operation of the inspection process of the control device 201, but at least two subjects in the system cooperate with each other to perform the control operation. May be The control device 201 may control the first manufacturing process equipment 202 and the second manufacturing process equipment 203 for the manufacturing process of the wiper 206 for the clean room.

일실시예에 따르면, 제어 장치(201)는 클린룸용 와이퍼(206)를 제조하기 위한 구조 사양 정보 및 기계 사양 정보를 획득할 수 있다. 예를 들어, 구조 사양 정보는 대상 클린룸용 와이퍼 원단 내 공간 상에 재단 도구를 위치시키기 위한 구조적인 사양으로서, 위치 좌표, 연결 관계, 계층 구조 및 깊이를 포함할 수 있다. 기계 사양 정보는 대상 클린룸용 와이퍼 원단 및 재단 도구들의 물리적, 화학적 작용 및 반응에 따른 사양으로서, 크기, 길이, 형상, 두께, 무게, 재질, 적정 압력, 적정 온도, 규격 및 강도, pH, 산화도를 포함할 수 있다.According to an embodiment, the control device 201 may obtain structural specification information and machine specification information for manufacturing the wiper 206 for the clean room. For example, the structural specification information is a structural specification for positioning a cutting tool on a space in a wiper fabric for a target clean room, and may include position coordinates, connection relations, hierarchies, and depths. Machine specification information is a specification according to the physical and chemical reactions and reactions of the wiper fabric and cutting tools for the clean room, including size, length, shape, thickness, weight, material, proper pressure, proper temperature, specification and strength, pH and oxidation degree. It may include.

일실시예에 따르면, 제어 장치(201)는 구조 사양 정보들, 기계 사양 정보들 및 재단 도구들을 매칭시킨 데이터베이스를 조회하여, 구조 사양 정보 및 기계 사양 정보에 대응하는 재단 도구들을 획득하는 제1 제조 공정 설비(202)를 제어할 수 있다. 예를 들어, 재단 도구들은 레이저 커터, Hot Wire 커터, 초음파 씰러 등일 수 있다.According to one embodiment, the control device 201 queries a database that matches the structural specification information, the machine specification information, and the cutting tools, and obtains cutting tools corresponding to the structural specification information and the machine specification information. Process equipment 202 may be controlled. For example, the cutting tools may be a laser cutter, hot wire cutter, ultrasonic sealer, or the like.

일실시예에 따르면, 제어 장치(201)는 제1 공정 설비의 제어 결과에 기초하여, 구조 사양 정보에 대응하는 제조 공정 서열 조건을 생성할 수 있다. 제조 공정 서열 조건은 재단 도구들을 제작 공정의 서열에 맞는 위치에 배치시키기 위한 조건이다. According to an embodiment, the control device 201 may generate a manufacturing process sequence condition corresponding to the structural specification information based on the control result of the first process equipment. Manufacturing process sequence conditions are conditions for placing the cutting tools in position to match the sequence of the manufacturing process.

일실시예에 따르면, 제어 장치(201)는 제조 공정 서열 조건에 기초하여, 상기 도구들을 배치하는 제2 제조 공정 설비(203)를 제어할 수 있다.According to one embodiment, the control device 201 may control the second manufacturing process facility 203 for placing the tools based on manufacturing process sequence conditions.

일실시예에 따르면, 제어 장치(201)는 제2 제조 공정 설비(203)의 제어 결과와 제조 공정 서열 조건을 비교하여, 도구들의 배치를 조정하기 위한 피드백 명령을 생성할 수 있다. 일실시예에 따른 피드백 명령은 공정 내 오류를 바로잡기 위해 기존의 명령을 수정하도록 지시하는 명령으로, 피드백 명령에 해당하는 경우는 클린룸용 와이퍼의 구조 사양 부적합, 클린룸용 와이퍼의 기계 사양 부적합, 위치 명령의 오류, 타임 스탬프에 따른 공정 시간의 지연, 재단 도구들의 부적합 중 적어도 하나를 포함하거나, 기존의 명령만으로 다음 공정을 진행할 수 없는 경우를 포함할 수 있다.According to one embodiment, the control device 201 may compare the control results of the second manufacturing process facility 203 with the manufacturing process sequence conditions to generate a feedback command to adjust the placement of the tools. According to an embodiment, the feedback command is a command for modifying an existing command to correct an in-process error. If the feedback command corresponds to a structural specification of a wiper for a clean room, a mechanical specification of a wiper for a clean room, and a position It may include at least one of an error of an instruction, a delay of a process time according to a time stamp, an incompatibility of cutting tools, or a case in which the next process cannot be performed only by an existing instruction.

일실시예에 따르면, 제어 장치(201)는 생성된 피드백 명령에 기초하여 제2 제조 공정 설비(203)를 제어할 수 있다.According to one embodiment, the control device 201 may control the second manufacturing process facility 203 based on the generated feedback command.

일실시예에 따르면, 제어 장치(201)는 데이터베이스를 조회하여 구조 사양 정보들에 따라 클러스터링된 도구들의 제1 히스토리를 획득할 수 있다. 제어 장치(201)는 제1 히스토리에 기초하여, 획득된 도구들 중 제1 도구, 제2 도구, 제3 도구 및 제4 도구를 대상 클린룸용 와이퍼 원단 내 공간 상에 시계열적으로 제1 위치, 제2 위치, 제3 위치 및 제4 위치에 각각 배치시키기 위한 위치 명령들 및 타임 스탬프들의 시퀀스를 생성할 수 있다. 생성된 위치 명령 및 타임 스탬프는 이후 과정에서 수정될 수 있다. 수정되는 위치 명령 및 타임 스탬프 정보는 히스토리로 기록될 수 있다.According to an embodiment, the control device 201 may query a database to obtain a first history of clustered tools according to the structural specification information. The control device 201 is based on the first history, the first, second, third and fourth of the acquired tools in time series in the space in the wiper fabric for the target clean room, A sequence of position instructions and time stamps may be generated for placement at the second position, the third position, and the fourth position, respectively. The generated position command and time stamp may be modified later. The modified position command and time stamp information can be recorded in history.

일실시예에 따른 타임 스탬프는 공통적으로 참조하는 시각에 대해 시간의 기점을 표시하는 시간 변위 매개 변수이다. 일실시예에 따르면, 생성된 시퀀스에 기초하여, 제어 장치(201)는 제조 공정 서열 조건을 생성할 수 있다.According to an embodiment, the time stamp is a time displacement parameter indicating a starting point of time with respect to a commonly referred time. According to one embodiment, based on the generated sequence, the control device 201 may generate manufacturing process sequence conditions.

일실시예에 따르면, 제어 장치(201)는 클린룸용 와이퍼 원단 내의 제1 위치에 제1 도구를 위치시키기 위한 제1 위치 명령 및 제1 타임 스탬프를 생성할 수 있다. 제어 장치(201)는 클린룸용 와이퍼 원단 내의 제2 위치에 제2 도구를 위치시키기 위한 제2 위치 명령 및 제2 타임 스탬프를 생성할 수 있다. 제어 장치(201)는 클린룸용 와이퍼 원단 내의 제3 위치에 제3 도구를 위치시키기 위한 제3 위치 명령 및 제3 타임 스탬프를 생성할 수 있다. 제어 장치(201)는 클린룸용 와이퍼 원단 내의 제4 위치에 제4 도구를 위치시키기 위한 제4 위치 명령 및 제4 타임 스탬프를 생성할 수 있다.According to one embodiment, the control device 201 may generate a first position command and a first time stamp for positioning the first tool at a first position in the wiper fabric for the clean room. The control device 201 may generate a second position command and a second time stamp for positioning the second tool at a second position in the wiper fabric for the clean room. The control device 201 may generate a third position command and a third time stamp for positioning the third tool at a third position within the clean room wiper fabric. The control device 201 may generate a fourth position command and a fourth time stamp for positioning the fourth tool at the fourth position in the wiper fabric for the clean room.

일실시예에 따르면, 제어 장치(201)는 제2 제조 공정 설비(203)를 제어해 제1 도구, 제2 도구, 제3 도구 및 제4 도구를 제1 위치, 제2 위치, 제3 위치 및 제4 위치에 위치시킬 수 있다.According to one embodiment, the control device 201 controls the second manufacturing process facility 203 to place the first tool, second tool, third tool and fourth tool in a first position, a second position, a third position. And a fourth position.

일실시예에 따르면, 제어 장치(201)는 제2 제조 공정 설비(203) 내의 위치 감별 센서를 이용하여, 제2 제조 공정 설비(203)의 제1 도구, 제2 도구, 제3 도구 및 제4 도구가 제1 위치, 제2 위치, 제3 위치 및 제4 위치에 정확히 위치했는지 여부를 식별할 수 있다.According to one embodiment, the control device 201 uses a position discrimination sensor in the second manufacturing process facility 203 to produce a first tool, a second tool, a third tool and a third tool of the second manufacturing process facility 203. Four can identify whether the tool is correctly positioned in the first position, the second position, the third position and the fourth position.

일실시예에 따른 위치 감별 센서는 어떤 일정위치에 있어서 온-오프를 하는 위치 센서의 일종으로, 원리적 분류에 따른 기계식, 전기식, 자기식, 광학식 센서, 또는 접촉 여부에 따른 접촉식, 비접촉식 센서 중 적어도 하나를 포함할 수 있다.Position discrimination sensor according to an embodiment is a kind of position sensor that is on-off at a certain position, a mechanical, electrical, magnetic, optical sensor according to the principle classification or contact or non-contact sensor according to whether or not contact It may include at least one of.

일실시예에 따르면, 제어 장치(201)는 위치 좌표 및 실제 위치 사이의 차이가 임계 범위 이내인 경우, 제2 제조 공정 설비(203)의 적외선 센서를 이용하여, 제1 도구에 대응하는 제1 온도를 판단할 수 있다.According to one embodiment, the control device 201 uses the infrared sensor of the second manufacturing process facility 203 when the difference between the position coordinates and the actual position is within a threshold range, the first corresponding to the first tool. The temperature can be determined.

일실시예에 따르면, 제어 장치(201)는 기계 사양 정보 내 제1 도구에 대응하는 적정 온도와 제1 온도를 비교할 수 있다.According to one embodiment, the control device 201 may compare the first temperature and the appropriate temperature corresponding to the first tool in the machine specification information.

일실시예에 따른 적정 온도는, 재단 도구의 기계 사양 정보 중 적정 온도를 제외한 나머지 기계 사양을 임계 범위 내부 수준에서 변화시키는 온도를 의미하며, 이외에도 결정 인자로 재단 도구의 탄성력, 파절 임계값, 클린룸용 와이퍼 원단의 변성 가능성 중 적어도 하나를 포함할 수 있다.According to one embodiment, the proper temperature means a temperature for changing the machine specifications of the cutting tool, except for the proper temperature, from the inside of the critical range. It may include at least one of the denaturation potential of the room wiper fabric.

일실시예에 따르면, 제어 장치(201)는 적정 온도 및 제1 온도 사이의 비교 결과에 기초하여, 제1 도구의 예열 또는 냉각이 필요한 경우, 예열 또는 냉각의 소요 시간을 계산할 수 있다.According to one embodiment, the control device 201 may calculate the time required for preheating or cooling when preheating or cooling of the first tool is required, based on the comparison result between the proper temperature and the first temperature.

일실시예에 따르면, 제어 장치(201)는 소요 시간에 의해 제1 타임 스탬프에 따른 공정 시간이 지연되는 경우, 구조 사양 정보 내 제1 도구에 대응하는 연결 관계, 계층 구조 및 깊이에 기초하여, 후보 제2 도구 및 제3 도구 중 연결 관계, 계층 구조 및 깊이를 유지하면서 제1 위치와 가장 근접한 구역에 있는 재단 도구를 선택할 수 있다. 제어 장치(201)는 제1 타임 스탬프에 따른 공정 시간이 지연되지 않은 경우, 다음 공정을 수행할 수 있다.According to one embodiment, when the processing time according to the first time stamp is delayed by the required time, the control device 201 is based on a connection relationship, a hierarchical structure, and a depth corresponding to the first tool in the structural specification information. Among the candidate second tool and the third tool, the cutting tool can be selected in the region closest to the first position while maintaining the connection relationship, hierarchy and depth. If the process time according to the first time stamp is not delayed, the control device 201 may perform the next process.

일실시예에 따르면, 제어 장치(201)는 제1 도구를 제1 위치에서 제2 위치까지, 제2 도구를 제2 위치에서 제3 위치까지, 제3 도구를 제3 위치에서 제4 위치까지, 제4 도구를 제4 위치에서 제5 위치까지 이동하며 동작하도록 하는 제1 재단 공정 신호를 생성할 수 있다.According to one embodiment, the control device 201 is configured to control the first tool from the first position to the second position, the second tool from the second position to the third position, and the third tool from the third position to the fourth position. The first cutting process signal may be generated to move and operate the fourth tool from the fourth position to the fifth position.

일실시예에 따르면, 제어 장치(201)는 제1 재단 공정 신호에 기초하여, 제1 도구, 제2 도구, 제3 도구 및 제4 도구를 동작하도록 할 수 있다.According to an embodiment, the control device 201 may operate the first tool, the second tool, the third tool and the fourth tool based on the first cutting process signal.

일실시예에 따른 동작은 레이저 커터에 레이저 커팅, Hot Wire 커터의 열 커팅, 초음파 씰러의 초음파 커팅 중 적어도 하나를 포함할 수 있다.According to an embodiment, the operation may include at least one of laser cutting, thermal cutting of a hot wire cutter, and ultrasonic cutting of an ultrasonic sealer.

일실시예에 따르면, 제어 장치(201)는 재단의 마감에 있어 제1 위치, 제2 위치, 제3 위치 및 제4 위치 중 어느 한 곳이 절단되지 않은 채 유지 되고 있을 경우, 해당 위치 명령 및 위치 스탬프를 수정하도록 하는 피드백 명령을 생성할 수 있다.According to one embodiment, the control device 201, if any one of the first position, the second position, the third position and the fourth position at the end of the cutting is kept uncut, the corresponding position command and A feedback command can be created to modify the location stamp.

일실시예에 따르면 제어 장치(201)는 클린룸용 와이퍼의 제조 공정 중 오류가 자주 발생하는 위치 및 영역을 피드백 명령을 통해 히스토리로 관리해 이후 공정의 품질을 높일 수 있다.According to an exemplary embodiment, the control device 201 may manage a location and an area where errors frequently occur during the manufacturing process of the wiper for the clean room through a history command to improve the quality of the subsequent process.

도 6은 일실시예에 따른 클린룸용 와이퍼의 제조 공정을 제어하기 위한 방법을 설명하기 위한 도면이다.6 is a diagram for describing a method for controlling a manufacturing process of a wiper for a clean room, according to an exemplary embodiment.

일실시예에 따르면, 제어 시스템은 제어 장치, 원단 재단을 위한 제조 공정 설비(501), 세탁 장치(502), 건조 장치(503) 및 포장 장치(504)를 포함할 수 있다.According to one embodiment, the control system may include a control device, a manufacturing process facility 501 for fabric cutting, a laundry device 502, a drying device 503 and a packaging device 504.

일실시예에 따르면, 제어 장치는 제조 공정 설비(501)들의 제어 결과에 따른 제품들을 클린룸 내 재단품 보관함에 적재하기 위한 제1 적재 신호를 생성할 수 있다. 일실시예에 따르면, 제어 장치는 제1 적재 신호에 기초하여, 제1 적재 설비를 제어할 수 있다. 일실시예에 따르면, 제어 장치는 재단품 보관함 내 자체 적재 평가 장치의 신호에 기초하여, 제2 적재 신호를 생성할 수 있다.According to one embodiment, the control device may generate a first loading signal for loading the products according to the control results of the manufacturing process equipment 501 in the cutting locker in the clean room. According to an embodiment, the control device may control the first loading facility based on the first loading signal. According to one embodiment, the control device may generate a second loading signal based on the signal of the self loading evaluation device in the cutout.

일실시예에 따르면, 클린룸용 와이퍼 제조를 위한 클린룸에는 10, 100, 1000 클래스 등이 존재하며, 일반적으로 10 클래스의 환경에서 제조된다. 10 클래스는 1입방피트 당 0.5μm의 먼지 10개 미만 및 5μm의 먼지 입자가 없는 환경을 의미한다.According to one embodiment, there are 10, 100, 1000 classes, etc. in a clean room for manufacturing a wiper for a clean room, and are generally manufactured in a 10 class environment. Class 10 refers to an environment free of less than 10 dust of 0.5 μm and 5 μm of dust particles per cubic foot.

일실시예에 따르면, 재단품 보관함 내 자체 적재 평가 장치는 클린룸용 와이퍼 원단의 기계 사양 정보 내 크기, 무게 및 규격에 기초하여, 전체 적재 조건을 생성하고, 제품들의 적재 결과와 전체 적재 조건을 비교하여 제품들의 적재 완료 여부를 결정한다. 전체 적재 조건은 일반적으로 7천~8천 장의 제품을 기준으로 하지만, 이에 한정되지 않고 제조 공정의 한계 및 편의에 따라 다양한 방식으로 정의될 수 있다.According to one embodiment, the self-loading evaluation device in the cutting box creates the overall loading condition based on the size, weight and size in the machine specification information of the wiper fabric for the clean room, and compares the loading result of the products with the overall loading condition. To determine whether the product has been loaded. Overall loading conditions are generally based on 7,000 to 8,000 products, but are not limited to these and can be defined in various ways depending on the limitations and convenience of the manufacturing process.

일실시예에 따르면, 제2 적재 신호에 기초하여, 제2 적재 설비를 제어할 수 있다. 일실시예에 따르면, 제2 적재 설비의 결과에 따른 제품들을 동시에 세탁하기 위한 제2 제어 명령을 생성할 수 있다. 일실시예에 따르면, 제2 제어 명령에 기초하여, 세탁 장치(502)를 제어할 수 있다.According to one embodiment, the second loading facility may be controlled based on the second loading signal. According to one embodiment, it is possible to generate a second control command for washing products simultaneously as a result of the second loading facility. According to an embodiment, the washing apparatus 502 may be controlled based on the second control command.

일실시예에 따르면, 세탁 장치(502)는 클린룸 내에 존재하며 DI Water(Deionized water)를 이용한다. 세탁 시에는 첨가물을 넣어줄 수 있는데, 이러한 첨가물에는 정전기 방지제, 흡습제, 청정제, 보호제, 산화방지제 중 적어도 하나가 포함될 수 있다.According to one embodiment, the laundry apparatus 502 is in a clean room and uses DI water (Deionized water). When washing may add an additive, such additive may include at least one of an antistatic agent, a hygroscopic agent, a detergent, a protective agent, an antioxidant.

일실시예에 따르면, 세탁 장치(502)의 제어 결과에 따른 제품들을 건조장치(503)로 옮기기 위한 제3 적재 신호를 생성할 수 있다. 일실시예에 따르면, 제3 적재 신호에 기초하여, 제3 적재 설비를 제어할 수 있다. 일실시예에 따르면, 제3 적재 설비의 제어 결과에 따른 제품들을 동시에 건조하기 위한 제3 제어 명령을 생성할 수 있다. 일실시예에 따르면, 제3 제어 명령에 기초하여, 건조 장치(503)를 제어할 수 있다.According to an embodiment, a third loading signal may be generated for transferring products to the drying apparatus 503 according to the control result of the washing apparatus 502. According to one embodiment, the third loading facility may be controlled based on the third loading signal. According to one embodiment, a third control command for simultaneously drying the products according to the control result of the third loading facility can be generated. According to an embodiment, the drying apparatus 503 may be controlled based on the third control command.

일실시예에 따르면, 건조 장치(503)는 클린룸 내에 존재하며 가온 방식에 따라 대류 전열, 전도 전열, 방사 전열, 고주파 이용법, 건조제 사용법 중 적어도 하나로 분류할 수 있다. 건조 장치(503)는 세탁물의 건조, 흡습 및 살균 등 설계 의도에 따라 다양한 방식으로 사용될 수 있다.According to one embodiment, the drying apparatus 503 is present in a clean room and may be classified into at least one of convective heat transfer, conduction heat transfer, radiant heat transfer, high frequency use, and desiccant use according to a heating method. The drying apparatus 503 may be used in various ways depending on design intention, such as drying, moisture absorption, and sterilization of laundry.

일실시예에 따르면, 건조 장치(503)의 제어 결과에 따른 제품들을 컨베이어 벨트로 옮기기 위한 제4 적재 신호를 생성할 수 있다. 일실시예에 따르면, 제4 적재 신호에 기초하여, 제4 적재 설비를 제어할 수 있다. 일실시예에 따르면, 제4 적재 설비의 제어 결과에 따른 제품들을 컨베이어 벨트 상에서 개별 진공 포장하기 위한 제4 제어 명령을 생성할 수 있다. 일실시예에 따르면, 제4 제어 명령에 기초하여, 포장 장치(504)를 제어할 수 있다.According to one embodiment, it is possible to generate a fourth loading signal for transferring the products according to the control result of the drying apparatus 503 to the conveyor belt. According to an embodiment, the fourth loading facility may be controlled based on the fourth loading signal. According to one embodiment, it is possible to generate a fourth control command for individually vacuum packaging products on the conveyor belt according to the control result of the fourth loading facility. According to one embodiment, the packaging device 504 may be controlled based on the fourth control command.

일실시예에 따르면, 포장 장치(504)는 클린룸용 와이퍼의 기계 사양 정보 내 크기 및 두께에 기초하여, 전체 포장 조건을 생성하고, 제품들의 포장 결과와 전체 포장 조건을 비교하여 제품들의 포장 완료 여부를 결정한다. 전체 포장 조건은 일반적으로 100장의 제품을 기준으로 하지만, 이에 한정되지 않고 제조 공정의 한계 및 편의에 따라 다양한 방식으로 정의될 수 있다.According to one embodiment, the packaging device 504 generates the overall packaging conditions, based on the size and thickness in the machine specification information of the wiper for the clean room, and compares the packaging results of the products and the overall packaging conditions whether the products are finished packaging Determine. Overall packaging conditions are generally based on 100 products, but are not limited thereto and may be defined in various ways depending on the limitations and convenience of the manufacturing process.

도 7은 일실시예에 따른 장치의 구성의 예시도이다.7 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(1201)는 프로세서(1202) 및 메모리(1203)를 포함한다. 일실시예에 따른 장치(1201)는 상술한 서버 또는 단말일 수 있다. 프로세서는 도 1 내지 도 5을 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 5를 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(1203)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(1203)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. Device 1201 according to one embodiment includes a processor 1202 and a memory 1203. The apparatus 1201 according to an embodiment may be the server or the terminal described above. The processor may include at least one of the devices described above with reference to FIGS. 1 through 5, or may perform at least one method described above with reference to FIGS. 1 through 5. The memory 1203 may store information related to the above-described method or a program in which the above-described method is implemented. The memory 1203 may be a volatile memory or a nonvolatile memory.

일실시예에 따르면, 프로세서(1202)는 프로그램을 실행하고, 장치(1201)를 제어할 수 있다. 프로세서(1202)에 의하여 실행되는 프로그램의 코드는 메모리(1203)에 저장될 수 있다. 장치(1201)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.According to one embodiment, the processor 1202 may execute a program and control the device 1201. Code of a program executed by the processor 1202 may be stored in the memory 1203. The device 1201 may be connected to an external device (eg, a personal computer or a network) through an input / output device (not shown), and may exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and / or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gates (FPGAs). It may be implemented using one or more general purpose or special purpose computers, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the accompanying drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the following claims.

Claims (5)

제조하고자 하는 클린룸용 와이퍼 원단 내 각 지점들을 서로 다른 상수(constant)들에 각각 대응하는 카메라들을 이용하여 촬영하는 단계;
상기 카메라들에 의해 촬영된 제1 이미지들을 획득하는 단계;
상기 제 1 이미지들에 기초하여 복수의 이미지들로부터 클린룸용 와이퍼 재단 규격의 파노라마 이미지를 생성하도록 미리 학습된 컨볼루션 신경망(convolutional neural network)의 인풋 레이어(input layer)에 대응하는 입력 벡터를 생성하는 단계;
상기 입력 벡터를 상기 컨볼루션 신경망에 적용하여 출력 벡터를 획득하는 단계;
상기 출력 벡터에 기초하여, 상기 상수들에 기초한 대형(formation)으로 상기 카메라들의 촬영 위치들을 정렬하도록 하는 위치 조정 데이터를 생성하는 단계;
상기 위치 조정 데이터에 기초하여 상기 대형으로 상기 카메라들을 정렬하는 단계;
상기 정렬된 상기 카메라들에 의해 촬영된 제2 이미지들을 획득하는 단계;
상기 제2 이미지들에 기초하여 상기 클린룸용 와이퍼 원단 내 상기 각 지점들의 대상 파노라마 이미지를 생성하는 단계;
상기 대상 파노라마 이미지에 기초하여 상기 클린룸용 와이퍼 원단 내 상기 각 지점들에 대응하는 식별자를 획득하는 단계;
식별자들, 클린룸용 와이퍼의 재단 유형들 및 클린룸용 와이퍼의 제조 공정들을 매칭시킨 데이터베이스로부터, 상기 식별자에 대응하는 상기 클린룸용 와이퍼의 재단 유형 및 제조 공정을 획득하는 단계;
상기 식별자, 상기 클린룸용 와이퍼의 상기 재단 유형 및 상기 제조 공정에 기초하여 제1 입력 신호를 생성하는 단계;
클린룸용 와이퍼와 관련된 정보로부터 제조를 위한 제어 정보를 생성하도록 미리 학습된 제1 뉴럴 네트워크의 입력 레이어로 상기 제1 입력 신호를 인가하는 단계;
상기 제1 뉴럴 네트워크의 출력 레이어로부터 생성된 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호에 기초하여 제1 제어 명령들을 생성하는 단계;
상기 제1 제어 명령들에 기초하여, 제조 공정 설비들을 제어하는 단계;
상기 제조 공정 설비들의 제어 결과에 따른 제품들을 클린룸 내 재단품 보관함에 적재하기 위한 제1 적재 신호를 생성하는 단계;
상기 제1 적재 신호에 기초하여, 제1 적재 설비를 제어하는 단계;
상기 재단품 보관함 내 자체 적재 평가 장치의 신호에 기초하여, 제2 적재 신호를 생성하는 단계;
상기 제2 적재 신호에 기초하여, 제2 적재 설비를 제어하는 단계;
상기 제2 적재 설비의 제어 결과에 따른 제품들을 동시에 세탁하기 위한 제2 제어 명령을 생성하는 단계;
상기 제2 제어 명령에 기초하여, 세탁 장치를 제어하는 단계;
상기 세탁 장치의 제어 결과에 따른 상기 제품들을 건조장치로 옮기기 위한 제3 적재 신호를 생성하는 단계;
상기 제3 적재 신호에 기초하여, 제3 적재 설비를 제어하는 단계;
상기 제3 적재 설비의 제어 결과에 따른 상기 제품들을 동시에 건조하기 위한 제3 제어 명령을 생성하는 단계;
상기 제3 제어 명령에 기초하여, 건조 장치를 제어하는 단계;
상기 건조 장치의 제어 결과에 따른 상기 제품들을 컨베이어 벨트로 옮기기 위한 제4 적재 신호를 생성하는 단계;
상기 제4 적재 신호에 기초하여, 제4 적재 설비를 제어하는 단계;
상기 제4 적재 설비의 제어 결과에 따른 상기 제품들을 컨베이어 벨트 상에서 개별 진공 포장하기 위한 제4 제어 명령을 생성하는 단계; 및
상기 제4 제어 명령에 기초하여, 포장 장치를 제어하는 단계
를 포함하는
클린룸용 와이퍼 제조 공정을 제어하기 위한 방법.
Photographing each point in the clean room wiper fabric to be manufactured using cameras corresponding to different constants;
Acquiring first images photographed by the cameras;
Generating an input vector corresponding to an input layer of a convolutional neural network that has been previously learned to generate a panoramic image of a wiper cutting standard for a clean room from the plurality of images based on the first images. step;
Applying the input vector to the convolutional neural network to obtain an output vector;
Based on the output vector, generating position adjustment data for aligning the photographing positions of the cameras in a formation based on the constants;
Aligning the cameras in the large format based on the position adjustment data;
Acquiring second images taken by the aligned cameras;
Generating a target panoramic image of the respective points in the clean room wiper fabric based on the second images;
Obtaining an identifier corresponding to each of the points in the clean room wiper fabric based on the object panoramic image;
Obtaining a cutting type and manufacturing process of the cleanroom wiper corresponding to the identifier from a database matching identifiers, cutting types of cleanroom wiper and manufacturing processes of the cleanroom wiper;
Generating a first input signal based on the identifier, the cutting type of the cleanroom wiper and the manufacturing process;
Applying the first input signal to an input layer of a first learned neural network to generate control information for manufacturing from information associated with a clean room wiper;
Obtaining a first output signal generated from an output layer of the first neural network;
Generating first control commands based on the first output signal;
Based on the first control instructions, controlling manufacturing process facilities;
Generating a first loading signal for loading products according to a control result of the manufacturing process facilities into a cutting locker in a clean room;
Controlling a first loading facility based on the first loading signal;
Generating a second loading signal based on a signal of the self loading evaluation device in the cutout box;
Controlling a second loading facility based on the second loading signal;
Generating a second control command for simultaneously washing products according to the control result of the second loading facility;
Controlling a laundry machine based on the second control command;
Generating a third loading signal for transferring the products to a drying apparatus according to the control result of the washing apparatus;
Controlling a third loading facility based on the third loading signal;
Generating a third control command for simultaneously drying the products according to the control result of the third loading facility;
Controlling a drying device based on the third control command;
Generating a fourth loading signal for transferring the products to a conveyor belt according to a control result of the drying apparatus;
Controlling a fourth loading facility based on the fourth loading signal;
Generating a fourth control command for individually vacuum packaging the products on a conveyor belt according to the control result of the fourth loading facility; And
Controlling a packaging device based on the fourth control command
Containing
Method for controlling the wiper manufacturing process for a clean room.
제1항에 있어서,
상기 출력 벡터는
상기 카메라들 중 어느 하나의 카메라가 촬영한 제1 이미지에서 나머지 카메라들이 촬영한 제1 이미지들과 중복되는 부분들의 위치 및 크기 데이터를 각각의 카메라들별로 그룹화한 제1 중복 부분 데이터를 포함하며,
상기 대형은
상기 상수들에 기초하여 정의된 순서에 따라 기준 위치의 방위각(azimuthal) 방향으로 상기 상수들에 각각 대응하는 상기 카메라들이 순차로 배치되는 대형이며,
상기 위치 조정 데이터는
상기 제 1 중복 부분 데이터에 기초하여, 상기 카메라들의 제 1 상대적 위치들을 획득하고,
상기 카메라들이 상기 대형으로 촬영 위치를 정렬했을 경우, 인접하게 되는 카메라들에 의해 촬영되는 제 2 이미지들에서 서로 중복되는 부분들이 상기 인접하게 되는 카메라들에 의해 촬영되는 제 2 이미지들에서 차지하는 위치 및 크기가 미리 정의된 제 2 중복 부분 데이터와 일치하도록 만드는 상기 카메라들의 제 2 상대적 위치들을 계산하여,
상기 카메라들이 상기 제 1 상대적 위치들로부터 상기 제 2 상대적 위치들로 각각 이동하도록 제어하는 데이터인,
클린룸용 와이퍼 제조 공정을 제어하기 위한 방법.
The method of claim 1,
The output vector is
In the first image taken by any one of the cameras includes first overlapping partial data grouping the position and size data of the portions overlapping with the first image taken by the remaining cameras for each camera,
The large is
A large size in which the cameras respectively corresponding to the constants are sequentially arranged in the azimuthal direction of the reference position according to the order defined based on the constants,
The position adjustment data
Based on the first redundant partial data, obtain first relative positions of the cameras,
When the cameras arrange the photographing positions in the large size, positions overlapping each other in the second images photographed by the adjacent cameras occupy the second images photographed by the adjacent cameras; and Calculating second relative positions of the cameras such that the size matches the predefined second overlapping partial data,
Data that controls the cameras to move from the first relative positions to the second relative positions, respectively,
Method for controlling the wiper manufacturing process for a clean room.
제1항에 있어서,
상기 제조 공정 설비들을 제어하는 단계는
상기 제1 제어 명령들에 기초하여, 상기 클린룸용 와이퍼를 제조하기 위한 구조 사양 정보-상기 구조 사양 정보는 상기 클린룸용 와이퍼 원단 내 공간 상에 재단 도구를 위치시키기 위한 구조적인 사양으로서, 위치 좌표, 연결 관계, 계층 구조 및 깊이를 포함함-, 기계 사양 정보-상기 기계 사양 정보는 상기 클린룸용 와이퍼 원단 및 재단 도구들의 물리적, 화학적 작용 및 반응에 따른 사양으로서, 크기, 길이, 형상, 두께, 무게, 재질, 적정 압력, 적정 온도, 규격 및 강도, pH, 산화도를 포함함-를 생성하는 단계;
상기 구조 사양 정보 및 상기 기계 사양 정보에 기초하여, 상기 클린룸용 와이퍼를 제조하기 위한 테스트 신호들 및 상기 테스트 신호들을 인가하기 위한 타임 스탬프들을 생성하는 단계; 및
상기 테스트 신호들 및 상기 타임 스탬프들의 시퀀스에 기초하여 상기 제조 공정 설비들을 제어하는 단계
를 포함하는,
클린룸용 와이퍼 제조 공정을 제어하기 위한 방법.
The method of claim 1,
Controlling the manufacturing process facilities
Based on the first control commands, structural specification information for manufacturing the wiper for the cleanroom—the structural specification information is a structural specification for positioning the cutting tool on the space in the wiper fabric for the cleanroom, the position coordinates, Machine specification information—the machine specification information is a specification according to the physical, chemical action and reaction of the wiper fabric and cutting tools for the clean room, including size, length, shape, thickness, and weight. Creating a material, including appropriate material, proper pressure, proper temperature, specification and strength, pH, degree of oxidation;
Generating test signals for manufacturing the wiper for the clean room and time stamps for applying the test signals based on the structural specification information and the machine specification information; And
Controlling the manufacturing process facilities based on the sequence of test signals and the time stamps
Including,
Method for controlling the wiper manufacturing process for a clean room.
제3항에 있어서,
상기 제조 공정 설비들을 제어하는 단계는
구조 사양 정보들, 기계 사양 정보들 및 재단 도구들을 매칭시킨 데이터베이스를 조회하여, 상기 구조 사양 정보 및 상기 기계 사양 정보에 대응하는 상기 재단 도구들을 획득하는 제1 제조 공정 설비를 제어하는 단계;
상기 제1 제조 공정 설비의 제어 결과에 기초하여, 상기 구조 사양 정보에 대응하는 제조 공정 서열 조건-상기 도구들을 제조 공정의 서열에 맞는 위치에 배치시키기 위한 조건임-을 생성하는 단계;
상기 제조 공정 서열 조건에 기초하여, 상기 도구들을 배치하는 제2 제조 공정 설비를 제어하는 단계;
상기 제2 제조 공정 설비의 제어 결과와 상기 제조 공정 서열 조건을 비교하여, 상기 도구들의 배치를 조정하기 위한 피드백 명령을 생성하는 단계; 및
상기 생성된 피드백 명령에 기초하여 상기 제2 제조 공정 설비를 제어하는 단계
를 포함하는,
클린룸용 와이퍼 제조 공정을 제어하기 위한 방법.
The method of claim 3,
Controlling the manufacturing process facilities
Querying a database that matches structural specification information, machine specification information, and cutting tools to control a first manufacturing process facility for obtaining the cutting tools corresponding to the structural specification information and the machine specification information;
Generating a manufacturing process sequence condition corresponding to the structural specification information, the condition for placing the tools in a position that matches the sequence of the manufacturing process, based on the control result of the first manufacturing process facility;
Controlling a second manufacturing process facility to place the tools based on the manufacturing process sequence conditions;
Comparing the control result of the second manufacturing process facility with the manufacturing process sequence conditions to generate a feedback command for adjusting the placement of the tools; And
Controlling the second manufacturing process facility based on the generated feedback command
Including,
Method for controlling the wiper manufacturing process for a clean room.
제3항에 있어서,
상기 제조 공정 서열 조건을 생성하는 단계는
상기 구조 사양 정보들에 따라 클러스터링된 도구들의 제1 히스토리에 기초하여, 상기 획득된 도구들 중 제1 도구, 제2 도구, 제3 도구 및 제4 도구를 상기 클린룸용 와이퍼 원단 내 공간 상에 시계열적으로 제1 위치, 제2 위치, 제3 위치 및 제4 위치에 각각 배치시키기 위한 위치 명령들 및 타임 스탬프들의 시퀀스를 생성하는 단계; 및
상기 생성된 시퀀스에 기초하여, 상기 제조 공정 서열 조건을 생성하는 단계
를 포함하는,
클린룸용 와이퍼 제조 공정을 제어하기 위한 방법.


The method of claim 3,
Generating the manufacturing process sequence conditions
Based on the first history of the tools clustered according to the structural specification information, a first tool, a second tool, a third tool and a fourth tool of the obtained tools are watched on the space in the wiper fabric for the clean room. Generating a sequence of position instructions and time stamps for thermally placing at a first position, a second position, a third position, and a fourth position, respectively; And
Based on the generated sequence, generating the manufacturing process sequence conditions
Including,
Method for controlling the wiper manufacturing process for a clean room.


KR1020190106323A 2019-08-29 2019-08-29 Method and apparatus for controlling wiper manufacturing process for cleanroom KR102065893B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190106323A KR102065893B1 (en) 2019-08-29 2019-08-29 Method and apparatus for controlling wiper manufacturing process for cleanroom

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190106323A KR102065893B1 (en) 2019-08-29 2019-08-29 Method and apparatus for controlling wiper manufacturing process for cleanroom

Publications (1)

Publication Number Publication Date
KR102065893B1 true KR102065893B1 (en) 2020-01-13

Family

ID=69153395

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190106323A KR102065893B1 (en) 2019-08-29 2019-08-29 Method and apparatus for controlling wiper manufacturing process for cleanroom

Country Status (1)

Country Link
KR (1) KR102065893B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116854111A (en) * 2023-05-23 2023-10-10 福建省龙德新能源有限公司 Purification method and system of electronic grade lithium hexafluorophosphate

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614860A (en) * 1992-06-30 1994-01-25 Japan Vilene Co Ltd Non-woven fabric wiper and its production
KR20000008677A (en) 1998-07-15 2000-02-15 구자홍 Auto channel setting up device and a method thereof
KR20080028925A (en) 2005-07-11 2008-04-02 킴벌리-클라크 월드와이드, 인크. Cleanroom wiper
KR100908217B1 (en) 2009-03-12 2009-07-20 (주)웰크론 Manufacturing method of high shrinkable wiper for use in clean room
KR101933517B1 (en) 2017-07-28 2019-01-02 주식회사 서울세미텍 Method for preparing clean fabric for clean room and clean fabric prepared by the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614860A (en) * 1992-06-30 1994-01-25 Japan Vilene Co Ltd Non-woven fabric wiper and its production
KR20000008677A (en) 1998-07-15 2000-02-15 구자홍 Auto channel setting up device and a method thereof
KR20080028925A (en) 2005-07-11 2008-04-02 킴벌리-클라크 월드와이드, 인크. Cleanroom wiper
KR100908217B1 (en) 2009-03-12 2009-07-20 (주)웰크론 Manufacturing method of high shrinkable wiper for use in clean room
KR101933517B1 (en) 2017-07-28 2019-01-02 주식회사 서울세미텍 Method for preparing clean fabric for clean room and clean fabric prepared by the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116854111A (en) * 2023-05-23 2023-10-10 福建省龙德新能源有限公司 Purification method and system of electronic grade lithium hexafluorophosphate
CN116854111B (en) * 2023-05-23 2024-05-14 福建省龙德新能源有限公司 Purification method and system of electronic grade lithium hexafluorophosphate

Similar Documents

Publication Publication Date Title
Qin et al. Vins-mono: A robust and versatile monocular visual-inertial state estimator
Vakhitov et al. Accurate and linear time pose estimation from points and lines
US20180260962A1 (en) Feature trackability ranking, systems and methods
Kim et al. Image-based failure detection for material extrusion process using a convolutional neural network
JP6850399B2 (en) Depth recovery method and equipment for monocular images, computer equipment
Zhang et al. Rbp-pose: Residual bounding box projection for category-level pose estimation
TWI760916B (en) Manufacturing system for automatic production line in factory
US20180129913A1 (en) Drone comprising a device for determining a representation of a target via a neural network, related determination method and computer
KR102051974B1 (en) Method and apparatus for controlling metal tank manufacturing process
JP2020524355A5 (en)
KR102065893B1 (en) Method and apparatus for controlling wiper manufacturing process for cleanroom
KR102300500B1 (en) Method, device and system for processing three-dimensional cut image of product
US20230375292A1 (en) Systems and Methods for Smart Boiling Control
KR102055815B1 (en) Method and apparatus for controlling interior lighting manufacturing process for automobile
KR102027951B1 (en) Method and apparatus for controlling integrated circuit manufacturing process
Zhou et al. Learned monocular depth priors in visual-inertial initialization
KR102097248B1 (en) Method for controlling the seafood transport environment
KR102054366B1 (en) Method and apparatus for controlling unmanned security system
Pandya et al. Instance invariant visual servoing framework for part‐aware autonomous vehicle inspection using MAVs
KR102099286B1 (en) Method and apparatus for designing and constructing indoor electric facilities
KR102059305B1 (en) Method and apparatus for controlling elevator panel manufacturing process
KR102056030B1 (en) Method and apparatus for controlling membrane structure manufactur ing process
US20210192779A1 (en) Systems, Methods, and Media for Manufacturing Processes
US12001218B2 (en) Mobile robot device for correcting position by fusing image sensor and plurality of geomagnetic sensors, and control method
KR102111043B1 (en) Method for controlling electronic and mechanical equipment manufacturing

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant