KR20220157826A - the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor - Google Patents

the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor Download PDF

Info

Publication number
KR20220157826A
KR20220157826A KR1020210065838A KR20210065838A KR20220157826A KR 20220157826 A KR20220157826 A KR 20220157826A KR 1020210065838 A KR1020210065838 A KR 1020210065838A KR 20210065838 A KR20210065838 A KR 20210065838A KR 20220157826 A KR20220157826 A KR 20220157826A
Authority
KR
South Korea
Prior art keywords
cutting
product
image sensor
image
program
Prior art date
Application number
KR1020210065838A
Other languages
Korean (ko)
Inventor
김범규
Original Assignee
주식회사 세진글로벌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 세진글로벌 filed Critical 주식회사 세진글로벌
Priority to KR1020210065838A priority Critical patent/KR20220157826A/en
Publication of KR20220157826A publication Critical patent/KR20220157826A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2409Arrangements for indirect observation of the working space using image recording means, e.g. a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K10/00Welding or cutting by means of a plasma
    • B23K10/02Plasma welding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/36Removing material
    • B23K26/38Removing material by boring or cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K7/00Cutting, scarfing, or desurfacing by applying flames
    • B23K7/002Machines, apparatus, or equipment for cutting plane workpieces, e.g. plates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2452Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring features or for detecting a condition of machine parts, tools or workpieces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/402Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for positioning, e.g. centring a tool relative to a hole in the workpiece, additional detection means to correct position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/404Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for compensation, e.g. for backlash, overshoot, tool offset, tool wear, temperature, machine construction errors, load, inertia
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P70/00Climate change mitigation technologies in the production process for final industrial or consumer products
    • Y02P70/10Greenhouse gas [GHG] capture, material saving, heat recovery or other energy efficient measures, e.g. motor control, characterised by manufacturing processes, e.g. for rolling metal or metal working

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Plasma & Fusion (AREA)
  • Numerical Control (AREA)

Abstract

The present invention relates to a method for successively and efficiently processing a cut sub-process of multiple steps of improvement processing using an image sensor. A plasma cutting device may successively and efficiently perform a cut sub-process of multiple steps of improvement processing. At the first cut sub-process, according to an NC program, a product (34) is cut from a parent material on a stage. Next, the image of an area near the regular location of each of the two corner points of the cut product (34) (the locations of the corner points of a product figure (80) which is defined by the NC program) (861, 862) is filmed by an image sensor, such that the actual locations (841, 842) of the two corner points of the product (34) may be detected from the filmed image. Therefore, the parallel moving distance and the rotation angle between the detected actual locations (841, 842) and the regular locations (861, 862) may be calculated. In addition, the NC program may be corrected to be suitable to the actual location of the product (34) according to the calculated parallel moving distance and rotation angle. In the next cut sub-process, according to the corrected NC program, an additional cutting is performed for improvement processing on the cutting surface on the outer circumference of the product (34). Consequently, the cut sub-processes can be successively and efficiently performed.

Description

이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.{the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor}{the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor}

본 발명은 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법에 관한 것이다.The present invention relates to a method for continuously and efficiently processing a multi-step sub-cutting process of improvement processing using an image sensor.

일반적으로는, 플라즈마 절단 토치, 레이저 절단 토치, 가스 절단 토치 또는 그 밖의 절단 공구를 사용하여 모재로부터 제품을 잘라내기 위한 자동 절단 장치에 관한 것으로이다.Generally, it relates to automatic cutting devices for cutting products from base materials using plasma cutting torches, laser cutting torches, gas cutting torches or other cutting tools.

플라즈마 절단, 레이저 절단, 가스 절단 또는 그 밖의 절단 방법에 의해서 잘라내는 제품 중에는, 나중에 행해 지게 되는 용접의 품질을 향상시키기 위해서 또는 그 밖의 목적에서, 그 제품의 외주의 절단면에 개선 가공 또는 모따기 가공 (이하, 양자를 「개선 가공」이라고 총칭한다) 을 형성할 것이 요구되는 경우가 적지 않다.Among products cut by plasma cutting, laser cutting, gas cutting, or other cutting methods, improvement processing or chamfering processing on the cut surface of the outer circumference of the product to improve the quality of welding to be performed later or for other purposes ( Hereinafter, both are collectively referred to as "improvement processing") in many cases where it is required to form.

예를 들어, 건설기계의 바디나 프레임의 부품으로서 사용되는 제품의 경우, 그 7 할 정도의 제품에 개선 가공이 요구된다. 개선 가공은 가공면의 형상에 의해 많은 종류로 나누어지는데, 그 중 몇몇 종류의 개선 가공에 따르면, 개선 가공된 면은, 제품의 주 표면에 대한 각도가 상이한 2 개의 절단면의 조합으로 구성된다.For example, in the case of products used as parts of the body or frame of a construction machine, improvement processing is required for about 70% of the products. Improvement processing is divided into many types according to the shape of the processing surface, and according to some types of improvement processing among them, the improvement processing surface is composed of a combination of two cut surfaces having different angles with respect to the main surface of the product.

이러한 종류의 개선 가공은, 2 개의 절단면을 각각 형성하기 위한 2 단계의 절단 부공정에 의해서 실시된다.This kind of refinement is performed by a two-step sub-cutting process to form two cut surfaces, respectively.

최초 단계의 절단 부공정에서는, 모재의 주 표면에 대하여 예를 들어 수직인 방향에서 모재에 대한 절단이 이루어져, 그 모재로부터 제품이 잘려나간다. 2 번째 단계의 절단 부공정에서는, 잘라낸 제품의 외형에 대하 여, 제품의 주 표면에 대하여 예를 들어 비스듬한 방향으로 경사 절단 (bevel cut) 이 이루어져, 그 외형 가장 자리의 일부가 절단 제거된다.In the first step of the sub-cutting process, the base material is cut in a direction, for example, perpendicular to the main surface of the base material, and the product is cut out from the base material. In the sub-cutting step of the second step, a bevel cut is made on the outer contour of the cut product, for example in an oblique direction, with respect to the main surface of the product, and a part of the outer edge is cut off.

개선 가공에 관해서, 미국 특허 제6,326,588호 (특허 문헌 1) 및 일본국 공개특허공보 평11-57999호 (특허 문헌 2) 에 기재된 발명이 알려져 있다.Regarding improvement processing, inventions described in US Patent No. 6,326,588 (Patent Document 1) and Japanese Unexamined Patent Publication No. 11-57999 (Patent Document 2) are known.

미국 특허 제6,326,588호에는, 개선 가공을 위한 2 단계의 절단을 실시하는 방법이 개시되어 있다. 이 방법 은, 우선, 레이저 빔에 의해 모재를 수직으로 절단하여 제품을 잘라내고, 그 후, 제품만을 남기고 스크랩을 제거하고, 그 후에 제품의 외형 위치를 검출하여, 검출된 외형 위치를 레이저 제어 유닛에 제공하며, 마지막으로, 기울인 레이저 빔을 사용하여 제품의 외연을 비스듬하게 절단한다.US Patent No. 6,326,588 discloses a method of performing a two-step cutting for improvement machining. This method first cuts the base material vertically with a laser beam to cut out the product, then removes the scraps leaving only the product, then detects the outer position of the product, and transfers the detected outer position to the laser control unit Finally, the outer edge of the product is obliquely cut using an inclined laser beam.

일본국 공개특허공보 평11-57999호에는, 다음과 같은 개선 절단 장치가 개시되어 있다. 즉, 이 개선 절단 장치는, 미리 잘라낸 제품을 수취하여 이것을 소정 위치에 놓고, 그 제품 외형의 복수 지점의 위치를 레이저 센서 등을 사용하여 검출한다. 검출된 외형의 복수 지점의 위치에 기초하여, 그 제품의 외형선을 직선, 원, 원호 등의 결합으로서 완전하게 정의된 기하학형상 데이터가 생성된다. 그 기하학형상 데이터를 사용하여, 제품의 외형이 임의의 경사 각도로 절단된다.Japanese Unexamined Patent Publication No. 11-57999 discloses the following improved cutting device. That is, this improved cutting device receives a pre-cut product, places it at a predetermined position, and detects the positions of a plurality of points on the outer shape of the product using a laser sensor or the like. Based on the positions of the plural points of the detected outline, geometric shape data that completely defines the outline of the product as a combination of straight lines, circles, arcs, etc. is generated. Using the geometry data, the outline of the product is cut at an arbitrary inclination angle.

또한, 개선 가공에 직접 관련되는 것은 아니지만, 일본국 공개특허공보 2003-251464호 (특허 문헌 3) 에는, 모재로부터 제품을 잘라낼 때의 절단 위치를 정확하게 하기 위한 방법이 개시되어 있다. 여기에는, 2 종류의 방법이 개시되어 있다. 제 1 방법은, 모재를 카메라로 촬영하고, 촬영된 화상으로부터 모재의 윤곽선 좌표를 산출하여, 산출된 모재의 윤곽선 내의 절단 가능한 영역 내에 제품 도형을 네스팅한다. 제 2 방법은, 모재의 크기나 형상과 절단할 도형의 크기나 형상의 데이터를 미리 기억시켜 두고, 모재의 여러 지점을 카메라로 촬영하여 각 촬영 지점에서의 모재의 윤곽선을 계산하고, 그 윤곽선과 미리 기억되어 있는 모재의 데이터를 비교하여 양 데이터의 위치 어긋남을 맞춘 후, 그 다음에 제품을 잘라낸다.Further, although not directly related to improvement processing, Japanese Unexamined Patent Publication No. 2003-251464 (Patent Document 3) discloses a method for making the cutting position accurate when cutting out a product from a base material. Two types of methods are disclosed here. In the first method, a base material is photographed with a camera, contour coordinates of the base material are calculated from the photographed image, and a product figure is nested within a cutable region within the calculated contour of the base material. In the second method, the data of the size or shape of the base material and the size or shape of the figure to be cut are stored in advance, and various points of the base material are photographed with a camera to calculate the outline of the base material at each shooting point, and the outline and After comparing the data of the base material stored in advance and adjusting the positional displacement of both data, the product is then cut out.

개선 가공의 작업 능률을 향상시키기 위해, 절단 위치를 수치 제어 (NC) 에 의해 자동 제어할 수 있는 1 대의 절단 장치를 사용하여 상기 서술한 2 이상의 단계를 갖는 절단 부공정을 연속해서 자동적으로 실시할 수 있도록 하는 것이 요망된다. 그러나, 최초 단계의 절단 부공정에서는 NC의 성능이 반영된 고정밀도의 가공을 실시할 수 있지만, 2 번째 이후의 단계의 절단 부공정에 있어서 절단 정밀도가 악화된다는 문제가 있다. 그 이유는, 최초 단계에서 제품이 모재로부터 잘려나갔을 때, 모재로부터 지지를 받지 못하게 된 제품이 움직여, 제품의 절단 장치에 대한 상대 위치가 원래 위치로부터 약간 어긋나버리기 때문이다.In order to improve the working efficiency of the improvement process, the sub-cutting process having the above two or more steps is continuously and automatically performed using one cutting device capable of automatically controlling the cutting position by numerical control (NC). It is desired to be able to However, in the sub-cutting process of the first stage, high-precision machining can be performed in which the performance of the NC is reflected, but there is a problem that the cutting precision deteriorates in the sub-cutting process of the second and subsequent stages. The reason for this is that, when the product is cut from the base material in the initial stage, the product that is not supported by the base material moves, and the position of the product relative to the cutting device is slightly displaced from the original position.

미국 특허 제6,326,588호 및 일본국 공개특허공보 평11-57999호는, 제품의 외형 위치의 센싱을 실시하여, 센싱 결과로부터 제품의 외형선을 산출한다는 방법을 제공하고 있다.U.S. Patent No. 6,326,588 and Japanese Laid-Open Patent Publication No. 11-57999 provide a method of sensing the outer position of a product and calculating the outer line of the product from the sensing result.

그러나, 제품의 외형선을 정확히 산출하기 위해서는, 제품의 외형선 상의 많은 점의 위치를 센싱할 필요가 있다. 그리고, 그들 검출 결과로부터 제품의 외형을 완전히 정의한 기하학형상 데이터를 산출하기 위해서 대량의 계산 처리를 실시해야 한다. 또한, 제품의 외형의 위치를 검출할 때, 미국 특허 제6,326,588호와 같이 제품 이외의 스크랩을 사전에 제거하거나, 또는, 일본국 공개특허공보 평11-57999호와 같이 제품만을 꺼내어 절단 장치에 세팅할 필요가 있다. 이러한 필요를 위해서, 상당히 긴 대기 시간이 최초 단계의 절단 부공정과 다음 단계의 절단 부공정 사이에 개입되지 않을 수 없고, 따라서, 이 2 단계의 절단 부공정을 연속해서 효율 적으로 진행시키기가 어렵다.However, in order to accurately calculate the outline of the product, it is necessary to sense the positions of many points on the outline of the product. Then, a large amount of calculation processing must be performed in order to calculate the geometric shape data that completely defines the outer shape of the product from these detection results. In addition, when detecting the position of the outer shape of a product, scraps other than the product are removed in advance, as in US Patent No. 6,326,588, or only the product is taken out and set in a cutting device, as in Japanese Patent Laid-Open No. 11-57999. Needs to be. For this need, a considerably long waiting time must be intervened between the cutting subprocess of the first stage and the subcutting subprocess of the next stage, and therefore, it is difficult to efficiently proceed these two subcutting steps continuously. .

본 발명에 따른 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법은 모재가 놓이기 위한 스테이지와 절단 공구와 촬상 영역을 갖는 이미지 센서와 상기 스테이지에 대하여 상기 절단 공구를 이동시키며, 상기 절단 공구의 각도를 변화시키며, 또한, 상기 이미지 센서의 상기 촬영 영역을 이동시키기 위한 공구 이동 기구와 NC 프로그램에 따라서, 상기 절단 공구, 상기 이미지 센서 및 상기 공구 이동 기구 각각의 동작을 제어하는 컨트롤러를 구비한다. 상기 컨트 롤러는, 상기 NC 프로그램에 따라서, 상기 스테이지 상에 놓인 상기 모재를 상기 절단 공구에 의해 절단하여 제품을 잘라내는 제 1 절단 부공정을 실행하도록 제어를 행하는 제 1 절단 부공정 제어 수단과 상기 제 1 절단 부공정이 실행된 후, 상기 스테이지 상의 상기 잘라낸 제품의 2 개 이상의 특이점의 상기 NC 프로그램에 의해 정의되는 정규 위치를 포함한 1 개 이상의 영역에 상기 이미지 센서의 촬상 영역을 설정하고, 그리고, 상기 이미지 센서로부터 상기 1 개 이상의 영역의 화상을 취득하도록 제어를 행하는 촬상 제어 수단과 상기 이미지 센서로부터 취득된 상기 1 개 이상의 영역의 상기 화상을 해석하여, 상기 스테이지 상의 상기 잘라낸 제품의 상기 2 개 이상의 특이점의 실제 위치를 검출하는 특이점 검출 수단과 상기 특이점의 상기 검출된 실제 위치에 따라서, 상기 스테이지 상의 상기 잘라낸 제품의 실제 위치에 적합하도록 상기 NC 프로그램을 수정하는 프로그램 수정 수단과 상기 수정된 NC 프로그램에 따라서, 상기 스테이지 상의 상기 잘라낸 제품에 대하여 상기 절단 공구에 의해 추가 절단을 실시하는 제 2 절단 부공정을 실행하도록 제어하는 제 2 절단 부공정 제어 수단을 갖는다.According to the present invention, a method for continuously and efficiently processing multiple steps of sub-cutting process of improved machining using an image sensor includes a stage for placing a base material, a cutting tool, and an image sensor having an imaging area, and the cutting tool for the stage. The cutting tool, the image sensor, and the tool moving mechanism respectively operate according to the NC program and the tool moving mechanism for moving the cutting tool, changing the angle of the cutting tool, and moving the imaging area of the image sensor. Equipped with a controller to control. The controller includes first cutting sub-process control means for performing control to execute a first sub-process of cutting in which the base material placed on the stage is cut by the cutting tool to cut out a product according to the NC program; After the first cutting subprocess is executed, setting the imaging area of the image sensor to one or more areas including regular positions defined by the NC program of two or more singular points of the cut product on the stage, and image pickup control means for performing control to acquire images of the one or more regions from the image sensor, and analyzing the images of the one or more regions acquired from the image sensor to obtain the two or more elements of the cut-out product on the stage; Singular point detecting means for detecting the actual position of the singular point, and program correcting means for modifying the NC program to conform to the actual position of the cut product on the stage according to the detected actual position of the singular point, and the corrected NC program Accordingly, it has second cutting sub-process control means for controlling to execute a second sub-cutting process of performing additional cutting by the cutting tool on the cut-out product on the stage.

본 발명에 의하면, 절단 위치를 수치 제어 (NC) 에 의해 자동 제어할 수 있는 1 대의 절단 장치를 사용하여, 개선 가공을 위한 2 이상의 단계를 갖는 절단 부공정을 연속적으로 실시할 수 있다.According to the present invention, using a single cutting device capable of automatically controlling the cutting position by numerical control (NC), it is possible to continuously perform a sub-cutting step having two or more steps for improving processing.

도 1 은 플라즈마 절단 장치에 적용된 본 발명의 제 1 실시형태의 전체적인 구성을 나타내는 사시도.
도 2 는 제 1 실시형태에 있어서의 플라즈마 토치를 기울이기 위한 틸터의 사시도.
도 3 은 제 1 실시형태에 있어서의 메인 컨트롤러 (32) 의 교정을 나타내는 블록선도.
도 4A 내지 도 4D 는 상이한 종류의 개선 가공을 설명하기 위한 절단면의 단면도.
도 5 는 복수 단계의 절단 부공정으로 구성되는 개선 가공의 절단 공정의 제어의 흐름을 나타내는 도면.
도 6 은 잘라낸 제품 (34) 의 위치를 검출하여 그 위치 어긋남을 파악하는 제어를 설명하기 위한 제품 (34) 의평면도.
도 7A 는, 패턴 매칭 방법에 의해 특이점을 서치하기 위한 패턴예를 나타내는 도면이고, 도 7B 는, 화상 내의 제품의 도형과 패턴의 매치가 성립하였을 때의 예를 나타내는 도면.
도 8 은 가공 제어 데이터의 캘리브레이션을 설명하기 위한 모재 (14) 의 평면도.
도 9 는 동(同) 캘리브레이션 제어의 플로우차트.
도 10 은 본 발명의 제 2 실시형태에 관련된 플라즈마 절단 장치에 있어서의 이미지 센서와 램프의 배치를 나타 내는 사시도.
도 11A 는, 제 2 실시형태에 있어서 특이점의 자동 검출이 행해지고 있을 때의 콘솔의 예를 나타내는 도면이고, 도 11B 는, 특이점의 수동 검출이 행해지고 있을 때의 콘솔의 예를 나타내는 도면.
도 12 는 제 2 실시형태에 있어서 특이점을 검출하는 제어의 흐름을 나타내는 도면.
도 13 은 제 2 실시형태에 있어서 모재의 원점 좌표와 자세를 검출하는 제어의 흐름을 나타내는 도면.
1 is a perspective view showing the overall configuration of a first embodiment of the present invention applied to a plasma cutting device.
Fig. 2 is a perspective view of a tilter for tilting the plasma torch in the first embodiment;
Fig. 3 is a block diagram showing calibration of the main controller 32 in the first embodiment;
4A to 4D are cross-sectional views of cut surfaces for explaining different types of improvement processing.
Fig. 5 is a diagram showing the flow of control of a cutting process of improvement processing composed of a plurality of steps of sub-cutting process.
Fig. 6 is a plan view of the product 34 for explaining control for detecting the position of the cut product 34 and grasping its positional deviation.
Fig. 7A is a diagram showing an example of a pattern for searching for a singularity by a pattern matching method, and Fig. 7B is a diagram showing an example when a figure of a product in an image and a pattern are matched.
Fig. 8 is a plan view of the base material 14 for explaining the calibration of process control data.
Fig. 9 is a flowchart of the same calibration control;
Fig. 10 is a perspective view showing the arrangement of an image sensor and a lamp in a plasma cutting device according to a second embodiment of the present invention;
Fig. 11A is a diagram showing an example of a console when a singularity is automatically detected in the second embodiment, and Fig. 11B is a diagram showing an example of a console when a singularity is manually detected.
Fig. 12 is a diagram showing the flow of control for detecting a singular point in the second embodiment;
Fig. 13 is a diagram showing the flow of control for detecting the origin coordinates and posture of a base material in the second embodiment.

이하, 도면을 참조하여 본 발명의 실시형태를 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described with reference to drawings.

도 1 은 본 발명의 제 1 실시형태의 전체적인 구성을 나타낸다.1 shows the overall configuration of a first embodiment of the present invention.

도 1 에 나타내는 바와 같이, 본 발명의 제 1 실시형태에 관련된 플라즈마 절단 장치 (10) 는, 바닥 위에 설치된 대략 직육면체형의 테이블 (12) 을 갖고, 이 테이블 (12) 의 상면 위에 모재 (14) (전형적으로는 강판) 가탑재되게 된다. 모재 (14) 에 대한 절단 위치를 제어하기 위해서, 테이블 (12) 의 평면형상의 장변과 단변 방향에 각각 X 축과 Y 축을 갖고, 또한, 테이블 (12) 의 상면에 직교하는 방향 (높이 방향) 에 Z 축을 갖는 직교 좌표계가 논리적으로 정의된다. 테이블 (12) 의 옆에 X 축에 평행하게 X 궤도 (16) 가 설치되고, X 궤도 (16) 상에 대차 (臺車) (18) 가 탑재되어 있으며, 대차 (18) 는 X 축 방향으로 왕복 이동할 수 있다.As shown in Fig. 1, the plasma cutting apparatus 10 according to the first embodiment of the present invention has a substantially rectangular parallelepiped table 12 installed on the floor, and a base material 14 is placed on the upper surface of the table 12. (typically a steel plate) is mounted. In order to control the cutting position with respect to the base material 14, the table 12 has an X axis and a Y axis in the direction of the long and short sides of the planar shape, respectively, and in the direction orthogonal to the upper surface of the table 12 (height direction). A Cartesian coordinate system with a Z axis is logically defined. Next to the table 12, an X track 16 is installed parallel to the X axis, and a bogie 18 is mounted on the X track 16, and the bogie 18 is in the X axis direction. You can travel round trip.

대차 (18) 로부터 테이블 (12) 의 상방으로, Y 축과 평행하게 Y 궤도 들보 (20) 가 연장되어 나와 있고, Y 궤도 들보 (20) 에 캐리지 (22) 가 장착되며, 캐리지 (22) 는 Y 축 방향으로 왕복 이동할 수 있다. 캐리지 (22) 에 엘리베이터 (24) 가 장착되고, 엘리베이터 (24) 에 틸터 (26) 가 장착되며, 엘리베이터 (24) 는 틸터 (26) 를 Z 축 방향으로 왕복 이동시킬 수 있다. 틸터 (26) 에, 절단 공구로서의 플라즈마 토치 (28) 가 장착되어 있다. 틸터 (26) 는, 개선 가공에 필요한 소정의 각도 범위에서 플라즈마 토치 (28) 를 기울이는 (플라즈마토치 (28) 의 방향을 바꾸는) 것이 가능하다.A Y track beam 20 extends from the bogie 18 upward to the table 12 in parallel with the Y axis, and a carriage 22 is mounted on the Y track beam 20, and the carriage 22 It can reciprocate in the Y-axis direction. An elevator 24 is mounted on the carriage 22, and a tilter 26 is mounted on the elevator 24, and the elevator 24 can reciprocate the tilter 26 in the Z-axis direction. To the tilter 26, a plasma torch 28 as a cutting tool is mounted. The tilter 26 is capable of tilting the plasma torch 28 (changing the direction of the plasma torch 28) in a predetermined angular range required for improvement processing.

틸터 (26) 는, 도 2 에 나타나 있는 바와 같이, 엘리베이터 (24) 에 장착되어 Z 축 방향으로 승강이 가능한 브래킷 (40) 을 갖고, 이 브래킷 (40) 에 Z 축에 평행하게 주회전 샤프트 (42) 가 장착되어 있으며, 주회전 샤프트 (42) 는 Z 축에 평행한 B 축을 중심으로 일정 각도 범위에서 회전 운동이 자유롭다. 또, 주회전 샤프트 (42) 에, Z 축에 평행하게 하방으로 연장된 2 개의 아암 (44, 44) 이 고정되고, 아암 (44, 44) 의 하단부에 부회전 샤프트 (46) 를 사이에 두고 플라즈마 토치 (28) 가 장착되어 있으며, 플라즈마 토치 (28) 는, 아암 (44, 44) 에 대하여 B 축에 수직인 C 축을 중심으로 일정 각도 범위에서 회전 운동이 자유롭다. 브래킷 (40) 에장착된 모터 유닛 (48) 으로부터 동력에 의해, 주회전 샤프트 (42) 의 회전과 부회전 샤프트 (46) 의 회전이 독립적으로 실시된다.As shown in FIG. 2, the tilter 26 has a bracket 40 mounted on the elevator 24 and capable of moving up and down in the Z-axis direction, and to the bracket 40 a main rotation shaft 42 parallel to the Z-axis. ) is mounted, and the main rotating shaft 42 is free to rotate in a certain angular range around the B axis parallel to the Z axis. Further, two arms 44 and 44 extending downward in parallel to the Z axis are fixed to the main rotation shaft 42, and a sub rotation shaft 46 is sandwiched between the lower ends of the arms 44 and 44. A plasma torch 28 is mounted, and the plasma torch 28 is free to rotate with respect to the arms 44 and 44 in a certain angular range around the C axis perpendicular to the B axis. By power from the motor unit 48 mounted on the bracket 40, the rotation of the main rotation shaft 42 and the rotation of the sub rotation shaft 46 are carried out independently.

다시 도 1 을 참조하여, 엘리베이터 (24) 에는, 추가로, 스테이지 (12) 상의 모재 (14) 의 표면의 2 차원 이미 지를 센싱하기 위한 이미지 센서 (30) 가 장착되어 있고, 이미지 센서 (30) 는 틸터 (26) (플라즈마 토치 (28)) 와 함께 Z 축 방향으로 승강이 가능하다. 이미지 센서 (30) 로는, 예를 들어, CCD 등을 사용한 에어리어 촬상 소자를 내장하는 이미지 센서 (정지화 (靜止畵) 카메라 또는 동화 (動畵) 카메라), 또는, 플랫 베이스형 이미지 스캐너 등에서 사용되고 있는 리니어 촬상 소자로 촬영 범위를 주사하도록 구성된 것, 적외선 이미지를 촬영하는 것 등, 여러 가지 구조의 것을 채용할 수 있지만, 이 실시형태에서는, 일례로서 CCD 등을 사용한 디지털 동화 카메라가 사용된다. 또, 이미지 센서 (30) 는, 엘리베이터 (24) 가 아니라 캐리지 (22) 에 장착해도 된다. 어떻든 간에, 이미지 센서 (30) 는 틸터 (26) (플라즈마 토치 (28)) 와 함께 X 축과 Y 축의 방향으로 이동할 수 있고, 이미지 센서 (30) 와 틸터 (26) (플라즈마 토치 (28) 의 기본적인 장착 위치) 의 XY 평면에서의 위치 관계는 일정하다. 이미지 센서 (30) 의 시야는 Z 축과 평행하고 테이블 (12) 로 (하방으로) 향하고 있으며, 이미지 센서 (30) 의 결상 광학계는 테이블 (12) 상의 모재 (14) 의 주 표면 (상면) 의 이미지를 이미지 센서 (30) 의 수광면에 결상할 수 있도록 조정되고 있고, 따라서, 모재 (14) 의 주 표면의 어떠한 사이즈의 영역 (이하, 촬상 영역이라고 한다) 을 촬영할 수 있다.Referring again to FIG. 1, the elevator 24 is further equipped with an image sensor 30 for sensing a two-dimensional image of the surface of the base material 14 on the stage 12, and the image sensor 30 can move up and down in the Z-axis direction together with the tilter 26 (plasma torch 28). As the image sensor 30, for example, an image sensor (still image camera or moving image camera) incorporating an area image pickup device using a CCD or the like, or a linear image sensor used in a flat base type image scanner or the like. Various structures can be adopted, such as one configured to scan an imaging range with an imaging element and one that takes an infrared image, but in this embodiment, a digital moving picture camera using a CCD or the like is used as an example. In addition, the image sensor 30 may be attached to the carriage 22 instead of the elevator 24 . In any case, the image sensor 30 can move in the direction of the X axis and the Y axis together with the tilter 26 (plasma torch 28), and the image sensor 30 and the tilter 26 (of the plasma torch 28) The positional relationship in the XY plane of the basic mounting position) is constant. The field of view of the image sensor 30 is parallel to the Z axis and directed (downward) to the table 12, and the imaging optical system of the image sensor 30 is the main surface (upper surface) of the base material 14 on the table 12. It is adjusted so that an image can be formed on the light-receiving surface of the image sensor 30, and therefore, an area of any size on the main surface of the base material 14 (hereinafter referred to as an imaging area) can be photographed.

상기 서술한 X 궤도 (16), 대차 (18), Y 궤도 들보, 캐리지 (22), 엘리베이터 (24) 및 틸터 (26) 가, 스테이지 (12) 상의 모재 (14) 에 대한 플라즈마 토치 (28) 에 의한 절단 위치 (즉, 모재 (14) 를 절단하는 점의 XY 좌표면 상에서의 위치) 와 절단 각도 (베벨각, 즉, Z 축에 대한 절단면의 각도) 를 변경하기 위한 공구 이동 기구를 구성한다. 공구 이동 기구 (16∼26) 는, 또한, 스테이지 (12) 상의 모재 (14) 에 대한 이미지 센서 (30) 의촬상 영역의 위치를 바꾸는 역할도 겸한다. 도 1 에는 나타나 있지 않지만, 전력을 플라즈마 토치 (28) 에공급하기 위한 플라즈마 전원 (35) (도 3 참조) 과, 플라즈마 가스 및 어시스트 가스를 플라즈마 토치 (28) 에공급하기 위한 가스 시스템 (36) (도 3 참조) 도, 이 플라즈마 절단 장치 (10) 에 형성되어 있다.The above-described X track 16, bogie 18, Y track beam, carriage 22, elevator 24 and tilter 26 are the plasma torch 28 for the base material 14 on the stage 12 A tool moving mechanism for changing the cutting position (i.e., the position of the point at which the base material 14 is cut on the XY coordinate plane) and the cutting angle (bevel angle, i.e., the angle of the cutting plane with respect to the Z axis) by . The tool moving mechanisms 16 to 26 also serve to change the position of the imaging area of the image sensor 30 with respect to the base material 14 on the stage 12. Although not shown in FIG. 1, a plasma power supply 35 (see FIG. 3) for supplying electrical power to the plasma torch 28 and a gas system 36 for supplying plasma gas and assist gas to the plasma torch 28 (See Fig. 3) is also provided in this plasma cutting device 10.

테이블 (12) 의 가까이에 메인 컨트롤러 (32) 가 설치되어 있다. 메인 컨트롤러 (32) 는 도 3 에 나타내는 바와 같이 수치 컨트롤러 (320) 를 가지며, 수치 컨트롤러 (320) 는 NC 프로그램 (322) 을 외부 장치로부터 입력하여 기억하고, 그 NC 프로그램 (322) 에 기초하여 모재 (14) 로부터 제품 (34) 을 잘라내기 위한 절단 공정을 실행하고 제어한다. 즉, 수치 컨트롤러 (320) 는, 기억된 NC 프로그램 (322) 에 기초하여, 공구 이동 기구 (16∼26) 의 동작을 제어하여 플라즈마 토치 (28) 의 이동과 각도 (베벨각) 를 제어하면서, 플라즈마 전원 (35) 과 가스 시스템 (36) 의 동작을 제어하여 플라즈마 토치 (28) 의 동작을 제어한다. 여기서, NC 프로그램 (322) 에는, 예를 들어, 모재 (14) 의 형상 및 사이즈 등을 정의한 모재 정의 데이터, 및 각 제품 (34) 의모재 (14) 상에서의 위치와 형상을 정의한 제품 도형 데이터가 포함되어 있다. 그리고, 각 제품 (34) 에 개선 가공을 실시해야 할 경우에는, 개선 가공을 각 제품 (34) 의 어느 부분에 실시할지, 및, 개선 가공된 절단면이 단면형상에 있어서 어떠한 형상으로 되어야 하는지, 등의 개선 가공의 상세 조건을 지정한 개선 가공 데이터도 NC 프로그램 (322) 에 포함된다. 또, 각 제품 (34) 의 개선 가공이 다음에서 서술하는 복수 단계의 절단 부공정을 포함하는 경우에는, 각 제품 (34) 의 형상에 따라서 미리 선택된 각 제품의 외형선 상의 적어도 2 개의 점 (전형적으로는, 예를 들어, 제품 (34) 외형의 코너에 상당하는 점) (특이점이라고 한다) 의 위치의 XY 좌표값도 NC 프로그램 (322) 에 포함된다.A main controller 32 is installed near the table 12. The main controller 32 has a numerical controller 320 as shown in FIG. 3, and the numerical controller 320 inputs and stores the NC program 322 from an external device, and based on the NC program 322, the base material Execute and control the cutting process for cutting out the product 34 from 14. That is, the numerical controller 320 controls the movement and angle (bevel angle) of the plasma torch 28 by controlling the operation of the tool moving mechanisms 16 to 26 based on the stored NC program 322, The operation of the plasma torch 28 is controlled by controlling the operation of the plasma power source 35 and the gas system 36 . Here, the NC program 322 includes, for example, base material definition data defining the shape and size of the base material 14, and product figure data defining the position and shape of each product 34 on the base material 14. Included. Then, in the case where refinement processing is to be performed on each product 34, which part of each product 34 is subjected to refinement processing, and what shape the sectional shape of the processed cut surface should be, etc. Improvement processing data specifying the detailed conditions of improvement processing of , are also included in the NC program 322 . In addition, when the improvement processing of each product 34 includes a plurality of steps of sub-cutting process described below, at least two points on the outline of each product 34 selected in advance according to the shape of each product 34 (typical As, for example, the XY coordinate values of the positions of points corresponding to corners of the outer shape of the product 34 (referred to as singular points) are also included in the NC program 322 .

뒤에서 도 4A 내지 도 4D 를 참조하여 설명하는 바와 같이, 몇몇 종류의 개선 가공은 2 단계 이상의 절단 부공 정에 의해 실시된다. 그 경우, 제 1 단계의 절단 부공정에서는, NC 프로그램 (322) 에 기초하여 모재 (14) 로부터 각 제품 (34) 을 잘라낸다. 그 후, 제 2 단계 이후의 절단 부공정에서는, 잘라낸 각 제품 (34) 에, 그 절단면이 단면형상에 있어서 NC 프로그램 (322) 의 개선 가공 데이터에 의해 지정된 형상이 되도록, NC 프로 그램 (322) 에 기초하여 추가의 절단이 실시된다. 이와 같이 복수 단계의 절단 부공정이 실시되는 경우, 제 1 단계의 절단 부공정에서 각 제품 (34) 이 모재 (14) 로부터 잘려 나갔을 때, 각 제품 (34) 의 위치가 원래의 위치 (정규의 위치) 로부터 약간 어긋나버리는 경우가 있다. 제 2 단계의 각 절단 부공정에서도, 각 제품 (34) 의 위치 어긋남이 발생하는 일이 있다. 앞서의 절단 부공정에서 어느 제품 (34) 의 위치가 정규 위치 로부터 어긋난 경우, 원래의 NC 프로그램 (322) 에 기초해서는, 다음 번 절단 부공정을 실시하는 것이 불가능해 진다. 이 문제에 대비하여, 메인 컨트롤러 (32) 는 추가로 2 번째 단계 이후의 각 절단 부공정을 시작하는 직전에 각 제품 (34) 의 상기 서술한 위치 어긋남을 검출하여, 그 위치 어긋남을 보상하도록 NC 프로그램 (322) 을 수정하는 제어를 실시할 수 있게 되어 있다.As will be described later with reference to FIGS. 4A-4D, some types of refinement machining are performed by a two or more step sub-cutting process. In that case, each product 34 is cut out from the base material 14 based on the NC program 322 in the cutting subprocess of a 1st stage. After that, in the sub-cutting process after the second step, the NC program 322 is used so that the cut surface of each product 34 cut out has a shape specified by the improvement processing data of the NC program 322 in cross-sectional shape. Further cutting is performed based on In the case where a plurality of sub-step cutting processes are performed in this way, when each product 34 is cut out of the base material 14 in the sub-cutting process of the first step, the position of each product 34 is set to the original position (regular position) may be slightly displaced. Positional displacement of each product 34 may occur also in each cutting substep of the second step. When the position of a certain product 34 is shifted from the normal position in the previous sub-cutting step, it becomes impossible to carry out the next sub-cutting step based on the original NC program 322. In preparation for this problem, the main controller 32 additionally detects the above-described positional displacement of each product 34 just before starting each cutting subprocess after the second step, and NC so as to compensate for the positional displacement. Control for correcting the program 322 can be performed.

이 NC 프로그램 (322) 을 수정하는 제어를 가능하게 하기 위해서, 메인 컨트롤러 (32) 는, 도 3 에 나타내는 바와 같이, 화상 해석기 (324) 를 갖고, 화상 해석기 (324) 는 수치 컨트롤러 (320) 와 이미지 센서 (30) 에 접속 된다. 화상 해석기 (324) 는, 컴퓨터 프로그램이어도 되고, 하드 와이어 로직 회로이어도 되며, 그들의 조합이어도 된다. 화상 해석기 (324) 와 수치 컨트롤러 (320) 는, 다음과 같이 협동함으로써 상기 제어를 실현한다. 즉, 2 번째 단계 이후의 각 절단 부공정을 시작하기 직전에, 수치 컨트롤러 (320) 는 공구 이동 기구 (16∼26) 를 제어함으로써 이미지 센서 (30) 를 이동시키고, 그리고, 이미지 센서 (30) 의 촬상 영역의 중심 점이 NC 프로그램 (322) 에 의해서 지정되는 각 제품 (34) 의 적어도 2 개의 특이점의 정규 위치 (상기 위치 어긋남이 없으면 특이점이 실제로 거기에 위치하게 되는 위치) 에 각각 일치하는 2 개의 위치 (즉, 2 개의 특이점의 정규 위치의 바로 위 위치) 에서, 이미지 센서 (30) 를 차례로 정지시킨다. 이미지 센서 (30) 가 각 특이점의 정규 위치 바로 위에서 정지하면, 화상 해석기 (324) 가 이미지 센서 (30) 를 구동하여, 모재 (14) 의주 표면 상의 촬상 영역 (즉, 각 특이점의 정규 위치를 중심으로 한 소정 사이즈의 영역) 의 화상을 취득하고, 그리고, 그 취득된 화상을 해석하여 각 특이점의 실제 위치의 XY 좌표를 검출하여 그 XY 좌표를 계산한다.In order to enable control for correcting this NC program 322, the main controller 32 has an image analyzer 324 as shown in FIG. 3, and the image analyzer 324 includes a numerical controller 320 and It is connected to the image sensor 30. The image analyzer 324 may be a computer program, a hard-wired logic circuit, or a combination thereof. The image analyzer 324 and the numerical controller 320 realize the above control by cooperating as follows. That is, immediately before starting each sub-cutting process after the second step, the numerical controller 320 moves the image sensor 30 by controlling the tool moving mechanisms 16 to 26, and then the image sensor 30 The center point of the imaging area of each coincides with the regular position of at least two singular points of each product 34 designated by the NC program 322 (the position at which the singular points are actually located there if there is no such displacement). At positions (i.e. positions just above the regular positions of the two singular points), the image sensors 30 are stopped in sequence. When the image sensor 30 stops just above the normal position of each singular point, the image analyzer 324 drives the image sensor 30 to obtain an imaging area on the circumferential surface of the base material 14 (i.e., the center of the normal position of each singular point). An image of a predetermined size) is acquired, and the acquired image is analyzed to detect the XY coordinates of the actual position of each singular point, and the XY coordinates are calculated.

화상 해석기 (324) 는, 검출된 각 특이점의 실제 위치의 XY 좌표값을 수치 컨트롤러 (320) 에 통지한다. 제품 (34) 마다, 적어도 2 개의 특이점의 실제 위치의 XY 좌표값이 화상 해석기 (324) 에 의해 검출되어, 수치 컨트롤러 (320) 에 통지된다. 그 후, 수치 컨트롤러 (320) 는, 화상 해석기 (324) 로부터 통지된 각 제품 (34) 의 적어도 2 개의 특이점의 실제 위치의 XY 좌표값과, NC 프로그램 (322) 에 의해 지정된 각 제품 (34) 의상기 특이점의 정규 위치의 XY 좌표값을 비교하여, 각 제품 (34) 의 실제 위치의, 정규 위치로부터의 위치 어긋 남량을 나타내는 값의 세트 (평행 이동 성분치와 회전 성분치의 세트) 를 계산한다. 그리고, 수치 컨트롤러 (320) 는, 계산된 위치 어긋남 값의 세트에 따라서, NC 프로그램 (322) (특히, 제품 (34) 별 제품 도형 데이터) 을 각 제품 (34) 의 실제 위치에 적합하도록 수정하고, 그 수정된 NC 프로그램 (323) 에 기초하여 다음 단계의 절단 부공정을 제어한다. 후술하는 이 제어의 상세한 설명으로부터 알 수 있듯이, 이 제어에 의하면, 전술한 종래 기술보다 간단하게 제품 (34) 의 실제 위치를 파악할 수 있다. 그리고, 이 제어는, 테이블 (12) 상에서 스크랩 (제품 (34) 이외의 잔재) 을 제거하지 않고서도 실시할 수 있다.The image analyzer 324 notifies the numerical controller 320 of the XY coordinate values of the actual positions of each detected singularity. For each product 34, the XY coordinate values of the actual positions of at least two singular points are detected by the image analyzer 324 and notified to the numerical controller 320. After that, the numerical controller 320 calculates the XY coordinate values of the actual positions of at least two singular points of each product 34 notified from the image analyzer 324 and each product 34 designated by the NC program 322. The XY coordinate values of the normal position of the singularity point are compared to calculate a set of values (a set of translation component values and rotation component values) representing the amount of displacement of the actual position of each product 34 from the normal position. . Then, the numerical controller 320 modifies the NC program 322 (particularly, the product figure data for each product 34) to be suitable for the actual position of each product 34 according to the set of calculated position deviation values, , the cutting sub-process of the next step is controlled based on the modified NC program 323. As can be seen from the detailed description of this control described later, according to this control, the actual position of the product 34 can be ascertained more simply than in the prior art described above. And this control can be implemented even without removing scrap (remains other than the product 34) on the table 12.

도 3 에 나타내는 바와 같이, 메인 컨트롤러 (32) 는, 추가로 콘솔 (326) 을 갖는다. 콘솔 (326) 은, 상기 서술한 수치 컨트롤러 (320) 및 화상 해석기 (324) 에 작업자가 각종 지령을 입력하거나, 수치 컨트롤러 (320) 및 화상 해석기 (324) 로부터의 각종 정보 (예를 들어, 이미지 센서 (30) 로부터 수신되는 화상, 상기 서술한 특이점의 정규 위치와 검출된 실제 위치, 및 각종 문자 메시지 등) 를 표시하기 위해서 등에 사용된다.As shown in FIG. 3 , the main controller 32 further has a console 326 . In the console 326, an operator inputs various commands to the above-described numerical controller 320 and image analyzer 324, or various information (eg, an image) from the numerical controller 320 and image analyzer 324 is provided. It is used for displaying images received from the sensor 30, normal positions and detected actual positions of the singularity described above, and various text messages, etc.).

도 4A 내지 도 4D 는, 본 발명의 일 실시형태에 관련된 플라즈마 절단 장치 (10) 에 의해 실행할 수 있는 대표 적인 복수 종류의 개선 가공에 의한 제품 (34) 절단면의 단면형상의 예를 나타낸다.4A to 4D show examples of the cross-sectional shape of a cut surface of a product 34 by representative plural types of improvement processing that can be performed by the plasma cutting device 10 according to one embodiment of the present invention.

도 4A 에 나타내는 종류의 개선 가공에 의한 제품 (34) 의 절단면은, 그 전부가, 제품 (34) 의 주 표면 (상면) 에 대하여 수직이 아닌 임의의 각도를 이루는 베벨면 (50) 으로 되어 있다. 이와 같이 절단면의 전부가 하나의 베벨면 (50) 이 되는 종류의 개선 가공은, 일반적으로 V 개선 가공이라고 불려진다. 또, 도 4A 와는 상하가 역전되어 있는 경우도, V 개선 가공에 포함된다.All of the cut surfaces of the product 34 obtained by improvement processing of the kind shown in FIG. 4A are bevel surfaces 50 that form an angle other than perpendicular to the main surface (upper surface) of the product 34. . In this way, the kind of improvement processing in which all of the cut surfaces become one bevel surface 50 is generally called V improvement processing. Incidentally, a case where the top and bottom are reversed from those in Fig. 4A is also included in the V improvement processing.

도 4B 에 나타내는 종류의 개선 가공에 의한 제품 (34) 의 절단면은, 그 일부가 베벨면 (50) 이고, 나머지 부분이 주 표면에 수직인 수직면 (52) 으로 되어 있다. 이와 같이 절단면이 베벨면 (50) 과 수직면 (52) 의 2 면으로 구성되는 종류의 개선 가공은, 일반적으로 Y 개선 가공이라고 불린다. 또, 도 4B 와는 상하가 역전 되어 있는 경우도, Y 개선 가공에 포함된다.A cut surface of a product 34 obtained by improvement processing of the kind shown in FIG. 4B is a bevel surface 50 in part and a vertical surface 52 perpendicular to the main surface in the remaining part. In this way, the kind of improvement processing in which the cutting surface is composed of two surfaces, the bevel surface 50 and the vertical surface 52, is generally called Y improvement processing. Also, when the top and bottom are reversed from those in Fig. 4B, they are included in the Y improvement processing.

도 4C 에 나타내는 종류의 개선 가공에 의한 제품 (34) 의 절단면은, 플러스의 베벨각을 갖는 하나의 베벨면 (50A) 과, 마이너스의 베벨각을 갖는 또 다른 하나의 베벨면 (50B) 으로 구성된다. 이와 같이 베벨각이 상이한 2 개의 베벨면 (50A, 50B) 으로 절단면이 구성되는 종류의 개선 가공은, 일반적으로 X 개선 가공으로 불린 다.The cut surface of the product 34 obtained by improvement machining of the kind shown in FIG. 4C is composed of one bevel surface 50A having a positive bevel angle and another bevel surface 50B having a negative bevel angle. do. In this way, the kind of improvement processing in which the cut surface is constituted by the two bevel surfaces 50A and 50B having different bevel angles is generally referred to as X improvement processing.

도 4D 에 나타내는 종류의 개선 가공에 의한 제품 (34) 의 절단면은, 위와 아래의 베벨면 (50A, 50B) 과, 중앙의 수직면 (52) 을 갖는다. 이와 같이 베벨각이 상이한 3 개의 면 (50A, 50B, 52) 으로 절단면이 구성되는 종류의 개선 가공은, 일반적으로 K 개선 가공으로 불린다.A cut surface of a product 34 obtained by improvement processing of the kind shown in FIG. 4D has upper and lower beveled surfaces 50A and 50B and a central vertical surface 52 . In this way, the kind of improvement processing in which the cut surface is constituted by the three faces 50A, 50B, and 52 having different bevel angles is generally referred to as K improvement processing.

도 4A 에 나타내는 V 개선 가공은 1 단계의 절단 공정에서 사용할 수 있다. 이에 대하여, 도 4B 및 도 4C 에 나타내는 Y 개선 가공 및 X 개선 가공은 2 단계의 절단 부공정을 필요로 하고, 도 4D 에 나타내는 K 개선 가공은 3 단계의 절단 부공정을 필요로 한다. 이들 Y, X 및 K 개선 가공은, 본 발명의 원리에 따라서 제어된 다. 여기서, Y, X 및 K 개선 가공에 있어서, 수직면과 베벨면 중 어느 것을 어느 단계에서 형성할지는, 자유롭게 선택할 수 있다. 예를 들어, 도 4B 에 나타낸 Y 개선 가공의 경우, 전형적으로는 제 1 단계에서 수직면 (52) 을 형성하고, 제 2 단계에서 베벨면 (50) 을 형성하지만, 반대로, 제 1 단계에서 베벨면 (50) 을 형성하고, 제 2 단계에서 수직면 (52) 을 형성해도 된다.The V improvement process shown in FIG. 4A can be used in a one-step cutting step. In contrast, the Y refinement process and the X refinement process shown in FIGS. 4B and 4C require a two-step sub-cutting step, and the K-improvement process shown in FIG. 4D requires a three-step sub-cutting step. These Y, X and K improvement processes are controlled according to the principles of the present invention. Here, in the Y, X, and K improvement processing, which of the vertical plane and the bevel plane is to be formed at which stage can be freely selected. For example, in the case of the Y improvement machining shown in Fig. 4B, typically the vertical face 52 is formed in the first step and the bevel face 50 is formed in the second step, but conversely, the bevel face is formed in the first step. 50 may be formed, and the vertical surface 52 may be formed in the second step.

도 5 는, 복수 단계의 절단 부공정으로 구성되는 개선 가공의 절단 공정을 메인 컨트롤러 (32) (수치 컨트롤러 (320) 와 화상 해석기 (324)) 가 제어하는 경우의 그 제어의 흐름을 나타낸다.Fig. 5 shows the flow of control when the main controller 32 (numerical controller 320 and image analyzer 324) controls the cutting process of improvement processing composed of a plurality of sub-steps of cutting.

도 5 에 나타내는 바와 같이, 단계 60 에서 메인 컨트롤러 (32) 내의 수치 컨트롤러 (320) 는, 입력된 NC 프로 그램 (322) 에 기초하여 제 1 단계의 절단 부공정을 실행하고 제어한다. 제 1 단계의 절단 부공정에서는, 미리 결정되어 있는 모재 (14) 의 스테이지 (12) 상에서의 위치 및 자세와, NC 프로그램 (322) 에 기술된 각 제품 (34) 의 형상 도형 데이터에 기초하여, 플라즈마 토치 (28) 가 제 1 베벨 각도를 유지하면서 각 제품 (34) 의 형상 도형을 따라서 이동하면서, 플라즈마 토치 (28) 가 플라즈마 아크를 분사하고, 그것에 의해, 각 제품 (34) 의 전체 둘레에 걸쳐 제 1 베벨각도 (예를 들어, 모재 (14) 의 주 표면에 대하여 수직인 각도, 또는 소정의 기울어진 각도) 로 모재 (14) 가 절단됨으로써, 모재 (14) 로부터 각 제품 (34) 을 잘라낸다. 잘라낸 각제품 (34) 은 모재 (14) 로부터 완전히 떨어져 나가기 때문에, 각 제품 (34) 의 위치가 정규 위치로부터 약간 어긋나버리는 경우가 있다. NC 프로그램 (322) 에 의해 지정된 모든 제품 (34) 이 잘려 나가면, 제 1 단계의 절단 부공정이 완료된다.As shown in FIG. 5, in step 60, the numerical controller 320 in the main controller 32 executes and controls the cutting sub-process of the first step based on the inputted NC program 322. In the cutting sub-step of the first step, based on the predetermined position and posture of the base material 14 on the stage 12 and the shape figure data of each product 34 described in the NC program 322, As the plasma torch 28 moves along the shape of each product 34 while maintaining the first bevel angle, the plasma torch 28 sprays a plasma arc, whereby the entire circumference of each product 34 Each product 34 is cut from the base material 14 by cutting the base material 14 at a first bevel angle (for example, an angle perpendicular to the main surface of the base material 14 or a predetermined inclined angle) over the base material 14. Cut out. Since each cut product 34 completely separates from the base material 14, the position of each product 34 may slightly shift from the regular position. When all products 34 designated by the NC program 322 are cut out, the sub-cutting process of the first step is completed.

제 1 단계의 절단 부공정이 완료된 후, 메인 컨트롤러 (32) 는, 단계 62∼66 의 제어, 즉, 잘라낸 각 제품 (34) 의 실제 위치를 검출하여, 각 제품 (34) 의 위치 어긋남을 파악하는 제어를 실시한다. 도 6 은, 이 제어를 구체적으로 설명하기 위한 제품 (34) 의 평면도이다. 이하, 도 5 와 도 6 을 참조하면서, 단계 62∼66 의제어에 관해서 설명한다.After the sub-step of cutting in the first step is completed, the main controller 32 controls the steps 62 to 66, that is, detects the actual position of each cut product 34 and grasps the positional displacement of each product 34. carry out control. 6 is a plan view of the product 34 for specifically explaining this control. Hereinafter, control of steps 62 to 66 will be described with reference to FIGS. 5 and 6 .

도 5 에 나타내는 바와 같이, 단계 62 에서, 화상 해석기 (324) 는 이미지 센서 (30) 를 구동하여, 모재 (14) 의 표면에 있어서, 잘라낸 각 제품 (34) 의 적어도 2 개의 특이점의 정규 위치를 각각 중심으로 한 소정 사이즈의 2 개의 영역을 촬영시키고, 그 촬영된 2 개 영역의 화상을 이미지 센서 (30) 로부터 취득하여, 그 2 개 영역의 화상 (컬러 화상 또는 그레이 스케일 화상) 을 바이너리 화상 (모노크롬 화상) 으로 변환한다. 여기서, 각 제품 (34) 의 특이점은 그 위치에 기초하여 각 제품 (34) 의 위치를 산출하기 위해서 적합한 각 제품 (34) 상의 어떠한 지점 또는 점이다. 각 제품 (34) 의 위치 어긋남 (평행 이동 성분과 회전 성분) 을 파악할 필요성에서, 각 제품 (34) 에 관해서 적어도 2 개의 특이점이 설정된다. 각 제품 (34) 의 적어도 2 개의 특이 점의 정규 위치의 XY 좌표는 NC 프로그램 (322) 에 의해서 미리 지정되어 있다. 또는, 변형예로서, NC 프로 그램 (322) 에 포함되는 각 제품 (34) 의 제품 도형 데이터에 기초하여, 수치 컨트롤러 (320) 가 각 제품 (34) 의 적어도 2 개의 특이점의 정규 위치의 XY 좌표를 결정해도 된다. 이 실시형태에서는, 각 제품 (34) 의 외형선 상의 2 개의 코너점이 2 개의 특이점으로서 사용된다. 또한, 각 제품 (34) 의 특이점의 「정규 위치」 란, 각 제품 (34) 의 위치 어긋남이 발생하지 않았다면 특이점은 거기에 실제로 존재할 것임에 틀림없는 위치이 고, 이들은 NC 프로그램 (322) 내의 각 제품 (34) 의 제품 도형 데이터에 기초하여 정해지는 것이다. 제품 (34) 의 위치 어긋남이 발생함으로써, 특이점의 실제 위치는 각각의 정규 위치로부터 어긋나버린다.As shown in Fig. 5, in step 62, the image analyzer 324 drives the image sensor 30 to determine the regular positions of at least two singular points of each cut product 34 on the surface of the base material 14. Two regions of a predetermined size centered on each are photographed, and images of the two captured regions are acquired from the image sensor 30, and images (color images or gray scale images) of the two regions are converted into binary images ( monochrome image). Here, the singularity of each product 34 is any point or point on each product 34 suitable for calculating the location of each product 34 based on its location. At least two singular points are set for each product 34 in order to grasp the displacement (parallel movement component and rotation component) of each product 34 . The XY coordinates of the normal positions of at least two singular points of each product 34 are pre-specified by the NC program 322. Alternatively, as a modified example, based on the product figure data of each product 34 included in the NC program 322, the numerical controller 320 determines the XY coordinates of the normal positions of at least two singular points of each product 34 may decide In this embodiment, two corner points on the outline of each product 34 are used as two singular points. In addition, the "regular position" of the singularity of each product 34 is the position where the singularity must actually exist there if the positional deviation of each product 34 does not occur, and these are the positions of each product in the NC program 322 It is determined based on the product figure data of (34). Occurrence of positional displacement of the product 34 causes the actual position of the singularity to shift from its normal position.

단계 62 에 관해서, 도 6 에 나타난 예를 사용하여 설명한다. 도 6 에 있어서, 참조번호 80 이 부여된 일점 쇄선의 도형은, NC 프로그램 (322) 의 제품 도형 데이터에 의해 정의된, 어떤 제품 (34) 의 형상 도형으로, 그제품 (34) 의 정규 위치를 나타내고 있으며, 이것을 이하 「정규 제품 도형」이라고 한다. 정규 제품 도형 (80) 의 외형선 상의 2 개의 코너점 (861, 862) 이 정규 제품 도형 (80) 의 특이점으로서 설정된다. 정규 제품 도형 (80) 의 특이점 (861, 862) 은 제품 (34) 의 2 개의 특이점 (코너점) 의 정규 위치에 상당하기 때문 에, 이것을 이하, 「특이점 정규 위치」라고 한다. 단계 62 에서는, 수치 컨트롤러 (320) 가, 이미지 센서 (30) 를 X 축과 Y 축을 따라서 이동시켜, 이미지 센서 (30) 의 촬상 영역의 중심이 제 1 특이점 정규 위치 (861) 에 위치하도록 이미지 센서 (30) 의 위치를 세트한다. 그리고, 화상 해석기 (324) 가 이미지 센서 (30) 를 구동하여, 그 촬상 영역 (즉, 제 1 특이점 정규 위치 (861) 를 중심으로 한 소정 사이즈의 영역) (881)의 화상을 취득한다. 다음으로, 수치 컨트롤러 (320) 가, 이미지 센서 (30) 의 촬상 영역 중심이 제 2 특이점 정규 위치 (862) 에 위치하도록 이미지 센서 (30) 의 위치를 세트하고, 그리고, 화상 해석기 (324) 가 이미지 센서 (30) 를 구동하여 그 촬상 영역 (즉, 제 2 특이점 정규 위치 (862) 를 중심으로 한 소정 사이즈의 영역) (882) 의 화상을 취득한다. 여기서, 특이점 정규 위치 (861, 862) 의 XY 좌표는 NC 프로그램 (322) 에 기초하여 정해지기 때문에, 이미지 센서 (30) 의 촬상 영역의 중심의 위치를 상기한 바와 같이 특이점 정규 위치 (861, 862) 에 각각 세트하는 제어는, NC 프로그램 (322) 에 기초하여 실시된다. 이미지 센서 (30) 가촬상 영역 (881 및 882) 을 촬영할 때, 제품 (34) 과 함께 스크랩 (82) 도, 제 1 단계의 절단 부공정이 종료되 었을 때 그대로의 위치에서 스테이지 (12) 상에 남겨 두어도 된다. 물론, 촬영을 실시하기 전에, 제품 (34) 만을 남기고 스크랩 (82) 를 스테이지 (12) 상에서 제거해도 된다.Regarding step 62, it will be explained using an example shown in FIG. In Fig. 6, a figure of a dashed-dotted line with reference numeral 80 is a shape figure of a certain product 34, defined by product figure data of an NC program 322, and indicates the regular position of the product 34. This is hereinafter referred to as "regular product figure". Two corner points 861 and 862 on the outline of the regular product figure 80 are set as singular points of the regular product figure 80 . Since the singular points 861 and 862 of the regular product figure 80 correspond to the normal positions of the two singular points (corner points) of the product 34, these are hereinafter referred to as "singular point normal positions". In step 62, the numerical controller 320 moves the image sensor 30 along the X and Y axes so that the center of the imaging area of the image sensor 30 is located at the first singularity normal position 861. Set the position of (30). Then, the image analyzer 324 drives the image sensor 30 to acquire an image of the imaging area (ie, an area of a predetermined size centered on the first singular point normal position 861) 881 . Next, the numerical controller 320 sets the position of the image sensor 30 so that the center of the imaging area of the image sensor 30 is located at the second singular point normal position 862, and the image analyzer 324 The image sensor 30 is driven to acquire an image of the imaging area (ie, an area of a predetermined size centered on the second singularity normal position 862) 882 . Here, since the XY coordinates of the normal positions 861 and 862 of the singularity are determined based on the NC program 322, the position of the center of the imaging area of the image sensor 30 is set to the normal position of the singularity 861 and 862 as described above. ) is performed based on the NC program 322. When the image sensor 30 captures the provisional imaging areas 881 and 882, the scrap 82 along with the product 34 is also placed on the stage 12 in the same position when the first stage sub-cutting process is finished. may be left in Of course, you may remove the scrap 82 on the stage 12, leaving only the product 34, before shooting.

많은 경우, 잘라낸 제품 (34) 의 실제 위치는, 도시한 바와 같이 정규 제품 도형 (80) 으로부터는 약간 어긋나 있고, 따라서, 제품 (34) 의 2 개의 특이점의 실제 위치 (841, 842) 는, 대응하는 특이점 정규 위치 (861, 862) 로부터 어긋나 있다. 대부분의 경우, 그 위치 어긋남 거리는 길어야 1㎜ 정도이다. 촬상 영역 (881, 882) 의 사이즈는, 상기 위치 어긋남량보다 충분히 크게 설정되어 있다. 따라서, 각 촬상 영역 (881, 882) 중에 각 특이점의 실제 위치 (841, 842) 는 반드시 포함되게 된다.In many cases, the actual position of the cut-out product 34 is slightly deviated from the regular product figure 80 as shown, and thus the actual positions 841 and 842 of the two singular points of the product 34 correspond to The singularity to deviates from the normal position (861, 862). In most cases, the displacement distance is about 1 mm at most. The size of the imaging areas 881 and 882 is set sufficiently larger than the position shift amount. Therefore, the actual positions 841 and 842 of each singularity are necessarily included in each imaging area 881 and 882 .

다시 도 5 를 참조하여, 상기 서술한 단계 62 에서 촬상 영역 (881, 882) 의 바이너리 화상을 취득한 후, 단계 63 에서, 화상 해석기 (324) 는 촬상 영역 (881, 882) 의 바이너리 화상을 해석하여 2 개의 특이점의 실제 위치 (841, 842) 를 찾아내고, 그들 실제 위치 (841, 842) 의 XY 좌표를 산출한다. 특이점의 실제 위치 (841, 842) 를 서치하는 범위는, 촬상 영역 (881, 882) 의 전체 범위이어도 되지만, 그렇지 않고, 도 6 에 예시한 것처럼, 각각의 특이점 정규 위치 (861, 862) 로부터 소정 거리 R 이내의 근방 범위 (901, 902) 안으로만 한정해도 된다. 여기서, 소정 거리 R 에는, 가능성이 있는 위치 어긋남 거리의 최대치 (예를 들어, 절단 홈, 즉잘라낸 제품 (34) 과 스크랩 (82) 사이의 빈틈, 의 최대폭) 정도의 값이 채용되어 얻는다. 이와 같이 특이 점의 실제 위치 (841, 842) 를 서치하는 범위를 특이점 정규 위치 (861, 862) 의 근방 범위 (901, 902) 안으로만 한정함으로써, 제품 (34) 의 주위에 존재하는 스크랩 (82) 이 서치 범위로부터 제외되는 경우가 많아지기 때문에, 스크랩 (82) 의 어느 지점을 특이점으로서 오검출할 가능성이 줄어든다. 또, 그 서치에 의해서, 같은 특이점에 해당할 가능성이 같은 정도로 높은 복수의 후보점이 발견된 경우에는, 발견된 복수의 후보점 중에서, 대응하는 특이점 정규 위치에 가장 가까운 위치에 있는 하나의 점을 특이점의 실제 위치로서 선택할 수 있다.Referring again to FIG. 5 , after acquiring the binary images of the imaging areas 881 and 882 in step 62 described above, in step 63 the image analyzer 324 analyzes the binary images of the imaging areas 881 and 882, The actual positions (841, 842) of the two singular points are found, and the XY coordinates of the actual positions (841, 842) are calculated. The range in which the actual positions 841 and 842 of the singularity are searched may be the entire range of the imaging areas 881 and 882, but otherwise, as illustrated in FIG. It may be limited only within the vicinity ranges (901, 902) within the distance R. Here, as the predetermined distance R, a value about the maximum value of the possible misalignment distance (for example, the maximum width of the cutting groove, i.e., the gap between the cut product 34 and the scrap 82) is employed and obtained. In this way, by limiting the search range for the actual position (841, 842) of the singularity only within the range (901, 902) in the vicinity of the normal position (861, 862) of the singularity, scrap (82) existing around the product (34) ) is excluded from the search range in many cases, the possibility of erroneously detecting a certain point of the scrap 82 as a singular point is reduced. In addition, when a plurality of candidate points with an equally high probability of corresponding to the same singular point are found through the search, one point located closest to the normal position of the corresponding singular point is selected from among the plurality of candidate points found. can be selected as the actual location of

변형예로서, 상기한 바와 같이 2 개의 특이점 정규 위치 (861, 862) 를 각각 포함하는 2 개의 영역 (881, 882) 의 화상을 순차적으로 취득하여 각각의 화상을 해석하는 것이 아니라, 2 개의 특이점 정규 위치 (861, 862) 의 쌍방을 포함하는 하나의 넓은 영역의 화상을 1 도로 취득하고, 그리고, 그 하나의 넓은 영역의 화상을 해석하여 2 개의 특이점의 실제 위치 (841, 842) 를 찾아내도록 해도 된다.As a modified example, instead of sequentially acquiring images of the two regions 881 and 882 each containing the two singular point normal positions 861 and 862 and analyzing each image as described above, two singular point normal positions Even if an image of one large area including both the positions (861, 862) is acquired at one degree, and then the image of one large area is analyzed to find the actual positions (841, 842) of the two singular points. do.

특이점의 실제 위치를 찾아내기 위한 화상의 해석 방법으로는, 여러 가지 방법을 채용할 수 있다. 예를 들어, 촬상 영역 (881, 882) 의 각 화상 내에서 제품 (34) 의 외형선을 구성하는 복수의 선분을 검출하고, 그리고, 그들 선분이 교차하여 형성되는 코너점으로서 각 특이점 정규 위치 (861, 862) 에 가장 가까운 것을 찾아내어, 찾아낸 코너점을 특이점의 실제 위치로 간주하는 방법을 채용할 수 있다. 또는, 예를 들어, 도 7A 와 도 7B 에 나타내는 패턴 매칭 방법을 사용할 수도 있다. 이 방법은, 영역 (881, 882) 의 각 화상 중에서, 제품 도형에 의해 정해지는 각 특이점의 근방의 제품 형상 패턴에 가장 잘 매치하는 도형 패턴을 찾아 내는 방법이다.As an image analysis method for finding the actual position of a singular point, various methods can be employed. For example, in each image of the imaging areas 881 and 882, a plurality of line segments constituting the outline of the product 34 are detected, and each singular point normal position as a corner point formed by crossing those line segments ( 861, 862) may be found, and a method of considering the found corner point as the actual position of the singular point may be adopted. Alternatively, for example, the pattern matching method shown in Figs. 7A and 7B can be used. This method is a method of finding a figure pattern that most closely matches a product shape pattern in the vicinity of each singularity point determined by the product figure among the respective images of the areas 881 and 882.

도 7A 에는, 이 패턴 매칭 방법에서 사용되는 화소치 매트릭스 (100) 가 나타나 있다. 이 화소치 매트릭스 (100) 는, M 화소 × N 화소의 사이즈를 갖는다 (도 7A 중, 1 칸이 1 화소에 상당하고, 따라서, 도시된 예에서 는, 화소치 매트릭스 (100) 의 사이즈는 8 화소 × 8 화소이다). 화소치 매트릭스 (100) 내의 각 화소치는 「1」 또는 「0」의 바이너리 값이다. 화소치 매트릭스 (100) 는 제품 영역 (102) 과 배경 영역 (104) 으로 구성되며, 제품 영역 (102) 의 모든 화소치는 예를 들어 「1」이고, 배경 영역 (104) 의 모든 화소치는 예를 들어 「0」이다. 제품 영역 (102) 의 형상은, NC 프로그램의 제품 도형 데이터에 의해 정의된 어떠한 제품 (34) 의 제품 도형의 특이점 정규 위치 (861) 의 근방 부분 형상에 상당하며, 배경 영역 (104) 의 형상은, 그제품 도형 외의 영역 (전형적으로는, 절단 부분의 영역) 의 형상에 상당한다. 그리고, 제품 영역 (102) 의특이점 정규 위치 (861) 에 대응하는 1 개의 코너점 (106) 이, 화소치 매트릭스 (100) 의 중심점에 배치된다.7A shows a pixel value matrix 100 used in this pattern matching method. This pixel value matrix 100 has a size of M pixels x N pixels (in Fig. 7A, one column corresponds to one pixel, so in the illustrated example, the size of the pixel value matrix 100 is 8 pixel × 8 pixels). Each pixel value in the pixel value matrix 100 is a binary value of "1" or "0". The pixel value matrix 100 is composed of a product area 102 and a background area 104, all pixel values of the product area 102 are, for example, "1", and all pixel values of the background area 104 are, for example, For example, it is "0". The shape of the product area 102 corresponds to the shape of the part in the vicinity of the normal position 861 of the singularity of the product figure of a certain product 34 defined by the product figure data of the NC program, and the shape of the background region 104 is , corresponds to the shape of the area outside the product figure (typically, the area of the cut portion). Then, one corner point 106 corresponding to the normal position 861 of the singularity point in the product area 102 is arranged at the center point of the pixel value matrix 100 .

화상 해석부 (324) 는, 수치 컨트롤러 (320) 로부터 NC 프로그램의 제품 도형 데이터를 수신하고, 그 제품 도형 데이터에 기초하여 각 제품 (34) 의 어떠한 특이점 정규 위치, 예를 들어 제 1 특이점 정규 위치 (861) 에 대응한 상기 구성의 화소치 매트릭스 (100) 를 작성한다. 그 후, 화상 해석기 (324) 는, 제 1 특이점 정규 위치(861) 의 촬영 영역 (881) 의 바이너리 화상 중 하나의 부분에, 화소치 매트릭스 (100) 를 오버레이한다.The image analysis unit 324 receives the product figure data of the NC program from the numerical controller 320, and based on the product figure data, a certain singular point normal position of each product 34, for example, a first singular point normal position The pixel value matrix 100 having the above configuration corresponding to (861) is created. After that, the image analyzer 324 overlays the pixel value matrix 100 on one part of the binary image of the imaging area 881 of the first singular point normal position 861 .

그 때, 먼저, 그 바이너리 화상의 중심점 (즉, 제 1 특이점 정규 위치 (861)) 과 화소치 매트릭스 (100) 의 중심점 (즉, 도 7A 에 나타낸 제품 영역 (102) 의 코너점 (106)) 이 위치적으로 일치하도록 하여, 화소치 매트릭스 (100) 를 오버레이한다. 그리고, 화상 해석기 (324) 는, 화소치 매트릭스 (100) 내의 각 화소의 화소치 와, 그것이 오버레이된 바이너리 화상 중의 각 화소의 화소치를 비교하여, 양 화소치가 일치하는지 여부를 조사 하고, 화소치의 일치가 얻어진 화소의 개수를 집계한다. 이 집계치가, 화소치 매트릭스 (100) 와, 그것이 오버레이된 바이너리 화상의 부분 사이의 이미지 패턴의 매치도를 나타내게 된다. 그 후, 화상 해석부 (324) 는, 화소치 매트릭스 (100) 의 중심점의 바이너리 화상 상에서의 위치를 1 화소씩 X 방향 또는 Y 방향으로 축차 이동시키고, 각 이동처의 위치에서 상기 서술한 화소치의 비교를 실시하여, 화소치가 일치한 화소수를 집계하고 매치도를 구한다. 상기 서술한 서치 범위의 모든 화소 위치에 걸쳐서 화소치 매트릭스 (100) 의중심점의 이동을 반복하고, 각 이동처의 위치에서 화소치가 일치한 화소수 즉 매치도를 계산한다.At that time, first, the center point of the binary image (namely, the first singular point normal position 861) and the center point of the pixel value matrix 100 (namely, the corner point 106 of the product area 102 shown in Fig. 7A) The pixel value matrix 100 is overlaid so as to positionally coincide with each other. Then, the image analyzer 324 compares the pixel value of each pixel in the pixel value matrix 100 with the pixel value of each pixel in the binary image overlaid with the pixel value, checks whether both pixel values match, and matches the pixel values. Count the number of pixels obtained. This aggregate value represents the degree of match of the image pattern between the pixel value matrix 100 and the portion of the binary image over which it is overlaid. After that, the image analysis unit 324 sequentially moves the position of the center point of the pixel value matrix 100 on the binary image in the X direction or the Y direction one pixel at a time, and obtains the above-described pixel value at each movement destination position. By performing comparison, the number of pixels with identical pixel values is counted and a degree of matching is obtained. The movement of the center point of the pixel value matrix 100 is repeated over all pixel positions in the above-described search range, and the number of pixels whose pixel values match at each movement destination position, that is, the degree of matching is calculated.

이상의 결과, 각 화소치 매트릭스 (100) 의 중심점이 놓여진 바이너리 화상 중의 각종 위치 중에서, 화소치가 일치한 화소수 즉 매치도가 가장 커진 위치가 제 1 특이점의 실제 위치 (841) 에 해당할 가능성이 가장 높은 위치인 것으로 판단되고, 그리고, 그 위치의 XY 좌표가 제 1 특이점의 실제 위치 (841) 로서 검출된다. 예를 들어, 도 7B 에 예시한 바와 같이, 바이너리 화상 (110) 중의 일점 쇄선으로 나타내는 영역 (112) 에 도 7A 에나타낸 화소치 매트릭스 (100) 가 오버레이되었을 때, 매치도가 최대가 된다. 따라서, 이 때의 화소치 매트 릭스 (100) 의 중심점 (즉, 도 7A 에 나타내는 제품 영역 (102) 의 코너점 (106)) 에 대응하는 바이너리 화상 (110) 중의 위치 (841) 가, 제 1 특이점의 실제 위치로서 검출된다. 이와 동일한 패턴 매칭이 각 제품 (34) 의 제 2 특이점에 대해서도 실시되어, 도 6 에 나타낸 제 2 특이점의 실제 위치 (842) 도 검출된다.As a result of the above, among various positions in the binary image in which the center point of each pixel value matrix 100 lies, the number of pixels with identical pixel values, that is, the position with the largest matching degree is most likely to correspond to the actual position 841 of the first singularity. It is determined to be a high position, and the XY coordinates of that position are detected as the actual position 841 of the first singularity. For example, as illustrated in FIG. 7B, when the pixel value matrix 100 shown in FIG. 7A is overlaid on the region 112 indicated by the dashed-dotted line in the binary image 110, the degree of matching is maximized. Therefore, the position 841 in the binary image 110 corresponding to the center point of the pixel value matrix 100 at this time (ie, the corner point 106 of the product area 102 shown in FIG. 7A) is the first It is detected as the actual location of the singularity. The same pattern matching is also performed for the second singularity of each product 34, and the actual position 842 of the second singularity shown in FIG. 6 is also detected.

또, 매치도를 계산하는 방법으로서, 화소치가 일치한 화소수를 단순히 카운트하는 방법 대신에, 화소치 매트릭스 (100) 의 중심점 (즉, 특이점 (841) 에 대응하는 코너점 (106)) 에 가까운 화소에 대하여 큰 웨이팅 계수를 부여하고, 중심점에서 먼 화소에 대하여 작은 웨이팅 계수를 부여하여, 화소치가 일치한 화소의 웨이팅 계수를 적산하여 매치도로 하는 방법을 채용할 수도 있다. 이 방법에 의해서, 스크랩 (82) 상에 특이점을 오검출할 우려가 더욱 줄어든다.Also, as a method of calculating the degree of matching, instead of simply counting the number of pixels with identical pixel values, a method close to the center point of the pixel value matrix 100 (i.e., the corner point 106 corresponding to the singular point 841) is used. A method of assigning a large weighting coefficient to a pixel and assigning a small weighting coefficient to a pixel far from the center point and integrating the weighting coefficients of pixels whose pixel values match can be employed to obtain a degree of match. By this method, the risk of erroneous detection of a singularity on the scrap 82 is further reduced.

다시 도 5 를 참조하여, 단계 63 에서, 상기한 바와 같은 화상 해석에 의해 각 제품 (34) 의 2 개의 특이점의 실제 위치 (841, 842) 의 XY 좌표가 검출되는데, 이들 검출된 XY 좌표는, 각각의 촬상 영역의 화상 내의 좌표계에 따른 XY 좌표 (이하, 화상 좌표라고 한다) 이다. 다음으로, 화상 해석기 (324) 는, 화상 해석에서 얻어진 2 개의 특이점의 실제 위치 (841, 842) 의 화상 좌표를, 각각 수치 컨트롤러 (320) 에 의해 사용되는 플라즈마 토치 (28) 의 위치 제어를 위한 기계 좌표계에 따른 XY 좌표 (이하, 기계 좌표라고 한다) 로 변환한다.Referring again to Fig. 5, in step 63, the XY coordinates of the actual positions 841 and 842 of the two singular points of each product 34 are detected by the image analysis as described above. They are XY coordinates (hereinafter referred to as image coordinates) according to a coordinate system in the image of each imaging area. Next, the image analyzer 324 uses the image coordinates of the actual positions 841 and 842 of the two singular points obtained in the image analysis to control the position of the plasma torch 28 used by the numerical controller 320, respectively. Convert to XY coordinates according to the machine coordinate system (hereinafter referred to as machine coordinates).

그리고, 화상 해석기 (324) 는 2 개의 특이점의 실제 위치 (841, 842) 의 기계 좌표를 수치 컨트롤러 (320) 에통지한다.Then, the image analyzer 324 notifies the numerical controller 320 of the machine coordinates of the actual positions 841 and 842 of the two singular points.

그 후, 도 5 에 나타내는 단계 64 에서, 수치 컨트롤러 (320) 가, 화상 해석기 (324) 로부터 통지된 각 제품 (34) 의 2 개의 특이점의 실제 위치 (841, 842) 의 기계 좌표에 기초하여, 각 제품 (34) 의 위치 어긋남량을 나타내는 값의 세트 (평행 이동 거리치와 회전 각도치의 세트) 를 계산한다. 그리고, 수치 컨트롤러 (320) 는, 각 제품 (34) 의 위치 어긋남량 값의 세트에 기초하여, 그 위치 어긋남량이 소정의 허용 범위 내인지 여부를 판단한다. 그 결과, 각 제품 (34) 의 위치 어긋남량이 허용 범위 내이면, 제어는 단계 66 으로 진행되지 만, 위치 어긋남량이 허용 범위를 초과한 경우에는, 제어는 단계 65 로 진행된다. 단계 65 에서는, 수치 컨트롤러 (320) 는, 그 제품 (34) 의 위치 어긋남량이 허용 범위를 초과하고 있음을 나타내는 알람 신호를 예를 들어 콘솔 (326) 에 출력하고, 그리고, 그 제품 (34) 을 다음 단계 이후의 절단 부공정에 의한 자동 가공의 대상으로부터 제외시킨다.Then, in step 64 shown in FIG. 5, the numerical controller 320, based on the machine coordinates of the actual positions 841 and 842 of the two singular points of each product 34 notified from the image analyzer 324, A set of values representing the positional displacement amount of each product 34 (set of parallel movement distance value and rotation angle value) is calculated. Then, the numerical controller 320 determines whether or not the positional displacement amount is within a predetermined allowable range based on the set of positional displacement amount values of each product 34 . As a result, if the amount of displacement of each product 34 is within the allowable range, control proceeds to step 66, but if the amount of displacement exceeds the allowable range, control proceeds to step 65. In step 65, the numerical controller 320 outputs, for example, an alarm signal indicating that the amount of displacement of the product 34 exceeds the allowable range to the console 326, and then the product 34 It is excluded from the object of automatic processing by the sub-cutting process after the next step.

한편, 단계 64 의 결과, 각 제품 (34) 의 위치 어긋남량이 허용 범위 내이면, 제어는 단계 66 으로 진행되고, 여기서, 수치 컨트롤러 (320) 는, 각 제품 (34) 의 위치 어긋남량에 적합하도록 NC 프로그램 (322) (특히, 각제품 (34) 의 위치와 형상을 정의한 제품 도형 데이터) 을 수정한다. 다시 도 6 을 참조하여, 이 제어에서 는, 원래의 NC 프로그램 (322) 에 기초하여 얻어지는 각 제품 (34) 의 특이점 정규 위치 (861, 862) 의 기계 좌표 (X10, Y10), (X20, Y20) 가 검출된 특이점의 실제 위치 (841, 842) 의 기계 좌표 (X11, Y11), (X21, Y21) 로 시프트하도록, 원래의 NC 프로그램 (322) 에 대하여 평행 이동과 회전의 변환이 실시된다. 즉, 각 제품 (34) 의 특이점 정규 위치 (861, 862) 의 기계 좌표 (X10, Y10), (X20, Y20) 를, 각 제품 (34) 의 검출된 특이 점의 실제 위치 (841, 842) 의 기계 좌표 (X11, Y11) , (X21, Y21) 로 이동시키기 위한 평행 이동 거리와 회전 각이 계산되고, 그 평행 이동 거리 분(分)의 좌표 평행 이동 수정과 회전각 분(分)의 좌표 회전 수정이 원래의 NC 프로그램 (322) 의 각 제품 (34) 의 제품 도형 데이터에 적용되어, 수정된 NC 프로그램 (323) 이 얻어진다.On the other hand, as a result of step 64, if the amount of displacement of each product 34 is within the allowable range, control proceeds to step 66, where the numerical controller 320 adjusts the amount of displacement of each product 34 to suit the amount of displacement. The NC program 322 (in particular, product figure data defining the position and shape of each product 34) is corrected. Referring again to Fig. 6, in this control, the machine coordinates (X10, Y10), (X20, Y20) of the singular point normal position (861, 862) of each product 34 obtained based on the original NC program 322 are ) is shifted to the machine coordinates (X11, Y11), (X21, Y21) of the actual position (841, 842) of the detected singularity, translation of translation and rotation is performed with respect to the original NC program 322. That is, the machine coordinates (X10, Y10) and (X20, Y20) of the singular point normal position (861, 862) of each product 34 are expressed as the actual location (841, 842) of the detected singular point of each product 34. The translation distance and rotation angle for moving to machine coordinates (X11, Y11) and (X21, Y21) are calculated, and the coordinates of the translation distance min coordinates of the parallel translation correction and rotation angle min. Rotation correction is applied to the product figure data of each product 34 of the original NC program 322, and a corrected NC program 323 is obtained.

도 3 에 나타내는 바와 같이, 수정된 NC 프로그램 (323) 은 수치 컨트롤러 (320) 에 의해서 기억된다.As shown in FIG. 3 , the modified NC program 323 is stored by the numerical controller 320 .

다시 도 5 를 참조하여, 수치 컨트롤러 (320) 는, 단계 68 에서 수정된 NC 프로그램 (323) 을 사용하여, 개선 가공을 필요로 하는 각 제품 (34) 에 대해 제 2 단계의 절단 부공정, 즉 각 제품 (34) 의 외주연부에 제 2 베벨 각도 (예를 들어, 제품 (34) 의 주 표면에 대하여 기울어진 각도, 또는 수직 각도) 로 추가의 절단을 실시하고, 그 절단면의 단면형상을 수정된 NC 프로그램 (323) 에 의해 지정된 개선형상 (開先形狀) (예를 들어, 도 4B 에예시한 Y 개선, 또는, 도 4C 에 예시한 X 개선 등의 단면형상) 으로 한다. 수정된 NC 프로그램 (323) 에서 는, 각 제품 (34) 의 제품 도형 데이터는 각 제품 (34) 의 실제의 위치를 나타내고 있기 때문에, 제 2 단계의 절단 부공정의 절단 궤적은 각 제품 (34) 의 실제 위치에 따른 적정한 위치로 제어되고, 따라서 고정밀도의 가공이 실시될 수 있다.Referring back to FIG. 5 , the numerical controller 320, using the modified NC program 323 in step 68, for each product 34 requiring improvement machining, performs the secondary cutting step of the second step, that is, An additional cut is made to the outer periphery of each product 34 at a second bevel angle (for example, an inclined angle or a normal angle with respect to the main surface of the product 34), and the cross-sectional shape of the cut surface is corrected. It is set to a groove shape designated by the NC program 323 (e.g., a cross-sectional shape such as the Y groove illustrated in FIG. 4B or the X groove illustrated in FIG. 4C). In the modified NC program 323, since the product figure data of each product 34 indicates the actual position of each product 34, the cutting trajectory of the cutting sub-process in the second step is is controlled to an appropriate position according to the actual position of the , and therefore, high-precision processing can be performed.

그 후, 수치 컨트롤러 (320) 는, 단계 70 에서, 각 제품 (34) 에 관해서 실행해야 할 모든 절단 부공정이 완료 되었는지 여부를 판단하고, 그 결과, 다음 단계의 절단 부공정을 필요로 하는 개선 가공이 남아 있는 경우에는, 그 개선 가공에 관해서 상기 서술한 단계 62∼68 의 제어를 반복하여, 그 다음 단계의 절단 부공정을 실행한다.After that, the numerical controller 320 determines, in step 70, whether all the sub-cutting processes to be performed for each product 34 have been completed, and as a result, the improvement requiring the sub-cutting process of the next step is completed. When processing remains, control of steps 62 to 68 described above for the improvement processing is repeated, and the cutting sub-process of the next step is executed.

그 후, 메인 컨트롤러 (32) 는, 단계 72 의 제어에 의해, 상기 서술한 단계 60∼70 의 제어를 NC 프로그램 (322) 에 의해 정의된 모든 제품 (34) 에 관해서 반복한다.After that, the main controller 32 repeats the control of steps 60 to 70 described above with respect to all products 34 defined by the NC program 322 by the control of step 72 .

이상 설명한 제어에 의해, 1 대의 플라즈마 절단 장치 (10) 상에서 모재 (14) 로부터 제품 (34) 을 잘라내고, 그 후에, 잘라낸 제품의 절단면에 추가의 절단 가공을 실시하는, 개선 가공을 위한 복수 단계의 절단 부공정을 자동적으로 연속해서 효율적으로 실행할 수 있다. 또, 위에서 설명한 제어는, 최초의 절단 부공정에서 제품을 「잘라낼」 때, 제품의 외주를 전체 둘레에 걸쳐서 완전히 절단하여 제품을 모재 (스크랩) 로부터 완전히 분리시키는 경우뿐만 아니라, 제품 외주의 일부만을 남기고, 그 일부가 마이크로 조인트와 같이 제품과 모재 (스 크랩) 를 연결하고 있는 경우에도 적용할 수 있고, 그것에 의해 2 회째 이후의 절단 부공정의 가공 정밀도를 향상시킬 수 있다.By the above-described control, the product 34 is cut out from the base material 14 on one plasma cutting device 10, and thereafter, the cut surface of the cut product is subjected to additional cutting processing, a plurality of steps for improvement processing. The sub-cutting process can be executed automatically, continuously and efficiently. In addition, in the control described above, when "cutting" a product in the first sub-cutting process, not only the case where the outer circumference of the product is completely cut along the entire circumference to completely separate the product from the base material (scrap), but only a part of the outer circumference of the product In addition, it can be applied even when a part of it connects the product and the base material (scrap) like a micro joint, thereby improving the processing accuracy of the second and subsequent cutting sub-processes.

그런데, 상기 서술한 제어에 있어서는, 플라즈마 토치 (28) (플라즈마 토치 (28) 에 의한 절단 위치) 와 이미지 센서 (30) 사이의 위치 관계가 수치 컨트롤러 (320) 및 화상 해석기 (322) 에 의해 정확히 파악되어 있어야 한다. 그러나, 플라즈마 토치 (28) 의 위치 제어축은, X, Y, Z 축뿐만 아니라 틸트를 위한 B 축과 C 축이 있기 때문에, 플라즈마 토치 (28) 가 다른 물건에 접촉하거나 하였을 때, 어느 하나의 축의 원점이 올바른 위치로 부터 약간 어긋나버릴 가능성이 있다. 또는, 어떠한 원인에 의해 이미지 센서 (30) 의 위치가 어긋나버리는 경우가 있을지로 모른다. 그래서, 이 실시형태에서는, 메인 컨트롤러 (32) 는, 플라즈마 토치 (28) (플라즈마 토치 (28) 에 의한 절단 위치) 와 이미지 센서 (30) 사이의 위치 관계를 검출하고, 검출된 위치 관계에 따라서 NC 프로그램 (322) 또는 그 밖의 가공 제어 데이터를 캘리브레이션하는 기능을 추가로 구비한다. 이 캘리브레이션은, 플라즈마 토치 (28) 가 다른 물건에 접촉하거나 하였을 때, 개선 가공의 개시 전, 플라즈마 절단 장치의 전원 투입시, 지진이 발생한 후 등, 임의의 시기에 사용할 수 있다.By the way, in the above-described control, the positional relationship between the plasma torch 28 (the cutting position by the plasma torch 28) and the image sensor 30 is accurately determined by the numerical controller 320 and the image analyzer 322. should be figured out However, since the position control axis of the plasma torch 28 includes not only the X, Y, and Z axes, but also the B axis and C axis for tilt, when the plasma torch 28 touches or touches another object, either axis There is a possibility that the origin point is slightly displaced from the correct position. Alternatively, there may be cases where the position of the image sensor 30 is shifted for some reason. So, in this embodiment, the main controller 32 detects the positional relationship between the plasma torch 28 (the cutting position by the plasma torch 28) and the image sensor 30, and according to the detected positional relationship It further has a function of calibrating the NC program 322 or other process control data. This calibration can be used at any time, such as when the plasma torch 28 comes into contact with another object, before start of refining process, when power is turned on to the plasma cutting device, or after an earthquake occurs.

도 8 은, 이 캘리브레이션의 동작을 설명하는 도면이다. 도 9 는, 이 캘리브레이션의 제어의 흐름을 나타내는 플로우차트이다.Fig. 8 is a diagram explaining the operation of this calibration. 9 is a flowchart showing the flow of this calibration control.

도 9 에 나타내는 바와 같이, 이 캘리브레이션의 제어에서는, 단계 130 에서 수치 컨트롤러 (320) 는, 틸터 (26) 의 B 축과 C 축의 위치를 BC 좌표의 원점에 세트하고, 그리고 플라즈마 토치 (28) 를 구동하여, NC 프로그램 (322) 에 의해 지정되는 테스트 절단선을 따라서 스테이지 상에 놓인 어떤 테스트재 (이것은, 제품 (34) 을잘라내기 위한 모재 (14) 이어도 되고, 별도의 판재이어도 된다) (121) 를 절단하는 테스트 절단을 실시한다.As shown in FIG. 9 , in this calibration control, in step 130, the numerical controller 320 sets the B-axis and C-axis positions of the tilter 26 to the origin of the BC coordinates, and then moves the plasma torch 28 It is driven, and a certain test material placed on the stage along the test cutting line specified by the NC program 322 (this may be the base material 14 for cutting the product 34 or another plate material) (121 ) and conduct a test cut that cuts the

여기서, 테스트 절단선은, 도 8 에 예시한 L 자형의 꺾인 선 (120) 이어도 되고, 또는, 그 밖의 형상의 선이 어도 (예를 들어, 단순한 둥근 구멍이 뚫릴 뿐이어도) 상관없지만, 어떻든 간에, 테스트 절단선은 소정의 XY 좌표의 위치 (예를 들어, XY 좌표의 원점) 를 통과하고 있어, 테스트 절단선 상의 어디가 상기 소정 좌표 위치에 해당하는지가, 이미지 센서 (30) 에 의해 촬영되는 화상으로부터 파악 가능한 형상을 갖고 있다. 도 8 에나타낸 예에서는, L 자형의 테스트 절단선 (120) 의 코너점 (122) 이 상기 소정 좌표 위치에 해당한다. 따라서, 이 L 자형의 테스트 절단선 (120) 의 상기 소정 좌표 위치에 해당하는 지점 즉 코너점 (122) 은, 상기 서술한 특이점을 서치하는 방법과 동일한 방법으로 찾아낼 수 있다.Here, the test cut line may be the L-shaped broken line 120 illustrated in FIG. 8, or a line of any other shape (for example, even if it is just a simple round hole), but in any case , The test cutting line passes through a predetermined XY coordinate position (eg, the origin of the XY coordinates), and where on the test cutting line corresponds to the predetermined coordinate position is an image captured by the image sensor 30 It has a shape recognizable from In the example shown in FIG. 8 , the corner point 122 of the L-shaped test cutting line 120 corresponds to the predetermined coordinate position. Therefore, a point corresponding to the predetermined coordinate position of the L-shaped test cutting line 120, that is, a corner point 122, can be found by the same method as the above-described singularity search method.

다시 도 9 를 참조하여, 단계 130 의 테스트 절단이 끝나면, 단계 132 에서 수치 컨트롤러 (320) 는, 미리 수치 컨트롤러 (320) 에 설정되어 있는 오프셋 거리 (X 방향의 거리와 Y 방향의 거리) 만큼 상기 소정 좌표 위치로부터 어긋난 위치에 BC 좌표의 원점에 세트되어 있는 플라즈마 토치 (28) 의 절단 위치에 상당하는 위치가 오도록, 공구 이동 기구 (16∼26) 를 이동시키고, 그것에 의해, 플라즈마 토치 (28) 와 이미지 센서 (30) 가 함께 이동한다. 여기서, 상기 오프셋 거리란, 이미지 센서 (30) 의 촬상 영역의 중심과, BC 좌표의 원점에 세트되어 있는 플라즈마 토치 (28) 의 절단 위치 사이의 거리를 나타낸 데이터이다. 상기 이동이 끝난 후, 단계 134 에서 화상 해석기 (324) 가 이미지 센서 (30) 를 구동하여, 그 촬상 영역의 화상을 이미지 센서 (30) 로부터 취득한다. 이 때, 만약에 토치 이동 기구 (16∼26) 의 X, Y, Z, B, C 축 모든 원점이 정확하다면, 출력된 화상 (124) 내에서, 테스트 절단선 (120) 의 코너점 (상기 소정 좌표 위치에 상당하는 지점) (122) 이 그화상의 중심 (이미지 센서 (30) 의 촬상 영역의 중심) (126) 에 위치할 것이다. 한편, 그렇지 않다면, 실제의 오프셋 거리는 수치 컨트롤러 (320) 에 기억되어 있는 오프셋 거리와는 상이하기 때문에, 도 8 에 예시한 것처럼, 촬영된 화상 (124) 내에서, 테스트 절단선 (120) 의 코너점 (상기 소정 좌표 위치에 상당하는 지점) (122) 은 화상 (124) 의 중심 (126) 으로부터 벗어나게 된다.Referring back to FIG. 9 , when the test cutting in step 130 is finished, in step 132, the numerical controller 320 sets the offset distance (the distance in the X direction and the distance in the Y direction) set in the numerical controller 320 in advance as described above. The tool moving mechanisms 16 to 26 are moved so that a position corresponding to the cutting position of the plasma torch 28 set at the origin of the BC coordinates comes to a position displaced from the predetermined coordinate position, thereby moving the plasma torch 28 and the image sensor 30 move together. Here, the offset distance is data representing the distance between the center of the imaging area of the image sensor 30 and the cutting position of the plasma torch 28 set at the origin of BC coordinates. After the movement is finished, in step 134, the image analyzer 324 drives the image sensor 30 to obtain an image of the imaging area from the image sensor 30. At this time, if all origin points of the X, Y, Z, B, and C axes of the torch moving mechanisms 16 to 26 are accurate, in the output image 124, the corner point of the test cutting line 120 (above) A point corresponding to a predetermined coordinate position) 122 will be located at the center of the image (center of the imaging area of the image sensor 30) 126. On the other hand, if not, since the actual offset distance is different from the offset distance stored in the numerical controller 320, as illustrated in FIG. 8, within the captured image 124, the corner of the test cutting line 120 A point (a point corresponding to the predetermined coordinate position) 122 deviates from the center 126 of the image 124.

그 후, 화상 해석기 (324) 는, 도 9 의 단계 136 에서 화상 (124) 을 해석하여, 화상 (124) 의 중심 (이미지 센서 (30) 의 촬상 영역의 중심) (126) 과 테스트 절단선 (120) 의 코너점 (상기 소정 좌표의 상당하는 지점) (122) 사이의 기계 좌표계에서의 위치 어긋남량 (즉, 실제의 오프셋 거리와, 수치 컨트롤러 (320) 에 기억되어 있는 오프셋 거리의 차이로서, X 방향의 위치 어긋남량과 Y 방향의 위치 어긋남량으로 이루어진다) 을계산하고, 그 위치 어긋남량을 NC 컨트롤러 (320) 에 통지한다. 그리고, 단계 138 에서 NC 컨트롤러 (320) 가, 그 위치 어긋남량의 분량만큼, NC 프로그램 (322) (특히, 각 제품 (34) 의 제품 도형 데이터의 XY 좌표값) 및 상기 서술한 오프셋 거리 중 어느 일방을 수정한다. 이후에는, NC 프로그램 (322) 에 의해 지정되는 어느 XY 좌표에 대응하는 위치를 플라즈마 토치 (28) 로 절단한 후에, 오프셋 거리만큼 카메라 (30) 를 이동시키 면, 그 XY 좌표 위치에 대응하는 절단 위치에 이미지 센서 (30) 의 촬상 영역의 중심이 정확하게 위치 매칭되게 된다. 덧붙여서, 이미지 센서 (30) 의 촬상 영역의 중심은 이미지 센서 (30) 의 렌즈계의 수차의 영향을 가장 받기 어렵기 때문에, 촬상 영역의 중심을 절단 위치에 맞춰지도록 캘리브레이션을 실시함으로써, 도 5 의 단계 62∼68 에 나타낸 제어를 고정밀도로 실시하는 것이 가능하게 된다.Then, the image analyzer 324 analyzes the image 124 in step 136 of FIG. 120) in the machine coordinate system between the corner points (points corresponding to the predetermined coordinates) 122 (that is, the difference between the actual offset distance and the offset distance stored in the numerical controller 320, (consisting of the amount of positional displacement in the X direction and the amount of positional displacement in the Y direction) is calculated, and the amount of positional displacement is notified to the NC controller 320 . Then, in step 138, the NC controller 320 determines which one of the NC program 322 (specifically, the XY coordinate values of the product figure data of each product 34) and the above-described offset distance by the amount of the positional deviation amount. edit one side Thereafter, after cutting a position corresponding to a certain XY coordinate designated by the NC program 322 with the plasma torch 28, and moving the camera 30 by an offset distance, the cutting corresponding to the XY coordinate position The center of the imaging area of the image sensor 30 is precisely matched to the location. Incidentally, since the center of the imaging area of the image sensor 30 is least affected by the aberration of the lens system of the image sensor 30, by calibrating the center of the imaging area to match the cutting position, the steps in FIG. It becomes possible to perform the control shown in 62 to 68 with high precision.

다음으로, 본 발명의 제 2 실시형태에 관련된 플라즈마 절단 장치에 대해 설명한다. 제 2 실시형태는, 상기 서술한 제 1 실시형태의 구성에 4 가지 개량을 부가한 것으로, 그 중 3 개의 개량은 특이점의 검출 성능을 높이기 위한 것이고, 다른 1 개의 개량은, 테이블 (12) 상에서의 모재 (14) 의 위치와 자세를 검출하는 성능을 개선 시키기 위한 것이다. 특이점의 검출 성능을 높이기 위한 첫번째 개량은, 이미지 센서 (30) 의 배치와 그 촬상 영역의 조명에 관한 것이고, 두 번째 개량은, 특이점의 자동 검출과 수동 검출의 조합에 관한 것이며, 세번째 개량은, 화상 해석의 대상이 되는 화상 영역을 작게 제한하는 것에 관한 것이다. 이하, 각각의 개량에 대해 설명한다.Next, a plasma cutting device according to a second embodiment of the present invention will be described. In the second embodiment, four improvements are added to the configuration of the first embodiment described above, three of which are for improving the singular point detection performance, and the other one is for improving the singular point detection performance. It is to improve the performance of detecting the position and posture of the base material 14 of the. The first improvement for improving the detection performance of the singularity relates to the arrangement of the image sensor 30 and the illumination of its imaging area, the second improvement relates to a combination of automatic and manual detection of the singularity, and the third improvement, It relates to limiting the image area to be a target of image analysis to a small size. Each improvement is described below.

도 10 은, 제 2 실시형태에 있어서의 이미지 센서 (30) 의 배치 방법과, 이미지 센서 (30) 의 촬상 영역을 조명 하는 방법을 나타내고 있다.10 shows a method of arranging the image sensor 30 and a method of illuminating an imaging area of the image sensor 30 in the second embodiment.

도 10 에 나타나는 바와 같이, 이미지 센서 (30) 는, 플라즈마 토치 (28) 와 함께 X, Y 및 Z 방향으로 이동하도 록, 플라즈마 토치 (28) 를 유지하는 엘리베이터 (24) (브래킷 (40)) 에 장착되어 있다. 플라즈마 토치 (28) 에 의해 모재 (14) 가 절단되어 있을 때에 모재 (14) 로부터 튀어 오른 용융 금속의 액적이 이미지 센서 (30) 에 닿지 않도록 이미지 센서 (30) 는 플라즈마 토치 (28) 보다 충분히 높은 위치에 배치되어 있다. 또한, 브래킷 (40) 상에는, 이미지 센서 (30) 의 양측에서 근방의 위치에 2 개의 램프 (202, 204) 가 장착되어 있다. 2 개의 램프 (202, 204) 는, 모재 (14) 의 표면에 있어서 이미지 센서 (30) 의 촬상 영역 (210) 을 촬상 영역 (210) 의 양측에서 조명한다.As shown in FIG. 10, the image sensor 30 is connected to an elevator 24 (bracket 40) that holds the plasma torch 28 to move in the X, Y and Z directions with the plasma torch 28. is mounted on When the base material 14 is cut by the plasma torch 28, the image sensor 30 is sufficiently higher than the plasma torch 28 so that droplets of molten metal protruding from the base material 14 do not touch the image sensor 30. placed in position. Further, on the bracket 40, two lamps 202 and 204 are mounted at positions near the image sensor 30 on both sides. The two lamps 202 and 204 illuminate the imaging area 210 of the image sensor 30 on both sides of the imaging area 210 on the surface of the base material 14 .

이미지 센서 (30) 로부터 얻어지는 촬상 영역 (210) 의 화상에 있어서, 특이점의 검출을 곤란하게 하는 요인으 로서, 모재 (14) 표면의 더러움 (예를 들어 스퍼터), 모재 (14) 의 표면 상태 (색, 녹 발생, 흠집) 의 불균일, 및, 이 플라즈마 절단 장치가 설치되어 있는 환경의 조명 상태의 열악함 (밝기의 결여, 그림자의 존재) 등이 있다. 2 개의 램프 (202, 204) 에 의해 촬상 영역 (210) 을 양측에서 조명함으로써, 이들 요인의 영향이 줄어 들고, 촬영된 화상에서는, 모재 (14) 나 제품 (34) 의 표면과 절단 홈 사이의 명도의 차이가 보다 명확하게 된다. 그것에 의해, 화상을 해석하여 특이점을 자동적으로 검출하는 정밀도가 향상된다.In the image of the imaging area 210 obtained from the image sensor 30, as a factor that makes it difficult to detect a singular point, the surface of the base material 14 is dirty (for example, sputtering), the surface state of the base material 14 ( color, rust, scratches), and poor lighting condition of the environment in which this plasma cutting device is installed (lack of brightness, existence of shadows), and the like. By illuminating the imaging area 210 from both sides with the two lamps 202 and 204, the influence of these factors is reduced, and in the captured image, the gap between the surface of the base material 14 or product 34 and the cut groove is reduced. The difference in brightness becomes clearer. Thereby, the accuracy of automatically detecting a singular point by analyzing an image is improved.

이미지 센서 (30) 로부터 출력되는 촬상 영역 (210) 의 화상은 화상 해석기 (324) (도 3 참조) 에 의해 해석된 다. 화상 해석기 (324) 는, 촬상 영역 (210) 의 화상의 전역을 해석하는 것은 아니고, 촬상 영역 (210) 의화상 중에서 그 중심에 가까운 좁은 영역 (216) (이하, 해석 영역) 의 화상만을 추출하여, 그 해석 영역 (216)의 화상을 해석한다. 이미지 센서 (30) 로부터 출력되는 화상의 화소 피치가 예를 들어 약 0.1㎜ (즉, 해상 도가 약 250ppi) 인 경우, 해석 영역 (216) 의 치수는 예를 들어 약 2 인치 × 2 인치이고, 해석 영역 (216) 의화상의 픽셀 사이즈는 약 200 픽셀 × 200 픽셀이다. 해석 영역 (216) 의 치수와 그 화상의 픽셀 사이즈가이 정도이면, 화상 해석에 걸리는 시간은 매우 단시간으로 할 수 있다.An image of the imaging area 210 output from the image sensor 30 is analyzed by an image analyzer 324 (see FIG. 3). The image analyzer 324 does not analyze the entire image of the imaging area 210, but extracts only an image of a narrow area 216 (hereinafter referred to as an analysis area) close to the center of the image of the imaging area 210, , the image of the analysis area 216 is analyzed. When the pixel pitch of the image output from the image sensor 30 is, for example, about 0.1 mm (that is, the resolution is about 250 ppi), the size of the analysis region 216 is, for example, about 2 inches x 2 inches, and The pixel size of the image in area 216 is about 200 pixels by 200 pixels. If the size of the analysis area 216 and the pixel size of the image are these, the time required for image analysis can be made very short.

화상 해석에 의해 특이점을 자동적으로 검출하는 방법에, 항상 100% 의 신뢰성을 기대하는 것은 불가능하다.It is impossible to always expect 100% reliability for a method for automatically detecting a singularity by image analysis.

만약에 오검출이 발생하고, 그 오검출 결과에 기초하여 다음 단계의 절단이 행해지면, 잘라낸 제품 (34) 은사용할 수 없게 되기 때문에, 소비된 비용과 시간과 노동력이 소용없게 된다. 그 때문에, 특이점의 오검출을 확실히 없애는 것이 요망된다. 그래서, 이 제 2 실시형태에서는, 자동 검출에서는 오류가 생길 우려가 있을 때에는, 자동 검출을 고집하지 않고, 즉시 자동 검출에서터 수동 검출 (작업자에 의한 특이점의 지정) 로검출 모드를 전환하는 기능이 탑재된다. 변형예로서, 자동 검출 결과가 오검출의 가능성이 있는 경우, 자동 검출의 리트라이를 1 회나 2 회 정도 실시하고, 리트라이에 의해서도 오검출의 가능성이 사라지지 않으면, 수동 검출 모드로 이행하도록 해도 된다.If an erroneous detection occurs and the next stage of cutting is performed based on the erroneous detection result, the cut product 34 becomes unusable, so the spent cost, time and labor are useless. Therefore, it is desired to reliably eliminate erroneous detection of the singularity. Therefore, in the second embodiment, when there is a risk of error in automatic detection, there is a function of switching the detection mode from immediate automatic detection to manual detection (specification of a singular point by the operator) without insisting on automatic detection. is mounted As a modified example, if there is a possibility of false detection in the automatic detection result, retry of automatic detection is performed once or twice, and if the possibility of false detection does not disappear even after retrying, the manual detection mode may be switched. do.

도 11A 와 도 11B 는, 자동 검출로부터 수동 검출로 특이점의 검출 방법을 전환하는 기능을 설명하기 위한 콘솔 (326) 의 예를 나타낸다.11A and 11B show an example of a console 326 for explaining the function of switching the detection method of an outlier from automatic detection to manual detection.

도 11A 와 도 11B 에 나타내는 바와 같이, 콘솔 (326) 에는, 표시 스크린 (402), 자동/수동 전환 버튼 (404), 이동 버튼 (406), 경보음기 (408) 및 호출 램프 (410) 가 구비되어 있다. 화상 해석기 (324) 는, 화상 해석에 의한 특이점의 자동 검출을 실시하고 있을 (자동 검출 모드일) 때에는, 도 11A 에 예시된 것처럼 표시 스크린 (402) 에 해석 범위 (216) 의 화상을 표시하여, 표시 스크린 (402) 의 중심 (412) 에 NC 프로그램에 의해 지정되는 특이점의 정규 위치를 위치시킨다. 표시 스크린 (402) 에는, 특이점을 지시하기 위한 커서 (414) 도표시된다. 화상 해석기 (324) 는, 화상 해석에 의해 특이점의 위치를 검출하면, 그 검출이 오류일 가능성이 있는지 여부를 판단한다. 예를 들어, 검출된 특이점의 위치와 정규 위치 사이의 거리가 소정의 역치 (예를 들어, 미리 설정되어 있는 절단 홈의 최대폭 정도의 값) 보다 크면, 그렇게 크게 특이점의 위치가 어긋날 가능 성은 거의 없으므로, 그 검출은 오류일 가능성이 있다고 판단된다. 이와 같이 오검출의 가능성이 있다고 판단된 경우, 화상 해석기 (324) 는, 콘솔 (326) 의 경보음기 (408) 및 호출 램프 (410) 를 구동하여 작업자를 호출하고, 작업자로부터 지시가 입력될 때까지 제어를 진행시키지 않고서 대기한다.11A and 11B, the console 326 is provided with a display screen 402, an automatic/manual switching button 404, a movement button 406, an alarm sounder 408, and a call lamp 410. has been When the image analyzer 324 automatically detects a singularity by image analysis (in the automatic detection mode), it displays an image in the analysis range 216 on the display screen 402 as illustrated in FIG. 11A, At the center 412 of the display screen 402, the normal position of the singularity specified by the NC program is placed. On the display screen 402, a cursor 414 for indicating a singular point is displayed. When the image analyzer 324 detects the position of the singular point through image analysis, it is determined whether or not the detection is possibly erroneous. For example, if the distance between the position of the detected singularity and the normal position is greater than a predetermined threshold value (eg, a value about the maximum width of a preset cutting groove), there is little possibility that the position of the singularity will be so greatly displaced. , the detection is judged to be possibly erroneous. When it is determined that there is a possibility of false detection in this way, the image analyzer 324 drives the alarm sounder 408 and the call lamp 410 of the console 326 to call a worker, and when an instruction is input from the worker wait without proceeding with control until

그 후, 작업자가 콘솔 (326) 의 자동/수동 전환 버튼 (404) 을 누르면, 화상 해석기 (324) 는, 자동 검출 모드 로부터 수동 검출 모드로 전환되고, 도 11B 에 나타낸 바와 같이, 표시 스크린 (402) 에 표시되어 있던 화상을 확대하여, 특이점의 정규 위치의 근방 영역이 보다 상세히 표시되도록 한다. 작업자는, 이동 버튼 (406) 을조작함으로써 커서 (414) 를 이동시켜, 표시 스크린 (402) 상의 특이점의 위치를 커서 (414) 로 지정할 수있다. 또는, 표시 스크린 (402) 상에 터치 센서 패널이 구비되어 있으면, 작업자는, 표시 스크린 (402) 상의 특이점의 위치를 손 끝이나 펜 끝 등에 의해 직접적으로 지정할 수도 있다. 또는, 도시하지 않은 마우스에 의해서 커서 (414) 를 이동시키는 것도 가능하다. 어떻든 간에, 작업자에 의해 표시 스크린 (402) 상의 특이점의 위치가 지정되면, 화상 해석기 (324) 는, 자동 검출된 위치가 아니라 작업자에 의해 지정된 위치를 특이점의 위치로서 그 기계 좌표를 계산하여, 수치 컨트롤러 (320) 에 통지한다.Then, when the operator presses the automatic/manual switching button 404 of the console 326, the image analyzer 324 switches from the automatic detection mode to the manual detection mode, and as shown in FIG. 11B, the display screen 402 ) is enlarged so that the area near the normal position of the singularity is displayed in more detail. The operator can move the cursor 414 by manipulating the move button 406 and designate the position of the singular point on the display screen 402 with the cursor 414 . Alternatively, if a touch sensor panel is provided on the display screen 402, the operator may directly designate the position of a singular point on the display screen 402 with the tip of a finger or a pen. Alternatively, it is also possible to move the cursor 414 with a mouse (not shown). In any case, if the position of the singular point on the display screen 402 is designated by the operator, the image analyzer 324 calculates the machine coordinates using the position specified by the operator as the position of the singular point, not the automatically detected position, and The controller 320 is notified.

도 12 는, 화상 해석기 (324) 가 실시하는 특이점 검출 처리의 흐름을 나타내고, 이 흐름에는, 상기 서술한 자동 검출 모드에서 수동 검출 모드로의 전환 제어도 포함되어 있다. 이 흐름은, 도 5 에 나타낸 개선 가공의 제어의 흐름 중에서 단계 63 에 상당한다.Fig. 12 shows the flow of the singular point detection process performed by the image analyzer 324, and this flow also includes control over switching from the above-described automatic detection mode to the manual detection mode. This flow corresponds to step 63 in the control flow of improvement processing shown in FIG. 5 .

도 12 에 나타내는 바와 같이, 단계 502 에서, 화상 해석기 (324) 는, 해석 범위의 바이너리 화상을 해석하여 특이점의 위치를 검출한다. 단계 504 에서, 화상 해석기 (324) 는 검출된 특이점의 위치가 소정의 오검출 조건을 만족하는지 체크한다. 소정의 오검출 조건이란, 예를 들어, 전술한 바와 같이 검출된 특이점의 위치와 정규 위치 사이의 거리가 소정의 역치 (예를 들어, 미리 설정되어 있는 절단 홈의 최대폭 정도의 값) 보다 크다는 조건이다. 또, 이 조건에 추가하여 다른 조건이 있어도 된다. 이 체크 결과가 노 (no) 이면, 검출된 특이점의 위치는 올바른 것으로 판단되지만 (단계 506), 예스 (yes) 이면, 검출된 특이점의 위치는 잘못되어 있을 가능성이 있다고 판단되어, 제어가 단계 508 로 진행된다.As shown in Fig. 12, in step 502, the image analyzer 324 analyzes the binary image in the analysis range to detect the position of the singular point. In step 504, the image analyzer 324 checks whether the position of the detected singular point satisfies a predetermined false detection condition. The predetermined false detection condition is, for example, a condition that the distance between the position of the singular point detected as described above and the regular position is greater than a predetermined threshold value (eg, a value about the maximum width of the cutting groove set in advance). to be. In addition to these conditions, other conditions may exist. If the result of this check is no, the position of the detected singularity is determined to be correct (step 506), but if yes, the position of the detected singularity is judged to be possibly incorrect, and control returns to step 508. It goes on.

단계 508 에서, 화상 해석기 (324) 는, 작업자를 호출하여, 작업자로부터 지시가 입력될 때까지 대기한다.In step 508, the image analyzer 324 calls the operator and waits until an instruction is input from the operator.

단계 510 에서, 작업자로부터 수동 검출로의 전환 지시가 입력되면, 화상 해석기 (324) 는, 표시 스크린 (402) 에 특이점의 정규 위치 근방의 화상을 확대 표시한다. 그 후, 단계 512 에서, 작업자가 표시 스크린 (402) 상의 1 위치를 지정하면, 화상 해석기 (324) 는 그 지정된 위치를 특이점의 올바른 위치로 한다.In step 510, when an instruction to switch to manual detection is input from the operator, the image analyzer 324 enlarges and displays an image in the vicinity of the normal position of the singularity on the display screen 402. Then, in step 512, when the operator designates one position on the display screen 402, the image analyzer 324 sets the designated position as the correct position of the singularity.

이와 같이, 자동 검출과 수동 검출을 조합하여 사용함으로써, 특이점의 위치를 확실히 찾아낼 수 있다. 수동 검출시에는, 표시 스크린 (402) 에 표시된 화상 상에서 작업자가 특이점의 위치를 지정한다는 방법을 사용함 으로써, 특이점의 수동 검출이 용이하다.In this way, by using the automatic detection and manual detection in combination, the location of the singularity can be found reliably. In the case of manual detection, manual detection of the singularity is easy by using a method in which the operator designates the position of the singularity on the image displayed on the display screen 402.

그런데, 표시 스크린 (402) 상에 촬영된 화상을 표시하고, 그 화상 상에서 작업자가 원하는 위치를 지정한다는 상기 방법은, 특이점의 검출뿐만 아니라, 가공 공정의 개시 전에 스테이지 (12) 상에서의 모재 (14) 의 위치 (예를 들어 원점의 XY 좌표) 와 자세 (예를 들어 모재 (14) 의 한 변의 X 축 또는 Y 축에 대한 경사 각도) 를검출하기 위해서도 활용된다.By the way, the above method of displaying a photographed image on the display screen 402 and specifying a desired position by the operator on the image not only detects a singular point, but also ) is also utilized to detect the position (for example, the XY coordinates of the origin) and posture (for example, the inclination angle of one side of the base material 14 with respect to the X axis or Y axis).

도 13 은, 이 제 2 실시형태에 있어서의, 이미지 센서 (30) 에 의해 촬영된 화상을 사용하여 모재 (14) 의 위치와 자세를 검출하는 제어의 흐름을 나타낸다.Fig. 13 shows the flow of control for detecting the position and attitude of the base material 14 using the image captured by the image sensor 30 in this second embodiment.

도 13 에 나타내는 제어가 시작되면, 단계 602 에서, 화상 해석부 (324) 가 이미지 센서 (30) 를 구동하여, 이미지 센서 (30) 의 촬상 범위의 화상을 입력하고, 입력된 화상을 콘솔 (326) 의 표시 스크린 (402) 에표시한다. 작업자는, 도 11A 또는 도 11B 에 예시된 콘솔 (326) 의 커서/카메라 전환 버튼 (416) 을 조작하 여, 이동 버튼 (406) 에 의해 이동할 수 있는 대상물을 커서 (414) 로부터 카메라 즉 이미지 센서 (30) 로 전환 한다. 그 후, 단계 604 에서, 작업자가 콘솔 (326) 의 이동 버튼 (406) 을 조작하여 이동 지시를 입력하면, 수치 컨트롤러 (320) 가, 그 이동 지시에 따라서 이미지 센서 (30) 를 X 방향 및 /또는 Y 방향으로 이동시킨다.When the control shown in FIG. 13 starts, in step 602, the image analysis unit 324 drives the image sensor 30, inputs an image within the imaging range of the image sensor 30, and sends the input image to the console 326. ) is displayed on the display screen 402. The operator manipulates the cursor/camera switch button 416 of the console 326 illustrated in FIG. 11A or 11B to move an object that can be moved by the move button 406 from the cursor 414 to the camera, that is, the image sensor. Convert to (30). Then, in step 604, when the operator inputs a movement instruction by manipulating the movement button 406 of the console 326, the numerical controller 320 moves the image sensor 30 in the X direction and/or in accordance with the movement instruction. or in the Y direction.

화상 해석부 (324) 는, 이 제어가 이루어지고 있는 동안 시종 계속하여, 이미지 센서 (30) 로부터 촬상 범위의 화상을 입력하고 표시 스크린 (402) 에 표시하는 것을 고속 주기로 반복하고, 그것에 의해, 표시 스크린 (402) 상에는 실시간으로 현재의 이미지 센서 (30) 의 위치에 대응한 촬상 범위의 화상 (동화상) 이 표시된다.While this control is being performed, the image analysis unit 324 continuously inputs an image in the imaging range from the image sensor 30 and displays it on the display screen 402 repeatedly at a high speed cycle, thereby, displaying On the screen 402, an image (moving image) of the imaging range corresponding to the current position of the image sensor 30 is displayed in real time.

작업자는, 표시 스크린 (402) 상의 화상을 보면서 이동 버튼 (406) 을 조작함으로써, 이미지 센서 (30) 를원하는 위치로 (그 위치가 작업자로부터 멀리 떨어져 있어도) 용이하게 보낼 수 있다. 모재 (14) 의 하나의 기준점 (전형적으로는, 하나의 코너점) 이 표시 스크린 (402) 상에 표시된 시점에서, 작업자는, 이동 버튼 (406) 을 조작하여 정지 지시를 입력한다. 그 정지 지시에 응답하여, 수치 컨트롤러 (320) 는 이미지 센서 (30) 의 이동을 정지한다.The operator can easily send the image sensor 30 to a desired position (even if the position is far from the operator) by operating the move button 406 while viewing an image on the display screen 402 . When one reference point (typically, one corner point) of the base material 14 is displayed on the display screen 402, the operator operates the move button 406 to input a stop instruction. In response to the stop instruction, the numerical controller 320 stops the movement of the image sensor 30.

이미지 센서 (30) 의 이동이 정지되어 있을 때에, 단계 606 에서, 작업자는 콘솔 (326) 의 커서/카메라 전환 버튼 (416) 을 조작하여, 이동 버튼 (406) 에 의해 이동할 수 있는 대상물을 이미지 센서 (30) 로부터 커서 (414) 로 전환하고, 그리고, 이동 버튼 (406) 에 의해 커서 (414) 를 조작하여, 표시 스크린 (402) 에 표시되어 있는 모재 (14) 의 기준점 (코너점) 의 위치를 지시한다. 또는, 도시하지 않은 마우스로 커서 (414) 가 조작되어도 될 수도 있으며, 혹은, 표시 스크린 (402) 이 터치 센서 패널을 구비한 경우에는, 표시 스크린 (402) 상의 기준점의 위치가 작업자의 손 끝 또는 펜 끝 등으로 직접적으로 지시되어도 된다. 이와 같이 표시 스크린 (402) 에 표시된 화상 상에서 기준점을 지정하는 방법에 의해서, 기준점이 작업자로부터 멀리 떨어져 있거나, 또는 환경 조명이 어두운 경우에도, 작업자는 용이하게 기준점을 지정할 수 있다. 이렇게 해서 표시 스크린 (402) 에 표시된 모재 (14) 상의 일 위치가 작업자에 의해 지시되면, 화상 해석기 (324) 는, 그 지시된 위치의 화상 좌표를 모재 (14) 의 1 기준점의 화상 좌표로서 결정한다. 그리고, 단계 608 에서 화상 해석기 (324) 는, 그 결정된 1 기준점의 화상 좌표를 기계 좌표로 변환하고, 그 기계 좌표를 수치 컨트롤러 (320) 에 송신한 다.When the movement of the image sensor 30 is stopped, in step 606, the operator manipulates the cursor/camera switching button 416 of the console 326 to move an object that can be moved by the movement button 406 to the image sensor. Switch from (30) to the cursor 414, and then operate the cursor 414 using the shift button 406 to locate the reference point (corner point) of the base material 14 displayed on the display screen 402. instruct Alternatively, the cursor 414 may be operated with a mouse (not shown), or, if the display screen 402 includes a touch sensor panel, the position of the reference point on the display screen 402 is the operator's fingertip or It may be directed directly with the tip of a pen or the like. By this method of specifying a reference point on an image displayed on the display screen 402, the operator can easily designate a reference point even when the reference point is far from the operator or when the environmental lighting is dark. When a position on the base material 14 displayed on the display screen 402 is indicated by the operator in this way, the image analyzer 324 determines the image coordinates of the indicated position as the image coordinates of one reference point of the base material 14. do. Then, in step 608, the image analyzer 324 converts the determined image coordinates of one reference point into machine coordinates, and transmits the machine coordinates to the numerical controller 320.

상기 서술한 단계 604 내지 610 의 처리는, 결정될 모든 기준점 (예를 들어, 모재 (14) 의 3 개의 코너점) 에관해서 반복된다. 그 결과, 수치 컨트롤러 (320) 는, 모재 (14) 의 모든 기준점의 기계 좌표를 취득한다.The processing of steps 604 to 610 described above is repeated for all reference points to be determined (for example, three corner points of the base material 14). As a result, the numerical controller 320 acquires the machine coordinates of all reference points of the base material 14 .

그 후, 수치 컨트롤러 (320) 는, 모재 (14) 의 모든 기준점의 기계 좌표에 기초하여 모재 (14) 의 위치 (예를 들어, 모재 (14) 의 원점의 XY 좌표) 와 자세 (예를 들어, 모재 (14) 의 원점을 통과하는 한 변의 X 축 또는 Y 축에 대한 경사 각도) 를 계산한다. 이렇게 해서 결정된 모재 (14) 의 위치와 자세는, 그 후에 실시되는 절단 공정 (도 5 참조) 에 있어서 수치 컨트롤러 (320) 에 의해 사용되고, 그것에 의해서, 수치 컨트롤러 (320) 는 모재 (14) 가 기계 좌표계에 대하여 어떠한 위치 관계로 놓여져 있더라도, NC 프로그램에 따라서 모재 (14) 로부터 각 제품을 잘라낼 때에, 모재 (14) 를 절단하는 위치를 NC 프로그램에 의해 지정되는 위치로 제어한다.After that, the numerical controller 320 determines the position (eg, XY coordinates of the origin of the base material 14) and posture (eg, the base material 14) of the base material 14 based on the machine coordinates of all reference points of the base material 14. , the inclination angle with respect to the X axis or Y axis of one side passing through the origin of the base material 14) is calculated. The position and posture of the base material 14 determined in this way are used by the numerical controller 320 in the subsequent cutting process (see Fig. 5), whereby the numerical controller 320 determines that the base material 14 is machine No matter what positional relationship is placed with respect to the coordinate system, when cutting each product from the base material 14 according to the NC program, the position at which the base material 14 is cut is controlled to a position specified by the NC program.

상기한 바와 같이 하여 스크린에 표시되는 화상 내의 점을 작업자가 지정함으로써 모재의 기준점을 수치 컨트롤 러에 교시하는 방법은, 개선 가공을 실시하는 기능을 갖는 자동 절단기뿐만 아니라, 개선 가공을 실시하는 기능을 갖지 않은 자동 절단기에도 적용 가능하며, 또한 유용하다. 대형 플라즈마 절단기의 어떤 기종은, 모재의 위치 결정을 테이블 상에서 실시하기 위한 툴 또는 스토퍼를 구비하고 있지 않다. 이러한 기계에서는, 기계 좌표계와 모재의 위치 관계를 수치 컨트롤러에 교시하기 위한 특별한 작업이 필요하다. 종래, 절단 공구와의 위치 관계가 미리 수치 컨트롤러에 의해서 파악되어 있는 레이저 포인터를 작업자가 수동의 죠그 기구에 의해 모재의 코너점까지 천천히 이동시킴으로써, 그 코너점의 좌표를 수치 컨트롤러에 교시하는 방법이 채용되어 있다. 또는, 모재를 촬영하고 있는 CCD 카메라로부터의 화상을 스크린에 표시시키고, 그리고, 표시 화상 중의 모재의 코너점이 스크린의 중심의 마커점 위치에 도달할 때까지 작업자가 수동의 죠그 기구로 CCCD 카메라를 이동시키는 방법도 채용되어 있다. 그러나, 어떠한 종래 방법에서나, 죠그 기구에 의해 천천히 신중하게 레이저 포인터 또는 CCD 카메라를 이동시킨다는, 작업자에 있어서 수고스럽고 시간이 걸리는 작업이 필요하다.As described above, a method in which an operator designates a point in an image displayed on a screen to teach a numerical controller the reference point of a base material is not only an automatic cutting machine having a function of performing improvement processing, but also a function of performing improvement processing. It is also applicable to automatic cutting machines that do not have it, and is also useful. Some types of large plasma cutting machines do not have tools or stoppers for positioning the base material on the table. In such a machine, special work is required to teach the numerical controller the positional relationship between the machine coordinate system and the base material. Conventionally, a method in which an operator slowly moves a laser pointer whose positional relationship with a cutting tool is previously grasped by a numerical controller to a corner point of the base material by a manual jog mechanism, and teaches the coordinates of the corner point to the numerical controller are employed Alternatively, the image from the CCD camera photographing the base material is displayed on the screen, and the operator moves the CCCD camera with a manual jog mechanism until the corner point of the base material in the displayed image reaches the marker point position in the center of the screen. How to do it is also adopted. However, in any conventional method, laborious and time-consuming work is required for the operator to move the laser pointer or CCD camera slowly and carefully by the jog mechanism.

이에 대하여, 도 13 에 나타낸 방법에 의하면, 모재의 기준점 (예를 들어 코너점) 이 이미지 센서 (예를 들어 CDD 카메라) 의 촬상 영역 내에 단순히 들어가기만 하면 되므로, 이미지 센서를 보다 고속으로 보다 러프하게 이동시킬 수 있어, 작업자가 실시해야 될 조작이 보다 간단하다.In contrast, according to the method shown in FIG. 13, since the base material's reference point (eg, corner point) simply needs to enter the imaging area of the image sensor (eg, CDD camera), the image sensor can be moved at a higher speed and more roughly. can be made, and the operation to be performed by the operator is simpler.

그리고, 상기한 바와 같이 하여 표시 화상 내의 점을 작업자가 지정함으로써 모재의 기준점을 수치 컨트롤러에 교시하는 방법은, 모재의 위치와 자세를 컨트롤러에게 알리는 목적뿐만 아니라, 별도의 목적으로도 이용할 수있다. 예를 들어, NC 프로그램의 실행에 의해 자동적으로 절단을 실시하는 것이 아니라, 작업자에 의해 지정된 모재 상의 점 또는 선을 따라서 모재를 절단하는 수동 절단을 실시하는 경우에, 그 절단해야 할 각 점 또는 각 선 (각 선을 정의하기 위한 점의 각각) 의 좌표를 작업자가 컨트롤러에게 알리는 목적에도 적용할 수 있다. 이 경우, 예를 들어, 작업원이 죠그 기구를 조작하여 이미지 센서의 촬상 영역을 모재 상에서 이동시키 면서, 표시된 촬상 영역의 화상 내의 임의의 1 이상의 점을 지정하면, 컨트롤러가, 지정된 각 점의 좌표를 각기준점 (절단해야 할 각 점 또는 절단해야 할 각 선을 정의하는 각 점) 의 좌표로서 파악하고, 그리고, 그 파악된 각 기준점의 좌표에 따라서 절단 공구를 이동시켜 절단 동작을 실시할 수 있다.And, the method of teaching the numerical controller the reference point of the base material by designating a point in the displayed image by the operator as described above can be used not only for the purpose of informing the controller of the position and attitude of the base material, but also for other purposes. For example, in the case of performing manual cutting in which the base material is cut along a point or line on the base material specified by the operator, instead of cutting automatically by executing the NC program, each point or angle to be cut is performed. It can also be applied for the purpose of telling the controller the coordinates of the line (each of the points defining each line). In this case, for example, when a worker operates a jog mechanism to move the imaging area of the image sensor on the base material and designates one or more arbitrary points in the image of the displayed imaging area, the controller determines the coordinates of each designated point. is grasped as the coordinates of each reference point (each point defining each point to be cut or each line to be cut), and then, the cutting operation can be performed by moving the cutting tool according to the coordinates of each identified reference point. .

이상, 본 발명의 실시형태를 설명하였지만, 이 실시형태는 본 발명의 설명을 위한 예시에 불과하며, 본 발명의 범위를 이 실시형태에만 한정하는 취지는 아니다. 본 발명은, 그 요지를 일탈하지 않으면서, 그 밖의 여러 가지 양태로도 실시할 수 있다.As mentioned above, although embodiment of this invention was described, this embodiment is only an example for description of this invention, and the scope of this invention is not limited to this embodiment only. This invention can be implemented also in other various aspects, without deviating from the summary.

Claims (9)

이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법에 있어서, 모재 (14) 가 놓이기 위한 스테이지 (12) 와, 절단 공구 (28) 와, 촬상 영역을 갖는 이미지 센서 (30) 와, 상기 스테이지 (12) 에 대하여 상기 절단 공구 (28) 를 이동시키며, 상기 절단 공구 (28) 의 각도를 변화시키며, 또한, 상기 이미지 센서 (30) 의 촬영 영역을 이동시키기 위한 공구 이동 기구 (16∼26) 와, NC 프로그램 (322) 에 따라서, 상기 절단 공구, 상기 이미지 센서 및 상기 공구 이동 기구 각각의 동작을 제어 하는 컨트롤러 (32) 를 구비하고,
상기 컨트롤러 (32) 가, 상기 NC 프로그램에 따라서, 상기 스테이지 (12) 상에 놓인 모재 (14) 를 상기 절단 공구에 의해 절단하여 제품 (34) 을 잘라내는 제 1 절단 부공정을 실행하도록 제어를 행하는 제 1 절단 부공정 제어 수단 (60) 과, 상기 제 1 절단 부공정이 실행된 후, 상기 스테이지 상의 잘라낸 제품 (34) 의 2 개 이상의 특이점의 상기 NC 프로그램에 의해 정의되는 정규 위치 (861, 862) 를 포함한 1 개 이상의 영역 (881, 882) 에 상기 이미지 센서 (30) 의 촬상 영역을 설정하고, 그리고, 상기 이미지 센서로부터 상기 1 개 이상의 영역 (881, 882) 의 화상을 취득하도록 제어를 행하는 촬상 제어 수단 (62) 과, 상기 이미지 센서로부터 취득된 상기 1 개 이상의 영역 (881, 882) 의 화상을 해석하여, 상기 스테이지 상의 잘라낸 제품 (34) 의 상기 2 개 이상의 특이점의 실제 위치 (841, 842) 를 검출하는 특이점 검출 수단 (63) 과, 상기 특이점의 검출된 실제 위치 (841, 842) 에 따라서, 상기 스테이지 상의 잘라낸 제품 (34) 의 실제 위치에 적합하도록 상기 NC 프로그램 (322) 을 수정하는 프로그램 수정 수단 (66) 과, 상기 수정된 NC 프로그램 (323) 에 따라서, 상기 스테이지 상의 잘라낸 제품 (34) 에 대하여 상기 절단 공구에 의해 추가 절단을 실시하는 제 2 절단 부공정을 실행하도록 제어하는 제 2 절단 부공정 제어 수단 (70) 을 갖는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.
A method for continuously and efficiently processing a multi-step sub-cutting process of improvement processing using an image sensor, comprising: a stage (12) for placing a base material (14), a cutting tool (28), and an image sensor having an imaging area 30 and a tool for moving the cutting tool 28 relative to the stage 12, changing the angle of the cutting tool 28, and also moving the imaging area of the image sensor 30 moving mechanisms 16 to 26 and a controller 32 for controlling operations of the cutting tool, the image sensor, and the tool moving mechanism, respectively, according to an NC program 322;
The controller 32 performs control to execute a first sub-cutting step of cutting the product 34 by cutting the base material 14 placed on the stage 12 with the cutting tool according to the NC program. regular positions (861, 862), set an imaging area of the image sensor 30 in one or more areas 881, 882, and control to acquire images of the one or more areas 881, 882 from the image sensor. The actual positions of the two or more singular points of the cut product 34 on the stage (841 , 842), and according to the detected actual positions (841, 842) of the singularity, the NC program 322 to adapt to the actual position of the cut product 34 on the stage. Program correcting means 66 for correcting, and controlling to execute a second sub-cutting process for performing additional cutting by the cutting tool on the cut product 34 on the stage according to the corrected NC program 323; A method for continuously and efficiently processing a plurality of sub-cutting steps of improvement processing using an image sensor, characterized in that it has a second sub-cutting process control unit (70) for controlling the sub-cutting process.
제 1 항에 있어서, 상기 제품 (34) 의 외형선의 2 개 이상의 코너점이 상기 2 개 이상의 특이점으로서 선택되는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.The method according to claim 1, characterized in that two or more corner points of the outline of the product (34) are selected as the two or more singular points. How to. 제 2 항에 있어서, 상기 특이점 검출 수단 (63) 이, 상기 1 개 이상의 영역 (881, 882) 의 화상 내에서, 잘라낸 제품 (34) 의 외형 선을 구성하는 복수의 선분을 검출하고, 상기 검출된 복수의 선분이 교차하여 형성되는 2 개 이상의 코너점을, 상기 2 개 이상의 특이점의 상기 실제 위치 (841, 842) 로서 검출하는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.The method according to claim 2, wherein the singular point detection means (63) detects a plurality of line segments constituting an outline of the cut product (34) in the image of the one or more areas (881, 882), Detecting two or more corner points formed by crossing a plurality of line segments, as the actual positions (841, 842) of the two or more singular points How to process continuously and efficiently. 제 1 항에 있어서, 상기 특이점 검출 수단 (63) 이, 상기 NC 프로그램에 의해 정의되는 제품 도형의, 상기 2 개 이상의 특이점의 정규 위치 (861, 862) 의 각각의 근방에 있어서의 형상을 나타낸 소정의 화소치 매트릭스를 상기 1 개 이상의 영역 (881, 882) 의 화상 내의 각종 위치에 적용하여, 상기 화상의 각종 위치에 있어서 상기 화소치 매트릭스와의 패턴 매치도를 계산하고, 상기 계산된 패턴 매치도가 최대인 하나의 위치를, 상기 2 개 이상의 특이점의 상기 실제 위치 (841, 842) 의 각각으로서 검출하는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.The method according to claim 1, wherein the singular point detection means (63) expresses a shape in the vicinity of each of the regular positions (861, 862) of the two or more singular points of the product figure defined by the NC program. A pixel value matrix of is applied to various positions in the image of the one or more regions 881 and 882 to calculate a degree of pattern matching with the pixel value matrix at various positions in the image, and the calculated pattern matching degree Continuously and efficiently processing a plurality of steps of sub-cutting process of improvement processing using an image sensor, characterized in that one position where is maximal is detected as each of the actual positions (841, 842) of the two or more singular points. How to. 제 1 항에 있어서, 상기 프로그램 수정 수단 (66) 은, 상기 특이점의 검출된 실제 위치 (841, 842) 와 상기 특이점의 정규 위치 (861, 862) 사이의 위치 관계에 기초하여, 상기 NC 프로그램을 수정하는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.2. The program according to claim 1, wherein the program correcting means (66), based on a positional relationship between the detected actual position (841, 842) of the singularity and the normal position (861, 862) of the singularity, converts the NC program. A method for continuously and efficiently processing a plurality of steps of sub-cutting process of improvement processing using an image sensor, characterized in that by correcting. 제 1 항에 있어서, 상기 특이점 검출 수단 (63) 이, 상기 1 개 이상의 영역 (881, 882) 의 화상 중에서 상기 2 개 이상의 특이점의 실제 위치 (841, 842) 를 검출하는 범위를, 상기 2 개 이상의 특이점의 정규 위치 (861, 862) 의 근방 범위 (901,902)로만 한정하는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.The method according to claim 1, wherein the range in which the singular point detecting means (63) detects the actual positions (841, 842) of the two or more singular points in the image of the one or more regions (881, 882) is set to the range of the two or more regions. A method for continuously and efficiently processing multiple steps of sub-cutting process of improvement processing using an image sensor, characterized in that it is limited to only the range (901, 902) in the vicinity of the normal position (861, 862) of the singularity. 제 1 항에 있어서, 상기 컨트롤러 (32) 가, 상기 특이점의 검출된 실제 위치 (841, 842) 와 상기 특이점의 정규 위치 (861, 862) 사이의 위치 관계에 기초 하여, 상기 잘라낸 제품 (34) 의 위치 어긋남량이 과대한지 여부를 판단하는 수단 (64) 과, 상기 위치 어긋남량이 과대하다고 판단된 경우에는, 상기 잘라낸 제품 (34) 에 대한 상기 제 2 절단 공정의 실행을 중지하는 수단 (65) 을 추가로 갖는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.The cut product (34) according to claim 1, wherein the controller (32), based on a positional relationship between the detected actual position (841, 842) of the singularity and the normal position (861, 862) of the singularity, means (64) for judging whether or not the positional displacement amount is excessive, and means (65) for stopping the execution of the second cutting process for the cut product (34) when it is determined that the positional displacement amount is excessive. A method for continuously and efficiently processing a plurality of sub-step cutting processes of improvement processing using an image sensor, further comprising: 제 1 항에 있어서, 상기 절단 공구 (28) 와 상기 이미지 센서 (30) 의 촬상 영역이 일정한 위치 관계를 유지하고, 상기 공구 이동 기구 (16∼26) 에 의해 함께 이동하도록 되어 있는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.The method according to claim 1, characterized in that the imaging areas of the cutting tool (28) and the image sensor (30) maintain a constant positional relationship and are moved together by the tool moving mechanism (16 to 26). A method of continuously and efficiently processing a multi-step sub-cutting process of improvement processing using an image sensor. 제 1 항에 있어서, 상기 컨트롤러 (32) 가, 상기 절단 공구 (28) 를 사용하여, 상기 NC 프로그램에 의해 지정되는 소정 좌표점을 지나는 테스트 절단선을 따라서 상기 스테이지 (12) 상에 놓인 테스트재 (121) 를 절단하는 테스트 절단을 실행하도록 제어를 행하는 수단 (130) 과, 상기 테스트 절단이 실행된 후, 상기 절단 공구 (28) 의 절단 위치와 상기 이미지 센서 (30) 의 촬상 영역 사이의 위치 관계를 나타내는 소정의 오프셋 데이터에 기초하여, 상기 이미지 센서 (30) 의 촬상 영역을 상기 소정 좌표점을 포함하는 영역까지 이동시키고, 그리고, 상기 이미지 센서 (30) 로부터 상기 소정 좌표점을 포함하는 상기 영역의 화상을 취득하도록 제어를 행하는 수단 (132-134) 과, 상기 이미지 센서 (30) 로부터 취득된 상기 소정 좌표점을 포함하는 상기 영역의 화상을 해석하여, 상기 절단 공구 (28) 와 상기 이미지 센서 (30) 의 촬상 영역 사이의 실제의 위치 관계를 검출하는 수단 (136) 과, 검출된 상기 실제의 위치 관계에 기초하여, 상기 NC 프로그램 또는 상기 오프셋 데이터를 수정하는 수단 (138) 을 추가로 갖는 것을 특징으로 하는 이미지 센서를 이용한 개선 가공의 복수 단계의 절단 부공정을 연속하여 효율적으로 가공하는 방법.The test material according to claim 1, wherein the controller (32) uses the cutting tool (28) to set the test material on the stage (12) along a test cutting line passing through predetermined coordinate points designated by the NC program. means 130 for performing control to execute a test cut to cut 121, and after the test cut is executed, a position between the cutting position of the cutting tool 28 and the imaging area of the image sensor 30 Based on the predetermined offset data representing the relationship, the imaging area of the image sensor 30 is moved to an area including the predetermined coordinate point, and the image sensor 30 includes the predetermined coordinate point. means (132-134) for performing control to acquire an image of an area, and an image of the area including the predetermined coordinate points acquired from the image sensor (30) is analyzed, and the cutting tool (28) and the image means 136 for detecting an actual positional relationship between imaging areas of the sensor 30 and means 138 for correcting the NC program or the offset data, based on the detected actual positional relationship A method for continuously and efficiently processing a plurality of steps of sub-cutting process of improvement processing using an image sensor, characterized in that it has.
KR1020210065838A 2021-05-21 2021-05-21 the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor KR20220157826A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210065838A KR20220157826A (en) 2021-05-21 2021-05-21 the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210065838A KR20220157826A (en) 2021-05-21 2021-05-21 the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor

Publications (1)

Publication Number Publication Date
KR20220157826A true KR20220157826A (en) 2022-11-29

Family

ID=84235435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210065838A KR20220157826A (en) 2021-05-21 2021-05-21 the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor

Country Status (1)

Country Link
KR (1) KR20220157826A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118162721A (en) * 2024-04-16 2024-06-11 东莞市龙鑫装备科技有限公司 Steel cutting method, system, device, electronic equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118162721A (en) * 2024-04-16 2024-06-11 东莞市龙鑫装备科技有限公司 Steel cutting method, system, device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
KR100963460B1 (en) Automatic cutting device and production method for beveled product
US10088301B2 (en) Image measurement device
JP5525953B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP5537868B2 (en) Welding robot
JP2024105552A (en) Input device, control method for input device, robot system, product manufacturing method, control program, and recording medium
JP6844871B2 (en) Focus adjustment method and its device
JP6663807B2 (en) Image measuring device
JP2001319219A (en) Device and method for generating part program for image measuring apparatus, image measuring apparatus and measure result display method therefor
JP2012032344A (en) Picture measuring device, picture measuring method and program for picture measuring device
US10186398B2 (en) Sample positioning method and charged particle beam apparatus
US6600808B2 (en) Part program generating apparatus and program for image measuring apparatus
US6718057B1 (en) Position error measurement method and device using positioning mark, and machining device for correcting position based on result of measuring position error using positioning mark
EP3895855A1 (en) Robot control system and robot control method
KR20220157826A (en) the method for successively efficiently processing the cut sub-process of the multi-phase of the improvement processing using the image sensor
JP6767843B2 (en) Image measuring device
US12011827B2 (en) Robot teaching with scans in and out of robot workspace
JP3958815B2 (en) Tool position measuring method in NC machine tools
JP3672970B2 (en) Non-contact image measurement system
JP2010149225A (en) Robot system, device and method for controlling robot system
JPH09259289A (en) Method and device for measuring edge posture recognition formula
WO2020065854A1 (en) Workpiece position detecting method and machine tool
JP2822314B2 (en) Laser processing equipment
JP3203508B2 (en) Laser processing equipment
JP3580392B2 (en) Moving mark type measuring method and apparatus
JPH11295610A (en) Manipulator and inspection device