WO2020194448A1 - 造形システム - Google Patents

造形システム Download PDF

Info

Publication number
WO2020194448A1
WO2020194448A1 PCT/JP2019/012491 JP2019012491W WO2020194448A1 WO 2020194448 A1 WO2020194448 A1 WO 2020194448A1 JP 2019012491 W JP2019012491 W JP 2019012491W WO 2020194448 A1 WO2020194448 A1 WO 2020194448A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
modeling
work
processing
machining
Prior art date
Application number
PCT/JP2019/012491
Other languages
English (en)
French (fr)
Inventor
壮史 松田
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP19922188.8A priority Critical patent/EP3950209A4/en
Priority to JP2021508422A priority patent/JPWO2020194448A1/ja
Priority to PCT/JP2019/012491 priority patent/WO2020194448A1/ja
Priority to US17/441,422 priority patent/US20220176453A1/en
Priority to CN201980096597.5A priority patent/CN113853272A/zh
Publication of WO2020194448A1 publication Critical patent/WO2020194448A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/40Structures for supporting workpieces or articles during manufacture and removed afterwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/34Laser welding for purposes other than joining
    • B23K26/342Build-up welding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/20Direct sintering or melting
    • B22F10/25Direct deposition of metal particles, e.g. direct metal deposition [DMD] or laser engineered net shaping [LENS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/20Direct sintering or melting
    • B22F10/28Powder bed fusion, e.g. selective laser melting [SLM] or electron beam melting [EBM]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/80Data acquisition or data processing
    • B22F10/85Data acquisition or data processing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F12/00Apparatus or devices specially adapted for additive manufacturing; Auxiliary means for additive manufacturing; Combinations of additive manufacturing apparatus or devices with other processing apparatus or devices
    • B22F12/90Means for process control, e.g. cameras or sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F7/00Manufacture of composite layers, workpieces, or articles, comprising metallic powder, by sintering the powder, with or without compacting wherein at least one part is obtained by sintering or compression
    • B22F7/06Manufacture of composite layers, workpieces, or articles, comprising metallic powder, by sintering the powder, with or without compacting wherein at least one part is obtained by sintering or compression of composite workpieces or articles from parts, e.g. to form tipped tools
    • B22F7/062Manufacture of composite layers, workpieces, or articles, comprising metallic powder, by sintering the powder, with or without compacting wherein at least one part is obtained by sintering or compression of composite workpieces or articles from parts, e.g. to form tipped tools involving the connection or repairing of preformed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F7/00Manufacture of composite layers, workpieces, or articles, comprising metallic powder, by sintering the powder, with or without compacting wherein at least one part is obtained by sintering or compression
    • B22F7/06Manufacture of composite layers, workpieces, or articles, comprising metallic powder, by sintering the powder, with or without compacting wherein at least one part is obtained by sintering or compression of composite workpieces or articles from parts, e.g. to form tipped tools
    • B22F7/08Manufacture of composite layers, workpieces, or articles, comprising metallic powder, by sintering the powder, with or without compacting wherein at least one part is obtained by sintering or compression of composite workpieces or articles from parts, e.g. to form tipped tools with one or more parts not made from powder
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/14Working by laser beam, e.g. welding, cutting or boring using a fluid stream, e.g. a jet of gas, in conjunction with the laser beam; Nozzles therefor
    • B23K26/1462Nozzles; Features related to nozzles
    • B23K26/1464Supply to, or discharge from, nozzles of media, e.g. gas, powder, wire
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/20Apparatus for additive manufacturing; Details thereof or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • B29C64/393Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y30/00Apparatus for additive manufacturing; Details thereof or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • B33Y50/02Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4097Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
    • G05B19/4099Surface or curve machining, making 3D objects, e.g. desktop manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P10/00Technologies related to metal processing
    • Y02P10/25Process efficiency

Definitions

  • the present invention relates to, for example, the technical field of a modeling system for modeling a modeled object.
  • Patent Document 1 describes a modeling system in which a powdered material is melted with an energy beam and then the melted material is solidified to form a modeled object. In such a modeling system, it is a technical issue to appropriately model the modeled object.
  • a modeling system for modeling a modeled object on an object it is based on a display device that displays an image of the object and a designated position designated by using the image displayed on the display device.
  • a modeling system including a modeling device for modeling a modeled object on the object is provided.
  • a display device for displaying an image of the object and a designated position displayed in association with the image of the object, and the object.
  • a modeling system including an input device for inputting information for designating the designated position above and a modeling device for modeling a modeled object on the object using the input information regarding the designated position is provided.
  • the modeled object is formed on the object by using the input device for designating the position of the modeled object to be modeled on the object, the position information about the part of the object, and the information about the modeled object position.
  • a modeling system including a modeling device for modeling is provided.
  • a support device that supports an object, an information generation device that generates position information about a part of the object, information about the position of a modeled object formed on the object, and the object.
  • a modeling system including a modeling device for modeling a modeled object on the object using the position information, and an arithmetic device for associating the object shape information regarding the shape of the object with the position information of the object is provided.
  • the relative positional relationship between the support device for supporting the object, the additional processing device for performing additional processing on the object, and the additional processing position by the support device and the additional processing device is changed.
  • the position changing device the position measuring device for measuring the position of the part of the object, the designated device for designating the position of the modeled object to be modeled on the object, the measurement result by the position measuring device, and the modeled object position.
  • a modeling system including the additional processing device and a control device for controlling the position changing device is provided.
  • FIG. 1 is a cross-sectional view showing the structure of the processing system of the present embodiment.
  • FIG. 2 is a system configuration diagram showing a system configuration of the processing system of the present embodiment.
  • FIGS. 3 (a) to 3 (j) is a plan view showing a projection pattern projected by the projection device.
  • FIG. 4 is a flowchart showing the flow of the coordinate matching operation.
  • FIG. 5 is a plan view showing a stage including a mounting surface on which a mark for alignment is formed.
  • FIG. 6 is a sectional view taken along line VV'of the stage shown in FIG. Is a plan view showing a beam detection member on which a mark for alignment is formed.
  • FIG. 8 is a sectional view taken along line VII # 1-VII # 1'of the beam detection member shown in FIG.
  • FIG. 9 is a sectional view taken along line VII # 2-VII # 2'of the beam detection member shown in FIG.
  • FIG. 10 is a plan view showing a beam detection member mounted on the mounting surface.
  • FIG. 11 is a plan view showing a reference member on which a mark for alignment is formed.
  • FIG. 12 is a plan view showing a reference member mounted on the mounting surface.
  • FIG. 13 is a perspective view showing a mounting surface and a work in the stage coordinate system.
  • FIG. 14 is a flowchart showing the flow of the first work model alignment operation.
  • FIG. 15 is a flowchart showing the flow of the second work model alignment operation.
  • FIG. 16 is a conceptual diagram conceptually showing how the three-dimensional model (that is, the work) indicated by the model shape information and the work indicated by the measured shape information are pattern-matched.
  • FIG. 17 is a flowchart showing the flow of the third work model alignment operation.
  • FIG. 18 is a cross-sectional view showing how a plurality of guide lights intersect at a designated point.
  • FIG. 19 is a cross-sectional view showing a state in which a plurality of guide lights do not intersect at a designated point.
  • FIG. 20A is a plan view showing beam spots of a plurality of guide lights on the surface of the work W (particularly, a user-designated point) when a plurality of guide lights intersect at a user-designated point.
  • FIG. 20 (b) is a plan view showing beam spots of the plurality of guide lights on the surface of the work W (particularly, the user-designated point) when the plurality of guide lights do not intersect at the user-designated point.
  • FIG. 21 is a perspective view showing a work and a three-dimensional structure in the stage coordinate system.
  • FIG. 22 is a flowchart showing the flow of the machining model alignment operation.
  • FIG. 23 is a plan view showing a display example of the work model.
  • FIG. 24 is a plan view showing a display example of the work model.
  • FIG. 25 is a plan view showing a display example of the work model.
  • FIG. 26 is a plan view showing a display example of the work model.
  • FIG. 27 is a plan view showing a display example on the display.
  • FIGS. 28 is a cross-sectional view showing a work model and a machining model.
  • FIG. 29 is a cross-sectional view conceptually showing a modification example of machining information together with a machining model and a work model.
  • FIGS. 30 (a) to 30 (c) is a cross-sectional view conceptually showing an example of a method of correcting machining information together with a work model and a machining model.
  • FIGS. 31 (a) to 31 (c) is a cross-sectional view conceptually showing another example of the method of modifying the machining information together with the work model and the machining model.
  • FIG. 32 (a) to 32 (e) is a cross-sectional view showing a state in which light is irradiated and a modeling material is supplied in a certain region on the work.
  • FIGS. 23 (a) to 33 (c) is a cross-sectional view showing a process of forming a three-dimensional structure.
  • FIG. 34 is a system configuration diagram showing another example of the system configuration of the processing system of the present embodiment.
  • 35 (a) is a plan view showing another example of the reference member, and
  • FIG. 25 (b) is a cross-sectional view taken along the line AA'in FIG. 35 (a).
  • a modeling system that is, a modeling system
  • SYS that forms a modeled object on the work W by performing additional processing on the work W
  • LMD Laser Metal Deposition
  • an embodiment of a modeling system will be described using a processing system SYS that performs additional processing based on a laser overlay welding method (LMD: Laser Metal Deposition).
  • LMD Laser Metal Deposition
  • the modeling material M supplied to the work W is melted by the processing light EL to form a three-dimensional structure ST integrated with or separable from the work W. It is an additional process to be performed.
  • the laser overlay welding method includes direct metal deposition, directed energy deposition, laser cladding, laser engineered net shaping, direct light fabrication, and laser consolidation.
  • Foundation, Shape Deposition Manufacturing, Wire-Feed Laser Deposition, Gas Through Wire, Laser Powder Fusion, Laser Metal Forming, Selective Laser Powder Remelting, Laser Direct -It may also be called casting, laser powder deposition, laser additive manufacturing, or laser rapid forming.
  • each of the X-axis direction and the Y-axis direction is a horizontal direction (that is, a predetermined direction in the horizontal plane), and the Z-axis direction is a vertical direction (that is, a direction orthogonal to the horizontal plane). Yes, in effect, in the vertical direction).
  • the rotation directions (in other words, the inclination direction) around the X-axis, the Y-axis, and the Z-axis are referred to as the ⁇ X direction, the ⁇ Y direction, and the ⁇ Z direction, respectively.
  • the Z-axis direction may be the direction of gravity.
  • the XY plane may be horizontal.
  • FIG. 1 is a cross-sectional view showing an example of the structure of the processing system SYS of the present embodiment.
  • FIG. 2 is a system configuration diagram showing an example of the system configuration of the processing system SYS of the present embodiment.
  • the processing system SYS can form a three-dimensional structure ST (that is, a three-dimensional object having a size in any of the three-dimensional directions and a three-dimensional object).
  • the processing system SYS can form the three-dimensional structure ST on the work W that is the basis for forming the three-dimensional structure ST.
  • This work W may be referred to as a base member or a pedestal.
  • the processing system SYS can form a three-dimensional structure ST on the work W by performing additional processing on the work W.
  • the machining system SYS can form the three-dimensional structure ST on the stage 31.
  • the processing system SYS can form the three-dimensional structure ST on the existing structure.
  • the processing system SYS may form a three-dimensional structure ST integrated with the existing structure.
  • the operation of forming the three-dimensional structure ST integrated with the existing structure can be regarded as equivalent to the operation of adding a new structure to the existing structure.
  • the existing structure may be, for example, a repair-required product having a defective portion.
  • the processing system SYS may form a three-dimensional structure in the repair-required product so as to fill the defective portion of the repair-required product.
  • the processing system SYS may form a three-dimensional structure ST separable from the existing structure.
  • FIG. 1 shows an example in which the work W is an existing structure held by the stage 31. Further, in the following, the description will proceed with reference to an example in which the work W is an existing structure held by the stage 31.
  • the processing system SYS can form the three-dimensional structure ST by the laser overlay welding method. That is, it can be said that the processing system SYS is a 3D printer that forms an object by using the laminated modeling technology.
  • the laminated modeling technique is also referred to as rapid prototyping, rapid manufacturing, or additive manufacturing.
  • the processing system SYS has a material supply device 1, a processing device 2, a stage device 3, a light source 4, and a gas supply device 5, as shown in FIGS. 1 and 2.
  • At least a part of each of the processing device 2, the stage device 3, and the measuring device 8 is housed in the chamber space 63IN inside the housing 6.
  • the material supply device 1 supplies the modeling material M to the processing device 2.
  • the material supply device 1 corresponds to the required amount so that the modeling material M required per unit time for the processing device 2 to form the three-dimensional structure ST is supplied to the processing device 2. A desired amount of modeling material M is supplied.
  • the modeling material M is a material that can be melted by irradiation with a processing light EL having a predetermined intensity or higher.
  • a modeling material M for example, at least one of a metal material and a resin material can be used.
  • the modeling material M other materials different from the metal material and the resin material may be used.
  • the modeling material M is a powdery material. That is, the modeling material M is a powder.
  • the powder may contain a granular material in addition to the powdery material.
  • the modeling material M may contain, for example, a powder having a particle size within the range of 90 micrometers ⁇ 40 micrometers.
  • the average particle size of the powder constituting the modeling material M may be, for example, 75 micrometers or any other size.
  • the modeling material M does not have to be powder, and for example, a wire-shaped modeling material or a gaseous modeling material may be used.
  • the processing system SYS may process the modeling material M with an energy beam such as a charged particle beam to form a modeled object.
  • the processing device 2 forms the three-dimensional structure ST using the modeling material M supplied from the material supply device 1.
  • the processing device 2 includes a processing head 21, a head drive system 22, a position measuring device 23, and a plurality of (for example, two) guide light emitting devices.
  • a device 24 is provided.
  • the processing head 21 includes an irradiation optical system 211 and a material nozzle (that is, a supply system for supplying the modeling material M) 212.
  • the processing head 21 and the head drive system 22 are housed in the chamber space 63IN. However, at least a part of the processing head 21 and / or the head drive system 22 may be arranged in the external space 64OUT, which is the space outside the housing 6.
  • the external space 64OUT may be a space accessible to the operator of the processing system SYS. Since the processing device 2 is also a device for modeling the three-dimensional structure ST, which is a modeled object, it may be referred to as a modeling device. Since the processing device 2 is also a device for forming the three-dimensional structure ST, which is a modeled object, by addition processing, it may be referred to as an addition processing device.
  • the irradiation optical system 211 is an optical system (for example, a condensing optical system) for emitting the processed light EL from the injection unit 213. Specifically, the irradiation optical system 211 is optically connected to the light source 4 that emits the processed light EL via an optical transmission member (not shown) such as an optical fiber or a light pipe. The irradiation optical system 211 emits processed light EL propagating from the light source 4 via the optical transmission member. The irradiation optical system 211 emits the processing light EL so that the processing light EL advances in the chamber space 63IN.
  • an optical transmission member not shown
  • the irradiation optical system 211 emits processed light EL propagating from the light source 4 via the optical transmission member.
  • the irradiation optical system 211 emits the processing light EL so that the processing light EL advances in the chamber space 63IN.
  • the irradiation optical system 211 irradiates the processed light EL downward (that is, the ⁇ Z side) from the irradiation optical system 211.
  • a stage 31 is arranged below the irradiation optical system 211.
  • the irradiation optical system 211 irradiates the work W with the processing light EL.
  • the irradiation optical system 211 can irradiate the irradiation area EA set on the work W as the area where the processing light EL is irradiated (typically, the light is focused). ..
  • the state of the irradiation optical system 211 can be switched between a state in which the irradiation area EA is irradiated with the processing light EL and a state in which the irradiation area EA is not irradiated with the processing light EL under the control of the control device 7. ..
  • the direction of the processed light EL emitted from the irradiation optical system 211 is not limited to directly below (that is, coincident with the ⁇ Z axis direction), and is, for example, a direction inclined by a predetermined angle with respect to the Z axis. May be good.
  • the material nozzle 212 has a supply outlet 214 for supplying the modeling material M.
  • the material nozzle 212 supplies the modeling material M from the supply outlet 214 (for example, spraying, ejecting, or spraying).
  • the material nozzle 212 is physically connected to the material supply device 1 which is a supply source of the modeling material M via a pipe (not shown) or the like.
  • the material nozzle 212 supplies the modeling material M supplied from the material supply device 1 via the pipe.
  • the material nozzle 212 may pump the modeling material M supplied from the material supply device 1 via a pipe. That is, the modeling material M from the material supply device 1 and a gas for transportation (for example, an inert gas such as nitrogen or argon) may be mixed and pumped to the material nozzle 212 via a pipe.
  • a gas for transportation for example, an inert gas such as nitrogen or argon
  • the purge gas supplied from the gas supply device 5 may be used as the transport gas.
  • the material nozzle 212 is drawn in a tubular shape in FIG. 1, the shape of the material nozzle 212 is not limited to this shape.
  • the material nozzle 212 supplies the modeling material M toward the chamber space 63IN.
  • the material nozzle 212 supplies the modeling material M downward (that is, the ⁇ Z side) from the material nozzle 212.
  • a stage 31 is arranged below the material nozzle 212. When the work W is mounted on the stage 31, the material nozzle 212 supplies the modeling material M toward the work W.
  • the traveling direction of the modeling material M supplied from the material nozzle 212 is a direction inclined by a predetermined angle (an acute angle as an example) with respect to the Z-axis direction, but even if it is on the ⁇ Z side (that is, directly below). Good.
  • the material nozzle 212 is aligned with the irradiation optical system 211 so that the irradiation optical system 211 supplies the modeling material M toward the irradiation region EA on which the processing light EL is irradiated. That is, the material nozzle 212 and the irradiation region 212 are irradiated so that the supply region MA and the irradiation region EA set on the work W as the region for supplying the modeling material M coincide with (or at least partially overlap) the material nozzle 212.
  • the optical system 211 is aligned.
  • the material nozzle 212 may be aligned so as to supply the modeling material M to the molten pool MP formed by the processing light EL emitted from the irradiation optical system 211.
  • the head drive system 22 moves the processing head 21.
  • the head drive system 22 moves the processing head 21 within the chamber space 63IN, for example.
  • the head drive system 22 moves the machining head 21 along at least one of the X-axis, the Y-axis, and the Z-axis.
  • each of the irradiation region EA and the supply region MA moves on the work W along at least one of the X-axis and the Y-axis.
  • the head drive system 22 may move the machining head 21 along at least one rotation direction in the ⁇ X direction, the ⁇ Y direction, and the ⁇ Z direction in addition to at least one of the X-axis, the Y-axis, and the Z-axis. .. In other words, the head drive system 22 may rotate the machining head 21 around at least one of the X-axis, Y-axis, and Z-axis. The head drive system 22 may change the posture of the processing head 21 around at least one of the X-axis, the Y-axis, and the Z-axis.
  • the head drive system 22 includes an actuator such as a motor, for example.
  • the irradiation optical system 211 and the material nozzle 212 may be moved separately.
  • the head drive system 22 may be able to adjust at least one of the position of the injection unit 213, the orientation of the injection unit 213, the position of the supply outlet 214, and the orientation of the supply outlet 214.
  • the irradiation region EA where the irradiation optical system 211 irradiates the processing light EL and the supply region MA where the material nozzle 212 supplies the modeling material M can be controlled separately.
  • the position measuring device 23 can measure the position of the processing head 21.
  • the position measuring device 23 may include, for example, at least one of an encoder and a laser interferometer.
  • the guide light emitting device 24 is arranged on the processing head 21.
  • the guide light emitting device 24 emits the guide light GL.
  • the guide light emitting device 24 emits the guide light GL so that the guide light GL advances in the chamber space 63IN.
  • the plurality of guide light emitting devices 24 are aligned with each other so that the plurality of guide light GLs emitted from the plurality of guide light emitting devices 24 intersect with each other at a certain position below the processing head 21. In particular, the plurality of guide light emitting devices 24 are aligned so that the plurality of guide light GLs intersect each other at the focus position of the processing light EL.
  • the plurality of guide light emitting devices 24 perform additional processing by the processing device 2 with a plurality of guide light GLs. It can be said that they are aligned with each other so as to intersect each other at the additional processing position. The method of using such a guide light emitting device 24 will be described in detail later. It should be noted that the plurality of guide light GLs may be aligned so as to intersect each other at a position (defocus position) deviated from the focus position of the processing light EL.
  • the stage device 3 includes a stage 31.
  • the stage 31 is housed in the chamber space 63IN.
  • the stage 31 can support the work W.
  • the state of "the stage 31 supporting the work W" here may mean a state in which the work W is directly or indirectly supported by the stage 31.
  • the stage 31 may be able to hold the work W. That is, the stage 31 may support the work W by holding the work W. Alternatively, the stage 31 does not have to be able to hold the work W.
  • the work W may be placed on the stage 31. That is, the stage 31 may support the work W placed on the stage 31. At this time, the work W may be mounted on the stage 31 without being clamped.
  • the "stage 31 supporting the work W" state in the present embodiment may also include a state in which the stage 31 holds the work W and a state in which the work W is placed on the stage 31.
  • the stage 31 may be referred to as a support device for supporting the work W, a mounting device on which the work W is placed, a holding device for holding the work W, or a table. Since the stage 31 is housed in the chamber space 63IN, the work W supported by the stage 31 is also housed in the chamber space 63IN. Further, the stage 31 can release the held work W when the work W is held.
  • the irradiation optical system 211 described above irradiates the processed beam PL at least during a period in which the stage 31 supports the work W.
  • the material nozzle 212 described above supplies the modeling material M during at least a part of the period in which the stage 31 supports the work W.
  • a part of the modeling material M supplied by the material nozzle 212 may be scattered or spilled from the surface of the work W to the outside of the work W (for example, around the stage 31). Therefore, the processing system SYS may be provided with a recovery device for recovering the scattered or spilled modeling material M around the stage 31.
  • the stage 31 may be provided with a mechanical chuck, a vacuum suction chuck, or the like in order to hold the work W.
  • the light source 4 emits, for example, at least one of infrared light and ultraviolet light as processed light EL.
  • the processed light EL light of other wavelengths, for example, light having a wavelength in the visible region may be used.
  • the processing light EL is a laser beam.
  • the light source 4 may include a laser light source such as a semiconductor laser. Examples of the laser light source include at least one such as a laser diode (LD: Laser Diode), a fiber laser, a CO 2 laser, a YAG laser, and an excimer laser.
  • the processing light EL does not have to be a laser beam, and the light source 4 may include an arbitrary light source (for example, at least one such as an LED (Light Emitting Side) and a discharge lamp).
  • the gas supply device 5 is a supply source of purge gas for purging the chamber space 631IN.
  • the purge gas contains an inert gas.
  • An example of the inert gas is nitrogen gas or argon gas.
  • the gas supply device 5 supplies purge gas to the chamber space 63IN. As a result, the chamber space 63IN becomes a space purged by the purge gas.
  • the gas supply device 5 may be a cylinder in which an inert gas such as nitrogen gas or argon gas is stored. When the inert gas is nitrogen gas, the gas supply device 5 may be a nitrogen gas generator that generates nitrogen gas from the atmosphere as a raw material.
  • the housing 6 is a storage device that accommodates at least a part of each of the processing device 2 and the stage device 3 in the chamber space 63IN, which is the internal space of the housing 6.
  • the housing 6 includes a partition member 61 that defines a chamber space 63IN.
  • the partition member 61 is a member that separates the chamber space 63IN from the external space 64OUT of the housing 6.
  • the partition member 61 faces the chamber space 63IN via its inner wall 611, and faces the outer space 64OUT through its outer wall 612. In this case, the space surrounded by the partition member 61 (more specifically, the space surrounded by the inner wall 611 of the partition member 61) becomes the chamber space 63IN.
  • the partition member 61 may be provided with a door that can be opened and closed. This door may be opened when the work W is placed on the stage 31 and when the work W and / or the modeled object is taken out from the stage 31, and may be closed during the modeling.
  • the control device 7 controls the operation of the processing system SYS.
  • the control device 7 may include, for example, a CPU (Central Processing Unit) (or a GPU (Graphics Processing Unit) in addition to or in place of the CPU) and a memory.
  • the control device 7 functions as a device that controls the operation of the processing system SYS by executing a computer program by the CPU.
  • This computer program is a computer program for causing the control device 7 (for example, the CPU) to perform (that is, execute) the operation described later to be performed by the control device 7. That is, this computer program is a computer program for causing the control device 7 to function so that the processing system SYS performs the operation described later.
  • the computer program executed by the CPU may be recorded in a memory (that is, a recording medium) included in the control device 7, or may be an arbitrary storage medium built in the control device 7 or externally attached to the control device 7 (that is, a recording medium). For example, it may be recorded on a hard disk or a semiconductor memory). Alternatively, the CPU may download the computer program to be executed from a device external to the control device 7 via the network interface.
  • a memory that is, a recording medium
  • the CPU may download the computer program to be executed from a device external to the control device 7 via the network interface.
  • the control device 7 may control the injection mode of the processed light EL by the irradiation optical system 211.
  • the injection mode may include, for example, at least one of the intensity of the processing light EL and the injection timing of the processing light EL.
  • the injection mode may include, for example, the ratio of the length of the emission time of the pulsed light to the emission period of the pulsed light (so-called duty ratio).
  • the injection mode may include, for example, the length of the emission time of the pulsed light itself or the emission cycle itself.
  • the control device 7 may control the movement mode of the processing head 21 by the head drive system 22.
  • the movement mode may include, for example, at least one of a movement amount, a movement speed, a movement direction, and a movement timing.
  • the control device 7 may control the supply mode of the modeling material M by the material supply device 1.
  • the supply mode of the modeling material M by the material nozzle 212 is mainly determined by the supply mode of the modeling material M by the material supply device 1. Therefore, controlling the supply mode of the modeling material M by the material supply device 1 can be regarded as equivalent to controlling the supply mode of the modeling material M by the material nozzle 212.
  • the supply mode may include, for example, at least one of a supply amount (particularly, a supply amount per unit time) and a supply timing.
  • the control device 7 may not be provided inside the processing system SYSTEM, and may be provided as a server or the like outside the processing system SYS, for example.
  • the control device 7 and the processing system SYS may be connected by a wired and / or wireless network (or a data bus and / or a communication line).
  • a wired network for example, a network using a serial bus type interface represented by at least one of IEEE1394, RS-232x, RS-422, RS-423, RS-485 and USB may be used.
  • a network using a parallel bus interface may be used.
  • a network using an Ethernet (registered trademark) compliant interface represented by at least one of 10BASE-T, 100BASE-TX and 1000BASE-T may be used.
  • a network using radio waves may be used.
  • An example of a network using radio waves is a network conforming to IEEE802.1x (for example, at least one of wireless LAN and Bluetooth®).
  • a network using infrared rays may be used.
  • a network using optical communication may be used.
  • the control device 7 and the processing system SYS may be configured so that various types of information can be transmitted and received via the network.
  • control device 7 may be able to transmit information such as commands and control parameters to the processing system SYS via the network.
  • the processing system SYS may include a receiving device that receives information such as commands and control parameters from the control device 7 via the network. Even if the processing system SYS is provided with a transmission device (that is, an output device that outputs information to the control device 7) that transmits information such as commands and control parameters to the control device 7 via the network. Good.
  • the first control device that performs a part of the processing performed by the control device 7 is provided inside the processing system SYS, the second control device that performs the other part of the processing performed by the control device 7 is provided.
  • the control device may be provided outside the processing system SYS.
  • Recording media for recording computer programs executed by the CPU include CD-ROMs, CD-Rs, CD-RWs, flexible disks, MOs, DVD-ROMs, DVD-RAMs, DVD-Rs, DVD + Rs, and DVD-RWs. , DVD + RW and Blu-ray (registered trademark) and other optical discs, magnetic tape and other magnetic media, magneto-optical disks, USB memory and other semiconductor memories, and any other medium that can store programs. May be good.
  • the recording medium may include a device capable of recording a computer program (for example, a general-purpose device or a dedicated device in which the computer program is implemented in at least one form such as software and firmware).
  • each process or function included in the computer program may be realized by a logical processing block realized in the control device 7 by the control device 7 (that is, a computer) executing the computer program. It may be realized by hardware such as a predetermined gate array (FPGA, ASIC) included in the control device 7, or a mixture of a logical processing block and a partial hardware module that realizes a part of the hardware. It may be realized in the form of.
  • FPGA predetermined gate array
  • the measuring device 8 can measure the object to be measured under the control of the control device 7. Specifically, the measuring device 8 can measure the object to be measured under the control of the control device 7. The measurement result of the measuring device 8 is output from the measuring device 8 to the control device 7.
  • the measurement may include the measurement of the position of the object to be measured.
  • the position of the measurement object may include a position in at least one of the X-axis direction, the Y-axis direction, and the Z-axis direction of each portion (that is, each part) subdivided into the measurement object.
  • the position of the measurement object may include the position of the surface of the measurement object.
  • the position of the surface of the measurement object may include a position in at least one of the X-axis direction, the Y-axis direction, and the Z-axis direction of each portion (that is, each part) subdivided from the surface of the measurement object. ..
  • the measurement may include measurement of the shape of the object to be measured (for example, a three-dimensional shape).
  • the shape of the object to be measured is the direction of each part of the work W subdivided (for example, the direction of the normal of each part, and the amount of inclination and the substance of each part with respect to at least one of the X-axis, Y-axis, and Z-axis. May include (equivalent).
  • the shape of the object to be measured may include the shape of the surface of the object to be measured.
  • the shape of the surface of the object to be measured is the orientation of each portion of the surface of the work W (for example, the orientation of the normal of each portion, and the orientation of each portion with respect to at least one of the X-axis, Y-axis, and Z-axis. It may include the amount of inclination (that is, substantially equivalent to the posture of each part).
  • the measurement may include measurement of attributes of the object to be measured, such as reflectance, spectral reflectance, and surface roughness of the object to be measured.
  • the measurement object includes, for example, an object placed on the mounting surface 311 of the stage 31. Therefore, the measurement range of the measuring device 8 is set to a desired range so that the object mounted on the mounting surface 311 can be measured.
  • the object to be mounted on the mounting surface 311 is the work W described above.
  • a reference member 34 see FIG. 11 and the like described later.
  • the measuring device 8 may have any structure as long as the object to be measured can be measured.
  • the measuring device 8 may be any kind of measuring device as long as it can measure the object to be measured.
  • 1 and 2 show an example in which the measuring device 8 is a 3D scanner. That is, FIGS. 1 and 2 show an example in which the measuring device 8 optically measures the object to be measured. 1 and 2 show an example in which the measuring device 8 measures the measurement object without contacting the measurement object.
  • the measuring device 8 may measure the object to be measured by using a method different from the optical method, for example, an electromagnetic wave or a sound wave.
  • the measuring device 8 may come into contact with the measurement object and measure the measurement object.
  • a measuring device that contacts a measurement object and measures the measurement object there is a measuring device that measures the measurement object while pressing a sensor such as a probe against the measurement object.
  • the measuring device 8 When the measuring device 8 is a 3D scanner, the measuring device 8 includes, for example, a projection device 81 and an image pickup device 82, as shown in FIG. In the example shown in FIG. 2, the measuring device 8 includes a plurality of imaging devices 82. More specifically, in the example shown in FIG. 2, the measuring device 8 includes two imaging devices 82 (specifically, imaging devices 82 # 1 and imaging devices 82 # 2). However, the measuring device 8 may include a single imaging device 82.
  • the projection device 81 irradiates the mounting surface 311 with the measurement light DL.
  • the measurement light DL is light for projecting a desired projection pattern on the mounting surface 311.
  • the measurement light DL is light for projecting a desired projection pattern on the measurement object placed on the mounting surface 311.
  • the desired projection pattern may include a one-dimensional projection pattern.
  • the desired projection pattern may include a two-dimensional projection pattern.
  • the projection device 81 may project a single type of projection pattern onto the measurement object. Alternatively, the projection device 81 may sequentially project a plurality of types of projection patterns onto the measurement object.
  • FIGS. 3 (a) to 3 (j) show an example of the projection pattern.
  • FIG. 3A shows a projection pattern corresponding to a white image.
  • FIG. 3B shows a projection pattern corresponding to a black image.
  • 3 (a) and 3 (b) may be used to measure the state of ambient light.
  • 3 (c) to 3 (f) show a plurality of projection patterns corresponding to a plurality of fringe patterns (for example, a plurality of fringe patterns having different numbers and widths of fringes).
  • 3 (g) to 3 (j) show a plurality of projection patterns corresponding to gray patterns having different phases (in other words, phase shift patterns).
  • the projection device 81 sequentially projects a plurality of projection patterns shown in FIGS. 3A and 3B, and then sequentially projects a plurality of projection patterns shown in FIGS. 3C to 3F. After that, a plurality of projection patterns shown in FIGS. 3 (g) to 3 (j) may be projected in order.
  • the period width of the gray code included in the projection patterns shown in FIGS. 3 (g) to 3 (j) is the stripes included in the projection patterns shown in FIGS. 3 (c) to 3 (f). It may be the same as the minimum width.
  • the stereo visual phase shift method is an example of a method of measuring the state of the measurement object by imaging the measurement object on which the phase shift pattern is projected by using a plurality of imaging devices 82.
  • the image pickup device 82 images the mounting surface 311.
  • the image pickup apparatus 82 images an object to be measured mounted on the mounting surface 311.
  • the image pickup apparatus 82 images the projection pattern projected on the measurement object.
  • the control device 7 has measurement information regarding the state of the measurement object measured by the measurement device 8 (that is, the measurement object by the measurement device 8) based on the image pickup result of the image pickup device 82 (particularly, information regarding the captured projection pattern). (Measurement information about the measurement result of) is generated. Since the measurement of the measurement object includes at least one of the position measurement and the shape measurement of the measurement object, the measurement information is measured by the measurement position information regarding the position of the measurement object measured by the measurement device 8 and the measurement device 8. It may include at least one of the measured shape information regarding the shape of the measured object. In this case, the control device 7 can function as an information generation device for generating measurement information (that is, at least one of measurement position information and measurement shape information).
  • the measurement information may include any one of the measurement position information and the measurement shape information.
  • the measurement information may include both measurement position information and measurement shape information.
  • the measurement information may be information in which the measurement position information and the measurement shape information correspond to each other.
  • Measurement state information corresponding to measurement position information and measurement shape information means information in a state in which both the position and shape of each part of the measurement object can be specified. Therefore, by referring to such measurement state information, although the position of a certain part of the measurement target can be specified, the situation that the shape of the same part cannot be specified does not occur.
  • the measurement information will be described with reference to an example in which the measurement position information and the measurement shape information correspond to each other. It should be noted that such measurement information does not have to include the measurement position information and the measurement shape information as separate and different information, as long as both the position and shape of each part of the measurement object can be specified.
  • the measurement information may have any data structure.
  • the measuring device 8 is isolated from the chamber space 63IN by the partition member 83.
  • the measuring device 8 is arranged in a space isolated from the chamber space 63IN by the partition member 83.
  • the adhesion of the substance existing in the chamber space 63IN to the measuring device 8 is suppressed.
  • the substance existing in the chamber space 63IN there are a modeling material M supplied from the material nozzle 212 to the chamber space 63IN and a substance generated from the modeling surface MS described later due to the irradiation of the processing light EL. there's a possibility that.
  • a fume containing at least one of the fine particles of the molten modeling material M and the fine particles of the material constituting the molten work W can be mentioned.
  • the partition wall member 83 includes a light transmitting member 84 capable of blocking the above-mentioned substance while allowing the measurement light DL to pass through at a position where the optical path of the measurement light DL irradiated by the projection device 81 intersects with the partition wall member 83. ing.
  • the measuring device 8 can appropriately irradiate the measurement object arranged in the chamber space 63IN with the measurement light DL. it can.
  • the measuring device 8 does not have to be isolated from the chamber space 63IN by the partition member 83.
  • the measuring device 8 may be arranged in the chamber space 63IN.
  • the measuring device 8 may have dust resistance.
  • the display 91 is a display device capable of displaying a desired image under the control of the control device 7.
  • the display 91 may display information about the processing system SYS.
  • the display 91 may display information about the three-dimensional structure ST.
  • the display 91 may display information about the work W.
  • the display 91 may display information regarding the image pickup result by the image pickup apparatus 82.
  • the display 91 does not have to be provided inside the processing system SYS.
  • the display 91 may be provided as an external display outside the processing system SYS.
  • the display 91 and the processing system SYS may be connected by a wired and / or wireless network (or a cable, a data bus and / or a communication line).
  • the control device 7 may be configured to enable transmission / reception (that is, input / output) of various types of information to / from the display 91 via the network.
  • the display 91 is a transmission / reception unit (that is, input / output) that transmits / receives information to / from the control device 7 (furthermore, to / from other devices included in the processing system SYS with or without the control device 7).
  • a unit) and a display unit for displaying an image may be provided.
  • the input device 92 is a device that receives input of information from the outside of the processing system SYS.
  • the input device 92 may accept input of information from the user of the processing system SYS.
  • the input device 92 may accept input of information from a device external to the processing system SYS.
  • the input device 92 may accept input of information from a recording medium that can be attached to the processing system SYS.
  • An example of the input device 92 is an operating device that can be operated by the user.
  • the operating device at least one of a keyboard, a mouse, a touch pad, a touch panel (for example, a touch panel integrated with the display 91) and a pointing device can be mentioned.
  • the input device 92 is an interface device for connecting to an external device of the processing system SYS.
  • a reading device capable of reading a recording medium that can be attached to the processing system SYS.
  • the information received by the input device 92 (that is, the information input to the input device 92) is output to, for example, the control device 7.
  • the input device 92 may accept input of information via the display screen of the display 91.
  • the input device 92 may accept input of information via a GUI (Graphical User Interface) displayed on the display screen of the display 91.
  • the input device 92 may accept input of information regarding the user's operation to the GUI displayed on the display screen of the display 91.
  • the display 91 may display an image (for example, the GUI described above) for receiving the input of information via the input device 92 under the control of the control device 7.
  • the display device may also be used as the input device 92.
  • the input device 92 does not have to be provided inside the processing system SYS.
  • the input device 92 may be provided as an external input device outside the processing system SYS.
  • the input device 92 and the processing system SYS may be connected by a wired and / or wireless network (or a cable, a data bus and / or a communication line).
  • the control device 7 may be configured to acquire the information input to the input device 92 via the network.
  • the control device 7 may be configured to function as a receiving device that receives the information input to the input device 92 via the network.
  • the input device 92 is a transmission / reception unit (that is, an input / output unit) that transmits / receives information to / from the control device 7 (furthermore, to / from other devices included in the processing system SYS with or without the control device 7).
  • An output unit) and an input receiving unit that receives input from the outside of the processing system SYS may be provided.
  • the machining system SYS performs a work model alignment operation under the control of the control device 7. After that, the machining system SYS performs a machining model alignment operation under the control of the control device 7. After that, the machining system SYS performs the machining operation under the control of the control device 7. Further, the machining system SYS may perform a coordinate matching operation under the control of the control device 7 prior to the work model alignment operation. Therefore, in the following, the coordinate matching operation, the work model alignment operation, the machining model alignment operation, and the machining operation will be described in order.
  • the coordinate matching operation is an operation for associating the processed coordinate system, the stage coordinate system, and the measured coordinate system with each other.
  • the machining coordinate system is a three-dimensional coordinate system used to specify the position of the machining head 21.
  • the head drive system 22 moves the machining head 21 based on the information regarding the position of the machining head 21 specified in the head coordinate system.
  • the position measuring device 23 measures the position of the machining head 21 in the head coordinate system.
  • the stage coordinate system is a three-dimensional coordinate system used to specify the position of the stage 31.
  • the stage drive system moves the stage 31 based on the information regarding the position of the stage 31 specified in the stage coordinate system.
  • the measurement coordinate system is a three-dimensional coordinate system used to specify the position of the measurement object measured by the measurement device 8. That is, the measurement coordinate system is a three-dimensional coordinate system used to specify the position of the measurement device 8 within the measurement range.
  • the control device 7 generates measurement position information regarding the position of the measurement object in the measurement coordinate system based on the measurement result of the measurement device 8.
  • the coordinate of a certain position in any one of the processed coordinate system, the stage coordinate system, and the measured coordinate system is set to the processed coordinate system. It can be converted to the coordinates of a certain position in another coordinate system of the stage coordinate system and the measurement coordinate system. Therefore, in the coordinate matching operation, the information (for example, a conversion matrix) used for converting the coordinates in the processed coordinate system into the coordinates of the stage coordinate system and the measured coordinate system, and the coordinates in the stage coordinate system are converted into the processed coordinate system.
  • the information for example, a conversion matrix
  • the information used to convert to the respective coordinates of the measured coordinate system eg, conversion matrix
  • the information used to convert to the respective coordinates of the measured coordinate system eg, conversion matrix
  • convert the coordinates in the measured coordinate system to the respective coordinates of the processed coordinate system and the stage coordinate system. It can be said that it is equivalent to the operation for acquiring information (for example, a transformation matrix).
  • the machining system SYS does not have to perform the coordinate matching operation.
  • the processing system SYS does not have to perform the coordinate matching operation.
  • FIG. 4 is a flowchart showing the flow of the coordinate matching operation.
  • the machining system SYS performs an operation of associating the machining coordinate system with the stage coordinate system as a part of the coordinate matching operation (steps S111 to S113). Further, the machining system SYS performs an operation of associating the measurement coordinate system with the stage coordinate system as a part of the coordinate matching operation (steps S114 to S116).
  • the processed coordinate system and the stage coordinate system are associated with each other and the measured coordinate system and the stage coordinate system are associated with each other, the processed coordinate system and the measured coordinate system are indirectly associated with each other via the stage coordinate system. Therefore, by performing the processes from step S111 to step S116, the processing coordinate system, the stage coordinate system, and the measurement coordinate system are associated with each other.
  • FIG. 4 shows an example in which the processing system SYS performs an operation of associating the processing coordinate system with the stage coordinate system and then performing an operation of associating the measurement coordinate system with the stage coordinate system.
  • the machining system SYS may perform an operation of associating the measurement coordinate system with the stage coordinate system and then associating the machining coordinate system with the stage coordinate system.
  • the beam detection member 32 is placed on the mounting surface 311 of the stage 31 (step S111).
  • the beam detection member 32 is placed on the mounting surface 311 so that the positional relationship between the beam detecting member 32 and the mounting surface 311 is the desired first positional relationship.
  • the beam detecting member 32 and the beam detecting member 32 Marks for alignment are formed on both sides of the mounting surface 311.
  • FIG. 5 is a plan view showing the stage 31 including the mounting surface 311 on which the alignment mark is formed.
  • FIG. 6 is a sectional view taken along line VV'of the stage 31 shown in FIG.
  • FIG. 7 is a plan view showing the beam detection member 32 on which the alignment mark is formed.
  • FIG. 8 is a cross-sectional view of VII # 1-VII # 1'of the beam detection member 32 shown in FIG.
  • FIG. 9 is a sectional view taken along line VII # 2-VII # 2'of the beam detection member 32 shown in FIG.
  • FIG. 10 is a plan view showing the beam detection member 32 mounted on the mounting surface 311.
  • a plurality of pins 312 are formed on the mounting surface 311 as markers for alignment.
  • two pins 312 are formed on the mounting surface 311.
  • three or more pins 312 may be formed.
  • the pin 312 is a member that protrudes from the mounting surface 311 along the Z-axis direction. The information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7.
  • the beam detection member 32 includes a base member 321.
  • the base member 321 is a plate-shaped member.
  • the base member 321 has a shape and size that can be mounted on the mounting surface 311.
  • a plurality of through holes 322 are formed in the base member 321 as a mark for alignment. In the example shown in FIGS. 7 and 8, two through holes 322 are formed in the base member 321.
  • the through hole 322 penetrates the base member 321 along the Z-axis direction.
  • the beam detection member 32 is placed on the mounting surface 311 so that the pin 312 is inserted into the through hole 322.
  • the beam detection member 32 is placed on the mounting surface 311 with the pin 312 inserted into the through hole 322. Therefore, the arrangement mode of the through hole 322 is the same as the arrangement mode of the pin 312. Further, the number of through holes 322 is the same as (or may be large) the number of pins 312.
  • the beam detection member 32 is placed on the mounting surface 311 so as to have a desired first positional relationship with respect to the mounting surface 311.
  • the beam detection member 32 is mounted on the mounting surface 311 so as to have a desired first positional relationship with respect to the pin 312 on the mounting surface 311.
  • the beam detection member 32 is mounted on the mounting surface 311 so as to satisfy the desired first positional relationship in which the pin 312 of the mounting surface 311 and the through hole 322 of the beam detection member 32 overlap in the Z-axis direction. ..
  • the beam detection member 32 has the same position of the pin 312 in the X-axis direction and the position of the through hole 322 corresponding to the pin 312 in the X-axis direction, and is the same as the position of the pin 312 in the Y-axis direction. It is mounted on the mounting surface 311 so as to satisfy the desired first positional relationship that the position of the through hole 322 corresponding to the pin 312 in the Y-axis direction is the same.
  • the position where the pin 312 is formed may be used as a reference position on the mounting surface 311 when the beam detection member 32 is mounted on the mounting surface 311.
  • the beam detection member 32 is mounted on the mounting surface 311 in a state of being aligned so as to have a desired first positional relationship with respect to the reference position on the mounting surface 311.
  • the beam detection member 32 is further provided with a light shielding member 323.
  • the light-shielding member 323 is a member that shields the processed light EL.
  • the light-shielding member 323 is formed on the upper surface of the base member 321 (that is, the surface facing the + Z side).
  • the upper surface of the light-shielding member 323 is located above the upper surface of the base member 321.
  • the upper surface of the light-shielding member 323 may be located below the upper surface of the base member 321 or may be located at the same height as the upper surface of the base member 321.
  • At least a part of the light-shielding member 323 may be integrated with the base member 321.
  • the light-shielding member 323 may be attached to the base member 321 or may be removable from the base member 321.
  • the light-shielding member 323 is formed with an opening 324 that penetrates the light-shielding member 323 along the Z-axis direction.
  • the shape of the opening 324 in the plane along the XY plane is a slit shape, but it may be any other shape, a circular shape (pinhole shape), an oval shape, a polygonal shape, or the like.
  • the opening 324 is a through hole through which the processing light EL can pass.
  • the beam detection member 32 further includes a beam detector 325.
  • the beam detector 325 is arranged at a position where it can receive the processed light EL that has passed through the opening 324. Then, the opening 324 is arranged at a position having a predetermined positional relationship with respect to the through hole 322.
  • the beam detector is provided with a single beam detector 325, typically a photoelectric converter such as a light amount sensor capable of photoelectrically converting the received processed light EL
  • the output of the photoelectric converter is processed into an opening 324.
  • the positional relationship with the optical EL can be obtained.
  • the information regarding the positional relationship between the opening 324 and the through hole 322 is known to the control device 7.
  • the beam detector 325 is located below the shading member 323 (ie, -Z side).
  • a diffuser plate for diffusing the processing light EL or the guide light GL may be arranged between the opening 324 and the beam detector 325 and / or on the incident side of the opening 324. Further, a cover glass for protecting the opening 324 may be arranged on the incident side of the opening 324.
  • the beam detection member 32 may include a single beam detector 325 as described above, or may include a plurality of beam detectors 325.
  • the light shielding member 323 may be formed with a plurality of openings 324 corresponding to the plurality of beam detectors 325, respectively.
  • each beam detector 325 detects the processed light EL incident on each beam detector 325 through the opening 324 corresponding to each beam detector 325.
  • the detection result of the beam detector 325 may include information on the state of the processed light EL incident on the beam detector 325.
  • the detection result of the beam detector 325 includes information on the intensity of the processed light EL incident on the beam detector 325 (specifically, the intensity in the plane intersecting the XY plane). More specifically, the detection result of the beam detector 325 includes information on the intensity distribution of the processed light EL in the plane along the XY plane.
  • the detection result of the beam detector 325 is output to the control device 7.
  • the processing apparatus 2 irradiates the beam detection member 32 with the processing light EL (step S112).
  • the processing apparatus 2 irradiates the processing light EL toward the beam detector 325 arranged on the beam detecting member 32.
  • the processing device 2 sequentially irradiates the processing light EL toward the plurality of beam detectors 325.
  • the head drive system 22 moves the processing head 21 so as to irradiate the processing light EL toward the beam detector 325.
  • the head drive system 22 moves the processing head 21 so that the processing light EL (more specifically, the irradiation region EA of the processing light EL) crosses the opening 324 in the plane along the XY plane. May be good.
  • the processing head 21 irradiates the processing light EL during the period of movement by the head drive system 22.
  • the processing light EL is applied to the opening 324 at a certain timing during the period when the processing head 21 is moving. That is, the processing light EL is detected by the beam detector 325 at a certain timing during the period in which the processing head 21 is moving.
  • the control device 7 associates the processing coordinate system with the stage coordinate system based on the detection result of the beam detector 325 in step S112 (step S113). Specifically, the detection result of the beam detector 325 shows that at least a part of the processing light EL irradiates the opening 324 as compared with the intensity of the processing light EL during the period when the processing light EL is not irradiated to the opening 324. It shows that the intensity of the processed light EL during the period is increased. Therefore, the control device 7 determines the time when the processing light EL is irradiating the opening 324 (that is, the time when the processing light EL is irradiating the beam detector 325) based on the detection result of the beam detector 325. It is identifiable.
  • control device 7 is based on the time when the processing light EL is irradiated to the opening 324 and the measurement result of the position measuring device 23, and the processing head 21 at the time when the processing light EL is irradiated to the beam detector 325.
  • the position of is identifiable.
  • the control device 7 can specify the position of the processing head 21 in a state where the beam detector 325 can be irradiated with the processing light EL based on the output of the beam detector 325 and the measurement result of the position measuring device 23. There may be. That is, the control device 7 can specify the position of the processing head 21 in a state in which the beam detector 325 can be irradiated with the processing light EL in the processing coordinate system.
  • the position of the processing head 21 referred to here may include the position of the processing head 21 itself, or may include a position peculiar to the processing head 21.
  • the information regarding the positional relationship between the opening 324 and the through hole 322 is known to the control device 7. Therefore, the control device 7 processes based on the information on the position of the processing head 21 in which the opening 324 can be irradiated with the processing light EL and the information on the positional relationship between the opening 324 and the through hole 322.
  • the position of the processing head 21 in a state where the through hole 322 can be irradiated with the processing light EL can be specified. Further, as described above, in the situation where the beam detection member 32 is mounted on the mounting surface 311 the through hole 322 and the pin 312 overlap in the Z-axis direction. Therefore, the position of the processing head 21 in which the through hole 322 can be irradiated with the processing light EL can be regarded as equivalent to the position of the processing head 21 in which the pin 312 can be irradiated with the processing light EL. Further, as described above, the information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7.
  • the position in the machining coordinate system of the machining head 21 in a state where the pin 312 can be irradiated with the machining light EL and the position in the stage coordinate system where the pin 312 is formed are set. It can be identified as a position that should be associated with each other. That is, the control device 7 can specify that a specific position in the processing coordinate system and a specific position in the stage coordinate system should be associated with each other. As a result, the control device 7 is based on the specific result that a specific position in the processing coordinate system and a specific position in the stage coordinate system should be associated with each other, and the processing coordinate system and the stage. Can be associated with a coordinate system.
  • control device 7 can specify the position of the processing head 21 in a state where the processing light EL can be applied to an arbitrary position in the stage coordinate system in the processing coordinate system. Further, the control device 7 can specify in the stage coordinate system the position (for example, the additional processing position) where the processing head 21 arranged at an arbitrary position in the processing coordinate system irradiates the processing light EL.
  • the reference member 34 is placed on the mounting surface 311 of the stage 31.
  • the reference member 34 is placed on the mounting surface 311 so that the positional relationship between the reference member 34 and the mounting surface 311 is a desired second positional relationship.
  • the reference member 34 and the mounting surface 311 are mounted. Marks for alignment are formed on both sides of the 311.
  • FIG. 11 is a plan view showing a reference member 34 on which a mark for alignment is formed.
  • FIG. 12 is a plan view showing a reference member 34 mounted on the mounting surface 311.
  • a mark different from the pin 312 formed on the mounting surface 311 may be used as a mark for mounting the reference member 34 on the mounting surface 311.
  • the reference member 34 includes a base member 341.
  • the base member 341 is a plate-shaped member.
  • the base member 341 has a shape and size that can be mounted on the mounting surface 311.
  • a plurality of through holes 342 are formed in the base member 341 as a mark for alignment.
  • the base member 341 is formed with two through holes 342.
  • the through hole 342 penetrates the base member 341 along the Z-axis direction.
  • the reference member 34 is placed on the mounting surface 311 so that the pin 312 is inserted into the through hole 342. Therefore, the arrangement pattern of the through hole 342 is the same as the arrangement pattern of the pin 312. Further, the number of through holes 342 is the same as (or may be large) the number of pins 312. As a result, the reference member 34 is placed on the mounting surface 311 so as to have a desired second positional relationship with respect to the mounting surface 311. The reference member 34 is mounted on the mounting surface 311 so as to have a desired second positional relationship with respect to the pin 312 on the mounting surface 311.
  • the reference member 34 is placed on the mounting surface 311 so as to satisfy the desired second positional relationship that the pin 312 of the mounting surface 311 and the through hole 342 of the reference member 34 overlap in the Z-axis direction.
  • the position of the pin 312 in the X-axis direction and the position of the through hole 342 corresponding to the pin 312 in the X-axis direction are the same, and the position of the pin 312 in the Y-axis direction and the pin It is placed on the mounting surface 311 so as to satisfy the desired second positional relationship that the position of the through hole 342 corresponding to 312 in the Y-axis direction is the same.
  • the position where the pin 312 is formed may be used as a reference position on the mounting surface 311 when the reference member 34 is mounted on the mounting surface 311.
  • the reference member 34 is placed on the mounting surface 311 in a state of being aligned so as to have a desired second positional relationship with respect to the reference position on the mounting surface 311.
  • At least one reference mark 343 is formed on the upper surface of the base member 341.
  • One reference mark 343 may be formed, two reference marks 343 may be formed, three reference marks 343 may be formed, or four reference marks 343 may be formed on the base member 341.
  • the reference mark 343 may be formed, or five or more reference marks 343 may be formed.
  • FIG. 11 shows an example in which five reference marks 343 are formed on the upper surface of the base member 341.
  • the reference mark 343 is a mark that can be measured by the measuring device 8.
  • the reference mark 343 is a mark that can be imaged by the image pickup device 82 included in the measuring device 8.
  • the information regarding the positional relationship between the reference mark 343 and the through hole 342 is known to the control device 7.
  • the reference mark 343 is a predetermined position on the mounting surface 311 (for example, the center of the mounting surface 311) when the reference member 34 is mounted on the mounting surface 311 so that the pin 312 is inserted into the through hole 342. It may be formed at a predetermined position on the base member 341 so that the reference mark 343 is arranged on the base member 341.
  • the information regarding the predetermined position on the mounting surface 311 on which the reference mark 343 is arranged may be information known to the control device 7. ..
  • the predetermined position on the mounting surface 311 on which the reference mark 343 is to be placed serves as the reference position on the mounting surface 311 when the reference member 34 is mounted on the mounting surface 311. It may be used.
  • the reference member 34 is placed on the mounting surface 311 in a state where the reference mark 343 is arranged at the reference position on the mounting surface 311.
  • the information regarding the positional relationship between the position where the reference mark 343 is arranged and the through hole 342 does not have to be known to the control device 7.
  • the beam detection member 32 shown in FIGS. 7 to 9 and the reference member 34 shown in FIGS. 11 and 12 may be provided on the same member.
  • the measuring device 8 measures the reference member 34 (step S114). In particular, the measuring device 8 measures the reference mark 343 formed on the reference member 34.
  • the control device 7 associates the measurement coordinate system with the stage coordinate system based on the measurement result of the measurement device 8 in step S115 (step S116). Specifically, the control device 7 can specify the position of the reference mark 343 in the measurement coordinate system from the measurement result of the measurement device 8. Further, as described above, the information regarding the positional relationship between the reference mark 343 and the through hole 342 is known to the control device 7. Therefore, the control device 7 determines the through hole 322 in the measurement coordinate system based on the information regarding the position of the reference mark 343 in the measurement coordinate system and the information regarding the positional relationship between the reference mark 343 and the through hole 342. The position can be specified.
  • the position of the through hole 342 and the position of the pin 312 are the same under the situation where the reference member 34 is mounted on the mounting surface 311. Therefore, the position of the through hole 342 in the measurement coordinate system can be regarded as equivalent to the position of the pin 312 in the measurement coordinate system.
  • the information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7. Therefore, the control device 7 can specify that the position of the pin 312 in the measurement coordinate system and the position of the pin 312 in the stage coordinate system should be associated with each other. That is, the control device 7 can specify that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other.
  • control device 7 is based on the specific result that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other, and the measurement coordinate system and the stage. Can be associated with a coordinate system. As a result, the control device 7 can specify the position of the measurement object in the stage coordinate system.
  • the control device 7 can specify that the information regarding the position of the reference mark 343 in the measurement coordinate system and the predetermined position in the stage coordinate system in which the reference mark 343 is arranged are positions to be associated with each other. .. That is, the control device 7 can specify that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other. As a result, the control device 7 is based on the specific result that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other, and the measurement coordinate system and the stage. Can be associated with a coordinate system.
  • the beam detection member 32 may be used to measure the positional deviation between the processing light EL and the guide light GL.
  • the positional deviation between the position where the plurality of guide light GLs intersect and the focus position (additional processing position) of the processing light EL may be measured by using the beam detection member 32. ..
  • the focus position and / or the position of the guide light GL of the processing light EL is set. You may change it.
  • the work model alignment operation is an operation of aligning the work model WM, which is a three-dimensional model of the work W to form the three-dimensional structure ST, with the actual work W.
  • the work model alignment operation is an operation of aligning the work model WM and the work W in the reference coordinate system.
  • the reference coordinate system is a coordinate system that serves as a reference for the processing system SYS.
  • the reference coordinate system is a coordinate system used for control by the control device 7.
  • the stage coordinate system is used as the reference coordinate system.
  • the work model alignment operation is an operation of aligning the work model WM and the work W in the stage coordinate system.
  • the measured coordinate system or the processed coordinate system may be used as the reference coordinate system.
  • Other coordinate systems different from the stage coordinate system, the measurement coordinate system, and the processed coordinate system may be used as the reference coordinate system.
  • the work information includes both the work position information regarding the position of the work model WM and the work shape information regarding the shape of the work model WM.
  • the work information is information corresponding to the work position information and the work shape information.
  • the position of the work model WM coincides with the actual position of the work W (or, if not, it substantially matches). Therefore, the work position information can be regarded as equivalent to the information regarding the position of the work W.
  • the shape of the work model WM matches the shape of the actual work W (or, if not, it substantially matches). Therefore, the work shape information can be regarded as equivalent to the information regarding the actual shape of the work W.
  • the "work information corresponding to the work position information and the work shape information" is the same as the "measurement state information corresponding to the measurement position information and the measurement shape information", and is the position and shape of each part of the work model WM. It means information that can identify both. It should be noted that such work information does not have to include the work position information and the work shape information as separate and independent information, as long as both the position and shape of each part of the work model WM can be specified.
  • the work information may have any data structure.
  • FIG. 13 is a perspective view showing the mounting surface 311 and the work model WM in the stage coordinate system.
  • the position and orientation (in other words, posture) of each part of the work model WM (for example, each part of the surface of the work model WM) can be specified in the stage coordinate system. That is, the control device 7 can specify the position and orientation (in other words, the posture) of each part of the work W (for example, each part of the surface of the work W) in the stage coordinate system.
  • the machining system SYS can appropriately perform additional machining on the work W whose position and orientation are known from the work information in the machining operation described later based on the work information.
  • the machining system SYS performs at least one of the first work model alignment operation, the second work model alignment operation, and the third work model alignment operation as the work model alignment operation. Therefore, in the following, the first to third work alignment operations will be described in order.
  • the machining system SYS does not have to perform the work model alignment operation. For example, when the work information is input to the machining system SYS via the input device 92, the machining system SYS does not have to perform the work model alignment operation.
  • FIG. 14 is a flowchart showing the flow of the first work model alignment operation.
  • the work W is placed on the mounting surface 311 of the stage 31 (step S121). After that, the measuring device 7 measures the work W (step S122).
  • the control device 7 After that, the control device 7 generates work information based on the measurement result of the measuring device 8 in step S122 (step S123). Specifically, as described above, the control device 7 generates measurement information regarding the work W measured by the measuring device 8 based on the measurement result of the measuring device 8 (that is, the imaging result of the imaging device 82).
  • the measurement information includes measurement shape information regarding the shape of the work W. This measured shape information is used as it is as the work shape information. Further, the measurement information includes measurement position information regarding the position of the work W. However, the measurement position information is information regarding the position of the work W in the measurement coordinate system. Therefore, the control device 7 converts the position of the work W in the measurement coordinate system indicated by the measurement position information into the position of the work W in the stage coordinate system.
  • the information about the position of the work W in the stage coordinate system acquired by the conversion is used as the work position information.
  • the control device 7 can generate work information in which the work position information and the work shape information correspond to each other. That is, the control device 7 can generate work information about the work model WM corresponding to the actual work W.
  • FIG. 15 is a flowchart showing the flow of the second work model alignment operation.
  • the measuring device 7 measures the state of the work W (step S132).
  • the control device 7 acquires the work model data corresponding to the shape of the work W mounted on the mounting surface 311 in tandem with or in parallel with the processing of steps S131 to S132 (step S133). Specifically, the control device 7 acquires work model data indicating a work model WM having the same or similar shape as the work W.
  • the work model data includes work model feature information regarding the features of the work model WM.
  • the work model data includes at least work model shape information regarding the shape of the work model WM, which is an example of the features of the work model WM.
  • the work model data may be recorded in a memory (that is, a recording medium) included in the control device 7.
  • the work model data may be recorded on an arbitrary recording medium (for example, a hard disk or a semiconductor memory) built in the control device 7 or externally attached to the control device 7.
  • the control device 7 may acquire the work model data by reading the work model data from these recording media by using the input device 92 as needed.
  • the work model data may be recorded in a device external to the control device 7.
  • the work model data may be recorded in an external device of the processing system SYS.
  • the control device 7 may acquire the work model data by downloading the work model data from an external device using the input device 92 as needed.
  • a plurality of work model data indicating a plurality of work model WMs having a plurality of different shapes may be recorded on the recording medium (or an external device).
  • the control device 7 may acquire one work model data corresponding to the shape of the work W from the plurality of work model data.
  • the control device 7 can appropriately acquire one work model data corresponding to the shape of the work W.
  • a single work model data may be recorded on the recording medium (or an external device).
  • the control device 7 may acquire the work model data based on the instruction of the user of the processing system SYS. Specifically, the control device 7 may control the display 91 so as to display a plurality of work model WMs. Further, the control device 7 displays a GUI for allowing the user to select any one of the plurality of work model WMs as a work model WM having the same or similar shape as the work W.
  • the display 91 may be controlled.
  • the user may grasp the shape of the work W by visually recognizing the work W, and may select a work model WM having the same or similar shape as the grasped work W by using the input device 92.
  • the control device 7 acquires the work model data indicating the work model WM selected by the user.
  • the control device 7 indicates a work model WM having the same or similar shape as the predetermined shape of the work W.
  • Work model data may be acquired.
  • the control device 7 may modify the work model WM indicated by the acquired work model data based on the user's instruction. For example, the control device 7 may modify the features of the work model WM (eg, at least one of the shape and size) based on the user's instructions. When the work WM model is modified, the work model data related to the modified work model WM is used in the subsequent processing.
  • the features of the work model WM eg, at least one of the shape and size
  • control device 7 After that, the control device 7 generates work information based on the measurement result of the measuring device 8 in step S132 and the work model data acquired in step S133 (step S134).
  • the control device 7 acquires the work model shape information regarding the shape of the work model WM from the work model data. Since the shape of the work model WM is the same as or similar to the shape of the work W, the work model shape information can be regarded as equivalent to the information regarding the shape of the work W.
  • the measurement state information generated based on the measurement result of the measuring device 8 also includes the measurement shape information regarding the shape of the work W. However, the accuracy of the shape of the work W indicated by the measured shape information may be lower than the accuracy of the shape of the work model WM indicated by the work model shape information due to the measurement error of the measuring device 8. Therefore, in the present embodiment, the control device 7 uses the work model shape information acquired from the work model data as the work shape information instead of the measurement shape information included in the measurement state information.
  • the work model shape information is information separate from the measurement information generated based on the measurement result of the measuring device 8. Therefore, the work model shape information does not correspond to the information regarding the position of the work W on the mounting surface 311. That is, the control device 7 cannot specify at which position the work model WM (that is, the work W) is arranged on the mounting surface 311 only by referring to the work model shape information. Further, the control device 7 cannot specify the posture in which the work model WM (that is, the work W) is arranged on the mounting surface 311 only by referring to the work model shape information. Further, the control device 7 cannot specify how large the work model WM (that is, the work W) has on the mounting surface 311 only by referring to the work model shape information.
  • the control device 7 associates the measurement position information regarding the position of the work W included in the measurement state information with the work model shape information.
  • the control device 7 can specify the position of the work model WM on the mounting surface 311 in addition to the shape of the work model WM by associating the measurement position information with the work model shape information. Generate information.
  • the position of the work model WM on the mounting surface 311 can be used as the position of the work W on the mounting surface 311. Therefore, the control device 7 can generate work information that can specify the position of the work W on the mounting surface 311 (and, of course, the shape can also be specified).
  • the control device 7 can function as an arithmetic unit that associates the measurement position information with the work model shape information.
  • the control device 7 generates measurement information including the measurement shape information and the measurement position information in a state of being associated with each other, based on the measurement result of the measurement device 8. After that, the control device 7 performs an alignment process for arranging the work model WM at the position of the work W indicated by the measurement position information. That is, the control device 7 performs the alignment process of moving, enlarging, reducing and / or rotating the work model WM to bring it closer to the work W indicated by the measurement shape information. As a result, the position of the work model WM on the mounting surface 311 (that is, the position of the work W on the mounting surface 311) is determined. Therefore, the control device 7 can generate work information based on the result of the alignment process.
  • the control device 7 may perform a pattern matching process as a part of the alignment process.
  • the control device 7 extracts work model feature points, which are a plurality of feature points of the work model WM, based on the work model WM.
  • the control device 7 extracts a plurality of (for example, three or more) work model feature points.
  • the control device 7 may extract the work model feature points based on the operation for designating the work model feature points performed by the user using the input device 92.
  • the control device 7 may extract work model feature points according to a predetermined extraction standard without requiring user operation.
  • control device 7 is a measurement that is a feature point of the work W (specifically, a feature point of the work W that can be identified from the measurement state information) based on the measurement state information and corresponds to the work model extraction point. Feature points are also extracted.
  • the control device 7 extracts a plurality of (for example, three or more) measurement feature points.
  • the control device 7 may extract the measurement feature points based on the operation for designating the measurement feature points performed by the user using the input device 92.
  • the control device 7 may extract measurement feature points according to a predetermined extraction standard without requiring a user operation. After that, the control device 7 pattern-matches the work model WM and the work W indicated by the measurement state information based on the work model feature points and the measurement feature points.
  • the control device 7 has the work model feature points as measurement features.
  • the work model WM is translated, scaled, reduced and / or rotated to approach the point.
  • the control device 7 translates, enlarges, reduces and / or rotates the work model WM until the deviation between the work model feature point and the measurement feature point becomes a predetermined amount or less (typically, until it becomes the minimum).
  • the work model WM is arranged at the same position in the measurement coordinate system as the position where the work W indicated by the measurement state information is arranged.
  • the control device 7 can specify the position of the work model WM in the measurement coordinate system.
  • the position of the work model WM in the measurement coordinate system is converted to the position of the work model WM in the stage coordinate system as described above.
  • information on the position of the work model WM that can be used as the work position information is acquired. That is, the work information corresponding to the work model shape information that can be used as the work shape information and the information about the position of the work model WM that can be used as the work position information is acquired as the information about the work model WM.
  • the control device 7 may perform the alignment process by using an arbitrary algorithm for performing the alignment process.
  • an arbitrary algorithm for performing the alignment process there is an ICP (Interactive Closet Point) algorithm for aligning a plurality of point clouds (for example, a point cloud including the above-mentioned work model feature points and a point cloud including the measurement feature points). Be done.
  • ICP Interactive Closet Point
  • the shape of the work model WM (that is, the shape of the work W) indicated by the work information can be more accurate than that of the first work model alignment operation.
  • the accuracy of the shape of the work W indicated by the measured shape information may be lower than the accuracy of the shape of the work model WM indicated by the work model shape information. Therefore, by using the work information generated by the second work model alignment operation, the machining system SYS may be able to form the three-dimensional structure ST with higher accuracy by the machining operation described later. ..
  • the control device 7 has the measurement result (particularly, measurement position information) of the measurement device 8 included in the processing system SYS and the work model data (particularly) acquired in step S133. , Work model shape information) and work information is generated. That is, the control device 7 associates the measurement position information generated from the measurement result of the measurement device 8 included in the processing system SYS with the work model shape information. However, even if the control device 7 acquires the measurement position information from the outside of the processing system SYS via the input device 92 and generates the work information based on the acquired measurement position information and the work model shape information. Good. That is, the control device 7 may associate the measurement position information acquired from the outside of the processing system SYS via the input device 92 with the work model shape information.
  • step S134 of FIG. 15 the control device 7 included in the processing system SYS associates the measurement position information with the work model shape information.
  • an external device of the processing system SYS may associate the measurement position information with the work model shape information.
  • the control device 7 may transmit (that is, output) the measurement position information, the model shape information, and the external device of the processing system SYS via the network.
  • FIG. 17 is a flowchart showing the flow of the third work model alignment operation.
  • the measuring device 7 measures the state of the work W (step S142).
  • step S142 acquires the work model data corresponding to the shape of the work W mounted on the mounting surface 311 (step S142). Since the process of step S142 may be the same as the process of step S133 in the second work model alignment operation described above, detailed description thereof will be omitted.
  • a certain point on the surface of the work model WM is designated as a user-designated point by the user (step S143).
  • the user uses the input device 92 to specify a user-designated point. Therefore, the input device 92 may be referred to as a designated device that designates a user designated point.
  • the control device 7 controls the display 91 so as to display the work model WM indicated by the work model data acquired in step S142, and the user controls the user-designated point on the work model WM displayed on the display 91. May be specified.
  • the user-designated point may be a characteristic point on the surface of the work model WM.
  • the vertices, the corners, the points located on the most + Z side, the points located on the most -Z side, the points located on the most + X side, and the points located on the most -X side At least one of a point, a point located on the most + Y side, and a point located on the most ⁇ Y side can be mentioned.
  • the user-specified point may be any point as long as it is a point on the surface of the work model WM.
  • the head drive system 22 has a desired third positional relationship between the point on the work W (hereinafter, referred to as “work designated point”) corresponding to the user-designated point designated in step S143 and the processing apparatus 2.
  • the machining head 21 is moved so that the above-mentioned positional condition is satisfied (step S144).
  • the work designated point is typically the same as the user designated point.
  • the information regarding the third positional relationship is information known to the control device 7.
  • An example of a state in which the work designated point and the processing device 2 have a desired third positional relationship is a state in which the processing device 2 can process the work designated point. Since the processing device 2 mainly processes the object at the additional processing position (that is, the focus position of the processing light EL), the additional processing is an example of a state in which the work designated point and the processing device 2 have a desired third positional relationship. The state where the position is set to the work designated point can be mentioned. As described above, the plurality of guide light GLs emitted from the plurality of guide light emitting devices 24 intersect at the additional processing position.
  • a state in which a plurality of guide light GLs intersect at the work designated point can be mentioned. That is, as an example of a state in which the work designated point and the processing apparatus 2 have a desired third positional relationship, a state in which a plurality of guide light GLs are applied to the work designated point can be mentioned.
  • the plurality of guide light emitting devices 24 emit a plurality of guide light GLs
  • the head drive system 22 emits a plurality of guide light GLs.
  • the processing head 21 is moved so that the plurality of guide light GLs intersect at the designated point (step S144). That is, the head drive system 22 changes the relative positional relationship between the work W and the additional processing position so that the plurality of guide light GLs intersect at the work designated point by moving the processing head 21.
  • FIG. 18 is a cross-sectional view showing how a plurality of guide light GLs intersect at a designated work point.
  • FIG. 19 is a cross-sectional view showing a state in which a plurality of guide light GLs do not intersect at a designated work point.
  • the state of the plurality of guide light GLs changes from the state shown in FIG. 19 to the state shown in FIG. 18 (that is, the point where the plurality of guide light GLs intersect approaches the work designated point. ), Move the processing head 21.
  • the guide light GL can function as a guide light for aligning the work designated point and the processing device 2 so that the work designated point and the processing device 2 have a desired third positional relationship. Since the work designated point is designated on the surface of the work W, the guide light GL aligns the work W and the machining device 2 so that the work designated point and the machining device 2 have a desired third positional relationship. Can act as a guide light to do.
  • the control device 7 may control the head drive system 22 so that the machining head 21 moves based on a user's instruction to move the machining head 21. That is, the user may visually confirm whether or not the plurality of guide light GLs intersect at the work designated point, and the head drive system 22 may move the processing head 21 based on the confirmation result by the user.
  • the user's instruction may be input via the input device 92.
  • the control device 7 controls the image pickup device 82 so as to image the state of the guide light GL on the work W, and displays the image pickup result of the image pickup device 82.
  • 91 may be controlled.
  • the control device 7 controls the other imaging device so as to image the state of the guide light GL on the work W.
  • the display 91 may be controlled so as to display the imaging result of another imaging device.
  • the user may input an instruction to move the processing head 21 by using the input device 92 while referring to the display contents of the display 91.
  • the control device 7 may control the head drive system 22 so that the processing head 21 moves based on the imaging result of the imaging device 82 (or the imaging result of another imaging device, the same applies hereinafter).
  • the wavelength of the guide light GL may be different from the wavelength of the processing light EL.
  • a filter that reflects the processing light EL and transmits the guide light GL may be provided on the most work W side of the optical system of the image pickup apparatus 82 or another imaging apparatus. Good.
  • an infrared reflection filter may be used as the filter.
  • the image pickup result of the image pickup apparatus 82 is the surface of the work W (particularly, the work designation) as shown in FIG. 20A.
  • Point indicates that the beam spots of a plurality of guide light GLs overlap. That is, the image pickup result of the image pickup apparatus 82 shows that a single beam spot is formed on the surface of the work W (particularly, the work designated point) as shown in FIG. 20 (a).
  • the imaging result of the imaging device 82 is the surface of the work W (particularly, the work designated point) as shown in FIG. 20 (b).
  • the control device 7 can determine whether or not a plurality of guide light GLs intersect at the work designated point based on the imaging result of the imaging device 82. If the plurality of guide light GLs do not intersect at the work designated point, the user or the control device 7 can change the state of the plurality of guide light GLs on the surface of the work W from the state shown in FIG. 20 (b) to FIG. 20 (a). ) (That is, the processing head 21 is moved so that the plurality of beam spots approach each other).
  • step S145 the position measuring device 23 measures the position of the processing head 21 when a plurality of guide light GLs intersect at the work designated point (step S145). As described above, the plurality of guide light GLs intersect at the additional processing position. Therefore, in step S145, it can be said that the position measuring device 23 measures the position of the machining head 21 in a state where the additional machining position is set at the work designated point.
  • step S145 it can be said that the position measuring device 23 measures the position of the machining head 21 in a state where the workpiece designated point can be machined. Further, since the additional processing position has a fixed positional relationship with respect to the processing head 21, the operation of measuring the position of the processing head 21 can be regarded as equivalent to the operation of indirectly measuring the additional processing position. Further, since the position of the machining head 21 is measured with the additional machining position set at the designated work point, the operation of measuring the position of the machining head 21 (that is, indirectly measuring the additional machining position) is performed. , It can be regarded as equivalent to the operation of indirectly measuring the position of the work designated point on the work W.
  • the control device 7 determines whether or not a new user-designated point should be designated (step S146). Specifically, the control device 7 may determine whether or not the desired number of user-designated points have been designated and the above-described processes of steps S144 and S145 have been performed for each of the desired number of user-designated points. Good. The desired number may be one, two, three, four, or five or more. When it is determined that the desired number of user-designated points has not been specified (as a result, the processes of steps S144 and S145 described above have not been performed for each of the desired number of user-designated points), the control device 7 may determine that a new user-designated point should be designated.
  • the control device 7 is newly added. It may be determined that the user-specified point does not have to be specified.
  • the number of user-designated points is one, the position of the work W in the X-axis direction, the position in the Y-axis direction, and the position in the Z-axis direction can be obtained.
  • the work shape is known and the number of user-specified points is two, the rotation ⁇ z around the Z axis can be obtained in addition to the XYZ positions.
  • the work shape is known and the number of user-specified points is three or more, the XYZ position and ⁇ x, ⁇ y, and ⁇ z can be obtained.
  • step S147 when it is determined as a result of the determination in step S146 that a new user-designated point should be specified (step S147: Yes), a certain point on the surface of the work model WM by the user (however, until now). A point that has never been designated as a user-designated point) is designated as a new user-designated point (step S147). After that, the processes of steps S144 and S145 described above are performed for the new user-designated points.
  • step S147 if it is determined as a result of the determination in step S146 that a new user-designated point does not have to be specified (step S147: No), the control device 7 measures the position measuring device 23 in step S145. Work information is generated based on the result and the work model data acquired in step S142 (step S148).
  • the measurement result of the position measuring device 23 in step S145 indicates the position of the machining head 21 when the work designated point and the machining device 2 have a desired third positional relationship. .. Therefore, the control device 7 can specify the position of the work designated point in the machining coordinate system from the measurement result of the position measuring device 23. This is because the work designated point and the machining device 2 have a desired third positional relationship, so that the work designated point and the machining head 21 naturally have a third position which is known information for the control device 7. This is because it has a certain positional relationship that can be specified from the information on the relationship.
  • the control device 7 performs an alignment process for arranging the user-designated point of the work model WM at the position of the work designated point specified from the measurement result of the position measuring device 23. That is, the control device 7 performs the alignment process of moving, enlarging, reducing and / or rotating the work model WM indicated by the work model shape information in parallel to bring the user-designated point closer to the position of the work-designated point. As a result, the position of the work model WM on the mounting surface 311 is known. Therefore, the control device 7 generates work information based on the result of the alignment process. As the alignment process, the control device 7 may perform the same process as the alignment process used in the second work model alignment operation described above.
  • control device 7 uses an ICP (Interactive Closet Point) algorithm for aligning a plurality of point clouds (for example, a point cloud including a model designated point and a point cloud including a user designated point). Processing may be performed. Therefore, the details of the alignment process in the third work model alignment operation will be omitted.
  • ICP Interactive Closet Point
  • the control device 7 can generate work information without requiring the measurement device 8 to measure the work W. Therefore, even if the work W has a shape that is difficult to measure or cannot be measured by the measuring device 8, the control device 7 can generate the work information.
  • the machining model alignment operation aligns the machining model PM, which is a three-dimensional model of the three-dimensional structure ST to be formed by the additional machining, with the work model WM indicated by the work information generated by the work model alignment operation. It is an operation.
  • the machining model alignment operation is an operation of aligning the machining model PM and the work model WM in the reference coordinate system.
  • the stage coordinate system is used as the reference coordinate system. Therefore, the machining model alignment operation is an operation of aligning the machining model PM and the work model WM in the stage coordinate system.
  • the machining model information is information corresponding to the machining position information regarding the position of the machining model PM and the machining shape information regarding the shape of the machining model PM.
  • the "machining information corresponding to the machining position information and the machining shape information" means information in a state where both the position and the shape of each part of the machining model PM can be specified. It should be noted that such machining information does not have to include the machining position information and the machining shape information as separate and different information, as long as both the position and shape of each part of the machining model PM can be specified.
  • the processing information may have any data structure.
  • the control device 7 has the work W and the corresponding in the stage coordinate system as shown in FIG. 21, which is a perspective view showing the work W and the three-dimensional structure ST in the stage coordinate system.
  • the positional relationship with the three-dimensional structure ST to be formed on the work W can be specified. That is, the control device 7 can specify at which position on the work W the three-dimensional structure ST should be formed in the stage coordinate system.
  • the control device 7 can specify what kind of posture the three-dimensional structure ST should have on the work W in the stage coordinate system.
  • the control device 7 can specify what size the three-dimensional structure ST should have on the work W in the stage coordinate system.
  • the machining system SYS can form the three-dimensional structure ST at an appropriate position on the work W in the machining operation described later based on the machining information. That is, the machining system SYS can form the three-dimensional structure ST having an appropriate shape according to the machining information at an appropriate position on the work W according to the machining information.
  • the machining system SYS does not have to perform the machining model alignment operation. For example, when the machining information is input to the machining system SYS via the input device 92, the machining system SYS does not have to perform the machining model alignment operation.
  • FIG. 22 is a flowchart showing the flow of the machining model alignment operation.
  • the control device 7 acquires machining model data corresponding to the shape of the three-dimensional structure ST to be formed by additional machining (step S151). Specifically, the control device 7 acquires machining model data indicating a machining model PM having the same or similar shape as the shape of the three-dimensional structure ST.
  • the machining model data includes machining model feature information regarding the features of the machining model PM.
  • the machining model data includes at least machining model shape information regarding the shape of the machining model PM, which is an example of the features of the machining model PM.
  • the processing model data may be recorded in a memory (that is, a recording medium) included in the control device 7.
  • the processing model data may be recorded on an arbitrary recording medium (for example, a hard disk or a semiconductor memory) built in the control device 7 or externally attached to the control device 7.
  • the control device 7 may acquire the machining model data by reading the machining model data from these recording media by using the input device 92 as needed.
  • the machining model data may be recorded in a device external to the control device 7.
  • the machining model data may be recorded in an external device of the machining system SYS.
  • the control device 7 may acquire the machining model data by downloading the machining model data from an external device via the input device 92.
  • a plurality of processing model data indicating a plurality of processing model WMs having a plurality of different shapes may be recorded on the recording medium (or an external device).
  • the control device 7 may acquire one machining model data corresponding to the shape of the three-dimensional structure ST from the plurality of machining model data.
  • the control device 7 appropriately obtains one machining model data corresponding to the shape of the three-dimensional structure ST. Can be obtained.
  • a single machining model data is recorded on the recording medium (or an external device). May be good.
  • the control device 7 may acquire machining model data based on the instruction of the user of the machining system SYS. Specifically, the control device 7 may control the display 91 so as to display a plurality of processing model PMs. Further, the control device 7 displays a GUI for allowing the user to select any one of the plurality of machining model PMs as a machining model PM having the same or similar shape as the shape of the three-dimensional structure ST. As such, the display 91 may be controlled. The user may use the input device 92 to select a work model WM having the same or similar shape as the shape of the three-dimensional structure ST to be formed by addition processing. As a result, the control device 7 acquires the machining model data indicating the machining model PM selected by the user.
  • control device 7 when the shape of the three-dimensional structure ST to be formed by additional machining is predetermined, the control device 7 has a machining model having the same or similar shape as the predetermined shape of the three-dimensional structure ST. Machining model data indicating PM may be acquired.
  • the control device 7 may modify the machining model PM indicated by the acquired machining model data based on the user's instruction. For example, the control device 7 may modify the characteristics (for example, at least one of the shape and the size) of the machining model PM based on the user's instruction. When the characteristics of the machining model PM are modified, the machining model data related to the modified machining model PM is used in the subsequent processing.
  • the control device 7 controls the display 91 so as to display the work model WM based on the work information (step S152). That is, the control device 7 displays the image showing the work model WM having the shape indicated by the work information at the position indicated by the work information (that is, the position of the actual work W) in the stage coordinate system. To control. At this time, the control device 7 may control the display 91 so as to display the work model WM together with the stage 3 (particularly, the mounting surface 311). Alternatively, the control device 7 may control the display 91 so as to display the actual work W (that is, an image showing the actual work W). For example, the control device 7 may control the display 91 so as to display the imaging result of the imaging device 82 that is imaging the actual work W. Note that FIG. 23 shows a display example of the work model WM.
  • the control device 7 receives an input from the user for aligning the work model WM and the machining model PM (that is, aligning the work W and the machining model PM) (step S153). Specifically, the work model WM is displayed on the display 91 in step S152. Therefore, in step S153, the control device 7 may accept an input from the user for designating the position of the machining model PM with respect to the work model WM displayed on the display 91. Therefore, the input device 92 may be referred to as a designated device.
  • the user specifies a position where at least a part of the three-dimensional structure ST should be formed by additional processing (that is, a modeling position where at least a part of the three-dimensional structure ST should be formed) as a position of the processing model PM.
  • the modeling position may include a position where at least a part of the three-dimensional structure ST formed by addition processing is distributed.
  • the modeling position may include a position where additional processing is performed to form at least a part of the three-dimensional structure ST. Since the addition processing is performed at the above-mentioned addition processing position (typically, the focus position of the processing light EL), the modeling position is set to the additional processing position in order to form at least a part of the three-dimensional structure ST. It may include the position to be set.
  • the modeling position is the processing light for forming at least a part of the three-dimensional structure ST. It may include a position where the EL is irradiated (that is, a position where the irradiation region EA is set). Since the additional processing is performed at the position where the modeling material M is supplied (that is, the position where the supply region MA is set), the modeling position is to form at least a part of the three-dimensional structure ST. It may include a position where M is supplied (that is, a position where the supply area MA is set).
  • the user may specify a reference position that can be used as a reference when forming the three-dimensional structure ST as the position of the machining model PM.
  • the reference position may include a position where addition processing for forming the three-dimensional structure ST is started (that is, a modeling start position).
  • the reference position may include a position where the additional processing for forming the three-dimensional structure ST ends (that is, a modeling end position).
  • the reference position may include a position where a feature point of the three-dimensional structure ST exists.
  • the characteristic points of the 3D structure ST the apex, the angle, the point located on the most + Z side, the point located on the most -Z side, the point located on the most + X side, and the point located on the most -X side.
  • At least one of a point, a point located on the most + Y side, and a point located on the most ⁇ Y side can be mentioned.
  • the user processes a position having a predetermined positional relationship with the above-mentioned modeling position and / or the reference position. It may be specified as the position of the model PM. For example, the user may specify a position offset by a predetermined distance in a predetermined direction from the above-mentioned modeling position and / or reference position as a position of the machining model PM.
  • the user may specify the position of the machining model PM by using the input device 92.
  • the user may specify the position of the machining model PM on the display screen of the display 91 on which the work model WM is displayed in step S152.
  • the user uses the input device 92 to move the pointer 911 for designating the position of the machining model PM, and the pointer 911 to the position designated as the position of the machining model PM.
  • the position of the pointer 911 may be designated as the position of the machining model PM at the timing when is positioned.
  • the user may specify the position of the processing model PM by using the guide light GL emitted by the guide light emitting device 24 described above.
  • the user uses the input device 92 to move the machining head 21 to move the plurality of guide light GLs with respect to the work W, and at the same time, to move the plurality of guide light GLs at positions desired to be designated as the positions of the machining model PM.
  • the position where the plurality of guide light GLs intersect at the timing when the lights intersect may be designated as the position of the processing model PM.
  • the control device 7 may control the display 91 so that the position designated as the position of the machining model PM is displayed in association with the work model WM.
  • the control device 7 is a display object 912 indicating a position designated as a position of the machining model PM (in the example shown in FIG. 24, a display object indicating a white circle). ) May be controlled so that the display 91 is displayed in a display mode in which the positional relationship between the display object and the work model WM can be specified.
  • the user may specify a single position as the position of the machining model PM.
  • the position specified by the user may be specified as the position of a part of the machining model PM (that is, the position where the part of the three-dimensional structure ST should be formed).
  • a region determined according to the position designated by the user may be designated as the position of the machining model PM (that is, the position (region) where the three-dimensional structure ST should be formed).
  • the area determined according to the position specified by the user the area including the position specified by the user, the area centered on the position specified by the user, the area centered on the position specified by the user, and the area having the position specified by the user as the apex. , At least one of the areas defined by the boundary containing the position specified by the user.
  • the user may specify a plurality of positions as the positions of the machining model PM as shown in FIG. 25 showing a display example of the work model WM.
  • the region surrounded by the plurality of positions specified by the user is the position of the machining model PM (that is, the position (region) where the three-dimensional structure ST should be formed). May be specified as.
  • the user may specify a single position as the position of the machining model PM and also specify the posture of the machining model PM.
  • the position of the designated machining model may be referred to as a designated position or a modeling reference position.
  • This designated position (modeling reference position) may be the origin of the machining model PM, or may be the modeling start point of the three-dimensional model ST formed based on the machining model, and these points (origin, It may be a point having a specific known relationship with the modeling start point).
  • the control device 7 uses the work W as shown in FIG. 26 showing a display example of the display 91.
  • the work model WM may be displayed in a display mode in which a defective surface portion of the surface of the work W and a non-defective surface portion of the surface of the work W can be distinguished.
  • the surface portion of the surface of the work W where the defect is generated is set as the modeling position. You may specify.
  • the control device 7 When receiving an input for designating the position of the machining model PM, the control device 7 is machining in addition to the work model WM (or the actual work W), as shown in FIG. 27 showing a display example on the display 91.
  • the display 91 may be controlled to display the model PM (that is, the image of the processing model PM). That is, the control device 7 may control the display 91 so as to display the machining model PM arranged at the position designated by the user.
  • the user may specify the position of the machining model PM by moving the machining model PM using the input device 92 on the display screen of the display 91 on which the machining model PM is displayed. As a result, the user can intuitively specify the position of the machining model PM.
  • the control device 7 may accept from the user an input for designating the posture of the machining model PM with respect to the work model WM in addition to the input for designating the position of the machining model PM with respect to the work model WM.
  • the control device 7 may accept from the user an input for designating the size of the machining model PM with respect to the work model WM in addition to the input for designating the position of the machining model PM with respect to the work model WM.
  • the user may use the input device 92 to specify the orientation and / or size of the machining model PM.
  • the user can translate, rotate, enlarge, and / or reduce the processing model PM by using the input device 92 on the display screen of the display 91 on which the processing model PM is displayed, thereby determining the position of the processing model PM.
  • a posture and / or a posture may be specified.
  • the control device 7 can generate machining position information regarding the position of the machining model PM in the stage coordinate system. As a result, the control device 7 generates machining information corresponding to the machining position information regarding the position of the machining model PM and the machining shape information regarding the shape of the machining model PM (step S154). That is, the control device 7 generates machining information regarding the machining model PM whose position and shape in the stage coordinate system are fixed.
  • control device 7 may modify the machining information generated in step S154, if necessary.
  • the three-dimensional structure ST is formed on the work W. That is, the machining model PM and the work model WM are aligned so that the machining model PM is arranged on the work model WM.
  • the machining information generated in step S154 is used depending on the relationship between the shape of the surface of the machining model PM facing the work model WM side and the shape of the surface of the work model WM facing the machining model PM side.
  • the machining information generated in step S154 is used.
  • the three-dimensional structure ST cannot be formed on the work W. Specifically, as shown in FIG.
  • the machining information can be used as 3
  • a gap is formed between the dimensional structure ST and the work W.
  • the processing information there is a possibility that a three-dimensional structure ST that partially bites into the work W is formed.
  • the control device 7 may modify the machining information.
  • FIG. 29 which is a cross-sectional view conceptually showing a modification example of machining information together with the machining model PM and the work model WM
  • the control device 7 is a machining model PM indicated by the modified machining information. Machining information (particularly, machining shape information) may be modified so that the shape of the surface PMa has a complementary relationship with the shape of the surface WMa of the work model WM.
  • FIGS. 30 (a) to 30 (c) An example of a method of modifying machining information as shown in FIG. 29 is shown in FIGS. 30 (a) to 30 (c).
  • FIGS. 30 (a) to 30 (c) is a cross-sectional view conceptually showing an example of a method of correcting machining information together with a work model WM and a machining model PM.
  • the control device 7 brings the machining model PM and the work model WM close to each other until there is no gap between the surface PMa of the machining model PM and the surface WMa of the work model WM.
  • the control device 7 causes the machining model PM to bite into the work model WM until there is no gap between the surface PMa of the machining model PM and the surface WMa of the work model WM. After that, the control device 7 calculates the thickness D of the overlapping portion between the machining model PM and the work model WM (that is, the amount of the machining model PM biting into the work model WM) D. After that, as shown in FIG. 30B, the control device 7 adds a cutting allowance model CM, which is a three-dimensional model corresponding to a modeled object having a thickness D, to the surface PMa before modification of the processing model PM. To do. After that, as shown in FIG.
  • the control device 7 cuts the surface CMa facing the work model WM of the cutting allowance model CM so as to have a complementary relationship with the shape of the surface WMa of the work model WM. Partially cut the substitute model CM.
  • the three-dimensional model including the partially cut cutting allowance model CM and the machining model PM is used as a new (that is, after modification) machining model PM. Therefore, in the control device 7, the modified machining information includes the position and position of the three-dimensional model (that is, the modified machining model PM) including the partially cut cutting allowance model CM and the pre-correction machining model PM. Machining information (particularly, machining shape information) may be modified to include information about the shape.
  • FIGS. 31 (a) to 31 (c) are cross-sectional views conceptually showing another example of the method of modifying the machining information together with the work model WM and the machining model PM.
  • the control device 7 brings the machining model PM and the work model WM close to each other until there is no gap between the surface PMa of the machining model PM and the surface WMa of the work model WM.
  • the control device 7 calculates the thickness D of the overlapping portion between the machining model PM and the work model WM (that is, the amount of the machining model PM biting into the work model WM) D. After that, as shown in FIG. 31B, the control device 7 cuts a portion of the machining model PM that overlaps with the work model WM. Further, the control device 7 cuts a portion of the machining model PM other than the lower end portion having the thickness D. As a result, the lower end portion of the processing model PM having the thickness D and not overlapping with the work model WM remains as the repair model RM.
  • the shape of the surface RMa of the repair model RM facing the work model WM is complementary to the shape of the surface WMa of the work model WM.
  • This repair model RM can be regarded as equivalent to a three-dimensional model of a modeled object for filling a gap between the surface PMa of the processing model PM and the surface WMa of the work model WM.
  • the repair model RM is added to the lower end of the machining model PM.
  • the three-dimensional model including the repair model RM and the machining model PM is used as a new (that is, modified) machining model PM. Therefore, in the control device 7, the modified machining information includes information regarding the position and shape of the three-dimensional model including the repair model RM and the modified machining model PM (that is, the modified machining model PM). , Machining information (particularly, machining shape information) may be modified.
  • a model for cutting allowance for cutting the three-dimensional structure ST formed on the work W from the work W may be added to the machining model PM.
  • the machining operation is an operation for actually forming the three-dimensional structure ST on the work W.
  • the processing system SYS forms the three-dimensional structure ST by the laser overlay welding method. Therefore, the processing system SYS may form the three-dimensional structure ST by performing an existing processing operation (in this case, a modeling operation) based on the laser overlay welding method.
  • an existing processing operation in this case, a modeling operation
  • an example of a processing operation for forming the three-dimensional structure ST by using the laser overlay welding method will be briefly described.
  • the machining system SYS forms a three-dimensional structure ST whose position and shape are specified by the above-mentioned machining model alignment operation on the work W whose position and shape are specified by the above-mentioned work model alignment operation. That is, the machining system SYS is a three-dimensional structure having a desired shape at a desired position on the work W based on the work information generated by the work model alignment operation described above and the machining information generated by the machining model alignment operation described above.
  • Form ST is a three-dimensional structure having a desired shape at a desired position on the work W based on the work information generated by the work model alignment operation described above and the machining information generated by the machining model alignment operation described above.
  • the processing system SYS forms, for example, a plurality of layered partial structures (hereinafter referred to as "structural layers") SLs arranged along the Z-axis direction in order.
  • structural layers layered partial structures
  • the processing system SYS sequentially forms a plurality of structural layers SL obtained by cutting the three-dimensional structure ST into round slices along the Z-axis direction.
  • the three-dimensional structure ST which is a laminated structure in which a plurality of structural layers SL are laminated, is formed.
  • the flow of the operation of forming the three-dimensional structure ST by forming the plurality of structural layers SL one by one in order will be described.
  • each structural layer SL Under the control of the control device 7, the processing system SYS sets an irradiation region EA in a desired region on the modeling surface MS corresponding to the surface of the work W or the surface of the formed structural layer SL, and the irradiation region EA is set with respect to the irradiation region EA.
  • the processing light EL is irradiated from the irradiation optical system 211.
  • the region occupied by the processed light EL emitted from the irradiation optical system 211 on the modeling surface MS may be referred to as an irradiation region EA.
  • the focus position (that is, the condensing position) of the processed light EL coincides with the modeling surface MS.
  • the molten pool (that is, the pool of metal melted by the processing light EL) MP is formed in the desired region on the modeling surface MS by the processing light EL emitted from the irradiation optical system 211. It is formed.
  • the processing system SYS sets a supply region MA in a desired region on the modeling surface MS under the control of the control device 7, and supplies the modeling material M to the supply region MA from the material nozzle 212.
  • the processing system SYS supplies the modeling material M to the molten pool MP from the material nozzle 212.
  • the modeling material M supplied to the molten pool MP melts.
  • the processing light EL is no longer irradiated to the molten pool MP as the processing head 21 moves, the modeling material M melted in the molten pool MP is cooled and solidified (that is, solidified) again.
  • the solidified modeling material M is deposited on the modeling surface MS. That is, a modeled object is formed by the deposit of the solidified modeling material M.
  • a series of modeling processes including formation of a molten pool MP by irradiation with such processing light EL, supply of a modeling material M to the molten pool MP, melting of the supplied modeling material M, and solidification of the molten modeling material M can be performed.
  • the processing head 21 is repeatedly moved relative to the modeling surface MS along the XY plane. That is, when the processing head 21 moves relative to the modeling surface MS, the irradiation region EA also moves relative to the modeling surface MS. Therefore, a series of modeling processes is repeated while moving the irradiation region EA relative to the modeling surface MS along the XY plane (that is, in the two-dimensional plane).
  • the processed light EL is selectively irradiated to the irradiation region EA set in the region where the modeled object is to be formed on the modeled surface MS, but it is not desired to form the modeled object on the modeled surface MS.
  • the irradiation area EA set in the area is not selectively irradiated (it can be said that the irradiation area EA is not set in the area where the modeled object is not desired to be formed). That is, the processing system SYS moves the irradiation region EA along the predetermined movement locus on the modeling surface MS, and converts the processing light EL into the modeling surface MS at a timing according to the distribution mode of the region where the modeled object is to be formed. Irradiate.
  • the mode of distribution of the region where the modeled object is to be formed may be referred to as a distribution pattern or a pattern of the structural layer SL.
  • the molten pool MP also moves on the modeling surface MS along the movement locus according to the movement locus of the irradiation region EA.
  • the molten pool MP is sequentially formed on the modeling surface MS in the portion of the region along the movement locus of the irradiation region EA that is irradiated with the processing light EL.
  • the supply region MA also moves on the modeling surface MS along the movement locus according to the movement locus of the irradiation region EA. Become.
  • a structural layer SL corresponding to an aggregate of the modeled objects made of the solidified modeling material M is formed on the modeling surface MS. That is, the structural layer SL corresponding to the aggregate of the shaped objects formed on the modeling surface MS in the pattern corresponding to the moving locus of the molten pool MP (that is, the shape corresponding to the moving locus of the molten pool MP in a plan view).
  • the structural layer SL) to have is formed.
  • the modeling material M is supplied to the irradiation region EL, and the irradiation region EL is irradiated with the processing light EL having a strength that does not allow the molten pool MP. You may.
  • the irradiation area EA is moved with respect to the modeling surface MS, but the modeling surface MS may be moved with respect to the irradiation area EA.
  • the machining system SYS repeatedly performs the operation for forming such a structural layer SL under the control of the control device 7 based on the machining information (that is, the information regarding the machining model PM). Specifically, first, the processing model PM indicated by the processing information is sliced at a stacking pitch to create slice data. It should be noted that the slice data may be partially modified according to the characteristics of the processing system SYS.
  • the processing system SYS performs the operation for forming the first structural layer SL # 1 on the modeling surface MS corresponding to the surface of the work W, that is, the three-dimensional model data corresponding to the structural layer SL # 1, that is, the structural layer. This is performed based on the slice data corresponding to SL # 1.
  • the processing system SYS uses information on the tool path which is the locus of the irradiation region EA (supply region MA) passing through the region where the structural layer SL # 1 exists in the slice data corresponding to the structural layer SL # 1. May be operated. As a result, the structural layer SL # 1 is formed on the modeling surface MS as shown in FIG. 33A. After that, the processing system SYS sets the surface (that is, the upper surface) of the structural layer SL # 1 on the new modeling surface MS, and then forms the second structural layer SL # 2 on the new modeling surface MS. To do. In order to form the structural layer SL # 2, the control device 7 first controls the head drive system 22 so that the machining head 21 moves along the Z axis.
  • the control device 7 controls the head drive system 22 so that the irradiation region EA and the supply region MA are set on the surface of the structural layer SL # 1 (that is, the new modeling surface MS).
  • the machining head 21 is moved toward the + Z side.
  • the focus position of the processing light EL coincides with the new modeling surface MS.
  • the processing system SYS operates on the structural layer SL # 1 based on the slice data corresponding to the structural layer SL # 2 in the same operation as the operation of forming the structural layer SL # 1 under the control of the control device 7.
  • the structural layer SL # 2 is formed on the surface.
  • the structural layer SL # 2 is formed as shown in FIG. 33 (b).
  • the same operation is repeated until all the structural layers SL constituting the three-dimensional structure ST to be formed on the work W are formed.
  • the three-dimensional structure ST is formed by the laminated structure in which a plurality of structural layers SL are laminated.
  • the machining system SYS can generate work information by a work model alignment operation and can form a three-dimensional structure ST on a work W whose position and shape are specified based on the generated work information. Therefore, the machining system SYS can appropriately form the three-dimensional structure ST on the work W as compared with the case where the work information is not used. Further, since the work information is mainly generated by the machining system SYS, the load on the user is reduced as compared with the case where the work information is generated by the user himself / herself.
  • the machining system SYS can generate machining position information by a machining model alignment operation, and can form a three-dimensional structure ST whose position is specified based on the generated machining position information on the work W. Therefore, the machining system SYS can appropriately form the three-dimensional structure ST on the work W as compared with the case where the machining position information is not used. Further, since the machining position information is mainly generated by the machining system SYS, the load on the user is reduced as compared with the case where the machining position information is generated by the user himself / herself.
  • the stage device 3 includes a stage drive system 32 for moving the stage 31. May be good.
  • the stage drive system 32 may move the stage 31 within the chamber space 63IN, for example.
  • the stage drive system 32 may move the stage 31 along at least one of the X-axis, the Y-axis, and the Z-axis.
  • each of the irradiation region EA and the supply region MA moves on the work W along at least one of the X-axis and the Y-axis.
  • stage drive system 32 may move the stage 31 along at least one of the ⁇ X direction, the ⁇ Y direction, and the ⁇ Z direction in addition to at least one of the X-axis, the Y-axis, and the Z-axis.
  • the stage drive system 32 includes, for example, a motor and the like.
  • the stage device 3 may further include the position measuring device 33.
  • the position measuring device 33 can measure the position of the stage 31.
  • the position measuring device 33 may include, for example, at least one of an encoder and a laser interferometer.
  • the processing device 2 does not have to include the head drive system 22. However, even when the processing system SYS includes the stage drive system 32, the processing device 2 may include the head drive system 22. When the processing device 2 does not include the head drive system 22, the processing device 2 does not have to include the position measuring device 23.
  • step S112 of FIG. 4 described above which shows the flow of the coordinate matching operation for associating the processing coordinate system with the stage coordinate system described above
  • the stage drive system 32 May move the stage 31 so that the processing light EL is irradiated toward the beam detector 325 (opening 324).
  • the control device 7 corrects the position of the pin 312 in the stage coordinate system, which is information known to the control device 7, according to the amount of movement of the stage 31, and then the pin 312.
  • the position in the processing coordinate system of the processing head 21 in a state where the processing light EL can be irradiated and the position where the pin 312 is formed in the stage coordinate system should be related to each other. You may. However, if the machining system SYS does not include the head drive system 22 (that is, the machining head 21 does not move), the machining coordinate system may not be used. In this case, the machining coordinate system and the stage coordinates The processing of steps S111 to S113 of FIG. 4 described above showing the flow of the coordinate matching operation for associating with the system may not be performed.
  • the position measuring device 33 is shown in step S115 of FIG. 4 described above showing the flow of the coordinate matching operation for associating the measured coordinate system with the stage coordinate system. May measure the position of the stage 31 when the measuring device 8 is measuring the reference member 34.
  • the control device 7 includes the measurement result of the measuring device 8 in step S115 and the measurement result of the position of the stage 31 when the measuring device 8 is measuring the reference member 34 in step S115.
  • the measurement coordinate system and the stage coordinate system may be associated with each other based on. Specifically, the control device 7 can specify the position of the reference mark 343 in the measurement coordinate system from the measurement result of the measurement device 8.
  • the control device 7 has the through hole 322 and the through hole 322 in the measurement coordinate system based on the information regarding the position of the reference mark 343 in the measurement coordinate system and the information regarding the positional relationship between the reference mark 343 and the through hole 322.
  • the position of the pin 312 can be specified.
  • the information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7.
  • the control device 7 can identify that the position of the pin 312 in the measurement coordinate system and the position of the pin 312 in the stage coordinate system should be associated with each other.
  • the position of the pin 312 in the stage coordinate system is corrected by the amount of movement of the stage 31 by the stage drive system 32.
  • the control device 7 can specify that the position of the pin 312 in the measurement coordinate system and the corrected position of the pin 312 in the stage coordinate system are positions to be associated with each other.
  • the control device 7 is based on the specific result that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other, and the measurement coordinate system and the stage. Can be associated with a coordinate system.
  • step S144 of FIG. 17 described above showing the flow of the third work model alignment operation described above the stage drive system 32 is described in step S143 of FIG.
  • the stage 31 may be moved so that the positional condition that the designated user-designated point and the processing apparatus 2 have a desired third positional relationship is satisfied.
  • step S145 of FIG. 17 after the stage 31 is moved so that the position condition that the user-designated point and the processing device 2 have a desired third positional relationship is satisfied, the position condition of the position measuring device 33 is changed. The position of the stage 31 at the time of filling may be measured. Further, in step S148 of FIG.
  • the control device 7 obtains work information based on the measurement results of the position measuring devices 23 and / or 33 in step S145 of FIG. 17 and the work model data acquired in step S142. It may be generated.
  • the measurement result of the position measuring device 23 and / or 33 in step S145 is the position of the machining head 21 and / or the stage 31 when the user-designated point and the machining device 2 have a desired third positional relationship. Is shown. Therefore, the control device 7 can specify the position of the user-designated point in the machining coordinate system and / or the position of the user-designated point in the stage coordinate system from the measurement results of the position measuring device 23 and / or 33.
  • the control device 7 arranges the work model designated point, which is a point corresponding to the user designated point in the work model WM, at the position of the user designated point specified from the measurement results of the position measuring device 23 and / or 33. You may perform the alignment process for this. After that, the control device 7 may generate work information based on the result of the alignment process.
  • the beam detection member 32 is placed on the mounting surface 311 in order to perform the coordinate matching operation.
  • the beam detection member 32 (particularly, the light shielding member 323 and the beam detector 325) may be formed on the stage 31 (for example, the mounting surface 311).
  • the reference member 34 is placed on the mounting surface 311 in order to perform the coordinate matching operation.
  • the reference member 34 (particularly, the reference mark 343) may be formed on the stage 31 (for example, the mounting surface 311).
  • the pin 312 and the through hole 322 are used as markings for positioning when the beam detection member 32 is mounted on the mounting surface 311.
  • the pin 312 and the through hole 322 are merely examples of markings for alignment, and markings different from those of the pin 312 and the through hole 322 may be used.
  • a convex structure which is an example of a mark is formed on the mounting surface 311
  • a concave structure which is an example of a mark is formed on the beam detection member 32
  • the convex structure is concave.
  • the beam detection member 32 and the mounting surface 311 may be aligned by mounting the beam detecting member 32 on the mounting surface 311 so as to be fitted into the structure of the above.
  • a concave structure which is an example of a mark is formed on the mounting surface 311
  • a convex structure which is an example of a mark is formed on the beam detection member 32
  • the convex structure is concave.
  • the beam detection member 32 and the mounting surface 311 may be aligned by mounting the beam detecting member 32 on the mounting surface 311 so as to be fitted into the structure of the above.
  • a guide member having a shape along at least a part of the outer edge of the beam detection member 32 is formed on the mounting surface 311 as a mark, and the beam is detected so that the outer edge of the beam detection member 32 comes into contact with the guide member.
  • the beam detection member 32 and the mounting surface 311 may be aligned by mounting the member 32 on the mounting surface 311. The same applies to the positioning mark when the reference member 34 is placed on the mounting surface 311.
  • a reference member 34 different from the beam detection member 32 for associating the processed coordinate system with the stage coordinate system is used.
  • the beam detection member 32 may be used as a reference member 34 for associating the measurement coordinate system with the stage coordinate system.
  • at least one of the light-shielding member 323, the opening 324, and the beam detector 325 formed on the beam detection member 32 may be used as the reference mark 343.
  • the reference mark 343 may be formed on the base member 321 of the beam detection member 32.
  • the reference member 34 is formed with a mark that can be measured by the measuring device 8 as the reference mark 343.
  • the reference member 34 is a cross-sectional view showing another example of the reference member 34.
  • FIG. 35 (b) which is a cross-sectional view taken along the line AA in FIG. 35 (a)
  • FIGS. 35 (b) which is a cross-sectional view taken along the line AA in FIG. 35 (a)
  • 35 (a) and 35 (b) show an example in which at least a part (specifically, a hemisphere) of a sphere is formed on the reference member 34 as a three-dimensional member 344.
  • the three-dimensional member 344 may have the same characteristics as the reference mark 343 except that it has a three-dimensional structure. As a result, even when the three-dimensional member 344 is formed, the measurement coordinate system and the stage coordinate system are appropriately associated with each other.
  • the beam detection member 32 is mounted on the mounting surface 311 in order to perform the coordinate matching operation.
  • the reference member 34 is placed on the mounting surface 311 in order to perform the coordinate matching operation.
  • the coordinate matching operation may be performed without using the beam detection member 32 or the reference member 34.
  • a photosensitive / heat-sensitive member heat-sensitive paper as an example
  • a processing coordinate system head coordinate system
  • the processing light reference origin As a result, a mark is exposed on the photosensitive / heat-sensitive member, and this mark becomes the processing light reference origin.
  • the intersecting positions of the plurality of guide light GLs emitted from the plurality of guide light emitting devices 24 are matched with the positions of the exposed marks on the photosensitive / heat sensitive member.
  • the processed coordinate system and the measured coordinate system can be associated with each other.
  • the position of the exposed mark may be measured by using the measuring device 8.
  • the processing apparatus 2 melts the modeling material M by irradiating the modeling material M with the processing light EL.
  • the processing apparatus 2 may melt the modeling material M by irradiating the modeling material M with an arbitrary energy beam.
  • the processing device 2 may include a beam irradiation device capable of irradiating an arbitrary energy beam in addition to or in place of the irradiation optical system 211.
  • Any energy beam includes, but is not limited to, a charged particle beam such as an electron beam, an ion beam, or an electromagnetic wave.
  • the processing system SYS can form the three-dimensional structure ST by the laser overlay welding method.
  • the processing system SYS can form the three-dimensional structure ST from the modeling material M by another method capable of forming the three-dimensional structure ST by irradiating the modeling material M with the processing light EL (or an arbitrary energy beam). It may be formed.
  • Other methods include, for example, a powder bed melting bonding method (Power Bed Fusion) such as a powder sintering laminated molding method (SLS: Selective Laser Sintering), a binder jetting method (Binder Jetting), or a laser metal fusion method (LMF:). Laser Metal Fusion) can be mentioned.
  • the processing system SYS may use an arbitrary method for additional processing, which is different from the method capable of forming the three-dimensional structure ST by irradiating the modeling material M with the processing light EL (or an arbitrary energy beam).
  • the three-dimensional structure ST may be formed.
  • the processing system SYS forms the three-dimensional structure ST by supplying the modeling material M from the material nozzle 212 toward the irradiation region EA where the irradiation optical system 211 irradiates the processing light EL. ..
  • the processing system SYS may form the three-dimensional structure ST by supplying the modeling material M from the material nozzle 212 without irradiating the processing light EL from the irradiation optical system 211.
  • the processing system SYS melts the modeling material M on the modeling surface MS by spraying the modeling material M onto the modeling surface MS from the material nozzle 212, and solidifies the melted modeling material M.
  • the dimensional structure ST may be formed.
  • the processing system SYS melts the modeling material M on the modeling surface MS and solidifies the molten modeling material M by blowing a gas containing the modeling material M onto the modeling surface MS from the material nozzle 212 at an ultra-high speed.
  • the three-dimensional structure ST may be formed.
  • the processing system SYS melts the modeling material M on the modeling surface MS by spraying the heated modeling material M onto the modeling surface MS from the material nozzle 212, and solidifies the molten modeling material M.
  • the three-dimensional structure ST may be formed.
  • the processing system SYS (particularly, the processing head 21) does not have to include the irradiation optical system 211. Good.
  • the processing system SYS performs a removal processing capable of removing at least a part of the object by irradiating an object such as a work W with a processing light EL (or an arbitrary energy beam) in addition to or instead of the additional processing. You may.
  • the processing system SYS irradiates an object such as a work W with processing light EL (or an arbitrary energy beam) in addition to or in place of at least one of addition processing and removal processing to mark at least a part of the object. Marking processing capable of forming (for example, letters, numbers or figures) may be performed. Even in this case, the above-mentioned effects can be enjoyed.
  • a mounting device that includes a mounting surface on which an object is mounted, An information generator that generates object information in which object position information regarding the position of the object on the above-mentioned surface and object shape information regarding the shape of the object correspond to each other, and processing for processing the object based on the object information.
  • the device Processing system equipped with.
  • the object information is information corresponding to the object position information regarding the position of the object in the reference coordinate system of the processing system and the object shape information.
  • Appendix 3 The processing system according to Appendix 2, wherein the reference coordinate system includes a mounting position coordinate system for indicating a position on the mounting surface described above.
  • Appendix 4 The processing system according to any one of Appendix 1 to 3, further comprising an object measuring device for measuring the state of the object on the above-mentioned mounting surface.
  • Appendix 5 The processing system according to Appendix 4, wherein the information generation device generates the object position information based on the measurement result of the object measurement device.
  • the object measuring device measures the position of the object in the measurement position coordinate system for indicating the position within the measuring range of the object measuring device.
  • the information generation device calculates the position of the object in the reference coordinate system of the processing system from the position of the object in the measurement position coordinate system based on the measurement result of the object measurement device.
  • the processing system according to Appendix 5 which generates the object position information regarding the position of the object in the description position coordinate system.
  • Appendix 7 The processing system according to Appendix 6, wherein the reference coordinate system includes a mounting position coordinate system for indicating a position on the mounting surface described above.
  • Appendix 8 The processing system according to any one of Appendix 4 to 7, wherein the information generating device generates the object shape information based on the measurement result of the object measuring device.
  • [Appendix 9] The processing system according to any one of Appendix 4 to 8, wherein the information generation device generates the object information based on the measurement result of the object measurement device.
  • [Appendix 10] The processing system according to any one of Appendix 4 to 9, wherein the state of the object includes a three-dimensional shape of the object.
  • [Appendix 11] The processing system according to any one of Appendix 4 to 10, wherein the object measuring device includes a 3D scanner.
  • [Appendix 12] The object measuring device is described in any one of Appendix 4 to 11, including a projection device that projects a predetermined projection pattern on the object and an imaging device that images the object on which the projection pattern is projected. Processing system.
  • [Appendix 13] The processing system according to Appendix 12, wherein the object measuring device includes a plurality of the imaging devices.
  • [Appendix 14] The processing system according to any one of Supplementary note 4 to 13, wherein the object measuring device is arranged in a space isolated by a partition wall member from a space in which the object is housed.
  • the information generating device generates the object position information based on the measurement result of the object measuring device, acquires the object shape information from the model data corresponding to the shape of the object, and obtains the acquired object shape information.
  • the information generating device selects one model data corresponding to the shape of the object from a plurality of the model data corresponding to a plurality of different shapes, and acquires the object shape information from the one model data. Described processing system.
  • the information generator acquires the first object shape information used as the object shape information from the model data, and obtains the first object shape information.
  • the second object shape information indicating the shape of the object corresponds to the object position information with a lower accuracy than the first object shape information.
  • the information generation device performs pattern matching between the first object shape information and the second object shape information to obtain information on the shape of one part of the object indicated by the first object shape information.
  • the processing system according to Appendix 15 or 16, wherein the object information corresponding to the information regarding the position of the one portion indicated by the object position information is generated.
  • Appendix 18 A processing position changing device that moves the processing device with respect to the above-mentioned setting device to change the relative position between the object and the processing device. Further equipped with a processing position measuring device for measuring the position of the processing device, The processing system according to any one of Appendix 1 to 17, wherein the information generating device generates the object position information based on the measurement result of the processing position measuring device.
  • [Appendix 19] The processing system according to Appendix 18, wherein the processing position measuring device measures the position of the processing device when at least one target portion of the object has a predetermined positional relationship with the processing device.
  • [Appendix 20] The processing system according to Appendix 19, wherein the processing position measuring device measures the position of the processing device when at least two of the target portions each have a predetermined positional relationship with the processing device.
  • [Appendix 21] The machining system according to Appendix 19 or 20, wherein the machining position measuring device measures the position of the machining device when each of at least four target portions has a predetermined positional relationship with the machining device.
  • Appendix 22 The processing system according to any one of Appendix 19 to 21, wherein the processing apparatus includes an injection apparatus that emits a guide light for aligning the processing apparatus with the object.
  • An observation device for observing the state of the guide light on the surface of the object is further provided.
  • Appendix 24 A mounting position changing device that moves the above-mentioned mounting device with respect to the processing device to change the relative position between the object and the processing device, and Further equipped with a mounting position measuring device for measuring the position of the mounting device described above, The processing system according to any one of Appendix 1 to 23, wherein the information generation device generates the object position information based on the measurement result of the above-mentioned stationary position measurement device.
  • Appendix 25 The processing system according to Appendix 24, wherein the pre-described placement position measuring device measures the position of the pre-described placement device when at least one target portion of the object has a predetermined positional relationship with the processing device.
  • Appendix 26 The processing system according to Appendix 25, wherein the pre-described placement position measuring device measures the position of the pre-described placement device when at least two of the target portions each have a predetermined positional relationship with respect to the processing device.
  • Appendix 27 The processing system according to Appendix 25 or 26, wherein the pre-described placement position measuring device measures the position of the pre-described placement device when each of at least four target portions has a predetermined positional relationship with respect to the processing device.
  • Appendix 28 The processing system according to any one of Appendix 25 to 27, wherein the processing apparatus includes an injection apparatus that emits a guide light for aligning the processing apparatus with the object.
  • Appendix 29 An observation device for observing the state of the guide light on the surface of the object is further provided.
  • Appendix 30 The state in which the target portion has the predetermined positional relationship with the processing apparatus is described in any one of Appendix 22 to 23 and 28 to 29 including a state in which the target portion is irradiated with the guide light.
  • Appendix 31 The processing system according to any one of Appendix 22 to 23 and 28 to 29, wherein the processing apparatus includes a plurality of the injection apparatus.
  • Appendix 32 The state in which the target portion has the predetermined positional relationship with the processing apparatus is described in Appendix 31, including a state in which the target portion is located at an intersection of a plurality of the guide lights emitted by the plurality of injection devices.
  • Processing system. [Appendix 33] The processing system according to any one of Appendix 19 to 23 and 25 to 32 specified by the user.
  • Appendix 34 The information generating apparatus associates the machining position coordinate system for indicating the position of the machining apparatus with the mounting position coordinate system for indicating the position on the above-mentioned mounting surface according to any one of the items 1 to 33. Described processing system.
  • Appendix 35 The processing system according to Appendix 34, wherein the information generation device generates the object information after associating the processing position coordinate system with the previously described placement position coordinate system.
  • the processing apparatus irradiates an energy beam to process the object.
  • the processing apparatus irradiates the beam detection apparatus aligned with respect to the mounting reference position on the mounting surface described above with the energy beam.
  • the information generation device includes the detection result of the beam detection device, the pre-described reference position, the position of the processing device when the beam detection device is irradiated with the energy beam, and the position of the pre-described device.
  • the machining system according to Appendix 34 or 35 which associates the machining position coordinate system with the previously described placement position coordinate system based on information about at least one of them.
  • the beam detecting device includes an opening member having an opening through which at least a part of the energy beam can pass, and a detecting element for detecting at least a part of the energy beam passing through the opening. 36.
  • Appendix 38 The processing system according to Appendix 36 or 37, wherein the beam detection device is mounted on the above-mentioned mounting surface.
  • Appendix 39 The processing system according to Appendix 36 or 37, wherein at least a part of the beam detection device is integrated with the above-mentioned mounting surface.
  • Appendix 40 Any of Appendix 36 to 39, further comprising a position changing device that changes the relative position of the processing device and the pre-described device so that the processing device can irradiate the beam detection device with the energy beam.
  • the processing system described in item 1. [Appendix 41] Further equipped with an object measuring device for measuring the state of the object on the above-mentioned mounting surface, The information generation device associates a measurement position coordinate system for indicating a position within the measurement range of the object measurement device with a position coordinate system for indicating a position on the above-mentioned mounting surface. Any of Appendix 1 to 40.
  • Appendix 42 The processing system according to Appendix 41, wherein the information generation device generates the object information after associating the measurement position coordinate system with the previously described in-place position coordinate system.
  • the object measuring device measures the state of the reference member aligned with respect to the mounting reference position on the mounting surface described above.
  • the information generating device is described in Appendix 41 or 42, which associates the measurement position coordinate system with the previously described position coordinate system based on the measurement result of the reference member by the object measuring device and the previously described reference position.
  • Processing system [Appendix 44] The processing system according to Appendix 43, wherein the reference member includes a member on which a reference mark that can be measured by the object measuring device is formed.
  • [Appendix 45] The processing system according to Appendix 43 or 44, wherein the reference member includes a member having a three-dimensional structure.
  • [Appendix 46] The processing system according to any one of Appendix 43 to 45, wherein the reference member includes at least a part of a sphere.
  • [Appendix 47] The processing system according to any one of Appendix 43 to 46, wherein the reference member is placed on the above-mentioned mounting surface.
  • [Appendix 48] The processing system according to any one of Appendix 43 to 46, wherein at least a part of the reference member is integrated with the above-mentioned mounting surface.
  • [Appendix 49] A processing method for processing an object to be processed by using the processing system according to any one of Appendix 1 to 48.
  • Appendix 50 The object is processed based on the generation of the object information corresponding to the object position information regarding the position of the object mounted on the mounting surface of the mounting device and the object shape information regarding the shape of the object and the object information. Machining methods, including controlling the machining equipment.
  • Appendix 51 The object is processed based on the generation of the object information corresponding to the object position information regarding the position of the object mounted on the mounting surface of the mounting device and the object shape information regarding the shape of the object and the object information.
  • a computer program that causes a computer to perform machining methods including controlling the machining equipment.
  • Appendix 52 A recording medium on which the computer program according to Appendix 51 is recorded.
  • a mounting device that includes a mounting surface on which an object is mounted, A processing device that processes the object and Receives a control signal that controls the processing apparatus to process the object based on the object information corresponding to the object position information regarding the position of the object and the object shape information regarding the shape of the object on the above-mentioned mounting surface.
  • a control device that controls a processing system including a mounting device including a mounting surface on which an object is placed and a processing device for processing the object. The processing apparatus so as to generate object information corresponding to the object position information regarding the position of the object on the above-mentioned mounting surface and the object shape information regarding the shape of the object, and process the object based on the object information.
  • a control device that controls.
  • Appendix 55 In the modeling method of modeling a modeled object on an object, Displaying an image of the object A modeling method including modeling a modeled object on the object based on a modeling reference position specified using the displayed image.
  • Appendix 56 In the modeling method of modeling a modeled object on an object, Displaying an image relating to the object and a modeling reference position displayed in association with the image of the object. Entering information for designating the modeling reference position on the object, A modeling method including modeling a modeled object on the object using the input information regarding the modeling reference position.
  • a modeling system including a modeling device for modeling a modeled object on the object using the input information regarding the modeling reference position In a modeling system that creates a modeled object on an object A display device that displays an image of the object and a modeling reference position displayed in association with the image of the object.
  • An output device that outputs a signal to a display device that displays an image of the object and a modeling reference position displayed in association with the image of the object.
  • a modeling system including a modeling device that models a modeled object on the object using information about the modeling reference position input using the input device.
  • An image relating to the object and a modeling reference position displayed in association with the image of the object are displayed.
  • the modeling system An input device into which information for designating the modeling reference position on the object is input, and A display device including a modeling device for modeling a modeled object on the object using the input information regarding the modeling reference position.
  • a display device including a modeling device for modeling a modeled object on the object using the input information regarding the modeling reference position.
  • Appendix 66 Placing an object on a mounting device and Performing additional processing on the object using an additional processing device Changing the relative positional relationship between the above-mentioned installation device and the additional processing position by the additional processing device, and Using the position measuring device provided in the addition processing device, measuring the position of the part of the object mounted on the above-mentioned placing device, and To specify the position of the modeled object to be modeled on the object, A modeling method including controlling the addition processing device and the position changing device by using the measurement result by the position measuring device and the information regarding the position of the modeled object.
  • Appendix 67 A computer program that causes a computer to execute the modeling method according to any one of Appendix 64 to 66.
  • [Appendix 68] A recording medium on which the computer program according to Appendix 67 is recorded. [Appendix 69] It is mounted on the above-mentioned mounting device by using the position information about the part of the object mounted on the mounting device and the information on the position of the modeled object to be modeled on the object designated via the input device. A modeling device that models a modeled object on the object, A modeling system including a receiving device that receives information from the input device. [Appendix 70] A mounting device on which an object is mounted and Using the information about the position of the modeled object to be modeled on the object and the position information about the part of the object mounted on the pre-described device, the modeled object is mounted on the pre-described device.
  • a modeling device that models A modeling system including an arithmetic unit that associates object shape information regarding the shape of the object with the position information of the object.
  • a modeling system including an arithmetic device that associates object shape information regarding the shape of the object with the position information of the object, and an output device that outputs the object shape information regarding the shape of the object and the position information of the object.
  • Appendix 72 A mounting device on which an object is mounted and Using the information about the position of the modeled object to be modeled on the object and the position information about the part of the object mounted on the pre-described device, the modeled object is mounted on the pre-described device.
  • a modeling device that models A modeling system including an arithmetic device that associates object shape information regarding the shape of the object with the position information of the object, and an output device that outputs the object shape information regarding the shape of the object and the position information of the object.
  • An input device that specifies the position of the modeled object to be modeled on the object A modeling system including an output device that outputs measurement results by the position measuring device and information on the position of the modeled object to a control device that controls the additional processing device and the position changing device.
  • [Appendix 74] An input device that inputs information to a modeling device that creates a modeled object on an object mounted on the mounting device. Information that specifies the position of the modeled object to be modeled on the object is entered, Using the position information about the part of the object mounted on the mounting device and the information on the position of the modeled object, the modeling device models the modeled object on the object mounted on the previously described mounting device. As described above, an input device that outputs the information regarding the position of the modeled object to the modeling device. [Appendix 75] An information generator connected to a modeling device that creates a modeled object on an object mounted on the mounting device. An information generation unit that generates position information about a part of the object mounted on the above-described device, and an information generation unit.
  • the generated position information is output to the modeling device so that the modeling device uses the information regarding the position of the modeled object to be modeled on the object and the position information of the object to model the modeled object on the object. Equipped with an output unit
  • An information generation device including an arithmetic device in which the modeling device associates object shape information regarding the shape of the object with the position information of the object.
  • a mounting device on which an object is placed an information generating device that generates position information about a part of the object mounted on the above-mentioned mounting device, information on the position of a modeled object to be modeled on the object, and An arithmetic device connected to a modeling system including a modeling device for modeling a modeled object on the object mounted on the above-described device using the position information of the object.
  • An arithmetic unit that associates object shape information regarding the shape of the object with the position information of the object.
  • a control device that controls a modeling system A control device that controls the additional processing device and the position changing device by using the measurement result by the position measuring device and the information regarding the position of the modeled object.
  • Appendix 78 It is an input device connected to a modeling device that creates a modeled object on an object placed on the mounting device. A designated part that specifies the position of the modeled object to be modeled on the object in association with the position information about the part of the object mounted on the above-mentioned device. An input device including an output unit that outputs an output from the designated unit to the modeling device.
  • Appendix 79 In a modeling system equipped with a modeling device that models a modeled object on an object The first receiving device that receives information about the position of the modeled object to be modeled on the object, Using the position information about the part of the object mounted on the mounting device and the information about the position of the modeled object, a control signal for controlling the modeling device so as to model the modeled object on the object is received. A modeling system equipped with a second receiver. [Appendix 80] The modeling system according to Appendix 79, wherein the first receiving device receives information related to the object shape information regarding the shape of the object and the position information of the object.
  • Appendix 81 It is a modeling system equipped with a modeling device that models a modeled object on an object, and models a modeled object on the object mounted on the mounting device and an input device that specifies the position of the modeled object to be modeled on the object.
  • Appendix 82 Information that is a modeling system equipped with a modeling device for modeling a modeled object on an object, and generates position information about a mounting device on which the object is mounted and a part of the object mounted on the above-mentioned mounting device.
  • the modeling device is controlled so as to model the modeled object on the object mounted on the above-mentioned device.
  • a program computer program that causes the computer to execute a process of controlling the information generator so as to associate the object shape information regarding the shape of the object with the position information of the object.
  • Appendix 83 A recording medium on which the computer program according to Appendix 81 or 82 is recorded.
  • Appendix 84 It is a modeling system equipped with a modeling device that models a modeled object on an object, and models a modeled object on the object mounted on the mounting device and an input device that specifies the position of the modeled object to be modeled on the object.
  • a control device that controls a modeling system including a modeling device.
  • the modeling is performed so as to model the modeled object on the object mounted on the mounting device described above.
  • a control device that performs processing to control the device.
  • Information that is a modeling system equipped with a modeling device that models a modeled object on an object, and generates position information about a mounting device on which the object is mounted and a part of the object mounted on the above-mentioned mounting device.
  • a control device for controlling a modeling system including a generation device and a modeling device for modeling a modeled object on the object mounted on the above-described device.
  • the modeling device is controlled so as to model the modeled object on the object mounted on the above-mentioned device.
  • Processing and A control device that performs a process of controlling the information generation device so as to associate the object shape information regarding the shape of the object with the position information of the object.
  • Appendix 86 To specify the position of the modeled object to be modeled on the object, This includes modeling a modeled object on the object mounted on the above-mentioned mounting device by using the position information about the part of the object mounted on the mounting device and the information on the position of the modeled object. Modeling method.
  • [Appendix 87] Generating position information about the part of an object placed on a mounting device, This includes modeling a modeled object on the object mounted on the above-mentioned device by using the information on the position of the modeled object to be modeled on the object and the position information of the object.
  • the generation is a modeling method including associating the object shape information regarding the shape of the object with the position information of the object.
  • the present invention is not limited to the above-described embodiment, and can be appropriately modified within the scope of claims and within a range not contrary to the gist or idea of the invention that can be read from the entire specification, and a modeling system accompanied by such a modification.
  • the modeling method, display device, input device, processing system, processing method, computer program, recording medium, receiving device and control device are also included in the technical scope of the present invention.
  • SYSTEM processing system 1 Material supply equipment 2 Processing equipment 21 Processing head 22 Head drive system 24 Guide light injection device 3 Stage device 31 Stage 311 Mounting surface 7 Control device 8 Measuring device 81 Projection device 82 Imaging device 91 Display 92 Input device W work M modeling material SL structural layer MS modeling surface EA irradiation area MA supply area MP melting pond EL processing light DL measurement light GL guide light WM work model PM processing model

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Materials Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Plasma & Fusion (AREA)
  • Analytical Chemistry (AREA)
  • Automation & Control Theory (AREA)
  • Composite Materials (AREA)

Abstract

造形システムは、物体上に造形物を造形する造形システムにおいて、物体に関する画像を表示する表示装置と、表示装置に表示された画像を用いて指定された指定位置に基づいて物体に造形物を造形する造形装置とを備える。

Description

造形システム
 本発明は、例えば、造形物を造形するための造形システムの技術分野に関する。
 特許文献1には、粉状の材料をエネルギビームで溶融した後に、溶融した材料を固化させることで造形物を造形する造形システムが記載されている。このような造形システムでは、造形物を適切に造形することが技術的課題となる。
米国特許出願公開第2017/014909号明細書
 第1の態様によれば、物体上に造形物を造形する造形システムにおいて、前記物体に関する画像を表示する表示装置と、前記表示装置に表示された前記画像を用いて指定された指定位置に基づいて前記物体に造形物を造形する造形装置とを備える造形システムが提供される。
 第2の態様によれば、物体上に造形物を造形する造形システムにおいて、前記物体に関する画像と、前記物体の前記画像と関連付けられて表示される指定位置とを表示する表示装置と、前記物体上での前記指定位置を指定するための情報が入力される入力装置と、入力された前記指定位置に関する情報を用いて、前記物体に造形物を造形する造形装置とを備える造形システムが提供される。
 第3の態様によれば、物体上に造形される造形物位置を指定する入力装置と、前記物体の部位についての位置情報と、前記造形物位置に関する情報とを用いて、前記物体に造形物を造形する造形装置とを備える造形システムが提供される。
 第4の態様によれば、物体を支持する支持装置と、前記物体の部位についての位置情報を生成する情報生成装置と、前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記物体に造形物を造形する造形装置と、前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づける演算装置とを備える造形システムが提供される。
 第5の態様によれば、物体を支持する支持装置と、前記物体に付加加工を行う付加加工装置と、前記支持装置と前記付加加工装置による付加加工位置との相対的な位置関係を変更する位置変更装置と、前記物体の部位の位置を計測する位置計測装置と、前記物体上に造形される造形物位置を指定する指定装置と、前記位置計測装置による計測結果と、前記造形物位置に関する情報とを用いて、前記付加加工装置及び前記位置変更装置を制御する制御装置とを備える造形システムが提供される。
 本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。
図1は、本実施形態の加工システムの構造を示す断面図である。 図2は、本実施形態の加工システムのシステム構成を示すシステム構成図である。 図3(a)から図3(j)のそれぞれは、投影装置が投影する投影パターンを示す平面図である。 図4は、座標マッチング動作の流れを示すフローチャートである。 図5は、位置合わせ用の目印が形成された載置面を含むステージを示す平面図である。 図6は、図5に示すステージのV-V’断面図である。 は、位置合わせ用の目印が形成されたビーム検出部材を示す平面図である。 図8は、図7に示すビーム検出部材のVII#1-VII#1’断面図である。 図9は、図7に示すビーム検出部材のVII#2-VII#2’断面図である。 図10は、載置面に載置されたビーム検出部材を示す平面図である。 図11は、位置合わせ用の目印が形成された基準部材を示す平面図である。 図12は、載置面に載置された基準部材を示す平面図である。 図13は、ステージ座標系内での載置面とワークとを示す斜視図である。 図14は、第1のワークモデルアライメント動作の流れを示すフローチャートである。 図15は、第2のワークモデルアライメント動作の流れを示すフローチャートである。 図16は、モデル形状情報が示す3次元モデル(つまり、ワーク)と計測形状情報が示すワークとをパターンマッチングする様子を概念的に示す概念図である。 図17は、第3のワークモデルアライメント動作の流れを示すフローチャートである。 図18は、指定点において複数のガイド光が交差する様子を示す断面図である。 図19は、指定点において複数のガイド光が交差していない様子を示す断面図である。 図20(a)は、ユーザ指定点において複数のガイド光が交差しているときの、ワークWの表面(特に、ユーザ指定点)における複数のガイド光のビームスポットを示す平面図であり、図20(b)は、ユーザ指定点において複数のガイド光が交差していないときの、ワークWの表面(特に、ユーザ指定点)における複数のガイド光のビームスポットを示す平面図である。 図21は、ステージ座標系内でのワークと3次元構造物とを示す斜視図である。 図22は、加工モデルアライメント動作の流れを示すフローチャートである。 図23は、ワークモデルの表示例を示す平面図である。 図24は、ワークモデルの表示例を示す平面図である。 図25は、ワークモデルの表示例を示す平面図である。 図26は、ワークモデルの表示例を示す平面図である。 図27は、ディスプレイにおける表示例を示す平面図である。 図28は、ワークモデル及び加工モデルを示す断面図である。 図29は、加工情報の修正例を、加工モデル及びワークモデルと共に概念的に示す断面図である 図30(a)から図30(c)のそれぞれは、加工情報を修正する方法の一例を、ワークモデル及び加工モデルと共に概念的に示す断面図である。 図31(a)から図31(c)のそれぞれは、加工情報を修正する方法の他の例を、ワークモデル及び加工モデルと共に概念的に示す断面図である。 図32(a)から図32(e)のそれぞれは、ワーク上のある領域において光を照射し且つ造形材料を供給した場合の様子を示す断面図である。 図23(a)から図33(c)のそれぞれは、3次元構造物を形成する過程を示す断面図である。 図34は、本実施形態の加工システムのシステム構成の他の例を示すシステム構成図である。 図35(a)は、基準部材の他の例を示す平面図であり、図25(b)は、図35(a)におけるA-A’断面図である。
 以下、図面を参照しながら、造形システムの実施形態について説明する。以下では、物体の一例であるワークWに付加加工を行うことでワークWに造形物を形成する加工システム(つまり、造形システム)SYSを用いて、造形システムの実施形態を説明する。特に、以下では、レーザ肉盛溶接法(LMD:Laser Metal Deposition)に基づく付加加工を行う加工システムSYSを用いて、造形システムの実施形態を説明する。レーザ肉盛溶接法に基づく付加加工は、ワークWに供給した造形材料Mを加工光ELで溶融することで、ワークWと一体化された又はワークWから分離可能な3次元構造物STを形成する付加加工である。尚、レーザ肉盛溶接法(LMD)は、ダイレクト・メタル・デポジション、ディレクテッド・エナジー・デポジション、レーザクラッディング、レーザ・エンジニアード・ネット・シェイピング、ダイレクト・ライト・ファブリケーション、レーザ・コンソリデーション、シェイプ・デポジション・マニュファクチャリング、ワイヤ-フィード・レーザ・デポジション、ガス・スルー・ワイヤ、レーザ・パウダー・フージョン、レーザ・メタル・フォーミング、セレクティブ・レーザ・パウダー・リメルティング、レーザ・ダイレクト・キャスティング、レーザ・パウダー・デポジション、レーザ・アディティブ・マニュファクチャリング、レーザ・ラピッド・フォーミングと称してもよい。
 また、以下の説明では、互いに直交するX軸、Y軸及びZ軸から定義されるXYZ直交座標系を用いて、加工システムSYSを構成する各種構成要素の位置関係について説明する。尚、以下の説明では、説明の便宜上、X軸方向及びY軸方向のそれぞれが水平方向(つまり、水平面内の所定方向)であり、Z軸方向が鉛直方向(つまり、水平面に直交する方向であり、実質的には上下方向)であるものとする。また、X軸、Y軸及びZ軸周りの回転方向(言い換えれば、傾斜方向)を、それぞれ、θX方向、θY方向及びθZ方向と称する。ここで、Z軸方向を重力方向としてもよい。また、XY平面を水平方向としてもよい。
 (1)加工システムSYSの構造
 初めに、図1及び図2を参照しながら、本実施形態の加工システムSYSの構造について説明する。図1は、本実施形態の加工システムSYSの構造の一例を示す断面図である。図2は、本実施形態の加工システムSYSのシステム構成の一例を示すシステム構成図である。
 加工システムSYSは、3次元構造物ST(つまり、3次元方向のいずれの方向においても大きさを持つ3次元の物体であり、立体物)を形成可能である。加工システムSYSは、3次元構造物STを形成するための基礎となるワークW上に、3次元構造物STを形成可能である。このワークWをベース部材又は台座と称してもよい。加工システムSYSは、ワークWに付加加工を行うことで、ワークW上に3次元構造物STを形成可能である。ワークWが後述するステージ31である場合には、加工システムSYSは、ステージ31上に、3次元構造物STを形成可能である。ワークWがステージ31によって保持されている(或いは、ステージ31に載置されている)既存構造物である場合には、加工システムSYSは、既存構造物上に、3次元構造物STを形成可能である。この場合、加工システムSYSは、既存構造物と一体化された3次元構造物STを形成してもよい。既存構造物と一体化された3次元構造物STを形成する動作は、既存構造物に新たな構造物を付加する動作と等価とみなせる。尚、既存構造物は例えば欠損箇所がある要修理品であってもよい。加工システムSYSは、要修理品の欠損箇所を埋めるように、要修理品に3次元構造物を形成してもよい。或いは、加工システムSYSは、既存構造物と分離可能な3次元構造物STを形成してもよい。尚、図1は、ワークWが、ステージ31によって保持されている既存構造物である例を示している。また、以下でも、ワークWがステージ31によって保持されている既存構造物である例を用いて説明を進める。
 上述したように、加工システムSYSは、レーザ肉盛溶接法により3次元構造物STを形成可能である。つまり、加工システムSYSは、積層造形技術を用いて物体を形成する3Dプリンタであるとも言える。尚、積層造形技術は、ラピッドプロトタイピング(Rapid Prototyping)、ラピッドマニュファクチャリング(Rapid Manufacturing)、又は、アディティブマニュファクチャリング(Additive Manufacturing)とも称される。
 3次元構造物STを形成するために、加工システムSYSは、図1及び図2に示すように、材料供給装置1と、加工装置2と、ステージ装置3と、光源4と、ガス供給装置5と、筐体6と、制御装置7と、計測装置8と、ディスプレイ91と、入力装置92とを備える。加工装置2とステージ装置3と計測装置8とのそれぞれの少なくとも一部は、筐体6の内部のチャンバ空間63IN内に収容されている。
 材料供給装置1は、加工装置2に造形材料Mを供給する。材料供給装置1は、加工装置2が3次元構造物STを形成するために単位時間あたりに必要とする分量の造形材料Mが加工装置2に供給されるように、当該必要な分量に応じた所望量の造形材料Mを供給する。
 造形材料Mは、所定強度以上の加工光ELの照射によって溶融可能な材料である。このような造形材料Mとして、例えば、金属材料及び樹脂材料の少なくとも一方が使用可能である。但し、造形材料Mとして、金属材料及び樹脂材料とは異なるその他の材料が用いられてもよい。造形材料Mは、粉状の材料である。つまり、造形材料Mは、粉体である。粉体は、粉状の材料に加えて、粒状の材料を含んでいてもよい。造形材料Mは、例えば、90マイクロメートル±40マイクロメートルの範囲に収まる粒径の粉体を含んでいてもよい。造形材料Mを構成する粉体の平均粒径は、例えば、75マイクロメートルであってもよいし、その他のサイズであってもよい。但し、造形材料Mは、粉体でなくてもよく、例えばワイヤ状の造形材料やガス状の造形材料が用いられてもよい。尚、加工システムSYSは、造形材料Mを荷電粒子線等のエネルギビームで加工して造形物を形成してもよい。
 加工装置2は、材料供給装置1から供給される造形材料Mを用いて3次元構造物STを形成する。造形材料Mを用いて3次元構造物STを形成するために、加工装置2は、加工ヘッド21と、ヘッド駆動系22と、位置計測装置23と、複数の(例えば、2つの)ガイド光射出装置24とを備える。更に、加工ヘッド21は、照射光学系211と、材料ノズル(つまり造形材料Mを供給する供給系)212とを備えている。加工ヘッド21と、ヘッド駆動系22とは、チャンバ空間63IN内に収容されている。但し、加工ヘッド21及び/又はヘッド駆動系22の少なくとも一部が、筐体6の外部の空間である外部空間64OUTに配置されていてもよい。尚、外部空間64OUTは、加工システムSYSのオペレータが立ち入り可能な空間であってもよい。尚、加工装置2は、造形物たる3次元構造物STを造形する装置でもあるため、造形装置と称してもよい。加工装置2は、造形物たる3次元構造物STを付加加工によって形成する装置でもあるため、付加加工装置と称してもよい。
 照射光学系211は、射出部213から加工光ELを射出するための光学系(例えば、集光光学系)である。具体的には、照射光学系211は、加工光ELを発する光源4と、光ファイバやライトパイプ等の不図示の光伝送部材を介して光学的に接続されている。照射光学系211は、光伝送部材を介して光源4から伝搬してくる加工光ELを射出する。照射光学系211は、加工光ELがチャンバ空間63INを進むように加工光ELを射出する。照射光学系211は、照射光学系211から下方(つまり、-Z側)に向けて加工光ELを照射する。照射光学系211の下方には、ステージ31が配置されている。ステージ31にワークWが載置されている場合には、照射光学系211は、ワークWに向けて加工光ELを照射する。具体的には、照射光学系211は、加工光ELが照射される(典型的には、集光される)領域としてワークW上に設定される照射領域EAに加工光ELを照射可能である。更に、照射光学系211の状態は、制御装置7の制御下で、照射領域EAに加工光ELを照射する状態と、照射領域EAに加工光ELを照射しない状態との間で切替可能である。尚、照射光学系211から射出される加工光ELの方向は真下(つまり、-Z軸方向と一致)には限定されず、例えば、Z軸に対して所定の角度だけ傾いた方向であってもよい。
 材料ノズル212は、造形材料Mを供給する供給アウトレット214を有する。材料ノズル212は、供給アウトレット214から造形材料Mを供給する(例えば、噴射する、噴出する、又は、吹き付ける)。材料ノズル212は、造形材料Mの供給源である材料供給装置1と、不図示のパイプ等を介して物理的に接続されている。材料ノズル212は、パイプを介して材料供給装置1から供給される造形材料Mを供給する。材料ノズル212は、パイプを介して材料供給装置1から供給される造形材料Mを圧送してもよい。即ち、材料供給装置1からの造形材料Mと搬送用の気体(例えば、窒素やアルゴン等の不活性ガス)とを混合してパイプを介して材料ノズル212に圧送してもよい。この場合、搬送用の気体として、例えば、ガス供給装置5から供給されるパージガスが用いられてもよい。尚、図1において材料ノズル212は、チューブ状に描かれているが、材料ノズル212の形状は、この形状に限定されない。材料ノズル212は、チャンバ空間63INに向けて造形材料Mを供給する。材料ノズル212は、材料ノズル212から下方(つまり、-Z側)に向けて造形材料Mを供給する。材料ノズル212の下方には、ステージ31が配置されている。ステージ31にワークWが搭載されている場合には、材料ノズル212は、ワークWに向けて造形材料Mを供給する。尚、材料ノズル212から供給される造形材料Mの進行方向はZ軸方向に対して所定の角度(一例として鋭角)だけ傾いた方向であるが、-Z側(つまり、真下)であってもよい。
 本実施形態では、材料ノズル212は、照射光学系211が加工光ELを照射する照射領域EAに向けて造形材料Mを供給するように、照射光学系211に対して位置合わせされている。つまり、材料ノズル212が造形材料Mを供給する領域としてワークW上に設定される供給領域MAと照射領域EAとが一致する(或いは、少なくとも部分的に重複する)ように、材料ノズル212と照射光学系211とが位置合わせされている。尚、照射光学系211から射出された加工光ELによって形成される溶融池MPに、材料ノズル212が造形材料Mを供給するように位置合わせされていてもよい。
 ヘッド駆動系22は、加工ヘッド21を移動させる。ヘッド駆動系22は、例えば、チャンバ空間63IN内で加工ヘッド21を移動させる。ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つに沿って加工ヘッド21を移動させる。加工ヘッド21がX軸及びY軸の少なくとも一方に沿って移動すると、照射領域EA及び供給領域MAのそれぞれは、ワークW上をX軸及びY軸の少なくとも一方に沿って移動する。更に、ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つに加えて、θX方向、θY方向及びθZ方向の少なくとも一つの回転方向に沿って加工ヘッド21を移動させてもよい。言い換えると、ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つの軸回りに加工ヘッド21を回転させてもよい。ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つの軸回りに加工ヘッド21の姿勢を変えてもよい。ヘッド駆動系22は、例えば、モータ等のアクチュエータを含む。
 尚、ヘッド駆動系22は、照射光学系211と材料ノズル212とを別々に移動させてもよい。具体的には、例えば、ヘッド駆動系22は、射出部213の位置、射出部213の向き、供給アウトレット214の位置及び供給アウトレット214の向きの少なくとも一つを調整可能であってもよい。この場合、照射光学系211が加工光ELを照射する照射領域EAと、材料ノズル212が造形材料Mを供給する供給領域MAとが別々に制御可能となる。
 位置計測装置23は、加工ヘッド21の位置を計測可能である。位置計測装置23は、例えば、エンコーダ及びレーザ干渉計のうちの少なくとも一方を含んでいてもよい。
 ガイド光射出装置24は、加工ヘッド21に配置されている。ガイド光射出装置24は、ガイド光GLを射出する。ガイド光射出装置24は、ガイド光GLがチャンバ空間63INを進むようにガイド光GLを射出する。複数のガイド光射出装置24は、複数のガイド光射出装置24からそれぞれ射出される複数のガイド光GLが、加工ヘッド21の下方のある位置において互いに交差するように、互いに位置合わせされている。特に、複数のガイド光射出装置24は、複数のガイド光GLが加工光ELのフォーカス位置において互いに交差するように、位置合わせされている。加工装置2は主として加工光ELのフォーカス位置において物体を加工する(つまり、付加加工する)ことから、複数のガイド光射出装置24は、複数のガイド光GLが加工装置2による付加加工が行われる付加加工位置において互いに交差するように、互いに位置合わせされているとも言える。尚、このようなガイド光射出装置24の利用方法については、後に詳述する。尚、複数のガイド光GLが加工光ELのフォーカス位置から外れた位置(デフォーカス位置)において互いに交差するように位置合わせされていてもよい。
 ステージ装置3は、ステージ31を備えている。ステージ31は、チャンバ空間63INに収容される。ステージ31は、ワークWを支持可能である。尚、ここで言う「ステージ31がワークWを支持する」状態は、ワークWがステージ31によって直接的に又は間接的に支えられている状態を意味していてもよい。ステージ31は、ワークWを保持可能であってもよい。つまり、ステージ31は、ワークWを保持することでワークWを支持してもよい。或いは、ステージ31は、ワークWを保持可能でなくてもよい。この場合、ワークWは、ステージ31に載置されていてもよい。つまり、ステージ31は、ステージ31に載置されたワークWを支持してもよい。このとき、ワークWは、クランプレスでステージ31に載置されていてもよい。従って、本実施形態における「ステージ31がワークWを支持する」状態は、ステージ31がワークWを保持する状態及びワークWがステージ31に載置される状態をも含んでいてもよい。ステージ31を、ワークWを支持する支持装置、ワークWが載置される載置装置、ワークWを保持する保持装置又はテーブルと称してもよい。ステージ31がチャンバ空間63INに収容されるため、ステージ31が支持するワークWもまた、チャンバ空間63INに収容される。更に、ステージ31は、ワークWが保持されている場合には、保持したワークWをリリース可能である。上述した照射光学系211は、ステージ31がワークWを支持している期間の少なくとも一部において加工ビームPLを照射する。更に、上述した材料ノズル212は、ステージ31がワークWを支持している期間の少なくとも一部において造形材料Mを供給する。尚、材料ノズル212が供給した造形材料Mの一部は、ワークWの表面からワークWの外部へと(例えば、ステージ31の周囲へと)散乱する又はこぼれ落ちる可能性がある。このため、加工システムSYSは、ステージ31の周囲に、散乱した又はこぼれ落ちた造形材料Mを回収する回収装置を備えていてもよい。尚、ステージ31は、ワークWを保持するために、機械的なチャックや真空吸着チャック等を備えていてもよい。
 光源4は、例えば、赤外光及び紫外光のうちの少なくとも一つを、加工光ELとして射出する。但し、加工光ELとして、その他の波長の光、例えば可視域の波長の光が用いられてもよい。加工光ELは、レーザ光である。この場合、光源4は、半導体レーザ等のレーザ光源を含んでいてもよい。レーザ光源の一例としては、レーザダイオード(LD:Laser Diode)、ファイバ・レーザ、COレーザ、YAGレーザ及びエキシマレーザ等の少なくとも一つがあげられる。但し、加工光ELはレーザ光でなくてもよいし、光源4は任意の光源(例えば、LED(Light Emitting Diode)及び放電ランプ等の少なくとも一つ)を含んでいてもよい。
 ガス供給装置5は、チャンバ空間631INをパージするためのパージガスの供給源である。パージガスは、不活性ガスを含む。不活性ガスの一例として、窒素ガス又はアルゴンガスがあげられる。ガス供給装置5は、チャンバ空間63INにパージガスを供給する。その結果、チャンバ空間63INは、パージガスによってパージされた空間となる。尚、ガス供給装置5は、窒素ガスやアルゴンガス等の不活性ガスが格納されたボンベであってもよい。不活性ガスが窒素ガスである場合には、ガス供給装置5は、大気を原料として窒素ガスを発生する窒素ガス発生装置であってもよい。
 筐体6は、筐体6の内部空間であるチャンバ空間63INに少なくとも加工装置2及びステージ装置3のそれぞれの少なくとも一部を収容する収容装置である。筐体6は、チャンバ空間63INを規定する隔壁部材61を含む。隔壁部材61は、チャンバ空間63INと、筐体6の外部空間64OUTとを隔てる部材である。隔壁部材61は、その内壁611を介してチャンバ空間63INに面し、その外壁612を介して外部空間64OUTに面する。この場合、隔壁部材61によって囲まれた空間(より具体的には、隔壁部材61の内壁611によって囲まれた空間)が、チャンバ空間63INとなる。尚、隔壁部材61には、開閉可能な扉が設けられていてもよい。この扉は、ワークWをステージ31に載置する際、およびステージ31からワークWおよび/または造形物を取り出す際に開かれ、且つ造形中には閉じられていてもよい。
 制御装置7は、加工システムSYSの動作を制御する。制御装置7は、例えば、CPU(Central Processing Unit)(或いは、CPUに加えて又は代えてGPU(Graphics Processing Unit))と、メモリとを含んでいてもよい。制御装置7は、CPUがコンピュータプログラムを実行することで、加工システムSYSの動作を制御する装置として機能する。このコンピュータプログラムは、制御装置7が行うべき後述する動作を制御装置7(例えば、CPU)に行わせる(つまり、実行させる)ためのコンピュータプログラムである。つまり、このコンピュータプログラムは、加工システムSYSに後述する動作を行わせるように制御装置7を機能させるためのコンピュータプログラムである。CPUが実行するコンピュータプログラムは、制御装置7が備えるメモリ(つまり、記録媒体)に記録されていてもよいし、制御装置7に内蔵された又は制御装置7に外付け可能な任意の記憶媒体(例えば、ハードディスクや半導体メモリ)に記録されていてもよい。或いは、CPUは、実行するべきコンピュータプログラムを、ネットワークインタフェースを介して、制御装置7の外部の装置からダウンロードしてもよい。
 例えば、制御装置7は、照射光学系211による加工光ELの射出態様を制御してもよい。射出態様は、例えば、加工光ELの強度及び加工光ELの射出タイミングの少なくとも一方を含んでいてもよい。加工光ELがパルス光である場合には、射出態様は、例えば、パルス光の発光時間の長さとパルス光の発光周期との比(いわゆる、デューティ比)を含んでいてもよい。また、射出態様は、例えば、パルス光の発光時間の長さそのものや、発光周期そのものを含んでいてもよい。更に、制御装置7は、ヘッド駆動系22による加工ヘッド21の移動態様を制御してもよい。移動態様は、例えば、移動量、移動速度、移動方向及び移動タイミングの少なくとも一つを含んでいてもよい。更に、制御装置7は、材料供給装置1による造形材料Mの供給態様を制御してもよい。材料ノズル212による造形材料Mの供給態様は、主として、材料供給装置1による造形材料Mの供給態様によって定まる。このため、材料供給装置1による造形材料Mの供給態様を制御することは、材料ノズル212による造形材料Mの供給態様を制御することと等価とみなせる。供給態様は、例えば、供給量(特に、単位時間当たりの供給量)及び供給タイミングの少なくとも一方を含んでいてもよい。
 制御装置7は、加工システムSYSの内部に設けられていなくてもよく、例えば、加工システムSYS外にサーバ等として設けられていてもよい。この場合、制御装置7と加工システムSYSとは、有線及び/又は無線のネットワーク(或いは、データバス及び/又は通信回線)で接続されていてもよい。有線のネットワークとして、例えばIEEE1394、RS-232x、RS-422、RS-423、RS-485及びUSBの少なくとも一つに代表されるシリアルバス方式のインタフェースを用いるネットワークが用いられてもよい。有線のネットワークとして、パラレルバス方式のインタフェースを用いるネットワークが用いられてもよい。有線のネットワークとして、10BASE-T、100BASE-TX及び1000BASE-Tの少なくとも一つに代表されるイーサネット(登録商標)に準拠したインタフェースを用いるネットワークが用いられてもよい。無線のネットワークとして、電波を用いたネットワークが用いられてもよい。電波を用いたネットワークの一例として、IEEE802.1xに準拠したネットワーク(例えば、無線LAN及びBluetooth(登録商標)の少なくとも一方)があげられる。無線のネットワークとして、赤外線を用いたネットワークが用いられてもよい。無線のネットワークとして、光通信を用いたネットワークが用いられてもよい。この場合、制御装置7と加工システムSYSとはネットワークを介して各種の情報の送受信が可能となるように構成されていてもよい。また、制御装置7は、ネットワークを介して加工システムSYSにコマンドや制御パラメータ等の情報を送信可能であってもよい。加工システムSYSは、制御装置7からのコマンドや制御パラメータ等の情報を、上記ネットワークを介して受信する受信装置を備えていてもよい。加工システムSYSは、制御装置7に対してコマンドや制御パラメータ等の情報を、上記ネットワークを介して送信する送信装置(つまり、制御装置7に対して情報を出力する出力装置)を備えていてもよい。或いは、制御装置7が行う処理のうちの一部を行う第1制御装置が加工システムSYSの内部に設けられている一方で、制御装置7が行う処理のうちの他の一部を行う第2制御装置が加工システムSYSの外部に設けられていてもよい。
 尚、CPUが実行するコンピュータプログラムを記録する記録媒体としては、CD-ROM、CD-R、CD-RWやフレキシブルディスク、MO、DVD-ROM、DVD-RAM、DVD-R、DVD+R、DVD-RW、DVD+RW及びBlu-ray(登録商標)等の光ディスク、磁気テープ等の磁気媒体、光磁気ディスク、USBメモリ等の半導体メモリ、及び、その他プログラムを格納可能な任意の媒体の少なくとも一つが用いられてもよい。記録媒体には、コンピュータプログラムを記録可能な機器(例えば、コンピュータプログラムがソフトウェア及びファームウェア等の少なくとも一方の形態で実行可能な状態に実装された汎用機器又は専用機器)が含まれていてもよい。更に、コンピュータプログラムに含まれる各処理や機能は、制御装置7(つまり、コンピュータ)がコンピュータプログラムを実行することで制御装置7内に実現される論理的な処理ブロックによって実現されてもよいし、制御装置7が備える所定のゲートアレイ(FPGA、ASIC)等のハードウェアによって実現されてもよいし、論理的な処理ブロックとハードウェアの一部の要素を実現する部分的ハードウェアモジュールとが混在する形式で実現してもよい。
 計測装置8は、制御装置7の制御下で、計測対象物を計測可能である。具体的には、計測装置8は、制御装置7の制御下で、計測対象物を計測可能である。計測装置8の計測結果は、計測装置8から制御装置7に出力される。
 計測は、計測対象物の位置の計測を含んでいてもよい。計測対象物の位置は、計測対象物を細分化した各部分(つまり、各部位)のX軸方向、Y軸方向及びZ軸方向の少なくとも一つにおける位置を含んでいてもよい。計測対象物の位置は、計測対象物の表面の位置を含んでいてもよい。計測対象物の表面の位置は、計測対象物の表面を細分化した各部分(つまり、各部位)のX軸方向、Y軸方向及びZ軸方向の少なくとも一つにおける位置を含んでいてもよい。計測は、計測対象物の形状(例えば、3次元形状)の計測を含んでいてもよい。計測対象物の形状は、ワークWを細分化した各部分の向き(例えば、各部分の法線の向きであり、X軸、Y軸及びZ軸の少なくとも一つに対する各部分の傾斜量と実質的に等価)を含んでいてもよい。計測対象物の形状は、計測対象物の表面の形状を含んでいてもよい。計測対象物の表面の形状は、ワークWの表面を細分化した各部分の向き(例えば、各部分の法線の向きであり、X軸、Y軸及びZ軸の少なくとも一つに対する各部分の傾斜量(つまり、各部分の姿勢)と実質的に等価)を含んでいてもよい。尚、計測は、計測対象物の反射率や分光反射率、表面粗さ等の計測対象物の属性の計測を含んでいてもよい。
 本実施形態では、計測対象物は、例えば、ステージ31の載置面311上に載置された物体を含む。このため、計測装置8の計測範囲は、載置面311上に載置された物体を計測することができるように所望の範囲に設定されている。載置面311上に載置される物体の一例として、上述したワークWがあげられる。載置面311上に載置される物体の他の一例として、後述する基準部材34(図11等参照)があげられる。
 計測装置8は、計測対象物を計測可能である限りはどのような構造を有していてもよい。計測装置8は、計測対象物を計測可能である限りはどのような種類の計測装置であってもよい。図1及び図2は、計測装置8が3Dスキャナである例を示している。つまり、図1及び図2は、計測装置8が光学的に計測対象物を計測する例を示している。図1及び図2は、計測装置8が計測対象物に接触することなく計測対象物を計測する例を示している。しかしながら、計測装置8は、光学的手法とは異なる手法、例えば電磁波や音波を用いて計測対象物を計測してもよい。計測装置8は、計測対象物に接触して計測対象物を計測してもよい。計測対象物に接触して計測対象物を計測する計測装置の一例として、計測対象物に対してプローブ等のセンサを押し当てながら計測対象物を計測する計測装置があげられる。
 計測装置8が3Dスキャナである場合、計測装置8は、例えば、図2に示すように、投影装置81と、撮像装置82とを備えている。図2に示す例では、計測装置8は、複数の撮像装置82を備えている。より具体的には、図2に示す例では、計測装置8は、2つの撮像装置82(具体的には、撮像装置82#1及び撮像装置82#2)を備えている。但し、計測装置8は、単一の撮像装置82を備えていてもよい。
 投影装置81は、載置面311に対して計測光DLを照射する。計測光DLは、載置面311に所望の投影パターンを投影するための光である。計測光DLは、載置面311に載置された計測対象物に所望の投影パターンを投影するための光である。所望の投影パターンは、1次元の投影パターンを含んでいてもよい。所望の投影パターンは、2次元の投影パターンを含んでいてもよい。投影装置81は、単一種類の投影パターンを計測対象物に投影してもよい。或いは、投影装置81は、複数種類の投影パターンを計測対象物に順に投影してもよい。
 図3(a)から図3(j)は、投影パターンの一例を示している。図3(a)は、白画像に相当する投影パターンを示している。図3(b)は、黒画像に相当する投影パターンを示している。図3(a)及び図3(b)は、環境光の状態を計測するために用いられてもよい。図3(c)から図3(f)は、互いに異なる複数の縞パターン(例えば、縞の数及び幅が互いに異なる複数の縞パターン)に相当する複数の投影パターンを示している。図3(g)から図3(j)は、互いに位相が異なるグレーパターン(言い換えれば、位相シフトパターン)に相当する複数の投影パターンを示している。
 投影装置81は、図3(a)及び図3(b)に示す複数の投影パターンを順に投影し、その後、図3(c)から図3(f)に示す複数の投影パターンを順に投影し、その後、図3(g)から図3(j)に示す複数の投影パターンを順に投影してもよい。この場合、図3(g)から図3(j)のそれぞれに示す投影パターンに含まれるグレーコードの周期幅は、図3(c)から図3(f)に示す投影パターンに含まれる縞の最小幅と同じであってもよい。尚、位相シフトパターンが投影された計測対象物を複数の撮像装置82を用いて撮像することで計測対象物の状態を計測する手法の一例として、ステレオ視位相シフト法があげられる。
 撮像装置82は、載置面311を撮像する。撮像装置82は、載置面311に載置された計測対象物を撮像する。特に、撮像装置82は、計測対象物に投影された投影パターンを撮像する。制御装置7は、撮像装置82の撮像結果(特に、撮像された投影パターンに関する情報)に基づいて、計測装置8が計測した計測対象物の状態に関する計測情報(つまり、計測装置8による計測対象物の計測結果に関する計測情報)を生成する。計測対象物の計測が計測対象物の位置計測及び形状計測の少なくとも一つを含んでいるため、計測情報は、計測装置8が計測した計測対象物の位置に関する計測位置情報及び計測装置8が計測した計測対象物の形状に関する計測形状情報の少なくとも一つを含んでいてもよい。この場合、制御装置7は、計測情報(つまり、計測位置情報及び計測形状情報の少なくとも一つ)を生成するための情報生成装置として機能可能である。
 計測情報は、計測位置情報及び計測形状情報のいずれか一つを含んでいてもよい。計測情報は、計測位置情報及び計測形状情報の双方を含んでいてもよい。特に、計測情報は、計測位置情報と計測形状情報とが対応する情報であってもよい。「計測位置情報と計測形状情報とが対応する計測状態情報」は、計測対象物の各部分の位置及び形状の双方を特定可能な状態にある情報を意味する。このため、このような計測状態情報を参照すれば、計測対象物のある部分の位置が特定できるものの、同じ部分の形状を特定することができないという状況は生じない。以下の説明では、説明の便宜上、計測情報は、計測位置情報と計測形状情報が対応している情報である例を用いて説明を進める。尚、このような計測情報は、計測位置情報と計測形状情報とを別個独立した異なる情報として含んでいなくてもよく、計測対象物の各部分の位置及び形状の双方を特定できる限りは、計測情報はどのようなデータ構造を有していてもよい。
 計測装置8は、隔壁部材83によってチャンバ空間63INから隔離されている。計測装置8は、隔壁部材83によってチャンバ空間63INから隔離された空間に配置されている。これにより、チャンバ空間63INに存在する物質の計測装置8に対する付着が抑制される。尚、チャンバ空間63INに存在する物質の一例として、材料ノズル212からチャンバ空間63INに供給される造形材料M、及び、加工光ELの照射に起因して後述する造形面MSから発生する物質が存在する可能性がある。加工光ELの照射に起因して後述する造形面MSから発生する物質の一例として、溶融した造形材料Mの微粒子及び溶融したワークWを構成する材料の微粒子の少なくとも一方を含むヒュームがあげられる。
 隔壁部材83は、投影装置81が照射する計測光DLの光路と隔壁部材83とが交差する位置に、計測光DLが通過可能である一方で上述した物質を遮断可能な光透過部材84を備えている。その結果、計測装置8が隔壁部材83によってチャンバ空間63INから隔離されていたとしても、計測装置8は、チャンバ空間63INに配置される計測対象物に対して計測光DLを適切に照射することができる。尚、計測装置8は隔壁部材83によってチャンバ空間63INから隔離されていなくてもよい。例えば、計測装置8はチャンバ空間63IN内に配置されていてもよい。計測装置8がチャンバ空間63IN内に配置される場合、計測装置8は耐粉塵性を有していてもよい。
 ディスプレイ91は、制御装置7の制御下で所望の画像を表示可能な表示装置である。例えば、ディスプレイ91は、加工システムSYSに関する情報を表示してもよい。例えば、ディスプレイ91は、3次元構造物STに関する情報を表示してもよい。例えば、ディスプレイ91は、ワークWに関する情報を表示してもよい。例えば、ディスプレイ91は、撮像装置82による撮像結果に関する情報を表示してもよい。
 尚、ディスプレイ91は、加工システムSYSの内部に設けられていなくてもよい。例えば、ディスプレイ91は、加工システムSYSの外部に、外部ディスプレイとして設けられていてもよい。この場合、ディスプレイ91と加工システムSYSとは、有線及び/又は無線のネットワーク(或いは、ケーブル、データバス及び/又は通信回線)で接続されていてもよい。この場合、制御装置7は、ネットワークを介して、ディスプレイ91との間で各種の情報の送受信(つまり、入出力)が可能となるように構成されていてもよい。ディスプレイ91は、制御装置7との間で(更には、制御装置7を介して又は介することなく加工システムSYSが備えるその他の装置との間で)情報の送受信を行う送受信部(つまり、入出力部)と、画像を表示する表示部とを備えていてもよい。
 入力装置92は、加工システムSYSの外部からの情報の入力を受け付ける装置である。例えば、入力装置92は、加工システムSYSのユーザからの情報の入力を受け付けてもよい。例えば、入力装置92は、加工システムSYSの外部の装置からの情報の入力を受け付けてもよい。例えば、入力装置92は、加工システムSYSに対して装着可能な記録媒体からの情報の入力を受け付けてもよい。入力装置92の一例として、ユーザが操作可能な操作装置があげられる。操作装置の一例として、キーボード、マウス、タッチパッド、タッチパネル(例えば、ディスプレイ91と一体化されたタッチパネル)及びポインティングデバイスの少なくとも一つがあげられる。入力装置92の他の一例として、加工システムSYSの外部の装置と接続するためのインタフェース装置があげられる。入力装置92の他の一例として、加工システムSYSに対して装着可能な記録媒体を読み取り可能な読取装置があげられる。入力装置92が入力を受け付けた情報(つまり、入力装置92に入力された情報)は、例えば、制御装置7に出力される。
 入力装置92は、ディスプレイ91の表示画面を介して、情報の入力を受け付けてもよい。例えば、入力装置92は、ディスプレイ91の表示画面上に表示されたGUI(Graphical User Interface)を介して、情報の入力を受け付けてもよい。例えば、入力装置92は、ディスプレイ91の表示画面上に表示されたGUIに対するユーザの操作に関する情報の入力を受け付けてもよい。この場合、ディスプレイ91は、制御装置7の制御下で、入力装置92を介した情報の入力を受け付けるための画像(例えば、上述したGUI)を表示してもよい。このように、表示装置は入力装置92と兼用されていてもよい。
 尚、入力装置92は、加工システムSYSの内部に設けられていなくてもよい。例えば、入力装置92は、加工システムSYSの外部に、外部入力装置として設けられていてもよい。この場合、入力装置92と加工システムSYSとは、有線及び/又は無線のネットワーク(或いは、ケーブル、データバス及び/又は通信回線)で接続されていてもよい。この場合、制御装置7は、入力装置92に入力される情報を、ネットワークを介して取得するように構成されていてもよい。言い換えれば、制御装置7は、入力装置92に入力される情報を、ネットワークを介して受信する受信装置として機能するように構成されていてもよい。入力装置92は、制御装置7との間で(更には、制御装置7を介して又は介することなく加工システムSYSが備えるその他の装置との間で)情報の送受信を行う送受信部(つまり、入出力部)と、加工システムSYSの外部からの入力を受け付ける入力受付部とを備えていてもよい。
 (2)加工システムSYSの動作
 続いて、加工システムSYSの動作の流れについて説明する。本実施形態では、加工システムSYSは、制御装置7の制御下で、ワークモデルアライメント動作を行う。その後、加工システムSYSは、制御装置7の制御下で、加工モデルアライメント動作を行う。その後、加工システムSYSは、制御装置7の制御下で、加工動作を行う。更に、加工システムSYSは、制御装置7の制御下で、ワークモデルアライメント動作に先立って、座標マッチング動作を行ってもよい。このため、以下では、座標マッチング動作、ワークモデルアライメント動作、加工モデルアライメント動作及び加工動作について順に説明する。
 (2-1)座標マッチング動作
 はじめに、座標マッチング動作について説明する。座標マッチング動作は、加工座標系と、ステージ座標系と、計測座標系とを互いに関連付けるための動作である。加工座標系は、加工ヘッド21の位置を特定するために用いられる3次元座標系である。例えば、ヘッド駆動系22は、ヘッド座標系内において特定される加工ヘッド21の位置に関する情報に基づいて、加工ヘッド21を移動させる。例えば、位置計測装置23は、ヘッド座標系内における加工ヘッド21の位置を計測する。ステージ座標系は、ステージ31の位置を特定するために用いられる3次元座標系である。後述するようにステージ駆動系によってステージ31が移動可能である場合には、ステージ駆動系は、ステージ座標系内において特定されるステージ31の位置に関する情報に基づいて、ステージ31を移動させる。計測座標系は、計測装置8が計測した計測対象物の位置を特定するために用いられる3次元座標系である。つまり、計測座標系は、計測装置8の計測範囲内での位置を特定するために用いられる3次元座標系である。制御装置7は、計測装置8の計測結果に基づいて、計測座標系内における計測対象物の位置に関する計測位置情報を生成する。
 加工座標系とステージ座標系と計測座標系とが互いに関連付けられると、加工座標系、ステージ座標系及び計測座標系のうちのいずれか一つの座標系内のある位置の座標を、加工座標系、ステージ座標系及び計測座標系の別の一つの座標系内のある位置の座標に変換可能となる。従って、座標マッチング動作は、加工座標系内の座標をステージ座標系及び計測座標系のそれぞれの座標に変換するために用いられる情報(例えば、変換行列)、ステージ座標系内の座標を加工座標系及び計測座標系のそれぞれの座標に変換するために用いられる情報(例えば、変換行列)、並びに、計測座標系内の座標を加工座標系及びステージ座標系のそれぞれの座標に変換するために用いられる情報(例えば、変換行列)を取得するための動作と等価であると言える。
 尚、座標マッチング動作によって得られる情報(例えば、変換行列に関する情報)が制御装置7にとって既に既知の情報である場合には、加工システムSYSは、座標マッチング動作を行わなくてもよい。例えば、座標マッチング動作によって得られる情報が入力装置92を介して加工システムSYSに入力される場合には、加工システムSYSは、座標マッチング動作を行わなくてもよい。
 以下、このような座標マッチング動作の流れについて、図4を参照しながら説明する。図4は、座標マッチング動作の流れを示すフローチャートである。
 図4に示すように、加工システムSYSは、座標マッチング動作の一部として、加工座標系とステージ座標系とを関連付ける動作を行う(ステップS111からステップS113)。更に、加工システムSYSは、座標マッチング動作の一部として、計測座標系とステージ座標系とを関連付ける動作を行う(ステップS114からステップS116)。加工座標系とステージ座標系とが関連付けられ且つ計測座標系とステージ座標系とが関連付けられると、加工座標系と計測座標系とは、ステージ座標系を介して間接的に関連付けられている。このため、ステップS111からステップS116までの処理が行われることで、加工座標系とステージ座標系と計測座標系とが互いに関連付けられる。
 図4は、加工システムSYSが、加工座標系とステージ座標系とを関連付ける動作を行った後に、計測座標系とステージ座標系とを関連付ける動作を行う例を示している。しかしながら、加工システムSYSは、計測座標系とステージ座標系とを関連付ける動作を行った後に、加工座標系とステージ座標系とを関連付ける動作を行ってもよい。
 加工座標系とステージ座標系とを関連付けるために、まずは、ステージ31の載置面311に、ビーム検出部材32が載置される(ステップS111)。特に、ビーム検出部材32は、ビーム検出部材32と載置面311との位置関係が所望の第1位置関係となるように、載置面311に載置される。本実施形態では、ビーム検出部材32と載置面311との位置関係が所望の第1位置関係となるようにビーム検出部材32を載置面311に載置するために、ビーム検出部材32と載置面311との双方に、位置合わせ用の目印が形成される。以下、図5から図10を参照しながら、位置合わせ用の目印が形成された載置面311及びビーム検出部材32の一例について説明する。図5は、位置合わせ用の目印が形成された載置面311を含むステージ31を示す平面図である。図6は、図5に示すステージ31のV-V’断面図である。図7は、位置合わせ用の目印が形成されたビーム検出部材32を示す平面図である。図8は、図7に示すビーム検出部材32のVII#1-VII#1’断面図である。図9は、図7に示すビーム検出部材32のVII#2-VII#2’断面図である。図10は、載置面311に載置されたビーム検出部材32を示す平面図である。
 図5及び図6に示すように、載置面311には、位置合わせ用の目印として、複数のピン312が形成されている。図5及び図6に示す例では、載置面311には、2つのピン312が形成されているが、3つ以上のピン312が形成されていてもよい。ピン312は、載置面311からZ軸方向に沿って突き出る部材である。尚、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。
 図7から図9に示すように、ビーム検出部材32は、ベース部材321を備えている。ベース部材321は、板状の部材である。ベース部材321は、載置面311に載置可能な形状及びサイズを有している。ベース部材321には、位置合わせ用の目印として、複数の貫通孔322が形成されている。図7及び図8に示す例では、ベース部材321には、2つの貫通孔322が形成されている。貫通孔322は、Z軸方向に沿ってベース部材321を貫通する。
 本実施形態では、図10に示す通り、ビーム検出部材32は、貫通孔322にピン312が挿入されるように、載置面311上に載置される。ビーム検出部材32は、貫通孔322にピン312が挿入された状態で載置面311上に載置される。このため、貫通孔322の配列態様は、ピン312の配列態様と同一である。更に、貫通孔322の数は、ピン312の数と同一である(或いは、多くてもよい)。その結果、ビーム検出部材32は、載置面311に対して所望の第1位置関係を有するように載置面311に載置される。ビーム検出部材32は、載置面311上のピン312に対して所望の第1位置関係を有するように載置面311に載置される。ビーム検出部材32は、載置面311のピン312とビーム検出部材32の貫通孔322とがZ軸方向において重なるという所望の第1位置関係を満たすように、載置面311に載置される。ビーム検出部材32は、あるピン312のX軸方向における位置と当該あるピン312に対応する貫通孔322のX軸方向における位置とが同じになり且つあるピン312のY軸方向における位置と当該あるピン312に対応する貫通孔322のY軸方向における位置とが同じになるという所望の第1位置関係を満たすように、載置面311に載置される。
 ピン312が形成されている位置は、載置面311にビーム検出部材32を載置する際の載置面311上の基準位置として用いられてもよい。この場合、ビーム検出部材32は、載置面311上の基準位置に対して所望の第1位置関係を有するように位置合わせされた状態で載置面311に載置される。
 ビーム検出部材32は更に、遮光部材323を備えている。遮光部材323は、加工光ELを遮光する部材である。遮光部材323は、ベース部材321の上面(つまり、+Z側を向いた面)に形成されている。遮光部材323の上面は、ベース部材321の上面よりも上方に位置している。但し、遮光部材323の上面は、ベース部材321の上面よりも下方に位置していてもよいし、ベース部材321の上面と同じ高さに位置していてもよい。遮光部材323の少なくとも一部は、ベース部材321と一体化されていてもよい。遮光部材323は、ベース部材321に取り付け可能であってもよく、ベース部材321から取り外し可能であってもよい。
 遮光部材323には、Z軸方向に沿って遮光部材323を貫通する開口324が形成されている。XY平面に沿った面内での開口324の形状は、スリット形状であるが、その他の任意の形状、円形状(ピンホール状)や長丸形状、多角形状等であってもよい。開口324は、加工光ELが通過可能な貫通孔である。
 ビーム検出部材32は更に、ビーム検出器325を備えている。ビーム検出器325は、開口324を通過した加工光ELを受光できる位置に配置される。そして、開口324は、貫通孔322に対して所定の位置関係を有する位置に配置される。例えば、ビーム検出器が単一のビーム検出器325、典型的には受光した加工光ELを光電変換可能な光量センサ等の光電変換器を備える場合、この光電変換器の出力から開口324と加工光ELとの位置関係を求めることができる。この場合、開口324と貫通孔322との間の位置関係に関する情報は、制御装置7にとって既知の情報である。典型的には、ビーム検出器325は、遮光部材323の下方(つまり、-Z側)に配置される。
 尚、開口324とビーム検出器325との間、及び/又は開口324の入射側に、加工光EL又はガイド光GLを拡散させる拡散板を配置してもよい。また、開口324の入射側に開口324を保護するためのカバーガラスを配置してもよい。
 ビーム検出部材32は、上述の通り単一のビーム検出器325を備えていてもよいし、複数のビーム検出器325を備えていてもよい。ビーム検出部材32が複数のビーム検出器325を備えている場合には、遮光部材323には、複数のビーム検出器325にそれぞれ対応する複数の開口324が形成されていてもよい。この場合、各ビーム検出器325は、各ビーム検出器325に対応する開口324を介して各ビーム検出器325に入射してくる加工光ELを検出する。
 ビーム検出器325の検出結果は、ビーム検出器325に入射した加工光ELの状態に関する情報を含んでいてもよい。例えば、ビーム検出器325の検出結果は、ビーム検出器325に入射した加工光ELの強度(具体的には、XY平面に交差する面内での強度)に関する情報を含む。より具体的には、ビーム検出器325の検出結果は、XY平面に沿った面内における加工光ELの強度分布に関する情報を含む。ビーム検出器325の検出結果は、制御装置7に出力される。
 再び図4において、ビーム検出部材32が載置面311に載置された後、加工装置2は、ビーム検出部材32に向けて加工光ELを照射する(ステップS112)。特に、加工装置2は、ビーム検出部材32に配置されたビーム検出器325に向けて加工光ELを照射する。ビーム検出部材32が複数のビーム検出器325を備えている場合には、加工装置2は、複数のビーム検出器325に向けて順に加工光ELを照射する。具体的には、ヘッド駆動系22は、ビーム検出器325に向けて加工光ELが照射されるように加工ヘッド21を移動させる。このとき、ヘッド駆動系22は、XY平面に沿った面内において加工光EL(より具体的には、加工光ELの照射領域EA)が開口324を横切るように、加工ヘッド21を移動させてもよい。加工ヘッド21は、ヘッド駆動系22によって移動している期間中に加工光ELを照射する。その結果、加工ヘッド21が移動している期間中のあるタイミングで加工光ELが開口324に照射されることになる。つまり、加工ヘッド21が移動している期間中のあるタイミングで、加工光ELがビーム検出器325によって検出される。
 その後、制御装置7は、ステップS112におけるビーム検出器325の検出結果に基づいて、加工座標系とステージ座標系とを関連付ける(ステップS113)。具体的には、ビーム検出器325の検出結果は、加工光ELが開口324に照射されていない期間中の加工光ELの強度と比較して、加工光ELの少なくとも一部が開口324に照射されている期間中の加工光ELの強度が大きくなっていることを示している。このため、制御装置7は、ビーム検出器325の検出結果に基づいて、加工光ELが開口324に照射されていた時刻(つまり、加工光ELがビーム検出器325に照射されていた時刻)を特定可能である。更に、制御装置7は、加工光ELが開口324に照射されていた時刻と位置計測装置23の計測結果とに基づいて、加工光ELがビーム検出器325に照射されていた時刻における加工ヘッド21の位置を特定可能である。尚、制御装置7は、ビーム検出器325の出力と位置計測装置23の計測結果とに基づいて、ビーム検出器325に加工光ELを照射可能な状態にある加工ヘッド21の位置を特定可能であってもよい。つまり、制御装置7は、加工座標系内において、ビーム検出器325に加工光ELを照射可能な状態にある加工ヘッド21の位置を特定可能である。尚、ここで言う加工ヘッド21の位置は、加工ヘッド21そのものの位置を含んでいてもよいし、加工ヘッド21に固有の位置を含んでいてもよい。加工ヘッド21に固有の位置の一例として、加工ヘッド21が付加加工を行う付加加工位置(つまり、加工光ELのフォーカス位置)があげられる。更に、上述したように、開口324と貫通孔322との間の位置関係に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、開口324に加工光ELを照射可能な状態にある加工ヘッド21の位置に関する情報と、開口324と貫通孔322との間の位置関係に関する情報とに基づいて、加工座標系内において、貫通孔322に加工光ELを照射可能な状態にある加工ヘッド21の位置を特定可能である。更に、上述したように、載置面311にビーム検出部材32が載置されている状況下では、貫通孔322とピン312とはZ軸方向において重なる。このため、貫通孔322に加工光ELを照射可能な状態にある加工ヘッド21の位置は、ピン312に加工光ELを照射可能な状態にある加工ヘッド21の位置と等価とみなせる。更に、上述したように、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、ピン312に加工光ELを照射可能な状態にある加工ヘッド21の加工座標系内での位置と、ステージ座標系内でのピン312が形成されている位置とが互いに関連付けられるべき位置であると特定することができる。つまり、制御装置7は、加工座標系内でのある特定の位置と、ステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、加工座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、加工座標系とステージ座標系とを関連付けることができる。その結果、制御装置7は、ステージ座標系内の任意の位置に加工光ELを照射可能な状態にある加工ヘッド21の位置を、加工座標系において特定することができる。更には、制御装置7は、加工座標系内の任意の位置に配置された加工ヘッド21が加工光ELを照射する位置(例えば、付加加工位置)を、ステージ座標系において特定することができる。
 続いて、計測座標系とステージ座標系とを関連付けるために、まずは、ステージ31の載置面311に、基準部材34が載置される。特に、基準部材34は、基準部材34と載置面311との位置関係が所望の第2位置関係となるように、載置面311に載置される。本実施形態では、基準部材34と載置面311との位置関係が所望の第2位置関係となるように基準部材34を載置面311に載置するために、基準部材34と載置面311との双方に、位置合わせ用の目印が形成される。具体的には、基準部材34を載置面311に載置する場合にも、ビーム検出部材32を載置面311に載置する場合と同様に、載置面311に形成されたピン312が目印として用いられてもよい。このため、以下では、位置合わせ用の目印が形成された載置面311についての説明を省略した上で、図11から図12を参照しながら、位置合わせ用の目印が形成された基準部材34の一例について説明する。図11は、位置合わせ用の目印が形成された基準部材34を示す平面図である。図12は、載置面311に載置された基準部材34を示す平面図である。但し、載置面311に形成されたピン312とは異なる目印が、基準部材34を載置面311に載置するための目印として用いられてもよい。
 図11に示すように、基準部材34は、ベース部材341を備えている。ベース部材341は、板状の部材である。ベース部材341は、載置面311に載置可能な形状及びサイズを有している。ベース部材341には、位置合わせ用の目印として、複数の貫通孔342が形成されている。図11に示す例では、ベース部材341には、2つの貫通孔342が形成されている。貫通孔342は、Z軸方向に沿ってベース部材341を貫通する。
 本実施形態では、図12に示すように、基準部材34は、貫通孔342にピン312が挿入されるように、載置面311上に載置される。このため、貫通孔342の配列パターンは、ピン312の配列パターンと同一である。更に、貫通孔342の数は、ピン312の数と同一である(或いは、多くてもよい)。その結果、基準部材34は、載置面311に対して所望の第2位置関係を有するように載置面311に載置される。基準部材34は、載置面311上のピン312に対して所望の第2位置関係を有するように載置面311に載置される。基準部材34は、載置面311のピン312と基準部材34の貫通孔342とがZ軸方向において重なるという所望の第2位置関係を満たすように、載置面311に載置される。基準部材34は、あるピン312のX軸方向における位置と当該あるピン312に対応する貫通孔342のX軸方向における位置とが同じになり且つあるピン312のY軸方向における位置と当該あるピン312に対応する貫通孔342のY軸方向における位置とが同じになるという所望の第2位置関係を満たすように、載置面311に載置される。
 ピン312が形成されている位置は、載置面311に基準部材34を載置する際の載置面311上の基準位置として用いられてもよい。この場合、基準部材34は、載置面311上の基準位置に対して所望の第2位置関係を有するように位置合わせされた状態で載置面311に載置される。
 ベース部材341の上面には、少なくとも一つの基準マーク343が形成されている。ベース部材341には、1つの基準マーク343が形成されていてもよいし、2つの基準マーク343が形成されていてもよいし、3つの基準マーク343が形成されていてもよいし、4つの基準マーク343が形成されていてもよいし、5つ以上の基準マーク343が形成されていてもよい。図11は、ベース部材341の上面に5つの基準マーク343が形成されている例を示している。基準マーク343は、計測装置8によって計測可能なマークである。例えば、基準マーク343は、計測装置8が備える撮像装置82によって撮像可能なマークである。基準マーク343と貫通孔342との間の位置関係に関する情報は、制御装置7にとって既知の情報である。
 基準マーク343は、ピン312が貫通孔342に挿入されるように基準部材34が載置面311に載置された場合において載置面311上の所定位置(例えば、載置面311の中心)に基準マーク343が配置されるように、ベース部材341上の所定位置に形成されていてもよい。この場合、基準マーク343が配置される載置面311上の所定位置(つまり、ステージ座標系における載置面311上の所定位置)に関する情報は、制御装置7にとって既知の情報であってもよい。また、この場合には、基準マーク343が配置されることになる載置面311上の所定位置が、載置面311に基準部材34を載置する際の載置面311上の基準位置として用いられてもよい。この場合、基準部材34は、載置面311上の基準位置に基準マーク343が配置されるように位置合わせされた状態で載置面311に載置される。尚、この場合には、基準マーク343が配置されている位置と貫通孔342との間の位置関係に関する情報は、制御装置7にとって既知の情報でなくてもよい。
 尚、図7から図9に示したビーム検出部材32と、図11及び図12に示した基準部材34とを同一の部材に設けてもよい。
 再び図4において、基準部材34が載置面311に載置された後、計測装置8は、基準部材34を計測する(ステップS114)。特に、計測装置8は、基準部材34に形成された基準マーク343を計測する。
 その後、制御装置7は、ステップS115における計測装置8の計測結果に基づいて、計測座標系とステージ座標系とを関連付ける(ステップS116)。具体的には、制御装置7は、計測装置8の計測結果から、計測座標系における基準マーク343の位置を特定することができる。更に、上述したように、基準マーク343と貫通孔342との間の位置関係に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系における基準マーク343の位置に関する情報と、基準マーク343と貫通孔342との間の位置関係に関する情報とに基づいて、計測座標系内における貫通孔322の位置を特定可能である。更に、上述したように、載置面311に基準部材34が載置されている状況下では、貫通孔342の位置とピン312の位置とは同じである。このため、計測座標系内における貫通孔342の位置は、計測座標系内におけるピン312の位置と等価とみなせる。更に、上述したように、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系内におけるピン312の位置と、ステージ座標系内でのピン312の位置とが互いに関連付けられるべき位置であると特定することができる。つまり、制御装置7は、計測座標系内でのある特定の位置と、ステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、計測座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、計測座標系とステージ座標系とを関連付けることができる。その結果、制御装置7は、計測対象物のステージ座標系における位置を特定することができる。
 或いは、上述したように、載置面311上の所定位置(例えば、載置面311の中心)に基準マーク343が配置されるように基準マーク343がベース部材341に形成されている場合には、基準マーク343が配置されるステージ座標系内の所定位置に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系における基準マーク343の位置に関する情報と、基準マーク343が配置されるステージ座標系内の所定位置とが互いに関連付けられるべき位置であると特定することができる。つまり、制御装置7は、計測座標系内でのある特定の位置と、ステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、計測座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、計測座標系とステージ座標系とを関連付けることができる。
 尚、ビーム検出部材32を用いて、加工光ELとガイド光GLとの位置ずれを計測してもよい。複数のガイド光GLが照射される場合、複数のガイド光GLが交差する位置と加工光ELのフォーカス位置(付加加工位置)との位置ずれを、ビーム検出部材32を用いて計測してもよい。加工光ELとガイド光GLとが位置ずれしていた場合には、加工光ELのフォーカス位置及び/又はガイド光GLの位置(複数のガイド光GLを用いるときには複数のガイド光の交差位置)を変更してもよい。
 (2-2)ワークモデルアライメント動作
 続いて、ワークモデルアライメント動作について説明する。ワークモデルアライメント動作は、3次元構造物STを形成するべきワークWの3次元モデルであるワークモデルWMと実際のワークWとの位置合わせを行う動作である。特に、ワークモデルアライメント動作は、基準座標系においてワークモデルWMとワークWとの位置合わせを行う動作である。基準座標系は、加工システムSYSの基準となる座標系である。基準座標系は、制御装置7による制御に際して用いられる座標系である。本実施形態では、ステージ座標系が基準座標系として用いられるものとする。この場合、ワークモデルアライメント動作は、ステージ座標系においてワークモデルWMとワークWとの位置合わせを行う動作である。但し、計測座標系又は加工座標系が基準座標系として用いられてもよい。ステージ座標系、計測座標系及び加工座標系とは異なる他の座標系が基準座標系として用いられてもよい。
 ワークモデルWMとワークWとの位置合わせの結果、ワークWに対して位置合わせされたワークモデルWMに関するワーク情報が生成される。ワーク情報は、ワークモデルWMの位置に関するワーク位置情報とワークモデルWMの形状に関するワーク形状情報との双方を含む。ワーク情報は、ワーク位置情報とワーク形状情報とが対応する情報である。ワークモデルWMの位置は、実際のワークWの位置と一致する(或いは、一致していないとしても、実質的にはほぼ一致する)。このため、ワーク位置情報は、ワークWの位置に関する情報と等価とみなせる。ワークモデルWMの形状は、実際のワークWの形状と一致する(或いは、一致していないとしても、実質的にはほぼ一致する)。このため、ワーク形状情報は、実際のワークWの形状に関する情報と等価とみなせる。尚、「ワーク位置情報とワーク形状情報とが対応するワーク情報」は、「計測位置情報と計測形状情報とが対応する計測状態情報」と同様に、ワークモデルWMの各部分の位置及び形状の双方を特定可能な状態にある情報を意味する。尚、このようなワーク情報は、ワーク位置情報とワーク形状情報とを別個独立した異なる情報として含んでいなくてもよく、ワークモデルWMの各部分の位置及び形状の双方を特定できる限りは、ワーク情報はどのようなデータ構造を有していてもよい。
 ワーク位置情報とワーク形状情報とが対応するワーク情報を参照すれば、制御装置7は、ステージ座標系内での載置面311とワークモデルWMとを示す斜視図である図13に示すように、ステージ座標系内において、ワークモデルWMの各部分(例えば、ワークモデルWMの表面の各部分)の位置及び向き(言い換えれば、姿勢)を特定することができる。つまり、制御装置7は、ステージ座標系内において、ワークWの各部分(例えば、ワークWの表面の各部分)の位置及び向き(言い換えれば、姿勢)を特定することができる。その結果、加工システムSYSは、ワーク情報に基づいて、後述する加工動作において、ワーク情報により位置及び向きが判明しているワークWに対して、適切に付加加工を行うことができる。
 本実施形態では、加工システムSYSは、ワークモデルアライメント動作として、第1のワークモデルアライメント動作、第2のワークモデルアライメント動作及び第3のワークモデルアライメント動作の少なくとも一つを行う。このため、以下では、第1から第3のワークアライメント動作について順に説明する。
 尚、ワーク情報が制御装置7にとって既に既知の情報である場合には、加工システムSYSは、ワークモデルアライメント動作を行わなくてもよい。例えば、ワーク情報が入力装置92を介して加工システムSYSに入力される場合には、加工システムSYSは、ワークモデルアライメント動作を行わなくてもよい。
 (2-2-1)第1のワークモデルアライメント動作
 はじめに、図14を参照しながら、第1のワークモデルアライメント動作について説明する。図14は、第1のワークモデルアライメント動作の流れを示すフローチャートである。
 図14に示すように、まずは、ステージ31の載置面311にワークWが載置される(ステップS121)。その後、計測装置7は、ワークWを計測する(ステップS122)。
 その後、制御装置7は、ステップS122における計測装置8の計測結果に基づいて、ワーク情報を生成する(ステップS123)。具体的には、上述したように、制御装置7は、計測装置8の計測結果(つまり、撮像装置82の撮像結果)に基づいて、計測装置8が計測したワークWに関する計測情報を生成する。計測情報には、ワークWの形状に関する計測形状情報が含まれている。この計測形状情報は、ワーク形状情報としてそのまま用いられる。更に、計測情報には、ワークWの位置に関する計測位置情報が含まれている。但し、計測位置情報は、計測座標系内でのワークWの位置に関する情報である。このため、制御装置7は、計測位置情報が示す計測座標系内でのワークWの位置を、ステージ座標系内でのワークWの位置に変換する。変換によって取得されたステージ座標系内でのワークWの位置に関する情報が、ワーク位置情報として用いられる。その結果、制御装置7は、ワーク位置情報とワーク形状情報が対応するワーク情報を生成することができる。つまり、制御装置7は、実際のワークWに対応するワークモデルWMに関するワーク情報を生成することができる。
 (2-2-2)第2のワークモデルアライメント動作
 続いて、図15を参照しながら、第2のワークモデルアライメント動作について説明する。図15は、第2のワークモデルアライメント動作の流れを示すフローチャートである。
 図15に示すように、まずは、ステージ31の載置面311にワークWが載置される(ステップS131)。その後、計測装置7は、ワークWの状態を計測する(ステップS132)。
 ステップS131からステップS132の処理と相前後して又は並行して、制御装置7は、載置面311に載置されているワークWの形状に対応するワークモデルデータを取得する(ステップS133)。具体的には、制御装置7は、ワークWの形状と同じ又は相似の形状を有するワークモデルWMを示すワークモデルデータを取得する。ワークモデルデータは、ワークモデルWMの特徴に関するワークモデル特徴情報を含んでいる。特に、ワークモデルデータは、ワークモデルWMの特徴の一例であるワークモデルWMの形状に関するワークモデル形状情報を少なくとも含んでいる。
 ワークモデルデータは、制御装置7が備えるメモリ(つまり、記録媒体)に記録されていてもよい。ワークモデルデータは、制御装置7に内蔵された又は制御装置7に外付け可能な任意の記録媒体(例えば、ハードディスクや半導体メモリ)に記録されていてもよい。この場合、制御装置7は、必要に応じて入力装置92を用いて、これらの記録媒体からワークモデルデータを読み出すことで、ワークモデルデータを取得してもよい。ワークモデルデータは、制御装置7の外部の装置に記録されていてもよい。ワークモデルデータは、加工システムSYSの外部の装置に記録されていてもよい。この場合、制御装置7は、必要に応じて入力装置92を用いて、外部の装置からワークモデルデータをダウンロードすることで、ワークモデルデータを取得してもよい。
 記録媒体(或いは、外部の装置)には、複数の異なる形状をそれぞれ有する複数のワークモデルWMを示す複数のワークモデルデータが記録されていてもよい。この場合、制御装置7は、複数のワークモデルデータの中から、ワークWの形状に対応する一のワークモデルデータを取得してもよい。その結果、載置面311に載置されるワークWの形状が変わる場合であっても、制御装置7は、ワークWの形状に対応する一のワークモデルデータを適切に取得することができる。或いは、載置面311に載置されるワークWの形状が常に同じである場合には、記録媒体(或いは、外部の装置)には、単一のワークモデルデータが記録されていてもよい。
 制御装置7は、加工システムSYSのユーザの指示に基づいて、ワークモデルデータを取得してもよい。具体的には、制御装置7は、複数のワークモデルWMを表示するようにディスプレイ91を制御してもよい。更に、制御装置7は、複数のワークモデルWMのうちのいずれか一つを、ワークWの形状と同じ又は相似の形状を有するワークモデルWMとしてユーザに選択させるためのGUIを表示するように、ディスプレイ91を制御してもよい。ユーザは、ワークWを視認することでワークWの形状を把握すると共に、把握したワークWの形状と同じ又は相似の形状を有するワークモデルWMを、入力装置92を用いて選択してもよい。その結果、制御装置7は、ユーザが選択したワークモデルWMを示すワークモデルデータを取得する。或いは、載置面311に載置されるワークWの形状が予め定まっている場合には、制御装置7は、予め定まっているワークWの形状と同じ又は相似の形状を有するワークモデルWMを示すワークモデルデータを取得してもよい。
 制御装置7は、ユーザの指示に基づいて、取得したワークモデルデータが示すワークモデルWMを修正してもよい。例えば、制御装置7は、ユーザの指示に基づいて、ワークモデルWMの特徴(例えば、形状及びサイズの少なくとも一方)を修正してもよい。ワークWMモデルが修正された場合には、修正後のワークモデルWMに関するワークモデルデータが、以降の処理では用いられる。
 その後、制御装置7は、ステップS132における計測装置8の計測結果と、ステップS133で取得されたワークモデルデータとに基づいて、ワーク情報を生成する(ステップS134)。
 具体的には、制御装置7は、ワークモデルデータから、ワークモデルWMの形状に関するワークモデル形状情報を取得する。ワークモデルWMの形状がワークWの形状と同一又は相似であるため、ワークモデル形状情報は、ワークWの形状に関する情報と等価とみなせる。一方で、計測装置8の計測結果に基づいて生成される計測状態情報にもまた、ワークWの形状に関する計測形状情報が含まれている。しかしながら、計測装置8の計測誤差等に起因して、計測形状情報が示すワークWの形状の精度は、ワークモデル形状情報が示すワークモデルWMの形状の精度よりも低くなる可能性がある。そこで、本実施形態では、制御装置7は、計測状態情報に含まれる計測形状情報に代えて、ワークモデルデータから取得されるワークモデル形状情報を、ワーク形状情報として用いる。
 但し、ワークモデル形状情報は、計測装置8の計測結果に基づいて生成される計測情報とは別個の情報である。このため、ワークモデル形状情報には、載置面311上でのワークWの位置に関する情報が対応していない。つまり、ワークモデル形状情報を参照するだけでは、制御装置7は、ワークモデルWM(つまり、ワークW)が、載置面311上のどの位置に配置されているかを特定することができない。また、ワークモデル形状情報を参照するだけでは、制御装置7は、ワークモデルWM(つまり、ワークW)が、載置面311上でどのような姿勢で配置されているかを特定することができない。また、ワークモデル形状情報を参照するだけでは、制御装置7は、ワークモデルWM(つまり、ワークW)が、載置面311上でどの程度のサイズを有しているかを特定することができない。そこで、制御装置7は、計測状態情報に含まれるワークWの位置に関する計測位置情報とワークモデル形状情報とを関連付ける。具体的には、制御装置7は、計測位置情報とワークモデル形状情報とを関連付けることで、ワークモデルWMの形状に加えてワークモデルWMの載置面311上での位置をも特定可能なワーク情報を生成する。ワークモデルWMの載置面311上での位置は、それぞれ、ワークWの載置面311上での位置としてそれぞれ利用可能である。このため、制御装置7は、ワークWの載置面311上での位置を特定可能な(更には、当然に形状も特定可能な)ワーク情報を生成することができる。この場合、制御装置7は、計測位置情報とワークモデル形状情報とを関連付ける演算装置として機能可能である。
 具体的には、制御装置7は、計測装置8の計測結果に基づいて、計測形状情報と計測位置情報とが互いに関連付けられた状態で含まれている計測情報を生成する。その後、制御装置7は、ワークモデルWMを計測位置情報が示すワークWの位置に配置するための位置合わせ処理を行う。つまり、制御装置7は、ワークモデルWMを平行移動、拡大、縮小及び/又は回転して計測形状情報が示すワークWに近づける位置合わせ処理を行う。その結果、ワークモデルWMの載置面311上での位置(つまり、ワークWの載置面311上での位置)が判明する。このため、制御装置7は、位置合わせ処理の結果に基づいて、ワーク情報を生成することができる。
 制御装置7は、位置合わせ処理の一部として、パターンマッチング処理を行ってもよい。以下、パターンマッチング処理を含む位置合わせ処理の一具体例について説明する。制御装置7は、ワークモデルWMに基づいて、ワークモデルWMの複数の特徴点であるワークモデル特徴点を抽出する。制御装置7は、複数の(例えば、3つ以上の)ワークモデル特徴点を抽出する。制御装置7は、入力装置92を用いてユーザが行うワークモデル特徴点を指定するための操作に基づいて、ワークモデル特徴点を抽出してもよい。制御装置7は、ユーザの操作を必要とすることなく、所定の抽出基準に従ってワークモデル特徴点を抽出してもよい。また、制御装置7は、計測状態情報に基づいて、ワークWの特徴点(具体的には、計測状態情報から特定可能なワークWの特徴点)であって且つワークモデル抽出点に対応する計測特徴点も抽出する。制御装置7は、複数の(例えば、3つ以上の)計測特徴点を抽出する。制御装置7は、入力装置92を用いてユーザが行う計測特徴点を指定するための操作に基づいて、計測特徴点を抽出してもよい。制御装置7は、ユーザの操作を必要とすることなく、所定の抽出基準に従って計測特徴点を抽出してもよい。その後、制御装置7は、ワークモデル特徴点と計測特徴点とに基づいて、ワークモデルWMと計測状態情報が示すワークWとをパターンマッチングする。具体的には、制御装置7は、ワークモデルWMと計測状態情報が示すワークWとをパターンマッチングする様子を概念的に示す概念図である図16に示すように、ワークモデル特徴点が計測特徴点に近づくようにワークモデルWMを平行移動、拡大、縮小及び/又は回転させる。制御装置7は、ワークモデル特徴点と計測特徴点とのずれが所定量以下になるまで(典型的には、最少になるまで)ワークモデルWMを平行移動、拡大、縮小及び/又は回転させる。その結果、計測座標系内において、ワークモデルWMが、計測状態情報が示すワークWが配置されていた位置と同じ位置に配置されることになる。このため、位置合わせ処理の結果、制御装置7は、計測座標系内でのワークモデルWMの位置を特定することができる。但し、ワーク情報を生成するにあたって、計測座標系内でのワークモデルWMの位置は、上述したように、ステージ座標系内でのワークモデルWMの位置に変換される。その結果、ワーク位置情報として利用可能なワークモデルWMの位置に関する情報が取得される。つまり、ワーク形状情報として利用可能なワークモデル形状情報とワーク位置情報として利用可能なワークモデルWMの位置に関する情報とが対応するワーク情報が、ワークモデルWMに関する情報として取得される。
 制御装置7は、位置合わせ処理を行うための任意のアルゴリズムを用いて、位置合わせ処理を行ってもよい。このようなアルゴリズムの一例として、複数の点群(例えば、上述したワークモデル特徴点を含む点群と計測特徴点を含む点群)の位置合わせを行うためのICP(Interative Closest Point)アルゴリズムがあげられる。
 以上説明した第2のワークモデルアライメント動作によれば、第1のワークモデルアライメント動作と比較して、ワーク情報が示すワークモデルWMの形状(つまり、ワークWの形状)がより高精度になる可能性がある。その理由は、上述したとおり、計測形状情報が示すワークWの形状の精度は、ワークモデル形状情報が示すワークモデルWMの形状の精度よりも低くなる可能性があるからである。このため、第2のワークモデルアライメント動作によって生成されたワーク情報を用いることで、加工システムSYSは、後述する加工動作によって3次元構造物STをより高精度に形成することができる可能性がある。
 尚、上述した説明では、制御装置7は、図15のステップS134において、加工システムSYSが備える計測装置8の計測結果(特に、計測位置情報)と、ステップS133で取得されたワークモデルデータ(特に、ワークモデル形状情報)とに基づいて、ワーク情報を生成している。つまり、制御装置7は、加工システムSYSが備える計測装置8の計測結果から生成される計測位置情報とワークモデル形状情報とを関連付けている。しかしながら、制御装置7は、加工システムSYSの外部から入力装置92を介して計測位置情報を取得すると共に、当該取得した計測位置情報とワークモデル形状情報とに基づいて、ワーク情報を生成してもよい。つまり、制御装置7は、加工システムSYSの外部から入力装置92を介して取得された計測位置情報とワークモデル形状情報とを関連付けてもよい。
 上述した説明では、図15のステップS134において、加工システムSYSが備える制御装置7が計測位置情報とワークモデル形状情報とを関連付けている。しかしながら、加工システムSYSの外部の装置が、計測位置情報とワークモデル形状情報とを関連付けてもよい。この場合、制御装置7は、ネットワークを介して、計測位置情報とモデル形状情報と加工システムSYSの外部の装置に対して送信(つまり、出力)してもよい。
 (2-2-3)第3のワークモデルアライメント動作
 続いて、図17を参照しながら、第3のワークモデルアライメント動作について説明する。図17は、第3のワークモデルアライメント動作の流れを示すフローチャートである。
 図17に示すように、まずは、ステージ31の載置面311にワークWが載置される(ステップS141)。その後、計測装置7は、ワークWの状態を計測する(ステップS142)。
 その後、制御装置7は、載置面311に載置されているワークWの形状に対応するワークモデルデータを取得する(ステップS142)。尚、ステップS142の処理は、上述した第2のワークモデルアライメント動作におけるステップS133の処理と同一であってもよいため、その詳細な説明を省略する。
 その後、ユーザによって、ワークモデルWMの表面上のある点が、ユーザ指定点として指定される(ステップS143)。具体的には、ユーザは、入力装置92を用いて、ユーザ指定点を指定する。このため、入力装置92は、ユーザ指定点を指定する指定装置と称してもよい。この場合、制御装置7は、ステップS142で取得されたワークモデルデータが示すワークモデルWMを表示するようにディスプレイ91を制御し、ユーザは、ディスプレイ91に表示されたワークモデルWM上においてユーザ指定点を指定してもよい。ユーザ指定点は、ワークモデルWMの表面の特徴的な点であってもよい。ワークモデルWMの表面の特徴的な点の一例として、頂点、角、最も+Z側に位置する点、最も-Z側に位置する点、最も+X側に位置する点、最も-X側に位置する点、最も+Y側に位置する点、及び、最も-Y側に位置する点の少なくとも一つがあげられる。但し、ユーザ指定点は、ワークモデルWMの表面上の点である限りは、どのような点であってもよい。
 その後、ヘッド駆動系22は、ステップS143で指定されたユーザ指定点に対応するワークW上の点(以降、“ワーク指定点”と称する)と加工装置2とが所望の第3位置関係を有するという位置条件が満たされるように、加工ヘッド21を移動させる(ステップS144)。ワーク指定点は、典型的には、ユーザ指定点と同じ点となる。例えば、ワークモデルWMの頂点がユーザ指定点として指定されている場合には、ワークWの頂点がワーク指定点となる。この場合、第3位置関係に関する情報は、制御装置7にとって既知の情報である。
 ワーク指定点と加工装置2とが所望の第3位置関係を有する状態の一例として、加工装置2がワーク指定点を加工可能な状態があげられる。加工装置2は主として付加加工位置(つまり、加工光ELのフォーカス位置)において物体を加工することから、ワーク指定点と加工装置2とが所望の第3位置関係を有する状態の一例として、付加加工位置がワーク指定点に設定される状態があげられる。上述したように、複数のガイド光射出装置24からそれぞれ射出される複数のガイド光GLは、付加加工位置において交差する。このため、ワーク指定点と加工装置2とが所望の第3位置関係を有する状態の一例として、複数のガイド光GLがワーク指定点において交差する状態があげられる。つまり、ワーク指定点と加工装置2とが所望の第3位置関係を有する状態の一例として、複数のガイド光GLがワーク指定点に照射される状態があげられる。
 複数のガイド光GLがワーク指定点において交差するという条件が位置条件として用いられる場合には、複数のガイド光射出装置24は、それぞれ複数のガイド光GLを射出し、ヘッド駆動系22は、ワーク指定点において複数のガイド光GLが交差するように、加工ヘッド21を移動させる(ステップS144)。つまり、ヘッド駆動系22は、加工ヘッド21を移動させることで、ワーク指定点において複数のガイド光GLが交差するようにワークWと付加加工位置との相対的な位置関係を変更する。
 図18は、ワーク指定点において複数のガイド光GLが交差する様子を示す断面図である。一方で、図19は、ワーク指定点において複数のガイド光GLが交差していない様子を示す断面図である。ヘッド駆動系22は、複数のガイド光GLの状態が図19に示す状態から図18に示す状態へと変化するように(つまり、複数のガイド光GLが交差する点がワーク指定点に近づくように)、加工ヘッド21を移動させる。
 この場合、ガイド光GLは、ワーク指定点と加工装置2とが所望の第3位置関係を有するようにワーク指定点と加工装置2との位置合わせを行うためのガイド光として機能し得る。ワーク指定点がワークWの表面に指定されることから、ガイド光GLは、ワーク指定点と加工装置2とが所望の第3位置関係を有するようにワークWと加工装置2との位置合わせを行うためのガイド光として機能し得る。
 制御装置7は、加工ヘッド21を移動させるユーザの指示に基づいて加工ヘッド21が移動するようにヘッド駆動系22を制御してもよい。つまり、ワーク指定点において複数のガイド光GLが交差するか否かをユーザが目視で確認すると共に、ヘッド駆動系22は、ユーザによる確認結果に基づいて加工ヘッド21を移動させてもよい。この場合、ユーザの指示は、入力装置92を介して入力されてもよい。
 加工ヘッド21を移動させる場合には、制御装置7は、ワークW上でのガイド光GLの状態を撮像するように撮像装置82を制御すると共に、撮像装置82の撮像結果を表示するようにディスプレイ91を制御してもよい。或いは、加工システムSYSが撮像装置82とは異なる撮像装置を備えている場合には、制御装置7は、ワークW上でのガイド光GLの状態を撮像するように他の撮像装置を制御すると共に、他の撮像装置の撮像結果を表示するようにディスプレイ91を制御してもよい。この場合、ユーザは、ディスプレイ91の表示内容を参照しながら、入力装置92を用いて、加工ヘッド21を移動させる指示を入力してもよい。或いは、制御装置7は、撮像装置82の撮像結果(或いは、他の撮像装置の撮像結果、以下同じ)に基づいて加工ヘッド21が移動するようにヘッド駆動系22を制御してもよい。尚、ガイド光GLの波長は、加工光ELの波長と異なっていてもよい。ガイド光GLの波長が加工光ELの波長と異なる場合、撮像装置82又は他の撮像装置の光学系の最もワークW側に、加工光ELを反射しガイド光GLを透過するフィルタを設けてもよい。例えば、加工光が赤外光の波長帯域であるときには、フィルタとして赤外反射フィルタを用いてもよい。
 具体的には、ワーク指定点において複数のガイド光GLが交差している場合には、撮像装置82の撮像結果は、図20(a)に示すように、ワークWの表面(特に、ワーク指定点)において複数のガイド光GLのビームスポットが重なっていることを示す。つまり、撮像装置82の撮像結果は、図20(a)に示すように、ワークWの表面(特に、ワーク指定点)に単一のビームスポットが形成されていることを示す。一方で、ワーク指定点において複数のガイド光GLが交差していない場合には、撮像装置82の撮像結果は、図20(b)に示すように、ワークWの表面(特に、ワーク指定点)において複数のガイド光GLのビームスポットが重なっていないことを示す。つまり、撮像装置82の撮像結果は、図20(b)に示すように、ワークWの表面(特に、ワーク指定点)に複数のビームスポットが形成されていることを示す。従って、制御装置7は、撮像装置82の撮像結果に基づいて、ワーク指定点において複数のガイド光GLが交差するか否かを判定することができる。ワーク指定点において複数のガイド光GLが交差していなければ、ユーザ又は制御装置7は、ワークWの表面における複数のガイド光GLの状態が、図20(b)に示す状態から図20(a)に示す状態へと変化するように(つまり、複数のビームスポットが近づくように)、加工ヘッド21を移動させる。
 その後、ワーク指定点と加工装置2とが所望の第3位置関係を有するという位置条件が満たされるように加工ヘッド21が移動した後、位置計測装置23は、位置条件が満たされた時点での加工ヘッド21の位置を計測する(ステップS145)。上述した例で言えば、位置計測装置23は、ワーク指定点において複数のガイド光GLが交差しているときの加工ヘッド21の位置を計測する(ステップS145)。上述したように、複数のガイド光GLは、付加加工位置において交差する。このため、ステップS145では、位置計測装置23は、ワーク指定点に付加加工位置が設定された状態にある加工ヘッド21の位置を計測していると言える。つまり、ステップS145では、位置計測装置23は、ワーク指定点を加工可能な状態にある加工ヘッド21の位置を計測していると言える。また、付加加工位置は、加工ヘッド21に対して固定された位置関係を有するがゆえに、加工ヘッド21の位置を計測する動作は、付加加工位置を間接的に計測する動作と等価とみなせる。また、付加加工位置がワーク指定点に設定された状態で加工ヘッド21の位置が計測されるがゆえに、加工ヘッド21の位置を計測する(つまり、付加加工位置を間接的に計測する)動作は、ワークW上のワーク指定点の位置を間接的に計測する動作と等価とみなせる。
 その後、制御装置7は、新たなユーザ指定点が指定されるべきか否かを判定する(ステップS146)。具体的には、制御装置7は、所望数のユーザ指定点が指定され且つ所望数のユーザ指定点のそれぞれを対象に上述したステップS144及びS145の処理が行われたか否かを判定してもよい。所望数は、1つであってもよいし、2つであってもよいし、3つであってもよいし、4つであってもよいし、5つ以上であってもよい。所望数のユーザ指定点が指定されていない(その結果、所望数のユーザ指定点のそれぞれを対象に上述したステップS144及びS145の処理が行われていない)と判定された場合には、制御装置7は、新たなユーザ指定点が指定されるべきであると判定してもよい。他方で、所望数のユーザ指定点が指定され且つ所望数のユーザ指定点のそれぞれを対象に上述したステップS144及びS145の処理が行われたと判定された場合には、制御装置7は、新たなユーザ指定点が指定されなくてもよいと判定してもよい。尚、ユーザ指定点の数が1つであるときには、ワークWのX軸方向の位置、Y軸方向の位置及びZ軸方向の位置を求めることができる。そして、ワーク形状が既知であってユーザ指定点の数が2つであるときには、XYZ位置に加えて、Z軸周りの回転θzを求めることができる。また、ワーク形状が既知であってユーザ指定点の数が3つ以上であるときには、XYZ位置ならびにθx、θy、θzを求めることができる。
 さて、ステップS146における判定の結果、新たなユーザ指定点が指定されるべきと判定された場合には(ステップS147:Yes)、ユーザによって、ワークモデルWMの表面上のある点(但し、今までユーザ指定点として指定されたことがない点)が、新たなユーザ指定点として指定される(ステップS147)。その後、新たなユーザ指定点を対象に、上述したステップS144及びS145の処理が行われる。
 他方で、ステップS146における判定の結果、新たなユーザ指定点が指定されなくてもよいと判定された場合には(ステップS147:No)、制御装置7は、ステップS145における位置計測装置23の計測結果と、ステップS142で取得されたワークモデルデータとに基づいて、ワーク情報を生成する(ステップS148)。
 具体的には、上述したように、ステップS145における位置計測装置23の計測結果は、ワーク指定点と加工装置2とが所望の第3位置関係を有するときの加工ヘッド21の位置を示している。このため、制御装置7は、位置計測装置23の計測結果から、加工座標系におけるワーク指定点の位置を特定することができる。なぜならば、ワーク指定点と加工装置2とが所望の第3位置関係を有しているがゆえに、ワーク指定点と加工ヘッド21とは当然に、制御装置7にとって既知の情報である第3位置関係に関する情報から特定可能な一定の位置関係を有しているからである。
 その後、制御装置7は、ワークモデルWMのユーザ指定点を、位置計測装置23の計測結果から特定したワーク指定点の位置に配置するための位置合わせ処理を行う。つまり、制御装置7は、ワークモデル形状情報が示すワークモデルWMを平行移動、拡大、縮小及び/又は回転して、ユーザ指定点をワーク指定点の位置に近づける位置合わせ処理を行う。その結果、ワークモデルWMの載置面311上での位置が判明する。このため、制御装置7は、位置合わせ処理の結果に基づいて、ワーク情報を生成する。尚、制御装置7は、位置合わせ処理として、上述した第2のワークモデルアライメント動作で用いられた位置合わせ処理と同様の処理を行ってもよい。例えば、制御装置7は、複数の点群(例えば、モデル指定点を含む点群とユーザ指定点を含む点群)の位置合わせを行うためのICP(Interative Closest Point)アルゴリズムを用いて、位置合わせ処理を行ってもよい。このため、第3のワークモデルアライメント動作における位置合わせ処理の詳細については省略する。
 以上説明した第3のワークモデルアライメント動作によれば、制御装置7は、計測装置8によるワークWの計測を必要とすることなく、ワーク情報が生成可能となる。このため、計測装置8が計測しにくい又は計測できない形状をワークWが有する場合であっても、制御装置7は、ワーク情報を生成することができる。
 (2-3)加工モデルアライメント動作
 続いて、加工モデルアライメント動作について説明する。加工モデルアライメント動作は、付加加工によって形成されるべき3次元構造物STの3次元モデルである加工モデルPMと、ワークモデルアライメント動作によって生成されたワーク情報が示すワークモデルWMとの位置合わせを行う動作である。特に、加工モデルアライメント動作は、基準座標系において加工モデルPMとワークモデルWMとの位置合わせを行う動作である。上述したように、本実施形態では、ステージ座標系が基準座標系として用いられる。このため、加工モデルアライメント動作は、ステージ座標系において加工モデルPMとワークモデルWMとの位置合わせを行う動作である。
 加工モデルPMとワークモデルWMとの位置合わせの結果、ワークモデルWMに対して位置合わせされた加工モデルPMに関する加工情報が生成される。加工モデル情報は、加工モデルPMの位置に関する加工位置情報と加工モデルPMの形状に関する加工形状情報とが対応する情報である。尚、「加工位置情報と加工形状情報とが対応する加工情報」は、加工モデルPMの各部分の位置及び形状の双方を特定可能な状態にある情報を意味する。尚、このような加工情報は、加工位置情報と加工形状情報とを別個独立した異なる情報として含んでいなくてもよく、加工モデルPMの各部分の位置及び形状の双方を特定できる限りは、加工情報はどのようなデータ構造を有していてもよい。
 加工情報を参照すれば、制御装置7は、ステージ座標系内でのワークWと3次元構造物STとを示す斜視図である図21に示すように、ステージ座標系内において、ワークWと当該ワークW上に形成するべき3次元構造物STとの位置関係を特定することができる。つまり、制御装置7は、ステージ座標系内において、ワークW上のどの位置に3次元構造物STを形成するべきかを特定することができる。制御装置7は、ステージ座標系内において、ワークW上においてどのような姿勢を有している3次元構造物STを形成するべきかを特定することができる。制御装置7は、ステージ座標系内において、ワークW上においてどのようなサイズを有している3次元構造物STを形成するべきかを特定することができる。その結果、加工システムSYSは、加工情報に基づいて、後述する加工動作において、ワークW上の適切な位置に3次元構造物STを形成することができる。つまり、加工システムSYSは、加工情報に応じたワークW上の適切な位置に、加工情報に応じた適切な形状を有する3次元構造物STを形成することができる。
 尚、加工情報が制御装置7にとって既に既知の情報である場合には、加工システムSYSは、加工モデルアライメント動作を行わなくてもよい。例えば、加工情報が入力装置92を介して加工システムSYSに入力される場合には、加工システムSYSは、加工モデルアライメント動作を行わなくてもよい。
 以下、図22を参照しながら、加工モデルアライメント動作について説明する。図22は、加工モデルアライメント動作の流れを示すフローチャートである。
 図22に示すように、制御装置7は、付加加工によって形成するべき3次元構造物STの形状に対応する加工モデルデータを取得する(ステップS151)。具体的には、制御装置7は、3次元構造物STの形状と同じ又は相似の形状を有する加工モデルPMを示す加工モデルデータを取得する。加工モデルデータは、加工モデルPMの特徴に関する加工モデル特徴情報を含んでいる。特に、加工モデルデータは、加工モデルPMの特徴の一例である加工モデルPMの形状に関する加工モデル形状情報を少なくとも含んでいる。
 加工モデルデータは、制御装置7が備えるメモリ(つまり、記録媒体)に記録されていてもよい。加工モデルデータは、制御装置7に内蔵された又は制御装置7に外付け可能な任意の記録媒体(例えば、ハードディスクや半導体メモリ)に記録されていてもよい。この場合、制御装置7は、必要に応じて入力装置92を用いて、これらの記録媒体から加工モデルデータを読み出すことで、加工モデルデータを取得してもよい。加工モデルデータは、制御装置7の外部の装置に記録されていてもよい。加工モデルデータは、加工システムSYSの外部の装置に記録されていてもよい。この場合、制御装置7は、入力装置92を介して外部の装置から加工モデルデータをダウンロードすることで、加工モデルデータを取得してもよい。
 記録媒体(或いは、外部の装置)には、複数の異なる形状をそれぞれ有する複数の加工モデルWMを示す複数の加工モデルデータが記録されていてもよい。この場合、制御装置7は、複数の加工モデルデータの中から、3次元構造物STの形状に対応する一の加工モデルデータを取得してもよい。その結果、載置面311に載置される3次元構造物STの形状が変わる場合であっても、制御装置7は、3次元構造物STの形状に対応する一の加工モデルデータを適切に取得することができる。或いは、載置面311に載置される3次元構造物STの形状が常に同じである場合には、記録媒体(或いは、外部の装置)には、単一の加工モデルデータが記録されていてもよい。
 制御装置7は、加工システムSYSのユーザの指示に基づいて、加工モデルデータを取得してもよい。具体的には、制御装置7は、複数の加工モデルPMを表示するようにディスプレイ91を制御してもよい。更に、制御装置7は、複数の加工モデルPMのうちのいずれか一つを、3次元構造物STの形状と同じ又は相似の形状を有する加工モデルPMとしてユーザに選択させるためのGUIを表示するように、ディスプレイ91を制御してもよい。ユーザは、付加加工によって形成したい3次元構造物STの形状と同じ又は相似の形状を有するワークモデルWMを、入力装置92を用いて選択してもよい。その結果、制御装置7は、ユーザが選択した加工モデルPMを示す加工モデルデータを取得する。或いは、付加加工によって形成するべき3次元構造物STの形状が予め定まっている場合には、制御装置7は、予め定まっている3次元構造物STの形状と同じ又は相似の形状を有する加工モデルPMを示す加工モデルデータを取得してもよい。
 制御装置7は、ユーザの指示に基づいて、取得した加工モデルデータが示す加工モデルPMを修正してもよい。例えば、制御装置7は、ユーザの指示に基づいて、加工モデルPMの特徴(例えば、形状及びサイズの少なくとも一方)を修正してもよい。加工モデルPMの特徴が修正された場合には、修正後の加工モデルPMに関する加工モデルデータが、以降の処理では用いられる。
 その後、制御装置7は、ワーク情報に基づいて、ワークモデルWMを表示するようにディスプレイ91を制御する(ステップS152)。つまり、制御装置7は、ステージ座標系内において、ワーク情報が示す形状を有するワークモデルWMを示す画像を、ワーク情報が示す位置(つまり、実際のワークWの位置)に表示するようにディスプレイ91を制御する。この際、制御装置7は、ステージ3(特に、載置面311)と共にワークモデルWMを表示するように、ディスプレイ91を制御してもよい。或いは、制御装置7は、実際のワークW(つまり、実際のワークWを示す画像)を表示するようにディスプレイ91を制御してもよい。例えば、制御装置7は、実際のワークWを撮像している撮像装置82の撮像結果を表示するようにディスプレイ91を制御してもよい。尚、図23は、ワークモデルWMの表示例を示している。
 その後、制御装置7は、ワークモデルWMと加工モデルPMとの位置合わせ(つまり、ワークWと加工モデルPMとの位置合わせ)を行うための入力をユーザから受け付ける(ステップS153)。具体的には、ステップS152においてワークモデルWMがディスプレイ91に表示されている。このため、ステップS153では、制御装置7は、ディスプレイ91に表示されたワークモデルWMに対する加工モデルPMの位置を指定するための入力をユーザから受け付けてもよい。従って、入力装置92は指定装置と称されてもよい。
 ユーザは、付加加工によって3次元構造物STの少なくとも一部が形成されるべき位置(つまり、3次元構造物STの少なくとも一部が造形されるべき造形位置)を、加工モデルPMの位置として指定してもよい。造形位置は、付加加工によって形成される3次元構造物STの少なくとも一部が分布する位置を含んでいてもよい。造形位置は、3次元構造物STの少なくとも一部を形成するための付加加工が行われる位置を含んでいてもよい。付加加工は、上述した付加加工位置(典型的には、加工光ELのフォーカス位置)において行われるがゆえに、造形位置は、3次元構造物STの少なくとも一部を形成するために付加加工位置が設定される位置を含んでいてもよい。付加加工は、加工光ELが照射される位置(つまり、照射領域EAが設定される位置)において行われるがゆえに、造形位置は、3次元構造物STの少なくとも一部を形成するために加工光ELが照射される位置(つまり、照射領域EAが設定される位置)を含んでいてもよい。付加加工は、造形材料Mが供給される位置(つまり、供給領域MAが設定される位置)において行われるがゆえに、造形位置は、3次元構造物STの少なくとも一部を形成するために造形材料Mが供給される位置(つまり、供給領域MAが設定される位置)を含んでいてもよい。
 ユーザは、3次元構造物STを形成する際の基準として利用可能な基準位置を、加工モデルPMの位置として指定してもよい。基準位置は、3次元構造物STを形成するための付加加工が開始される位置(つまり、造形開始位置)を含んでいてもよい。基準位置は、3次元構造物STを形成するための付加加工が終了する位置(つまり、造形終了位置)を含んでいてもよい。基準位置は、3次元構造物STの特徴点が存在する位置を含んでいてもよい。3次元構造物STの特徴的な点の一例として、頂点、角、最も+Z側に位置する点、最も-Z側に位置する点、最も+X側に位置する点、最も-X側に位置する点、最も+Y側に位置する点、及び、最も-Y側に位置する点の少なくとも一つがあげられる。
 ユーザは、上述した造形位置及び/又は基準位置そのものを加工モデルPMの位置として指定することに加えて又は代えて、上述した造形位置及び/又は基準位置と所定の位置関係を有する位置を、加工モデルPMの位置として指定してもよい。例えば、ユーザは、上述した造形位置及び/又は基準位置から所定方向に所定距離だけオフセットした位置を、加工モデルPMの位置として指定してもよい。
 ユーザは、入力装置92を用いて、加工モデルPMの位置を指定してもよい。この際、ユーザは、ステップS152でワークモデルWMが表示されたディスプレイ91の表示画面上において、加工モデルPMの位置を指定してもよい。例えば、上述した図23に示すように、ユーザは、入力装置92を用いて、加工モデルPMの位置を指定するためのポインタ911を移動させると共に、加工モデルPMの位置に指定した位置にポインタ911が位置するタイミングで当該ポインタ911の位置を加工モデルPMの位置として指定してもよい。
 ユーザは、上述したガイド光射出装置24が射出するガイド光GLを用いて、加工モデルPMの位置を指定してもよい。例えば、ユーザは、入力装置92を用いて、加工ヘッド21を移動させることで複数のガイド光GLをワークWに対して移動させると共に、加工モデルPMの位置として指定したい位置において複数のガイド光GLが交差したタイミングで当該複数のガイド光GLが交差した位置を加工モデルPMの位置として指定してもよい。
 制御装置7は、加工モデルPMの位置として指定された位置をワークモデルWMと関連付けて表示するように、ディスプレイ91を制御してもよい。例えば、ワークモデルWMの表示例を示す図24に示すように、制御装置7は、加工モデルPMの位置として指定された位置を示す表示物912(図24に示す例では、白丸を示す表示物)を、当該表示物とワークモデルWMとの位置関係が特定できる表示態様で表示するように、ディスプレイ91を制御してもよい。
 また、図24に示すように、ユーザは、加工モデルPMの位置として、単一の位置を指定してもよい。この場合、ユーザによって指定された位置が、加工モデルPMのある部分の位置(つまり、3次元構造物STのある部分を形成するべき位置)として指定されてもよい。或いは、ユーザによって指定された位置に応じて定まる領域が、加工モデルPMの位置(つまり、3次元構造物STを形成するべき位置(領域))として指定されてもよい。ユーザによって指定された位置に応じて定まる領域の一例として、ユーザによって指定された位置を含む領域、ユーザによって指定された位置を中心とする領域、ユーザによって指定された位置を頂点とする領域、及び、ユーザによって指定された位置を含む境界によって規定される領域の少なくとも一つがあげられる。
 或いは、ユーザは、ワークモデルWMの表示例を示す図25に示すように、加工モデルPMの位置として、複数の位置を指定してもよい。この場合、ユーザによって指定された複数の位置によって囲まれる領域(図25中の点線で囲まれる領域)が、加工モデルPMの位置(つまり、3次元構造物STを形成するべき位置(領域))として指定されてもよい。
 また、ユーザは、加工モデルPMの位置として、単一の位置を指定すると共に、加工モデルPMの姿勢を指定してもよい。
 尚、指定された加工モデルの位置は、指定位置と称されてもよく、造形基準位置と称されてもよい。この指定位置(造形基準位置)は、加工モデルPMの原点であってもよく、加工モデルに基づいて形成される3次元造形物STの造形開始点であってもよく、これらの点(原点、造形開始点)と特定の既知の関係にある点であってもよい。
 ここで、上述したように、3次元構造物STは、ワークW上に形成される。このため、ユーザは、ワークWの表面上の位置を造形位置として指定する可能性が高い。一方で、ワークWの表面の状態によっては、ワークWの表面上のある位置が造形位置として適切ではない可能性がある。具体的には、ワークWの表面のうち欠陥が生じている面部分は、造形位置として適切ではない可能性がある。尚、ここで言う欠陥は、3次元構造物STの適切な形成にとって障害となる欠陥を意味していてもよい。そこで、ワークWの表面のうち欠陥が生じている面部分が造形位置として指定される可能性を減らすために、制御装置7は、ディスプレイ91の表示例を示す図26に示すように、ワークWの表面のうち欠陥が生じている面部分とワークWの表面のうち欠陥が生じていない面部分とを区別可能な表示態様で、ワークモデルWMを表示してもよい。尚、ワークWの欠陥が生じている部分の上に3次元構造物STを造形して、ワークWを補修する場合には、ワークWの表面のうち欠陥が生じている面部分を造形位置として指定してもよい。
 加工モデルPMの位置を指定する入力を受け付ける場合には、ディスプレイ91における表示例を示す図27に示すように、制御装置7は、ワークモデルWM(或いは、実際のワークW)に加えて、加工モデルPM(つまり、加工モデルPMの画像)を表示するようにディスプレイ91を制御してもよい。つまり、制御装置7は、ユーザによって指定された位置に配置された加工モデルPMを表示するようにディスプレイ91を制御してもよい。この場合、ユーザは、加工モデルPMが表示されたディスプレイ91の表示画面上において、入力装置92を用いて加工モデルPMを移動させることで、加工モデルPMの位置を指定してもよい。その結果、ユーザは、直感的に加工モデルPMの位置を指定することができる。
 制御装置7は、ワークモデルWMに対する加工モデルPMの位置を指定するための入力に加えて、ワークモデルWMに対する加工モデルPMの姿勢を指定するための入力をユーザから受け付けてもよい。制御装置7は、ワークモデルWMに対する加工モデルPMの位置を指定するための入力に加えて、ワークモデルWMに対する加工モデルPMのサイズを指定するための入力をユーザから受け付けてもよい。いずれの場合であっても、ユーザは、入力装置92を用いて、加工モデルPMの姿勢及び/又はサイズを指定してもよい。例えば、ユーザは、加工モデルPMが表示されたディスプレイ91の表示画面上において、入力装置92を用いて加工モデルPMを平行移動、回転、拡大及び/又は縮小させることで、加工モデルPMの位置、姿勢及び/又は姿勢を指定してもよい。
 ステップS153におけるワークモデルWMと加工モデルPMとの位置合わせが完了すると、ステージ座標系内での加工モデルPMの位置(更には、姿勢及び/又はサイズ)が確定する。このため、制御装置7は、ステージ座標系内での加工モデルPMの位置に関する加工位置情報を生成することができる。その結果、制御装置7は、加工モデルPMの位置に関する加工位置情報と加工モデルPMの形状に関する加工形状情報とが対応する加工情報を生成する(ステップS154)。つまり、制御装置7は、ステージ座標系内での位置及び形状が確定した加工モデルPMに関する加工情報を生成する。
 但し、制御装置7は、必要に応じて、ステップS154で生成した加工情報を修正してもよい。例えば、上述したように、3次元構造物STは、ワークW上に形成される。つまり、加工モデルPMは、ワークモデルWM上に配置されるように、加工モデルPMとワークモデルWMとの位置合わせが行われる。この場合、加工モデルPMのワークモデルWM側を向いた表面の形状と、ワークモデルWMの加工モデルPM側を向いた表面の形状との関係によっては、ステップS154で生成された加工情報を用いて3次元構造物STをワークW上に形成することができないという技術的問題が生ずる可能性がある。具体的には、ワークモデルWM及び加工モデルPMを示す断面図である図28に示すように、加工モデルPMのワークモデルWM側を向いた表面(図28では、-Z側を向いた表面)PMaの形状と、ワークモデルWMの加工モデルPM側を向いた表面(図28では、+Z側を向いた表面)WMaの形状とが相補の関係にない場合には、加工情報を用いると、3次元構造物STとワークWとの間に隙間ができてしまう可能性がある。或いは、加工情報を用いると、ワークWに部分的に食い込む3次元構造物STが形成されてしまう可能性がある。そこで、表面PMaの形状と表面WMaの形状とが相補の関係にない場合には、制御装置7は、加工情報を修正してもよい。具体的には、加工情報の修正例を加工モデルPM及びワークモデルWMと共に概念的に示す断面図である図29に示すように、制御装置7は、修正後の加工情報が示す加工モデルPMの表面PMaの形状が、ワークモデルWMの表面WMaの形状と相補な関係になるように、加工情報(特に、加工形状情報)を修正してもよい。
 図29に示すように加工情報を修正する方法の一例が、図30(a)から図30(c)に示されている。図30(a)から図30(c)のそれぞれは、加工情報を修正する方法の一例を、ワークモデルWM及び加工モデルPMと共に概念的に示す断面図である。この場合、制御装置7は、図30(a)に示すように、加工モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間がなくなるまで加工モデルPMとワークモデルWMとを近づける。つまり、制御装置7は、加工モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間がなくなるまで加工モデルPMをワークモデルWMに食い込ませる。その後、制御装置7は、加工モデルPMとワークモデルWMとの重複部分の厚み(つまり、ワークモデルWMに対する加工モデルPMの食い込み量)Dを算出する。その後、図30(b)に示すように、制御装置7は、加工モデルPMの修正前の表面PMaに対して、厚みDを有する造形物に相当する3次元モデルである切代モデルCMを付加する。その後、図30(c)に示すように、制御装置7は、切代モデルCMのワークモデルWMを向いた表面CMaが、ワークモデルWMの表面WMaの形状と相補な関係になるように、切代モデルCMを部分的にカットする。その結果、部分的にカットされた切代モデルCMと加工モデルPMとを含む3次元モデルが、新たな(つまり、修正後)加工モデルPMとして用いられる。従って、制御装置7は、修正後の加工情報が、部分的にカットされた切代モデルCMと修正前の加工モデルPMとを含む3次元モデル(つまり、修正後の加工モデルPM)の位置及び形状に関する情報を含むように、加工情報(特に、加工形状情報)を修正してもよい。
 図29に示すように加工情報を修正する方法の他の例が、図31(a)から図31(c)に示されている。図31(a)から図31(c)のそれぞれは、加工情報を修正する方法の他の例を、ワークモデルWM及び加工モデルPMと共に概念的に示す断面図である。この場合、制御装置7は、図31(a)に示すように、加工モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間がなくなるまで加工モデルPMとワークモデルWMとを近づける。その後、制御装置7は、加工モデルPMとワークモデルWMとの重複部分の厚み(つまり、ワークモデルWMに対する加工モデルPMの食い込み量)Dを算出する。その後、図31(b)に示すように、制御装置7は、加工モデルPMのうちワークモデルWMと重複している部分をカットする。更に、制御装置7は、加工モデルPMのうち厚みDを有する下端部分以外の部分をカットする。その結果、加工モデルPMのうち厚みDを有する下端部分であって且つワークモデルWMと重複してない部分が、補修モデルRMとして残存する。補修モデルRMのワークモデルWMを向いた表面RMaの形状は、ワークモデルWMの表面WMaの形状と相補な関係にある。この補修モデルRMは、加工モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間を埋めるための造形物の3次元モデルと等価とみなせる。その後、図31(c)に示すように、加工モデルPMの下端に対して補修モデルRMを付加する。その結果、補修モデルRMと加工モデルPMとを含む3次元モデルが、新たな(つまり、修正後の))加工モデルPMとして用いられる。従って、制御装置7は、修正後の加工情報が、補修モデルRMと修正前の加工モデルPMとを含む3次元モデル(つまり、修正後の加工モデルPM)の位置及び形状に関する情報を含むように、加工情報(特に、加工形状情報)を修正してもよい。
 尚、加工情報の修正に関して、ワークW上に造形される3次元構造物STを、ワークWから切り取るための切り代についてのモデルを加工モデルPMに付加してもよい。
 (2-4)加工動作
 続いて、加工動作について説明する。加工動作は、ワークW上に実際に3次元構造物STを形成するための動作である。
 上述したように、加工システムSYSは、レーザ肉盛溶接法により3次元構造物STを形成する。このため、加工システムSYSは、レーザ肉盛溶接法に準拠した既存の加工動作(この場合、造形動作)を行うことで、3次元構造物STを形成してもよい。以下、レーザ肉盛溶接法を用いて3次元構造物STを形成する加工動作の一例について簡単に説明する。
 加工システムSYSは、上述したワークモデルアライメント動作によって位置及び形状が特定されるワークW上に、上述した加工モデルアライメント動作によって位置及び形状が特定される3次元構造物STを形成する。つまり、加工システムSYSは、上述したワークモデルアライメント動作によって生成されるワーク情報及び上述した加工モデルアライメント動作によって生成される加工情報に基づいて、ワークW上の所望位置に所望形状の3次元構造物STを形成する。
 加工システムSYSは、3次元構造物STを形成するために、例えば、Z軸方向に沿って並ぶ複数の層状の部分構造物(以下、“構造層”と称する)SLを順に形成していく。例えば、加工システムSYSは、3次元構造物STをZ軸方向に沿って輪切りにすることで得られる複数の構造層SLを1層ずつ順に形成していく。その結果、複数の構造層SLが積層された積層構造体である3次元構造物STが形成される。以下、複数の構造層SLを1層ずつ順に形成していくことで3次元構造物STを形成する動作の流れについて説明する。
 まず、各構造層SLを形成する動作について図32(a)から図32(e)を参照して説明する。加工システムSYSは、制御装置7の制御下で、ワークWの表面又は形成済みの構造層SLの表面に相当する造形面MS上の所望領域に照射領域EAを設定し、当該照射領域EAに対して照射光学系211から加工光ELを照射する。尚、照射光学系211から照射される加工光ELが造形面MS上に占める領域を照射領域EAと称してもよい。本実施形態においては、加工光ELのフォーカス位置(つまり、集光位置)が造形面MSに一致している。その結果、図32(a)に示すように、照射光学系211から射出された加工光ELによって造形面MS上の所望領域に溶融池(つまり、加工光ELによって溶融した金属のプール)MPが形成される。更に、加工システムSYSは、制御装置7の制御下で、造形面MS上の所望領域に供給領域MAを設定し、当該供給領域MAに対して材料ノズル212から造形材料Mを供給する。ここで、上述したように照射領域EAと供給領域MAとが一致しているため、供給領域MAは、溶融池MPが形成された領域に設定されている。このため、加工システムSYSは、図32(b)に示すように、溶融池MPに対して、材料ノズル212から造形材料Mを供給する。その結果、溶融池MPに供給された造形材料Mが溶融する。加工ヘッド21の移動に伴って溶融池MPに加工光ELが照射されなくなると、溶融池MPにおいて溶融した造形材料Mは、冷却されて再度固化(つまり、凝固)する。その結果、図32(c)に示すように、固化した造形材料Mが造形面MS上に堆積される。つまり、固化した造形材料Mの堆積物による造形物が形成される。
 このような加工光ELの照射による溶融池MPの形成、溶融池MPへの造形材料Mの供給、供給された造形材料Mの溶融及び溶融した造形材料Mの固化を含む一連の造形処理が、図32(d)に示すように、造形面MSに対して加工ヘッド21をXY平面に沿って相対的に移動させながら繰り返される。つまり、造形面MSに対して加工ヘッド21が相対的に移動すると、造形面MSに対して照射領域EAもまた相対的に移動する。従って、一連の造形処理が、造形面MSに対して照射領域EAをXY平面に沿って(つまり、二次元平面内において)相対的に移動させながら繰り返される。この際、加工光ELは、造形面MS上において造形物を形成したい領域に設定された照射領域EAに対して選択的に照射される一方で、造形面MS上において造形物を形成したくない領域に設定された照射領域EAに対して選択的に照射されない(造形物を形成したくない領域には照射領域EAが設定されないとも言える)。つまり、加工システムSYSは、造形面MS上を所定の移動軌跡に沿って照射領域EAを移動させながら、造形物を形成したい領域の分布の態様に応じたタイミングで加工光ELを造形面MSに照射する。尚、造形物を形成したい領域の分布の態様を分布パターンとも構造層SLのパターンとも称してもよい。その結果、溶融池MPもまた、照射領域EAの移動軌跡に応じた移動軌跡に沿って造形面MS上を移動することになる。具体的には、溶融池MPは、造形面MS上において、照射領域EAの移動軌跡に沿った領域のうち加工光ELが照射された部分に順次形成される。更に、上述したように照射領域EAと供給領域MAとが一致しているため、供給領域MAもまた、照射領域EAの移動軌跡に応じた移動軌跡に沿って造形面MS上を移動することになる。その結果、図32(e)に示すように、造形面MS上に、凝固した造形材料Mによる造形物の集合体に相当する構造層SLが形成される。つまり、溶融池MPの移動軌跡に応じたパターンで造形面MS上に形成された造形物の集合体に相当する構造層SL(つまり、平面視において、溶融池MPの移動軌跡に応じた形状を有する構造層SL)が形成される。なお、造形物を形成したくない領域に照射領域EAが設定されている場合、加工光ELを照射領域EAに照射するとともに、造形材料Mの供給を停止してもよい。また、造形物を形成したくない領域に照射領域EAが設定されている場合に、造形材料Mを照射領域ELに供給するとともに、溶融池MPができない強度の加工光ELを照射領域ELに照射してもよい。尚、上述した説明では、造形面MSに対して照射領域EAを移動させたが、照射領域EAに対して造形面MSを移動させてもよい。
 加工システムSYSは、このような構造層SLを形成するための動作を、制御装置7の制御下で、加工情報(つまり、加工モデルPMに関する情報)に基づいて繰り返し行う。具体的には、まず、加工情報が示す加工モデルPMを積層ピッチでスライス処理してスライスデータを作成する。尚、加工システムSYSの特性に応じてこのスライスデータを一部修正したデータを用いてもよい。加工システムSYSは、ワークWの表面に相当する造形面MS上に1層目の構造層SL#1を形成するための動作を、構造層SL#1に対応する3次元モデルデータ、即ち構造層SL#1に対応するスライスデータに基づいて行う。例えば、加工システムSYSは、構造層SL#1に対応するスライスデータのうち構造層SL#1が存在する領域を通過する、照射領域EA(供給領域MA)の軌跡であるツールパスに関する情報を用いて動作されてもよい。その結果、造形面MS上には、図33(a)に示すように、構造層SL#1が形成される。その後、加工システムSYSは、構造層SL#1の表面(つまり、上面)を新たな造形面MSに設定した上で、当該新たな造形面MS上に2層目の構造層SL#2を形成する。構造層SL#2を形成するために、制御装置7は、まず、加工ヘッド21がZ軸に沿って移動するようにヘッド駆動系22を制御する。具体的には、制御装置7は、ヘッド駆動系22を制御して、照射領域EA及び供給領域MAが構造層SL#1の表面(つまり、新たな造形面MS)に設定されるように、+Z側に向かって加工ヘッド21を移動させる。これにより、加工光ELのフォーカス位置が新たな造形面MSに一致する。その後、加工システムSYSは、制御装置7の制御下で、構造層SL#1を形成する動作と同様の動作で、構造層SL#2に対応するスライスデータに基づいて、構造層SL#1上に構造層SL#2を形成する。その結果、図33(b)に示すように、構造層SL#2が形成される。以降、同様の動作が、ワークW上に形成するべき3次元構造物STを構成する全ての構造層SLが形成されるまで繰り返される。その結果、図33(c)に示すように、複数の構造層SLが積層された積層構造物によって、3次元構造物STが形成される。
 (3)加工システムSYSの技術的効果
 以上説明したように、本実施形態の加工システムSYSによれば、ワークWに対して適切に付加加工を行うことができる。
 加工システムSYSは、ワークモデルアライメント動作によってワーク情報を生成すると共に、生成したワーク情報に基づいて位置及び形状が特定されるワークW上に3次元構造物STを形成することができる。このため、加工システムSYSは、ワーク情報を用いない場合と比較して、ワークW上に3次元構造物STを適切に形成することができる。また、ワーク情報は、主として加工システムSYSによって生成されるがゆえに、ワーク情報をユーザ自身が生成する場合と比較して、ユーザの負荷が低減される。
 加工システムSYSは、加工モデルアライメント動作によって加工位置情報を生成すると共に、生成した加工位置情報に基づいて位置が特定される3次元構造物STをワークW上に形成することができる。このため、加工システムSYSは、加工位置情報を用いない場合と比較して、ワークW上に3次元構造物STを適切に形成することができる。また、加工位置情報は、主として加工システムSYSによって生成されるがゆえに、加工位置情報をユーザ自身が生成する場合と比較して、ユーザの負荷が低減される。
 (4)変形例
 (4-1)ステージ駆動系32に関する変形例
 加工システムSYSのシステム構成の他の例を示す図34に示すように、ステージ装置3は、ステージ31を移動させるためステージ駆動系32を備えていてもよい。ステージ駆動系32は、例えば、チャンバ空間63IN内でステージ31を移動させてもよい。ステージ駆動系32は、X軸、Y軸及びZ軸の少なくとも一つに沿ってステージ31を移動させてもよい。ステージ31がX軸及びY軸の少なくとも一方に沿って移動すると、照射領域EA及び供給領域MAのそれぞれは、ワークW上をX軸及びY軸の少なくとも一方に沿って移動する。更に、ステージ駆動系32は、X軸、Y軸及びZ軸の少なくとも一つに加えて、θX方向、θY方向及びθZ方向の少なくとも一つに沿ってステージ31を移動させてもよい。ステージ駆動系32は、例えば、モータ等を含む。
 加工システムSYSがステージ駆動系32を備える場合には、ステージ装置3は更に、位置計測装置33を備えていてもよい。位置計測装置33は、ステージ31の位置を計測可能である。位置計測装置33は、例えば、エンコーダ及びレーザ干渉計のうちの少なくとも一方を含んでいてもよい。
 加工システムSYSがステージ駆動系32を備える場合には、加工装置2は、ヘッド駆動系22を備えてなくてもよい。但し、加工システムSYSがステージ駆動系32を備える場合であっても、加工装置2は、ヘッド駆動系22を備えていてもよい。加工装置2がヘッド駆動系22を備えていない場合には、加工装置2は、位置計測装置23を備えていなくてもよい。
 加工システムSYSがステージ駆動系32を備えている場合には、上述した加工座標系とステージ座標系とを関連付けるための座標マッチング動作の流れを示す上述した図4のステップS112において、ステージ駆動系32は、ビーム検出器325(開口324)に向けて加工光ELが照射されるようにステージ31を移動させてもよい。更に、図4のステップS113において、制御装置7は、制御装置7にとって既知の情報であるステージ座標系内でのピン312の位置を、ステージ31の移動量に応じて補正した上で、ピン312に加工光ELを照射可能な状態にある加工ヘッド21の加工座標系内での位置と、ステージ座標系内でのピン312が形成されている位置とが互いに関連付けられるべき位置であると特定してもよい。但し、加工システムSYSがヘッド駆動系22を備えていない(つまり、加工ヘッド21が移動しない)場合には、加工座標系が用いられなくてもよく、この場合には、加工座標系とステージ座標系とを関連付けるための座標マッチング動作の流れを示す上述した図4のステップS111からステップS113の処理が行われなくてもよい。
 加工システムSYSがステージ駆動系32を備えている場合には、上述した計測座標系とステージ座標系とを関連付けるための座標マッチング動作の流れを示す上述した図4のステップS115において、位置計測装置33は、計測装置8が基準部材34を計測しているときのステージ31の位置を計測してもよい。更に、図4のステップS116において、制御装置7は、ステップS115における計測装置8の計測結果と、ステップS115で計測装置8が基準部材34を計測しているときのステージ31の位置の計測結果とに基づいて、計測座標系とステージ座標系とを関連付けてもよい。具体的には、制御装置7は、計測装置8の計測結果から、計測座標系における基準マーク343の位置を特定することができる。更に、上述したように、基準マーク343と貫通孔322との間の位置関係(つまり、基準マーク343とピン312との間の位置関係)に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系における基準マーク343の位置に関する情報と、基準マーク343と貫通孔322との間の位置関係に関する情報とに基づいて、計測座標系内における貫通孔322及びピン312の位置を特定可能である。更に、上述したように、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。その結果、制御装置7は、計測座標系内におけるピン312の位置と、ステージ座標系内でのピン312の位置とが互いに関連付けられるべき位置であると特定することができる。但し、ステージ31がステージ駆動系32によって移動した場合には、ステージ座標系内でのピン312の位置は、ステージ駆動系32によるステージ31の移動量だけ補正される。この場合、制御装置7は、計測座標系内におけるピン312の位置と、ステージ座標系内でのピン312の補正後の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、計測座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、計測座標系とステージ座標系とを関連付けることができる。
 加工システムSYSがステージ駆動系32を備えている場合には、上述した第3のワークモデルアライメント動作の流れを示す上述した図17のステップS144において、ステージ駆動系32は、図17のステップS143で指定されたユーザ指定点と加工装置2とが所望の第3位置関係を有するという位置条件が満たされるように、ステージ31を移動させてもよい。更に、図17のステップS145において、ユーザ指定点と加工装置2とが所望の第3位置関係を有するという位置条件が満たされるようにステージ31が移動した後、位置計測装置33は、位置条件が満たされた時点でのステージ31の位置を計測してもよい。更に、図17のステップS148において、制御装置7は、図17のステップS145における位置計測装置23及び/又は33の計測結果と、ステップS142で取得されたワークモデルデータとに基づいて、ワーク情報を生成してもよい。具体的には、ステップS145における位置計測装置23及び/又は33の計測結果は、ユーザ指定点と加工装置2とが所望の第3位置関係を有するときの加工ヘッド21及び/又はステージ31の位置を示している。このため、制御装置7は、位置計測装置23及び/又は33の計測結果から、加工座標系におけるユーザ指定点の位置及び/又はステージ座標系におけるユーザ指定点の位置を特定することができる。なぜならば、ユーザ指定点と加工装置2とが所望の第3位置関係を有しているがゆえに、ユーザ指定点と加工ヘッド21及び/又はワークWが載置されているステージ31も当然に、制御装置7にとって既知の情報である第3位置関係に関する情報から特定可能な一定の位置関係を有しているからである。その後、制御装置7は、ワークモデルWMのうちのユーザ指定点に対応する点であるワークモデル指定点を、位置計測装置23及び/又は33の計測結果から特定したユーザ指定点の位置に配置するための位置合わせ処理を行ってもよい。その後、制御装置7は、位置合わせ処理の結果に基づいて、ワーク情報を生成してもよい。
 (4-2)座標マッチング動作に関する変形例
 上述した説明では、座標マッチング動作を行うために、ビーム検出部材32が載置面311に載置される。しかしながら、ビーム検出部材32(特に、遮光部材323及びビーム検出器325)がステージ31(例えば、載置面311)に形成されていてもよい。同様に、上述した説明では、座標マッチング動作を行うために、基準部材34が載置面311に載置される。しかしながら、基準部材34(特に、基準マーク343)がステージ31(例えば、載置面311)に形成されていてもよい。
 上述した説明では、ビーム検出部材32を載置面311に載置する際の位置合わせ用の目印として、ピン312及び貫通孔322が用いられている。しかしながら、ピン312及び貫通孔322は位置合わせ用の目印の一例に過ぎず、ピン312及び貫通孔322とは異なる目印が用いられてもよい。例えば、目印の一例である凸状の構造物が載置面311に形成されており、目印の一例である凹状の構造物がビーム検出部材32に形成されており、凸状の構造物が凹状の構造物にはめ込まれるようにビーム検出部材32が載置面311に載置されることで、ビーム検出部材32と載置面311とが位置合わせされてもよい。例えば、目印の一例である凹状の構造物が載置面311に形成されており、目印の一例である凸状の構造物がビーム検出部材32に形成されており、凸状の構造物が凹状の構造物にはめ込まれるようにビーム検出部材32が載置面311に載置されることで、ビーム検出部材32と載置面311とが位置合わせされてもよい。例えば、ビーム検出部材32の外縁の少なくとも一部に沿った形状を有するガイド部材が目印として載置面311に形成されており、当該ガイド部材にビーム検出部材32の外縁が接触するようにビーム検出部材32が載置面311に載置されることで、ビーム検出部材32と載置面311とが位置合わせされてもよい。基準部材34を載置面311に載置する際の位置合わせ用の目印についても同様である。
 上述した説明では、計測座標系とステージ座標系とを関連付けるために、加工座標系とステージ座標系とを関連付けるためのビーム検出部材32とは異なる基準部材34が用いられている。しかしながら、ビーム検出部材32が、計測座標系とステージ座標系とを関連付けるための基準部材34として用いられてもよい。この場合、例えば、ビーム検出部材32に形成された遮光部材323、開口324及びビーム検出器325の少なくとも一つが基準マーク343として用いられてもよい。或いは、ビーム検出部材32のベース部材321に、基準マーク343が形成されていてもよい。
 上述した説明では、基準部材34には、計測装置8によって計測可能なマークが、基準マーク343として形成されている。しかしながら、計測装置8が計測対象物の形状(特に、3次元形状)を計測可能であることを考慮すれば、基準部材34には、基準部材34の他の例を示す断面図である図35(a)及び図35(a)におけるA-A’断面図である図35(b)に示すように、3次元構造を有する立体部材344が、基準マーク343の代替物として形成されていてもよい。例えば、図35(a)及び図35(b)は、球体の少なくとも一部(具体的には、半球)が立体部材344として基準部材34に形成されている例を示している。立体部材344は、3次元構造を有するという点を除いて、基準マーク343と同様の特徴を有していてもよい。その結果、立体部材344が形成されている場合であっても、計測座標系とステージ座標系とが適切に関連付けられる。
 上述した説明では、座標マッチング動作を行うために、ビーム検出部材32が載置面311に載置される。また、上述した説明では、座標マッチング動作を行うために、基準部材34が載置面311に載置される。しかしながら、ビーム検出部材32又は基準部材34を用いずに、座標マッチング動作を行ってもよい。例えば、ステージ31(例えば、載置面311)に、感光性材料或いは感熱性材料が表面に設けられた感光/感熱部材(一例として感熱紙)を配置し、加工座標系(ヘッド座標系)の原点位置に加工ヘッド21を位置させた状態で加工装置2によって感光/感熱部材に向けて加工光ELを照射する。これにより、感光/感熱部材上には目印が露光され、この目印が加工光基準原点となる。次に、複数のガイド光射出装置24から射出される複数のガイド光GLの交差位置を、感光/感熱部材上の露光された目印の位置に一致させる。これにより、加工座標系と計測座標系とを互いに関連付けることができる。尚、複数のガイド光GLを用いることの代わりに/に加えて、計測装置8を用いて露光された目印の位置を計測してもよい。
 (4-3)その他の変形例
 上述した説明では、加工装置2は、造形材料Mに加工光ELを照射することで、造形材料Mを溶融させている。しかしながら、加工装置2は、任意のエネルギビームを造形材料Mに照射することで、造形材料Mを溶融させてもよい。この場合、加工装置2は、照射光学系211に加えて又は代えて、任意のエネルギビームを照射可能なビーム照射装置を備えていてもよい。任意のエネルギビームは、限定されないが、電子ビーム、イオンビーム等の荷電粒子ビーム又は電磁波を含む。
 上述した説明では、加工システムSYSは、レーザ肉盛溶接法により3次元構造物STを形成可能である。しかしながら、加工システムSYSは、造形材料Mに加工光EL(或いは、任意のエネルギビーム)を照射することで3次元構造物STを形成可能なその他の方式により造形材料Mから3次元構造物STを形成してもよい。その他の方式として、例えば、粉末焼結積層造形法(SLS:Selective Laser Sintering)等の粉末床溶融結合法(Powder Bed Fusion)、結合材噴射法(Binder Jetting)又は、レーザメタルフュージョン法(LMF:Laser Metal Fusion)があげられる。或いは、加工システムSYSは、造形材料Mに加工光EL(或いは、任意のエネルギビーム)を照射することで3次元構造物STを形成可能な方式とは異なる、付加加工のための任意の方式により3次元構造物STを形成してもよい。
 上述した説明では、加工システムSYSは、照射光学系211が加工光ELを照射する照射領域EAに向けて材料ノズル212から造形材料Mを供給することで、3次元構造物STを形成している。しかしながら、加工システムSYSは、照射光学系211から加工光ELを照射することなく、材料ノズル212から造形材料Mを供給することで3次元構造物STを形成してもよい。例えば、加工システムSYSは、材料ノズル212から、造形面MSに対して造形材料Mを吹き付けることで、造形面MSにおいて造形材料Mを溶融させると共に、溶融した造形材料Mを固化させることで、3次元構造物STを形成してもよい。例えば、加工システムSYSは、材料ノズル212から造形面MSに対して造形材料Mを含む気体を超高速で吹き付けることで、造形面MSにおいて造形材料Mを溶融させると共に、溶融した造形材料Mを固化させることで、3次元構造物STを形成してもよい。例えば、加工システムSYSは、材料ノズル212から造形面MSに対して加熱した造形材料Mを吹き付けることで、造形面MSにおいて造形材料Mを溶融させると共に、溶融した造形材料Mを固化させることで、3次元構造物STを形成してもよい。このように照射光学系211から加工光ELを照射することなく3次元構造物STを形成する場合には、加工システムSYS(特に、加工ヘッド21)は、照射光学系211を備えていなくてもよい。
 或いは、加工システムSYSは、付加加工に加えて又は代えて、ワークW等の物体に加工光EL(或いは、任意のエネルギビーム)を照射して物体の少なくとも一部を除去可能な除去加工を行ってもよい。或いは、加工システムSYSは、付加加工及び除去加工の少なくとも一方に加えて又は代えて、ワークW等の物体に加工光EL(或いは、任意のエネルギビーム)を照射して物体の少なくとも一部にマーク(例えば、文字、数字又は図形)を形成可能なマーキング加工を行ってもよい。この場合であっても、上述した効果が享受可能である。
 (5)付記
 以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
 物体が載置される載置面を含む載置装置と、
 前記載置面上での前記物体の位置に関する物体位置情報と前記物体の形状に関する物体形状情報とが対応する物体情報を生成する情報生成装置と
 前記物体情報に基づいて、前記物体を加工する加工装置と、
 を備える加工システム。
[付記2]
 前記物体情報は、前記加工システムの基準座標系における前記物体の位置に関する前記物体位置情報と前記物体形状情報とが対応する情報である
 付記1に記載の加工システム。
[付記3]
 前記基準座標系は、前記載置面上での位置を示すための載置位置座標系を含む
 付記2に記載の加工システム。
[付記4]
 前記載置面上での前記物体の状態を計測する物体計測装置を更に備える
 付記1から3のいずれか一項に記載の加工システム。
[付記5]
 前記情報生成装置は、前記物体計測装置の計測結果に基づいて、前記物体位置情報を生成する
 付記4に記載の加工システム。
[付記6]
 前記物体計測装置は、前記物体計測装置の計測範囲内での位置を示すための計測位置座標系内での前記物体の位置を計測し、
 前記情報生成装置は、前記物体計測装置の計測結果に基づいて、前記計測位置座標系内での前記物体の位置から、前記加工システムの基準座標系における前記物体の位置を算出することで、前記載置位置座標系における前記物体の位置に関する前記物体位置情報を生成する
 付記5に記載の加工システム。
[付記7]
 前記基準座標系は、前記載置面上での位置を示すための載置位置座標系を含む
 付記6に記載の加工システム。
[付記8]
 前記情報生成装置は、前記物体計測装置の計測結果に基づいて、前記物体形状情報を生成する
 付記4から7のいずれか一項に記載の加工システム。
[付記9]
 前記情報生成装置は、前記物体計測装置の計測結果に基づいて、前記物体情報を生成する
 付記4から8のいずれか一項に記載の加工システム。
[付記10]
 前記物体の状態は、前記物体の3次元形状を含む
 付記4から9のいずれか一項に記載の加工システム。
[付記11]
 前記物体計測装置は、3Dスキャナを含む
 付記4から10のいずれか一項に記載の加工システム。
[付記12]
 前記物体計測装置は、前記物体に対して所定の投影パターンを投影する投影装置と、前記投影パターンが投影された前記物体を撮像する撮像装置とを含む
 付記4から11のいずれか一項に記載の加工システム。
[付記13]
 前記物体計測装置は、前記撮像装置を複数含む
 付記12に記載の加工システム。
[付記14]
 前記物体計測装置は、前記物体が収容される空間から隔壁部材によって隔離された空間に配置される
 付記4から13のいずれか一項に記載の加工システム。
[付記15]
 前記情報生成装置は、前記物体計測装置の計測結果に基づいて、前記物体位置情報を生成し、前記物体の形状に対応するモデルデータから前記物体形状情報を取得し、前記取得した物体形状情報と前記生成した物体位置情報とを対応付けることで前記物体情報を生成する
 付記4から14のいずれか一項に記載の加工システム。
[付記16]
 前記情報生成装置は、複数の異なる形状に対応する複数の前記モデルデータから前記物体の形状に対応する一のモデルデータを選択し、前記一のモデルデータから前記物体形状情報を取得する
 付記15に記載の加工システム。
[付記17]
 前記情報生成装置は、前記モデルデータから前記物体形状情報として用いられる第1の物体形状情報を取得し、
 前記情報生成装置は、前記物体計測装置の計測結果に基づいて、前記第1の物体形状情報よりも低い精度で前記物体の形状を示す第2の物体形状情報と前記物体位置情報とが対応する暫定物体情報を生成し、
 前記情報生成装置は、前記第1の物体形状情報と前記第2の物体形状情報とをパターンマッチングすることで、前記第1の物体形状情報が示す前記物体の一の部分の形状に関する情報と、前記物体位置情報が示す前記一の部分の位置に関する情報とが対応する前記物体情報を生成する
 付記15又は16に記載の加工システム。
[付記18]
 前記載置装置に対して前記加工装置を移動させて前記物体と前記加工装置との相対位置を変更する加工位置変更装置と、
 前記加工装置の位置を計測する加工位置計測装置と
 を更に備え、
 前記情報生成装置は、前記加工位置計測装置の計測結果に基づいて前記物体位置情報を生成する
 付記1から17のいずれか一項に記載の加工システム。
[付記19]
 前記加工位置計測装置は、前記物体のうち少なくとも一つの対象部分が前記加工装置に対して所定の位置関係を有する場合の前記加工装置の位置を計測する
 付記18に記載の加工システム。
[付記20]
 前記加工位置計測装置は、少なくとも二つの前記対象部分のそれぞれが前記加工装置に対して所定の位置関係を有する場合の前記加工装置の位置を計測する
 付記19に記載の加工システム。
[付記21]
 前記加工位置計測装置は、少なくとも四つの前記対象部分のそれぞれが前記加工装置に対して所定の位置関係を有する場合の前記加工装置の位置を計測する
 付記19又は20に記載の加工システム。
[付記22]
 前記加工装置は、前記加工装置と前記物体との位置合わせを行うためのガイド光を射出する射出装置を含む
 付記19から21のいずれか一項に記載の加工システム。
[付記23]
 前記物体の表面上での前記ガイド光の状態を観察する観察装置を更に備え、
 前記加工位置変更装置は、前記観察装置の観察結果に基づいて、前記対象部分が前記加工装置に対して前記所定の位置関係を有するように、前記相対位置を変更する
 付記22に記載の加工システム。
[付記24]
 前記加工装置に対して前記載置装置を移動させて前記物体と前記加工装置との相対位置を変更する載置位置変更装置と、
 前記載置装置の位置を計測する載置位置計測装置と
 を更に備え、
 前記情報生成装置は、前記載置位置計測装置の計測結果に基づいて前記物体位置情報を生成する
 付記1から23のいずれか一項に記載の加工システム。
[付記25]
 前記載置位置計測装置は、前記物体のうち少なくとも一つの対象部分が前記加工装置に対して所定の位置関係を有する場合の前記載置装置の位置を計測する
 付記24に記載の加工システム。
[付記26]
 前記載置位置計測装置は、少なくとも二つの前記対象部分のそれぞれが前記加工装置に対して所定の位置関係を有する場合の前記載置装置の位置を計測する
 付記25に記載の加工システム。
[付記27]
 前記載置位置計測装置は、少なくとも四つの前記対象部分のそれぞれが前記加工装置に対して所定の位置関係を有する場合の前記載置装置の位置を計測する
 付記25又は26に記載の加工システム。
[付記28]
 前記加工装置は、前記加工装置と前記物体との位置合わせを行うためのガイド光を射出する射出装置を含む
 付記25から27のいずれか一項に記載の加工システム。
[付記29]
 前記物体の表面上での前記ガイド光の状態を観察する観察装置を更に備え、
 前記載置位置変更装置は、前記観察装置の観察結果に基づいて、前記対象部分が前記加工装置に対して前記所定の位置関係を有するように、前記相対位置を変更する
 付記28に記載の加工システム。
[付記30]
 前記対象部分が前記加工装置に対して前記所定の位置関係を有する状態は、前記対象部分に前記ガイド光が照射される状態を含む
 付記22から23及び28から29のいずれか一項に記載の加工システム。
[付記31]
 前記加工装置は、前記射出装置を複数含む
 付記22から23及び28から29のいずれか一項に記載の加工システム。
[付記32]
 前記対象部分が前記加工装置に対して前記所定の位置関係を有する状態は、前記複数の射出装置がそれぞれ射出する複数の前記ガイド光の交点に前記対象部分が位置する状態を含む
 付記31に記載の加工システム。
[付記33]
 前記対象部分は、ユーザによって指定される
 付記19から23及び25から32のいずれか一項に記載の加工システム。
[付記34]
 前記情報生成装置は、前記加工装置の位置を示すための加工位置座標系と前記載置面上での位置を示すための載置位置座標系とを関連付ける
 付記1から33のいずれか一項に記載の加工システム。
[付記35]
 前記情報生成装置は、前記加工位置座標系と前記載置位置座標系とを関連付けた後に前記物体情報を生成する
 付記34に記載の加工システム。
[付記36]
 前記加工装置は、エネルギビームを照射して前記物体を加工し、
 前記加工装置は、前記載置面上の載置基準位置に対して位置合わせされたビーム検出装置に対して前記エネルギビームを照射し、
 前記情報生成装置は、前記ビーム検出装置の検出結果と、前記載置基準位置と、前記ビーム検出装置に対して前記エネルギビームを照射したときの前記加工装置の位置及び前記載置装置の位置の少なくとも一方に関する情報とに基づいて、前記加工位置座標系と前記載置位置座標系とを関連付ける
 付記34又は35に記載の加工システム。
[付記37]
 前記ビーム検出装置は、前記エネルギビームの少なくとも一部が通過可能な開口が形成された開口部材と、前記開口を介して通過してきた前記エネルギビームの少なくとも一部を検出する検出素子とを備える
 付記36に記載の加工システム。
[付記38]
 前記ビーム検出装置は、前記載置面に載置される
 付記36又は37に記載の加工システム。
[付記39]
 前記ビーム検出装置の少なくとも一部は、前記載置面と一体化されている
 付記36又は37に記載の加工システム。
[付記40]
 前記加工装置が前記ビーム検出装置に対して前記エネルギビームを照射することができるように、前記加工装置と前記載置装置との相対位置を変更する位置変更装置を更に備える
 付記36から39のいずれか一項に記載の加工システム。
[付記41]
 前記載置面上での前記物体の状態を計測する物体計測装置を更に備え、
 前記情報生成装置は、前記物体計測装置の計測範囲内での位置を示すための計測位置座標系と前記載置面上での位置を示すための位置座標系とを関連付ける
 付記1から40のいずれか一項に記載の加工システム。
[付記42]
 前記情報生成装置は、前記計測位置座標系と前記載置位置座標系とを関連付けた後に前記物体情報を生成する
 付記41に記載の加工システム。
[付記43]
 前記物体計測装置は、前記載置面上の載置基準位置に対して位置合わせされた基準部材の状態を計測し、
 前記情報生成装置は、前記物体計測装置による前記基準部材の計測結果と、前記載置基準位置とに基づいて、前記計測位置座標系と前記載置位置座標系とを関連付ける
 付記41又は42に記載の加工システム。
[付記44]
 前記基準部材は、前記物体計測装置が計測可能な基準マークが形成されている部材を含む
 付記43に記載の加工システム。
[付記45]
 前記基準部材は、3次元構造を有する部材を含む
 付記43又は44に記載の加工システム。
[付記46]
 前記基準部材は、球体の少なくとも一部を含む
 付記43から45のいずれか一項に記載の加工システム。
[付記47]
 前記基準部材は、前記載置面に載置される
 付記43から46のいずれか一項に記載の加工システム。
[付記48]
 前記基準部材の少なくとも一部は、前記載置面と一体化されている
 付記43から46のいずれか一項に記載の加工システム。
[付記49]
 付記1から48のいずれか一項に記載の加工システムを用いて加工対象物を加工する加工方法。
[付記50]
 載置装置の載置面に載置された物体の位置に関する物体位置情報と前記物体の形状に関する物体形状情報とが対応する物体情報を生成することと
 前記物体情報に基づいて、前記物体を加工する加工装置を制御することと
 を含む加工方法。
[付記51]
 載置装置の載置面に載置された物体の位置に関する物体位置情報と前記物体の形状に関する物体形状情報とが対応する物体情報を生成することと
 前記物体情報に基づいて、前記物体を加工する加工装置を制御することと
 を含む加工方法をコンピュータに実行させるコンピュータプログラム。
[付記52]
 付記51に記載のコンピュータプログラムが記録された記録媒体。
[付記53]
 物体が載置される載置面を含む載置装置と、
 前記物体を加工する加工装置と、
 前記載置面上での前記物体の位置に関する物体位置情報と前記物体の形状に関する物体形状情報とが対応する物体情報に基づいて前記物体を加工するように前記加工装置を制御する制御信号を受信する受信装置と
 を備える加工システム。
[付記54]
 物体が載置される載置面を含む載置装置と、前記物体を加工する加工装置とを備える加工システムを制御する制御装置であって、
 前記載置面上での前記物体の位置に関する物体位置情報と前記物体の形状に関する物体形状情報とが対応する物体情報を生成し、前記物体情報に基づいて前記物体を加工するように前記加工装置を制御する
 制御装置。
[付記55]
 物体上に造形物を造形する造形方法において、
 前記物体に関する画像を表示することと、
 表示された前記画像を用いて指定された造形基準位置に基づいて前記物体に造形物を造形することと
 を含む造形方法。
[付記56]
 物体上に造形物を造形する造形方法において、
 前記物体に関する画像と、前記物体の前記画像と関連付けられて表示される造形基準位置とを表示することと、
 前記物体上での前記造形基準位置を指定するための情報を入力することと、
 入力された前記造形基準位置に関する情報を用いて、前記物体に造形物を造形することと
 を含む造形方法。
[付記57]
 物体上に造形物を造形する造形システムにおいて、
 前記物体を載置する載置装置と、
 前記載置装置に載置された前記物体に関する画像を表示する表示装置に表示された前記画像を用いて指定された造形基準位置に基づいて前記物体に造形物を造形する造形装置と
 を備える造形システム。
[付記58]
 物体上に造形物を造形する造形システムにおいて、
 前記物体に関する画像と前記物体の前記画像と関連付けられて表示される造形基準位置とを表示する表示装置に信号を出力する出力装置と、
 前記物体上での前記造形基準位置を指定するための情報が入力される入力装置と、
 入力された前記造形基準位置に関する情報を用いて、前記物体に造形物を造形する造形装置と
 を備える造形システム。
[付記59]
 物体上に造形物を造形する造形システムにおいて、
 前記物体に関する画像と、前記物体の前記画像と関連付けられて表示される造形基準位置とを表示する表示装置と、
 入力装置を用いて入力された前記物体上での前記造形基準位置に関する情報を用いて、前記物体に造形物を造形する造形装置と
 を備える造形システム。
[付記60]
 物体上に造形物を造形する造形システムにおいて、
 前記物体に関する画像と前記物体の前記画像と関連付けられて表示される造形基準位置とを表示する表示装置に信号を出力する出力装置と、
 入力装置を用いて入力された前記造形基準位置に関する情報を用いて、前記物体に造形物を造形する造形装置と
 を備える造形システム。
[付記61]
 物体上に造形物を造形する造形システムと接続される表示装置であって、
 前記物体に関する画像を表示し、
 前記造形システムは、表示された前記画像を用いて指定された造形基準位置に基づいて前記物体に造形物を造形する造形装置を備える
 表示装置。
[付記62]
 物体上に造形物を造形する造形システムに接続される表示装置において、
 前記物体に関する画像と、前記物体の前記画像と関連付けられて表示される造形基準位置とを表示し、
 前記造形システムは、
 前記物体上での前記造形基準位置を指定するための情報が入力される入力装置と、
 入力された前記造形基準位置に関する情報を用いて、前記物体に造形物を造形する造形装置と
 を備える表示装置。
[付記63]
 物体上に造形物を造形する造形システムに接続される入力装置において、
 前記物体上での造形基準位置を指定するための情報が入力され、
 前記造形システムは、
 前記物体に関する画像と、前記物体の前記画像と関連付けられて表示される前記造形基準位置とを表示する表示装置と、
 入力された前記造形基準位置に関する情報を用いて、前記物体に造形物を造形する造形装置と
 を備える入力装置。
[付記64]
 物体上に造形される造形物位置を指定することと、
 載置装置に載置された前記物体の部位についての位置情報と、前記造形物位置に関する情報とを用いて、前記載置装置に載置された前記物体に造形物を造形することと
 を含む造形方法。
[付記65]
 物体を載置装置に載置することと、
 前記載置装置に載置された前記物体の部位についての位置情報を生成することと、
 前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形することと、
 前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づけることと
 を含む造形方法。
[付記66]
 物体を載置装置に載置することと、
 付加加工装置を用いて前記物体に付加加工を行うことと、
 前記載置装置と前記付加加工装置による付加加工位置との相対的な位置関係を変更することと、
 前記付加加工装置に設けられる位置計測装置を用いて、前記載置装置に載置された前記物体の部位の位置を計測することと、
 前記物体上に造形される造形物位置を指定することと、
 前記位置計測装置による計測結果と、前記造形物位置に関する情報とを用いて、前記付加加工装置および前記位置変更装置を制御することと
 を含む造形方法。
[付記67]
 付記64から66のいずれか一項に記載の造形方法をコンピュータに実行させるコンピュータプログラム。
[付記68]
 付記67に記載のコンピュータプログラムが記録された記録媒体。
[付記69]
 載置装置に載置された前記物体の部位についての位置情報と、入力装置を介して指定された物体上に造形される造形物位置に関する情報とを用いて、前記載置装置に載置された前記物体に造形物を造形する造形装置と、
 前記入力装置からの情報を受信する受信装置と
 を備える造形システム。
[付記70]
 物体が載置される載置装置と、
 前記物体上に造形される造形物位置に関する情報と、前記載置装置に載置された前記物体の部位についての位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形する造形装置と、
 前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づける演算装置と
 を備える造形システム。
[付記71]
 物体が載置される載置装置と、
 前記載置装置に載置された前記物体の部位についての位置情報を生成する情報生成装置と、
 前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形する造形装置と、
 前記物体の形状に関する物体形状情報と前記物体の前記位置情報と関連付ける演算装置に、前記物体の形状に関する前記物体形状情報と前記物体の前記位置情報と出力する出力装置と
 を備える造形システム。
[付記72]
 物体が載置される載置装置と、
 前記物体上に造形される造形物位置に関する情報と、前記載置装置に載置された前記物体の部位についての位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形する造形装置と、
 前記物体の形状に関する物体形状情報と前記物体の前記位置情報と関連付ける演算装置に、前記物体の形状に関する前記物体形状情報と前記物体の前記位置情報と出力する出力装置と
 を備える造形システム。
[付記73]
 物体が載置される載置装置と、
 前記物体に付加加工を行う付加加工装置と、
 前記載置装置と前記付加加工装置による付加加工位置との相対的な位置関係を変更する位置変更装置と、
 前記付加加工装置に設けられ、前記載置装置に載置された前記物体の部位の位置を計測する位置計測装置と、
 前記物体上に造形される造形物位置を指定する入力装置と、
 前記位置計測装置による計測結果と、前記造形物位置に関する情報とを、前記付加加工装置および前記位置変更装置を制御する制御装置に出力する出力装置と
 を備える造形システム。
[付記74]
 載置装置に載置された物体に造形物を造形する造形装置に情報を入力する入力装置であって、
 物体上に造形される造形物位置を指定する情報が入力され、
 前期載置装置に載置された前記物体の部位についての位置情報と前記造形物位置に関する情報とを用いて、前記造形装置が前記載置装置に載置された前記物体に造形物を造形するように、前記造形物位置に関する前記情報を前記造形装置に出力する
 入力装置。
[付記75]
 載置装置に載置された物体に造形物を造形する造形装置に接続される情報生成装置であって、
 前記載置装置に載置された前記物体の部位についての位置情報を生成する情報生成部と、
 前記造形装置が前記物体上に造形される造形物位置に関する情報と前記物体の前記位置情報とを用いて前記物体に造形物を造形するように、生成された前記位置情報を前記造形装置に出力する出力部と
 を備え、
 前記造形装置が前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づける演算装置を含む
 情報生成装置。
[付記76]
 物体が載置される載置装置と、前記載置装置に載置された前記物体の部位についての位置情報を生成する情報生成装置と、前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形する造形装置とを備える造形システムに接続される演算装置であって、
 前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づける
 演算装置。
[付記77]
 物体が載置される載置装置と、前記物体に付加加工を行う付加加工装置と、前記載置装置と前記付加加工装置による付加加工位置との相対的な位置関係を変更する位置変更装置と、前記付加加工装置に設けられ、前記載置装置に載置された前記物体の部位の位置を計測する位置計測装置と、前記物体上に造形される造形物位置を指定する入力装置とを備える造形システムを制御する制御装置であって、
 前記位置計測装置による計測結果と、前記造形物位置に関する情報とを用いて、前記付加加工装置および前記位置変更装置を制御する
 制御装置。
[付記78]
 載置装置に載置された物体に造形物を造形する造形装置に接続される入力装置であって、
 前記物体上に造形される造形物位置を、前記載置装置に載置された前記物体の部位についての位置情報と関連づけて指定する指定部と、
 前記指定部からの出力を前記造形装置に出力する出力部と
 を備える入力装置。
[付記79]
 物体に造形物を造形する造形装置を備えた造形システムにおいて、
 物体上に造形される造形物位置に関する情報を受信する第1受信装置と、
 載置装置に載置された前記物体の部位についての位置情報と、前記造形物位置に関する情報とを用いて、前記物体に造形物を造形するように前記造形装置を制御する制御信号を受信する第2受信装置と
 を備える造形システム。
[付記80]
 前記第1受信装置は、前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とが関連づけられた情報を受信する
 付記79に記載の造形システム。
[付記81]
 物体に造形物を造形する造形装置を備えた造形システムであって、物体上に造形される造形物位置を指定する入力装置と、載置装置に載置された前記物体に造形物を造形する造形装置とを備える造形システムを制御するコンピュータに実行させるプログラムコンピュータプログラムであって、
 載置装置に載置された前記物体の部位についての位置情報と、前記造形物位置に関する情報とを用いて、前記載置装置に載置された前記物体に造形物を造形するように前記造形装置を制御する処理を前記コンピュータに実行させるコンピュータプログラム。
[付記82]
 物体に造形物を造形する造形装置を備えた造形システムであって、物体が載置される載置装置と、前記載置装置に載置された前記物体の部位についての位置情報を生成する情報生成装置と、前記載置装置に載置された前記物体に造形物を造形する造形装置とを備える造形システムを制御するコンピュータに実行させるプログラムコンピュータプログラムであって、
 前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形するように前記造形装置を制御する処理と、
 前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づけるように前記情報生成装置を制御する処理と
を前記コンピュータに実行させるプログラムコンピュータプログラム。
[付記83]
 付記81又は82に記載のコンピュータプログラムが記録された記録媒体。
[付記84]
 物体に造形物を造形する造形装置を備えた造形システムであって、物体上に造形される造形物位置を指定する入力装置と、載置装置に載置された前記物体に造形物を造形する造形装置とを備える造形システムを制御する制御装置であって、
 載置装置に載置された前記物体の部位についての位置情報と、前記造形物位置に関する情報とを用いて、前記載置装置に載置された前記物体に造形物を造形するように前記造形装置を制御する処理を行う制御装置。
[付記85]
 物体に造形物を造形する造形装置を備えた造形システムであって、物体が載置される載置装置と、前記載置装置に載置された前記物体の部位についての位置情報を生成する情報生成装置と、前記載置装置に載置された前記物体に造形物を造形する造形装置とを備える造形システムを制御する制御する制御装置であって、
 前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形するように前記造形装置を制御する処理と、
 前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づけるように前記情報生成装置を制御する処理と
を行う制御装置。
[付記86]
 物体上に造形される造形物位置を指定することと、
 載置装置に載置された前記物体の部位についての位置情報と、前記造形物位置に関する情報とを用いて、前記載置装置に載置された前記物体に造形物を造形することと
 を含む造形方法。
[付記87]
 載置装置に載置された物体の部位についての位置情報を生成することと、
 前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記載置装置に載置された前記物体に造形物を造形することと
 を含み、
 前記生成することは、前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づけることを含む
 造形方法。
 上述の各実施形態の構成要件の少なくとも一部は、上述の各実施形態の構成要件の少なくとも他の一部と適宜組み合わせることができる。上述の各実施形態の構成要件のうちの一部が用いられなくてもよい。また、法令で許容される限りにおいて、上述の各実施形態で引用した全ての公開公報及び米国特許の開示を援用して本文の記載の一部とする。
 本発明は、上述した実施例に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う造形システム、造形方法、表示装置、入力装置、加工システム、加工方法、コンピュータプログラム、記録媒体、受信装置及び制御装置もまた本発明の技術的範囲に含まれるものである。
 SYS 加工システム
 1 材料供給装置
 2 加工装置
 21 加工ヘッド
 22 ヘッド駆動系
 24 ガイド光射出装置
 3 ステージ装置
 31 ステージ
 311 載置面
 7 制御装置
 8 計測装置
 81 投影装置
 82 撮像装置
 91 ディスプレイ
 92 入力装置
 W ワーク
 M 造形材料
 SL 構造層
 MS 造形面
 EA 照射領域
 MA 供給領域
 MP 溶融池
 EL 加工光
 DL 計測光
 GL ガイド光
 WM ワークモデル
 PM 加工モデル

Claims (29)

  1.  物体上に造形物を造形する造形システムにおいて、
     前記物体に関する画像を表示する表示装置と、
     前記表示装置に表示された前記画像を用いて指定された指定位置に基づいて前記物体に造形物を造形する造形装置と
     を備える造形システム。
  2.  前記物体上での前記指定位置を指定するための情報が入力される入力装置を備える
     請求項1に記載の造形システム。
  3.  前記入力装置は、前記画像が表示される画面上で前記情報が入力可能である
     請求項2に記載の造形システム。
  4.  前記入力装置は、前記情報が入力されるキーボードを備える
     請求項2又は3に記載の造形システム。
  5.  前記入力装置には、造形物の3Dモデルに関する情報が入力され、
     前記表示装置は、前記3Dモデルと関連付けて前記指定位置を表示する
     請求項2から4のいずれか一項に記載の造形システム。
  6.  前記造形装置は、造形位置に材料を供給する供給装置を備え、
     前記指定位置と前記造形位置との位置関係は所定の関係である
     請求項1から5のいずれか一項に記載の造形システム。
  7.  前記造形装置は、造形位置に材料を供給する供給装置を備え、
     前記指定位置は前記造形位置である
     請求項1から6のいずれか一項に記載の造形システム。
  8.  前記造形装置は、前記造形位置にエネルギビームを照射するビーム照射装置を備える
     請求項6又は7に記載の造形システム。
  9.  前記造形位置にガイド光を照射するガイド光照射装置と、
     前記物体及び前記物体に照射されたガイド光を撮像する撮像装置と
     を更に備える
     請求項6から8のいずれか一項に記載の造形システム。
  10.  前記表示装置は、前記物体の前記画像及び前記物体に照射されたガイド光の画像を表示する
     請求項9に記載の造形システム。
  11.  前記表示装置は、欠損箇所がある物体に関する画像と、前記欠損箇所の画像と関連付けられて表示される前記指定位置とが表示される
     請求項1から10のいずれか一項に記載の造形システム。
  12.  物体上に造形物を造形する造形システムにおいて、
     前記物体に関する画像と、前記物体の前記画像と関連付けられて表示される指定位置とを表示する表示装置と、
     前記物体上での前記指定位置を指定するための情報が入力される入力装置と、
     入力された前記指定位置に関する情報を用いて、前記物体に造形物を造形する造形装置と
     を備える造形システム。
  13.  物体上に造形される造形物位置を指定する入力装置と、
     前記物体の部位についての位置情報と、前記造形物位置に関する情報とを用いて、前記物体に造形物を造形する造形装置と
     を備える造形システム。
  14.  前記物体の前記部位についての前記位置情報を生成する情報生成装置を更に備える
     請求項13に記載の造形システム。
  15.  前記物体の前記位置情報に基づいて、前記物体の画像を表示する表示装置を更に備える
     請求項13又は14に記載の造形システム。
  16.  前記表示装置は、前記表示された前記物体の前記画像と関連付けて前記造形物位置情報を表示する
     請求項15に記載の造形システム。
  17.  前記入力装置は、前記表示された前記物体の前記画像上で、ユーザに前記造形物位置情報を入力させる
     請求項15又は16に記載の造形システム。
  18.  前記物体の前記位置情報は、座標系内での位置情報を含む
     請求項13から17のいずれか一項に記載の造形システム。
  19.  前記造形物位置に関する情報は、前記造形物の前記座標系内での位置に関する情報を含む
     請求項18に記載の造形システム。
  20.  前記造形装置は、入力された前記造形物位置に関する情報に応じた前記物体上の位置に前記造形物を造形する
     請求項13から19のいずれか一項に記載の造形システム。
  21.  前記入力装置には、前記造形物の形状に関する情報が入力される
     請求項13から20のいずれか一項に記載の造形システム。
  22.  前記物体の前記部位についての前記位置情報、前記造形物位置に関する情報及び前記造形物の形状に関する情報を用いて、前記造形物の形状に関する情報を修正して造形物の形状に関する修正情報を出力する情報修正装置を更に備える
     請求項21に記載の造形システム。
  23.  前記造形装置は、前記造形物の形状に関する修正情報を用いて、前記物体に造形物を造形する
     請求項22に記載の造形システム。
  24.  物体を支持する支持装置と、
     前記物体の部位についての位置情報を生成する情報生成装置と、
     前記物体上に造形される造形物位置に関する情報と、前記物体の前記位置情報とを用いて、前記物体に造形物を造形する造形装置と、
     前記物体の形状に関する物体形状情報と、前記物体の前記位置情報とを関連づける演算装置と
     を備える造形システム。
  25.  前記演算装置は、前記物体の形状に対応するモデルデータから前記物体形状情報を取得し、前記取得した物体形状情報と、前記物体の部位についての前記位置情報とを関連付けることで前記物体情報を生成する
     請求項26に記載の造形システム。
  26.  物体を支持する支持装置と、
     前記物体に付加加工を行う付加加工装置と、
     前記支持装置と前記付加加工装置による付加加工位置との相対的な位置関係を変更する位置変更装置と、
     前記物体の部位の位置を計測する位置計測装置と、
     前記物体上に造形される造形物位置を指定する指定装置と、
     前記位置計測装置による計測結果と、前記造形物位置に関する情報とを用いて、前記付加加工装置及び前記位置変更装置を制御する制御装置と
     を備える造形システム。
  27.  前記位置計測装置の計測箇所は、前記付加加工位置である
     請求項26に記載の造形システム。
  28.  前記付加加工装置の前記付加加工位置は、前記支持装置に対して移動可能であり、
     前記位置計測装置は、前記物体の前記部位が前記計測箇所に位置するときの、前記付加加工装置の位置を計測する
     請求項27に記載の造形システム。
  29.  前記支持装置は、前記付加加工位置に対して移動可能であり、
     前記位置計測装置は、前記物体の前記部位が前記計測箇所に位置するときの、前記支持装置の位置を計測する
     請求項27に記載の造形システム。
PCT/JP2019/012491 2019-03-25 2019-03-25 造形システム WO2020194448A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP19922188.8A EP3950209A4 (en) 2019-03-25 2019-03-25 BUILDING SYSTEM
JP2021508422A JPWO2020194448A1 (ja) 2019-03-25 2019-03-25
PCT/JP2019/012491 WO2020194448A1 (ja) 2019-03-25 2019-03-25 造形システム
US17/441,422 US20220176453A1 (en) 2019-03-25 2019-03-25 Build system
CN201980096597.5A CN113853272A (zh) 2019-03-25 2019-03-25 造型系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/012491 WO2020194448A1 (ja) 2019-03-25 2019-03-25 造形システム

Publications (1)

Publication Number Publication Date
WO2020194448A1 true WO2020194448A1 (ja) 2020-10-01

Family

ID=72611154

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/012491 WO2020194448A1 (ja) 2019-03-25 2019-03-25 造形システム

Country Status (5)

Country Link
US (1) US20220176453A1 (ja)
EP (1) EP3950209A4 (ja)
JP (1) JPWO2020194448A1 (ja)
CN (1) CN113853272A (ja)
WO (1) WO2020194448A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242983A1 (ja) * 2022-06-15 2023-12-21 株式会社ニコン 加工制御情報生成方法、加工方法及びモデル生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0726079U (ja) * 1993-10-13 1995-05-16 関西電力株式会社 レーザ補修装置
JPH10156563A (ja) * 1996-11-29 1998-06-16 Nissan Motor Co Ltd 肉盛り加工方法
JP2007111763A (ja) * 2005-10-21 2007-05-10 Keyence Corp 3次元加工データ設定装置、3次元加工データ設定方法、3次元加工データ設定プログラム、コンピュータで読み取り可能な記録媒体及び記録した機器並びにレーザ加工装置
JP2008149326A (ja) * 2006-12-14 2008-07-03 Honda Motor Co Ltd バルブシート部のレーザ肉盛装置
JP2010120104A (ja) * 2008-11-18 2010-06-03 Ihi Corp 欠損部の補修方法及び欠損部の補修システム
US20170014909A1 (en) 2014-03-31 2017-01-19 Kabushiki Kaisha Toshiba Method for manufacturing additive manufactured object, and mixed material

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327252A (en) * 1990-09-21 1994-07-05 Canon Kabushiki Kaisha Print evaluation apparatus
JP3373653B2 (ja) * 1994-06-08 2003-02-04 株式会社日立製作所 走査型プローブ加工観察装置および走査型プローブ加工観察方法
CN101535032B (zh) * 2006-10-10 2012-02-08 株式会社松风 造型数据生成系统、制造方法以及造型数据生成程序
CN109963685B (zh) * 2016-11-16 2022-04-29 康明斯有限公司 用于将材料添加到铸件的系统和方法
EP3431211B1 (en) * 2017-07-20 2022-03-16 General Electric Company Method for manufacturing a hybrid article
CN109317668B (zh) * 2017-07-31 2020-10-13 株式会社松浦机械制作所 三维造型方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0726079U (ja) * 1993-10-13 1995-05-16 関西電力株式会社 レーザ補修装置
JPH10156563A (ja) * 1996-11-29 1998-06-16 Nissan Motor Co Ltd 肉盛り加工方法
JP2007111763A (ja) * 2005-10-21 2007-05-10 Keyence Corp 3次元加工データ設定装置、3次元加工データ設定方法、3次元加工データ設定プログラム、コンピュータで読み取り可能な記録媒体及び記録した機器並びにレーザ加工装置
JP2008149326A (ja) * 2006-12-14 2008-07-03 Honda Motor Co Ltd バルブシート部のレーザ肉盛装置
JP2010120104A (ja) * 2008-11-18 2010-06-03 Ihi Corp 欠損部の補修方法及び欠損部の補修システム
US20170014909A1 (en) 2014-03-31 2017-01-19 Kabushiki Kaisha Toshiba Method for manufacturing additive manufactured object, and mixed material

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3950209A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242983A1 (ja) * 2022-06-15 2023-12-21 株式会社ニコン 加工制御情報生成方法、加工方法及びモデル生成方法

Also Published As

Publication number Publication date
US20220176453A1 (en) 2022-06-09
CN113853272A (zh) 2021-12-28
JPWO2020194448A1 (ja) 2020-10-01
EP3950209A1 (en) 2022-02-09
EP3950209A4 (en) 2023-02-08

Similar Documents

Publication Publication Date Title
RU2709884C1 (ru) Аппарат и способ для связывания позиции в наборе данных конструкции с позицией в секции построения аппарата
CN111168998B (zh) 用于检测多激光增材制造处理中的错误的熔池监测系统和方法
US20190134911A1 (en) Apparatus and methods for build surface mapping
JP2020069662A (ja) 積層造形装置、積層造形方法、及びプログラム
US20240123508A1 (en) Processing system
WO2020194448A1 (ja) 造形システム
CN114450584A (zh) 层叠造形系统
JP6964801B2 (ja) 積層造形装置
WO2020208708A1 (ja) 造形ユニット
EP3678847B1 (en) Apparatus and method for producing large workpieces by means of a mobile production unit
US20230079144A1 (en) Processing system
JP2023080120A (ja) 加工システム、加工方法、コンピュータプログラム、記録媒体及び制御装置
JP2022088386A (ja) 加工システム、及び、加工方法
WO2021019644A1 (ja) 加工システム、加工方法、制御装置、コンピュータプログラム、記録媒体及び加工装置
JP6740319B2 (ja) 3次元の物体を付加製造する装置のための位置データを決定する方法
JP2024086918A (ja) 造形ユニット
WO2024057496A1 (ja) 加工システム、データ構造及び加工方法
WO2023248458A1 (ja) 造形方法及び造形装置
JP2023038185A (ja) 加工システム、及び、加工方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19922188

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021508422

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019922188

Country of ref document: EP

Effective date: 20211025