WO2020208708A1 - 造形ユニット - Google Patents

造形ユニット Download PDF

Info

Publication number
WO2020208708A1
WO2020208708A1 PCT/JP2019/015464 JP2019015464W WO2020208708A1 WO 2020208708 A1 WO2020208708 A1 WO 2020208708A1 JP 2019015464 W JP2019015464 W JP 2019015464W WO 2020208708 A1 WO2020208708 A1 WO 2020208708A1
Authority
WO
WIPO (PCT)
Prior art keywords
modeling
work
information
base member
control device
Prior art date
Application number
PCT/JP2019/015464
Other languages
English (en)
French (fr)
Inventor
将 加藤
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP19924222.3A priority Critical patent/EP3954530A4/en
Priority to CN202311791873.4A priority patent/CN117601436A/zh
Priority to CN201980097229.2A priority patent/CN113939394B/zh
Priority to PCT/JP2019/015464 priority patent/WO2020208708A1/ja
Priority to US17/601,275 priority patent/US20220274181A1/en
Priority to CN202311790462.3A priority patent/CN117601435A/zh
Priority to JP2021513062A priority patent/JP7476886B2/ja
Publication of WO2020208708A1 publication Critical patent/WO2020208708A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/20Direct sintering or melting
    • B22F10/25Direct deposition of metal particles, e.g. direct metal deposition [DMD] or laser engineered net shaping [LENS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/80Data acquisition or data processing
    • B22F10/85Data acquisition or data processing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/20Direct sintering or melting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F10/00Additive manufacturing of workpieces or articles from metallic powder
    • B22F10/80Data acquisition or data processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F12/00Apparatus or devices specially adapted for additive manufacturing; Auxiliary means for additive manufacturing; Combinations of additive manufacturing apparatus or devices with other processing apparatus or devices
    • B22F12/22Driving means
    • B22F12/224Driving means for motion along a direction within the plane of a layer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F12/00Apparatus or devices specially adapted for additive manufacturing; Auxiliary means for additive manufacturing; Combinations of additive manufacturing apparatus or devices with other processing apparatus or devices
    • B22F12/30Platforms or substrates
    • B22F12/33Platforms or substrates translatory in the deposition plane
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F12/00Apparatus or devices specially adapted for additive manufacturing; Auxiliary means for additive manufacturing; Combinations of additive manufacturing apparatus or devices with other processing apparatus or devices
    • B22F12/40Radiation means
    • B22F12/46Radiation means with translatory movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F12/00Apparatus or devices specially adapted for additive manufacturing; Auxiliary means for additive manufacturing; Combinations of additive manufacturing apparatus or devices with other processing apparatus or devices
    • B22F12/50Means for feeding of material, e.g. heads
    • B22F12/53Nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22FWORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
    • B22F12/00Apparatus or devices specially adapted for additive manufacturing; Auxiliary means for additive manufacturing; Combinations of additive manufacturing apparatus or devices with other processing apparatus or devices
    • B22F12/90Means for process control, e.g. cameras or sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/10Processes of additive manufacturing
    • B29C64/141Processes of additive manufacturing using only solid materials
    • B29C64/153Processes of additive manufacturing using only solid materials using layers of powder being selectively joined, e.g. by selective laser sintering or melting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/20Apparatus for additive manufacturing; Details thereof or accessories therefor
    • B29C64/264Arrangements for irradiation
    • B29C64/268Arrangements for irradiation using laser beams; using electron beams [EB]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • B29C64/393Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y10/00Processes of additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y30/00Apparatus for additive manufacturing; Details thereof or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • B33Y50/02Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes

Definitions

  • Patent Document 1 describes an apparatus for forming a modeled object by melting a powdery material with an energy beam and then solidifying the molten material. In an apparatus for modeling such a modeled object, it is a technical issue to appropriately model the modeled object.
  • a modeling unit including a modeling device for modeling a modeled object on the base member based on a set position set on the base member and an output device for outputting position information regarding the set position.
  • a modeling unit including an output device that outputs information is provided.
  • a modeling device for modeling a modeled object on a base member, a measuring device for acquiring three-dimensional information of the base member and the modeled object, and an output device for outputting a measurement result by the measuring device.
  • a modeling unit is provided.
  • a modeling device for modeling a modeled object including a planar surface on an upper surface of a base member having a planar side surface, and the side surface of the base member and the planar surface of the modeled object.
  • a modeling unit including a control device that controls the modeling device so as to be parallel to the surface is provided.
  • FIG. 8 is a sectional view taken along line VII # 1-VII # 1'of the beam detection member shown in FIG.
  • FIG. 9 is a sectional view taken along line VII # 2-VII # 2'of the beam detection member shown in FIG.
  • FIG. 10 is a plan view showing a beam detection member mounted on the mounting surface.
  • FIG. 11 is a plan view showing a reference member on which a mark for alignment is formed.
  • FIG. 12 is a plan view showing a reference member mounted on the mounting surface.
  • FIG. 13 is a perspective view showing a mounting surface and a work in the stage coordinate system.
  • FIG. 14 is a flowchart showing the flow of the first work model alignment operation.
  • FIG. 15 is a flowchart showing the flow of the second work model alignment operation.
  • FIG. 20 (b) is a plan view showing beam spots of the plurality of guide lights on the surface of the work W (particularly, the user-designated point) when the plurality of guide lights do not intersect at the user-designated point.
  • FIG. 21 is a perspective view showing a work and a three-dimensional structure in the stage coordinate system.
  • FIG. 22 is a flowchart showing the flow of the modeling model alignment operation.
  • FIG. 23 is a plan view showing a display example of the work model.
  • FIG. 24 is a plan view showing a display example of the work model.
  • FIG. 25 is a plan view showing a display example of the work model.
  • FIG. 26 is a plan view showing a display example of the work model.
  • FIG. 27 is a plan view showing a display example on the display.
  • FIGS. 28 is a cross-sectional view showing a work model and a modeling model.
  • FIG. 29 is a cross-sectional view conceptually showing a modified example of modeling information together with a modeling model and a work model.
  • FIGS. 30 (a) to 30 (c) is a cross-sectional view conceptually showing an example of a method of modifying modeling information together with a work model and a modeling model.
  • FIGS. 31 (a) to 31 (c) is a cross-sectional view conceptually showing another example of the method of modifying the modeling information together with the work model and the modeling model.
  • FIG. 32 (a) to 32 (e) is a cross-sectional view showing a state in which light is irradiated and a modeling material is supplied in a certain region on the work.
  • FIGS. 23 (a) to 33 (c) is a cross-sectional view showing a process of forming a three-dimensional structure.
  • FIG. 34 is a system configuration diagram showing a system configuration of the processing system of the second embodiment.
  • FIG. 35 is a perspective view showing an external structure of a processing unit included in the processing system of the second embodiment.
  • FIG. 36 is a cross-sectional view showing an example of the structure of the processing head.
  • FIG. 37 is a cross-sectional view showing an example of the structure of the processing head.
  • FIG. 54 is a perspective view showing a stage that supports the work fixed to the fixing jig.
  • FIG. 55 is a system configuration diagram showing another example of the system configuration of the processing system.
  • 56 (a) is a plan view showing another example of the reference member, and
  • FIG. 52 (b) is a cross-sectional view taken along the line AA'in FIG. 56 (a).
  • the processing system SYS has a material supply device 1, a modeling device 2, a stage device 3, a light source 4, and a gas supply device 5, as shown in FIGS. 1 and 2.
  • At least a part of each of the modeling device 2, the stage device 3, and the measuring device 8 is housed in the chamber space 63IN inside the housing 6.
  • the modeling material M does not have to be powder, and for example, a wire-shaped modeling material or a gaseous modeling material may be used.
  • the processing system SYS may process the modeling material M with an energy beam such as a charged particle beam to form a modeled object.
  • the material nozzle 212 has a supply outlet 214 for supplying the modeling material M.
  • the material nozzle 212 supplies the modeling material M from the supply outlet 214 (eg, spraying, ejecting, or spraying).
  • the material nozzle 212 is physically connected to the material supply device 1 which is a supply source of the modeling material M via a pipe (not shown) or the like.
  • the material nozzle 212 supplies the modeling material M supplied from the material supply device 1 via the pipe.
  • the material nozzle 212 may pump the modeling material M supplied from the material supply device 1 via a pipe. That is, the modeling material M from the material supply device 1 and a gas for transportation (for example, an inert gas such as nitrogen or argon) may be mixed and pumped to the material nozzle 212 via a pipe.
  • a gas for transportation for example, an inert gas such as nitrogen or argon
  • the head drive system 22 moves the modeling head 21.
  • the head drive system 22 moves the modeling head 21 within the chamber space 63IN, for example.
  • the head drive system 22 moves the modeling head 21 along at least one of the X-axis, the Y-axis, and the Z-axis.
  • each of the irradiation region EA and the supply region MA moves on the work W along at least one of the X-axis and the Y-axis.
  • the head drive system 22 may move the modeling head 21 along at least one rotation direction in the ⁇ X direction, the ⁇ Y direction, and the ⁇ Z direction in addition to at least one of the X-axis, the Y-axis, and the Z-axis. .. In other words, the head drive system 22 may rotate the modeling head 21 around at least one of the X-axis, Y-axis, and Z-axis. The head drive system 22 may change the posture of the modeling head 21 around at least one of the X-axis, the Y-axis, and the Z-axis.
  • the head drive system 22 includes, for example, a motor and the like.
  • the irradiation optical system 211 and the material nozzle 212 may be moved separately.
  • the head drive system 22 may be able to adjust at least one of the position of the injection unit 213, the orientation of the injection unit 213, the position of the supply outlet 214, and the orientation of the supply outlet 214.
  • the irradiation region EA where the irradiation optical system 211 irradiates the processing light EL and the supply region MA where the material nozzle 212 supplies the modeling material M can be controlled separately.
  • the position measuring device 23 can measure the position of the modeling head 21.
  • the position measuring device 23 may include, for example, at least one of an encoder and a laser interferometer.
  • the guide light emitting device 24 is arranged on the modeling head 21.
  • the guide light emitting device 24 emits the guide light GL.
  • the guide light emitting device 24 emits the guide light GL so that the guide light GL advances in the chamber space 63IN.
  • the plurality of guide light emitting devices 24 are aligned so that the plurality of guide light GLs emitted from the plurality of guide light emitting devices 24 intersect with each other at a certain position below the modeling head 21. In particular, the plurality of guide light emitting devices 24 are aligned so that the plurality of guide light GLs intersect each other at the focus position of the processing light EL.
  • the plurality of guide light emitting devices 24 are subjected to additional processing by the modeling device 2 with a plurality of guide light GLs. It can be said that they are aligned with each other so as to intersect each other at the additional processing position.
  • the additional processing position typically overlaps at least partially with the respective positions of the irradiation area EA and the supply area MA. The method of using such a guide light emitting device 24 will be described in detail later.
  • the plurality of guide light GLs may be aligned so as to intersect each other at a position (defocus position) deviated from the focus position of the processing light EL.
  • the stage device 3 includes a stage 31.
  • the stage 31 is housed in the chamber space 63IN.
  • the stage 31 can support the work W.
  • the state of "the stage 31 supporting the work W" here may mean a state in which the work W is directly or indirectly supported by the stage 31.
  • the stage 31 may be able to hold the work W. That is, the stage 31 may support the work W by holding the work W. Alternatively, the stage 31 does not have to be able to hold the work W.
  • the work W may be placed on the stage 31. That is, the stage 31 may support the work W placed on the stage 31. At this time, the work W may be mounted on the stage 31 without being clamped.
  • the state in which the "stage 31 supports the work W" in the present embodiment may include a state in which the stage 31 holds the work W and a state in which the work W is placed on the stage 31.
  • the stage 31 may be referred to as a support device for supporting the work W, a mounting device on which the work W is placed, a holding device for holding the work W, or a table. Since the stage 31 is housed in the chamber space 63IN, the work W supported by the stage 31 is also housed in the chamber space 63IN. Further, the stage 31 can release the held work W when the work W is held.
  • the irradiation optical system 211 described above irradiates the processing light EL at least a part of the period during which the stage 31 supports the work W.
  • the light source 4 emits, for example, at least one of infrared light and ultraviolet light as processed light EL.
  • the processed light EL light of other wavelengths, for example, light having a wavelength in the visible region may be used.
  • the processing light EL is a laser light.
  • the light source 4 may include a laser light source such as a semiconductor laser. Examples of the laser light source include at least one such as a laser diode (LD: Laser Diode), a fiber laser, a CO 2 laser, a YAG laser, and an excimer laser.
  • the processing light EL does not have to be laser light, and the light source 4 may include an arbitrary light source (for example, at least one such as an LED (Light Emitting Diode) and a discharge lamp).
  • the housing 6 is a housing device that accommodates at least a part of each of the modeling device 2 and the stage device 3 in the chamber space 63IN, which is the internal space of the housing 6.
  • the housing 6 includes a partition member 61 that defines a chamber space 63IN.
  • the partition member 61 is a member that separates the chamber space 63IN from the external space 64OUT of the housing 6.
  • the partition member 61 faces the chamber space 63IN via its inner wall 611, and faces the outer space 64OUT through its outer wall 612. In this case, the space surrounded by the partition member 61 (more specifically, the space surrounded by the inner wall 611 of the partition member 61) becomes the chamber space 63IN.
  • the partition member 61 may be provided with a door that can be opened and closed.
  • This door may be opened when the work W is placed on the stage 31. This door may be opened when the work W and / or the modeled object (for example, the three-dimensional structure ST) is taken out from the stage 31. This door may be closed during the period when the modeling device 2 is modeling the modeled object.
  • the modeled object for example, the three-dimensional structure ST
  • the control device 7 controls the operation of the processing system SYS.
  • the control device 7 may include, for example, a CPU (Central Processing Unit) (or a GPU (Graphics Processing Unit) in addition to or in place of the CPU) and a memory.
  • the control device 7 functions as a device that controls the operation of the processing system SYS by executing a computer program by the CPU.
  • This computer program is a computer program for causing the control device 7 (for example, the CPU) to perform (that is, execute) the operation described later to be performed by the control device 7. That is, this computer program is a computer program for causing the control device 7 to function so that the processing system SYS performs the operation described later.
  • the computer program executed by the CPU may be recorded in a memory (that is, a recording medium) included in the control device 7, or may be an arbitrary storage medium built in the control device 7 or externally attached to the control device 7 (that is, a recording medium). For example, it may be recorded on a hard disk or a semiconductor memory). Alternatively, the CPU may download the computer program to be executed from a device external to the control device 7 via the network interface.
  • a memory that is, a recording medium
  • the CPU may download the computer program to be executed from a device external to the control device 7 via the network interface.
  • the control device 7 may control the injection mode of the processed light EL by the irradiation optical system 211.
  • the injection mode may include, for example, at least one of the intensity of the processing light EL and the injection timing of the processing light EL.
  • the injection mode may include, for example, the ratio of the length of the emission time of the pulsed light to the emission period of the pulsed light (so-called duty ratio).
  • the injection mode may include, for example, the length of the emission time of the pulsed light itself or the emission cycle itself.
  • the control device 7 may control the movement mode of the modeling head 21 by the head drive system 22.
  • the movement mode may include, for example, at least one of a movement amount, a movement speed, a movement direction, and a movement timing.
  • the control device 7 may control the supply mode of the modeling material M by the material supply device 1.
  • the supply mode of the modeling material M by the material nozzle 212 is mainly determined by the supply mode of the modeling material M by the material supply device 1. Therefore, controlling the supply mode of the modeling material M by the material supply device 1 can be regarded as equivalent to controlling the supply mode of the modeling material M by the material nozzle 212.
  • the supply mode may include, for example, at least one of a supply amount (particularly, a supply amount per unit time) and a supply timing.
  • the control device 7 may not be provided inside the processing system SYSTEM, and may be provided as a server or the like outside the processing system SYS, for example.
  • the control device 7 and the processing system SYS may be connected by a wired and / or wireless network (or a data bus and / or a communication line).
  • a wired network for example, a network using a serial bus type interface represented by at least one of IEEE1394, RS-232x, RS-422, RS-423, RS-485 and USB may be used.
  • a network using a parallel bus interface may be used.
  • control device 7 may be able to transmit information such as commands and control parameters to the processing system SYS via the network.
  • the processing system SYS may include a receiving device that receives information such as commands and control parameters from the control device 7 via the network. Even if the processing system SYS is provided with a transmission device (that is, an output device that outputs information to the control device 7) that transmits information such as commands and control parameters to the control device 7 via the network. Good.
  • the first control device that performs a part of the processing performed by the control device 7 is provided inside the processing system SYS, the second control device that performs the other part of the processing performed by the control device 7 is provided.
  • the control device may be provided outside the processing system SYS.
  • the recording medium for recording the computer program executed by the CPU includes CD-ROM, CD-R, CD-RW, flexible disk, MO, DVD-ROM, DVD-RAM, DVD-R, DVD + R, and DVD-RW. , DVD + RW and Blu-ray (registered trademark) optical disks, magnetic media such as magnetic tapes, magneto-optical disks, semiconductor memories such as USB memory, and any other medium capable of storing programs. May be good.
  • the recording medium may include a device capable of recording a computer program (for example, a general-purpose device or a dedicated device in which the computer program is implemented in at least one form such as software and firmware).
  • each process or function included in the computer program may be realized by a logical processing block realized in the control device 7 by the control device 7 (that is, a computer) executing the computer program. It may be realized by hardware such as a predetermined gate array (FPGA, ASIC) included in the control device 7, or a logical processing block and a partial hardware module that realizes a part of the hardware are mixed. It may be realized in the form of.
  • FPGA predetermined gate array
  • the measuring device 8 can measure an object to be measured under the control of the control device 7.
  • the measurement result of the measuring device 8 is output from the measuring device 8 to the control device 7.
  • the measuring device 8 may be referred to as a measuring unit.
  • the measurement may include the measurement of the position of the object to be measured.
  • the position of the measurement object may include a position in at least one of the X-axis direction, the Y-axis direction, and the Z-axis direction of each portion (that is, each part) subdivided into the measurement object.
  • the position of the measurement object may include the position of the surface of the measurement object.
  • the position of the surface of the measurement object may include a position in at least one of the X-axis direction, the Y-axis direction, and the Z-axis direction of each portion (that is, each part) subdivided from the surface of the measurement object. ..
  • the measurement may include measurement of the shape of the object to be measured (for example, a three-dimensional shape).
  • the shape of the object to be measured is the direction of each part of the object to be measured (for example, the direction of the normal of each part, and the amount of inclination of each part with respect to at least one of the X-axis, Y-axis, and Z-axis. Substantially equivalent) may be included.
  • the shape of the object to be measured may include the shape of the surface of the object to be measured.
  • the shape of the surface of the object to be measured is the orientation of each part of the surface of the object to be measured (for example, the direction of the normal of each part, and each part with respect to at least one of the X-axis, Y-axis, and Z-axis. It may include the amount of inclination (that is, substantially equivalent to the posture of each part).
  • the measurement may include the measurement of the attribute of the object to be measured.
  • the attributes of the measurement object may include, for example, at least one such as the reflectance of the measurement object, the spectral reflectance of the measurement object, and the surface roughness of the measurement object.
  • the measurement object includes, for example, an object placed on the mounting surface 311 of the stage 31. Therefore, the measurement range of the measuring device 8 is set to a desired range so that the object mounted on the mounting surface 311 can be measured.
  • the object to be mounted on the mounting surface 311 is the work W described above.
  • Another example of an object mounted on the mounting surface 311 is a three-dimensional structure ST formed on the work W.
  • a reference member 34 see FIG. 11 and the like
  • the measuring device 8 may have any structure as long as the object to be measured can be measured.
  • the measuring device 8 may be any kind of measuring device as long as it can measure the object to be measured.
  • 1 and 2 show an example in which the measuring device 8 is a 3D scanner. That is, FIGS. 1 and 2 show an example in which the measuring device 8 optically measures the object to be measured. 1 and 2 show an example in which the measuring device 8 measures the measurement target without contacting the measurement target. That is, FIGS. 1 and 2 show an example in which the measuring device 8 measures the object to be measured in a non-contact manner.
  • the measuring device 8 may measure the object to be measured by using a method different from the optical method, for example, an electromagnetic wave or a sound wave.
  • the measuring device 8 may come into contact with the object to be measured and measure the object to be measured.
  • a measuring device that contacts a measurement target and measures the measurement target there is a measuring device that measures the measurement target while pressing a sensor such as a probe against the measurement target.
  • the measuring device 8 When the measuring device 8 is a 3D scanner, the measuring device 8 includes, for example, a projection device 81 and an image pickup device 82, as shown in FIG. In the example shown in FIG. 2, the measuring device 8 includes a plurality of imaging devices 82. More specifically, in the example shown in FIG. 2, the measuring device 8 includes two imaging devices 82 (specifically, imaging devices 82 # 1 and imaging devices 82 # 2). However, the measuring device 8 may include a single imaging device 82.
  • the projection device 81 irradiates the mounting surface 311 with the measurement light DL.
  • the measurement light DL is light for projecting a desired projection pattern on the mounting surface 311.
  • the measurement light DL is light for projecting a desired projection pattern on the measurement object placed on the mounting surface 311.
  • the desired projection pattern may include a one-dimensional projection pattern.
  • the desired projection pattern may include a two-dimensional projection pattern.
  • the projection device 81 may project a single type of projection pattern onto the measurement object. Alternatively, the projection device 81 may sequentially project a plurality of types of projection patterns onto the measurement object.
  • FIGS. 3 (a) to 3 (j) show an example of the projection pattern.
  • FIG. 3A shows a projection pattern corresponding to a white image.
  • FIG. 3B shows a projection pattern corresponding to a black image.
  • 3 (a) and 3 (b) may be used to measure the state of ambient light.
  • 3 (c) to 3 (f) show a plurality of projection patterns corresponding to a plurality of fringe patterns (for example, a plurality of fringe patterns having different numbers and widths of fringes).
  • 3 (g) to 3 (j) show a plurality of projection patterns corresponding to gray patterns having different phases (in other words, phase shift patterns).
  • the projection device 81 sequentially projects a plurality of projection patterns shown in FIGS. 3A and 3B, and then sequentially projects a plurality of projection patterns shown in FIGS. 3C to 3F. After that, a plurality of projection patterns shown in FIGS. 3 (g) to 3 (j) may be projected in order.
  • the period width of the gray code included in the projection patterns shown in FIGS. 3 (g) to 3 (j) is the stripes included in the projection patterns shown in FIGS. 3 (c) to 3 (f). It may be the same as the minimum width.
  • the stereo visual phase shift method is an example of a method of measuring the state of the measurement object by imaging the measurement object on which the phase shift pattern is projected by using a plurality of imaging devices 82.
  • the image pickup device 82 images the mounting surface 311.
  • the image pickup device 82 images an object to be measured mounted on the mounting surface 311.
  • the imaging device 82 images a projection pattern projected on the object to be measured.
  • the control device 7 measures the measurement information about the measurement object measured by the measurement device 8 (that is, the measurement of the measurement object by the measurement device 8) based on the image pickup result of the image pickup device 82 (particularly, the information about the captured projection pattern). (Measurement information about the result) is generated. Since the measurement of the measurement target includes at least one of the measurement of the position of the measurement target and the measurement of the shape of the measurement target, the measurement information is the measurement position information regarding the position of the measurement target measured by the measuring device 8. And at least one of the measurement shape information regarding the shape of the measurement object measured by the measuring device 8 may be included.
  • the control device 7 can function as an information generation device for generating measurement information (that is, at least one of measurement position information and measurement shape information).
  • the measurement information may include any one of the measurement position information and the measurement shape information.
  • the measurement information may include both measurement position information and measurement shape information.
  • the measurement information may be information in which the measurement position information and the measurement shape information correspond to each other.
  • "Measurement information corresponding to the measurement position information and the measurement shape information" means information in a state where both the position and the shape of each part of the measurement object can be specified. Therefore, by referring to such measurement information, although the position of a certain part of the measurement target can be specified, the situation that the shape of the same part cannot be specified does not occur.
  • the measurement information will be described with reference to an example in which the measurement position information and the measurement shape information correspond to each other. It should be noted that such measurement information does not have to include the measurement position information and the measurement shape information as separate and different information, as long as both the position and shape of each part of the measurement object can be specified.
  • the measurement information may have any data structure.
  • the measuring device 8 is isolated from the chamber space 63IN by the partition member 83.
  • the measuring device 8 is arranged in a space isolated from the chamber space 63IN by the partition member 83.
  • the adhesion of the substance existing in the chamber space 63IN to the measuring device 8 is suppressed.
  • the substance existing in the chamber space 63IN include the modeling material M supplied from the material nozzle 212 to the chamber space 63IN and the substance generated from the modeling surface MS described later due to the irradiation of the processing light EL. Be done.
  • a fume containing at least one of the fine particles of the molten modeling material M and the fine particles of the material constituting the molten work W can be mentioned.
  • the partition wall member 83 includes a light transmitting member 84 capable of blocking the above-mentioned substance while allowing the measurement light DL to pass through at a position where the optical path of the measurement light DL irradiated by the projection device 81 intersects with the partition wall member 83. ing.
  • the measuring device 8 can appropriately irradiate the measurement object arranged in the chamber space 63IN with the measurement light DL. it can.
  • the measuring device 8 does not have to be isolated from the chamber space 63IN by the partition member 83.
  • the measuring device 8 may be arranged in the chamber space 63IN. When the measuring device 8 is arranged in the chamber space 63IN, the measuring device 8 may have dust resistance.
  • the display 91 is a display device capable of displaying a desired image under the control of the control device 7.
  • the display 91 may display information about the processing system SYS.
  • the display 91 may display information about the three-dimensional structure ST.
  • the display 91 may display information about the work W.
  • the display 91 may display information regarding the result of imaging by the imaging device 82.
  • the display 91 does not have to be provided inside the processing system SYS.
  • the display 91 may be provided as an external display outside the processing system SYS.
  • the display 91 and the processing system SYS may be connected by a wired and / or wireless network (or a cable, a data bus and / or a communication line).
  • the control device 7 may be configured to enable transmission / reception (that is, input / output) of various types of information to / from the display 91 via the network.
  • the display 91 is a transmission / reception unit (that is, input / output) that transmits / receives information to / from the control device 7 (furthermore, to / from other devices included in the processing system SYS with or without the control device 7).
  • a unit) and a display unit for displaying an image may be provided.
  • the input device 92 is a device that receives input of information from the outside of the processing system SYS.
  • the input device 92 may accept the input of information from the user of the processing system SYS.
  • the input device 92 may accept input of information from a device outside the processing system SYS.
  • the input device 92 may accept input of information from a recording medium that can be attached to the processing system SYS.
  • An example of the input device 92 is an operating device that can be operated by the user.
  • the operating device at least one of a keyboard, a mouse, a touch pad, a touch panel (for example, a touch panel integrated with the display 91) and a pointing device can be mentioned.
  • the input device 92 is an interface device for connecting to an external device of the processing system SYS.
  • a reading device capable of reading a recording medium that can be attached to the processing system SYS.
  • the information received by the input device 92 (that is, the information input to the input device 92) is output to, for example, the control device 7.
  • the input device 92 may accept input of information via the display screen of the display 91.
  • the input device 92 may accept input of information via a GUI (Graphical User Interface) displayed on the display screen of the display 91.
  • the input device 92 may accept input of information regarding the user's operation to the GUI displayed on the display screen of the display 91.
  • the display 91 may display an image (for example, the GUI described above) for receiving the input of information via the input device 92 under the control of the control device 7. In this way, the display 91 may also be used as the input device 92.
  • the input device 92 does not have to be provided inside the processing system SYS.
  • the input device 92 may be provided as an external input device outside the processing system SYS.
  • the input device 92 and the processing system SYS may be connected by a wired and / or wireless network (or a cable, a data bus and / or a communication line).
  • the control device 7 may be configured to acquire the information input to the input device 92 via the network.
  • the control device 7 may be configured to function as a receiving device that receives the information input to the input device 92 via the network.
  • the input device 92 is a transmission / reception unit (that is, an input / output unit) that transmits / receives information to / from the control device 7 (furthermore, to / from other devices included in the processing system SYS with or without the control device 7).
  • An output unit) and an input receiving unit that receives input from the outside of the processing system SYS may be provided.
  • the machining system SYS performs a work model alignment operation under the control of the control device 7. After that, the processing system SYS performs a modeling model alignment operation under the control of the control device 7. After that, the processing system SYS performs a modeling operation under the control of the control device 7. Further, the machining system SYS may perform a coordinate matching operation under the control of the control device 7 prior to the work model alignment operation. Therefore, in the following, the coordinate matching operation, the work model alignment operation, the modeling model alignment operation, and the modeling operation will be described in order.
  • the coordinate matching operation is an operation for associating the modeling coordinate system, the stage coordinate system, and the measurement coordinate system with each other.
  • the modeling coordinate system is a three-dimensional coordinate system used to specify the position of the modeling head 21.
  • the head drive system 22 moves the modeling head 21 based on the information regarding the position of the modeling head 21 specified in the modeling coordinate system.
  • the position measuring device 23 measures the position of the modeling head 21 in the modeling coordinate system.
  • the stage coordinate system is a three-dimensional coordinate system used to specify a position on the stage 31 (particularly, a position on the mounting surface 311 of the stage 31).
  • the stage coordinate system may be a three-dimensional coordinate system used to specify the position of the stage 31.
  • the stage drive system may move the stage 31 based on the information regarding the position of the stage 31 specified in the stage coordinate system. ..
  • the measurement coordinate system is a three-dimensional coordinate system used to specify the position of the measurement object measured by the measurement device 8. That is, the measurement coordinate system is a three-dimensional coordinate system used to specify the position of the measurement device 8 within the measurement range.
  • the control device 7 generates measurement position information regarding the position of the measurement object in the measurement coordinate system based on the measurement result of the measurement device 8.
  • the coordinates of a certain position in any one of the modeling coordinate system, the stage coordinate system, and the measurement coordinate system are set to the modeling coordinate system. It can be converted to the coordinates of a certain position in another coordinate system of the stage coordinate system and the measurement coordinate system. Therefore, in the coordinate matching operation, the information (for example, a conversion matrix) used for converting the coordinates in the modeling coordinate system into the respective coordinates of the stage coordinate system and the measurement coordinate system, and the coordinates in the stage coordinate system are converted into the modeling coordinate system.
  • the information for example, a conversion matrix
  • the information used to convert to the respective coordinates of the measurement coordinate system eg, conversion matrix
  • the information used to convert to the respective coordinates of the measurement coordinate system eg, conversion matrix
  • convert the coordinates in the measurement coordinate system to the respective coordinates of the modeling coordinate system and the stage coordinate system e.g., conversion matrix
  • the machining system SYS does not have to perform the coordinate matching operation.
  • the processing system SYS does not have to perform the coordinate matching operation.
  • FIG. 4 is a flowchart showing the flow of the coordinate matching operation.
  • the machining system SYS performs an operation of associating the modeling coordinate system with the stage coordinate system as a part of the coordinate matching operation (steps S111 to S113). Further, the machining system SYS performs an operation of associating the measurement coordinate system with the stage coordinate system as a part of the coordinate matching operation (steps S114 to S116).
  • the modeling coordinate system and the stage coordinate system are associated with each other and the measurement coordinate system and the stage coordinate system are associated with each other, the modeling coordinate system and the measurement coordinate system are indirectly associated with each other via the stage coordinate system. Therefore, by performing the processes from step S111 to step S116, the modeling coordinate system, the stage coordinate system, and the measurement coordinate system are associated with each other.
  • FIG. 4 shows an example in which the processing system SYS performs an operation of associating the modeling coordinate system with the stage coordinate system and then performing an operation of associating the measurement coordinate system with the stage coordinate system.
  • the processing system SYS may perform an operation of associating the modeling coordinate system with the stage coordinate system after performing the operation of associating the measurement coordinate system with the stage coordinate system.
  • the beam detection member 32 is placed on the mounting surface 311 of the stage 31 (step S111).
  • the beam detection member 32 is placed on the mounting surface 311 so that the positional relationship between the beam detecting member 32 and the mounting surface 311 is the desired first positional relationship.
  • the beam detecting member 32 Marks for alignment are formed on both the surface and the mounting surface 311.
  • FIG. 5 is a plan view showing the stage 31 including the mounting surface 311 on which the alignment mark is formed.
  • FIG. 6 is a sectional view taken along line VV'of the stage 31 shown in FIG.
  • FIG. 7 is a plan view showing a beam detection member 32 on which a mark for alignment is formed.
  • FIG. 8 is a cross-sectional view of VII # 1-VII # 1'of the beam detection member 32 shown in FIG.
  • FIG. 9 is a sectional view taken along line VII # 2-VII # 2'of the beam detection member 32 shown in FIG.
  • FIG. 10 is a plan view showing the beam detection member 32 mounted on the mounting surface 311.
  • a plurality of pins 312 are formed on the mounting surface 311 as markings for alignment.
  • two pins 312 are formed on the mounting surface 311.
  • three or more pins 312 may be formed.
  • the pin 312 is a member that protrudes from the mounting surface 311 along the Z-axis direction. The information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7.
  • the beam detection member 32 includes a base member 321.
  • the base member 321 is a plate-shaped member.
  • the base member 321 has a shape and size that can be mounted on the mounting surface 311.
  • a plurality of through holes 322 are formed in the base member 321 as a mark for alignment. In the example shown in FIGS. 7 and 8, two through holes 322 are formed in the base member 321.
  • the through hole 322 penetrates the base member 321 along the Z-axis direction.
  • the beam detection member 32 is placed on the mounting surface 311 so that the pin 312 is inserted into the through hole 322.
  • the beam detection member 32 is placed on the mounting surface 311 with the pin 312 inserted into the through hole 322. Therefore, the arrangement mode of the through hole 322 is the same as the arrangement mode of the pin 312. Further, the number of through holes 322 is the same as (or may be large) the number of pins 312.
  • the beam detection member 32 is placed on the mounting surface 311 so as to have a desired first positional relationship with respect to the mounting surface 311.
  • the beam detection member 32 is mounted on the mounting surface 311 so as to have a desired first positional relationship with respect to the pin 312 on the mounting surface 311.
  • the beam detection member 32 is mounted on the mounting surface 311 so as to satisfy the desired first positional relationship in which the pin 312 of the mounting surface 311 and the through hole 322 of the beam detection member 32 overlap in the Z-axis direction. ..
  • the beam detection member 32 has the same position of the pin 312 in the X-axis direction and the position of the through hole 322 corresponding to the pin 312 in the X-axis direction, and is the same as the position of the pin 312 in the Y-axis direction. It is mounted on the mounting surface 311 so as to satisfy the desired first positional relationship that the position of the through hole 322 corresponding to the pin 312 in the Y-axis direction is the same.
  • the position where the pin 312 is formed may be used as a reference position on the mounting surface 311 when the beam detection member 32 is mounted on the mounting surface 311.
  • the beam detection member 32 is placed on the mounting surface 311 in a state of being aligned so as to have a desired first positional relationship with respect to the reference position on the mounting surface 311.
  • the beam detection member 32 is further provided with a light shielding member 323.
  • the light-shielding member 323 is a member that shields the processed light EL.
  • the light-shielding member 323 is formed on the upper surface of the base member 321 (that is, the surface facing the + Z side).
  • the upper surface of the light-shielding member 323 is located above the upper surface of the base member 321.
  • the upper surface of the light-shielding member 323 may be located below the upper surface of the base member 321 or may be located at the same height as the upper surface of the base member 321.
  • At least a part of the light-shielding member 323 may be integrated with the base member 321.
  • the light-shielding member 323 may be removable from the base member 321.
  • the light-shielding member 323 is formed with an opening 324 that penetrates the light-shielding member 323 along the Z-axis direction.
  • the shape of the opening 324 in the plane along the XY plane is a slit shape, but it may be any other shape, a circular shape (pinhole shape), an oval shape, a polygonal shape, or the like.
  • the opening 324 is a through hole through which the processing light EL can pass.
  • the beam detection member 32 further includes a beam detector 325.
  • the beam detector 325 is arranged at a position where it can receive the processed light EL that has passed through the opening 324.
  • the opening 324 is arranged at a position having a predetermined positional relationship with respect to the through hole 322.
  • the information regarding the positional relationship between the opening 324 and the through hole 322 is known to the control device 7.
  • the beam detection member 32 includes a single beam detector 325 (typically, a photoelectric converter such as a light amount sensor capable of photoelectrically converting the received processed light EL)
  • the photoelectric converter The positional relationship between the opening 324 and the processing light EL can be obtained from the output.
  • the beam detector 325 is located below the shading member 323 (ie, -Z side).
  • a diffuser plate for diffusing the processing light EL or the guide light GL may be arranged between the opening 324 and the beam detector 325 and / or on the incident side of the opening 324. Further, a cover glass for protecting the opening 324 may be arranged on the incident side of the opening 324.
  • the beam detection member 32 may include a single beam detector 325 as described above, or may include a plurality of beam detectors 325.
  • the light shielding member 323 may be formed with a plurality of openings 324 corresponding to the plurality of beam detectors 325, respectively.
  • each beam detector 325 detects the processed light EL incident on each beam detector 325 through the opening 324 corresponding to each beam detector 325.
  • the detection result of the beam detector 325 may include information on the state of the processed light EL incident on the beam detector 325.
  • the detection result of the beam detector 325 includes information on the intensity of the processed light EL incident on the beam detector 325 (specifically, the intensity in the plane intersecting the XY plane). More specifically, the detection result of the beam detector 325 includes information on the intensity distribution of the processed light EL in the plane along the XY plane.
  • the detection result of the beam detector 325 is output to the control device 7.
  • the modeling apparatus 2 irradiates the beam detection member 32 with the processing light EL (step S112).
  • the modeling device 2 irradiates the processing light EL toward the beam detector 325 arranged on the beam detection member 32.
  • the beam detection member 32 includes a plurality of beam detectors 325
  • the modeling apparatus 2 irradiates the plurality of beam detectors 325 in order with the processing light EL.
  • the head drive system 22 moves the modeling head 21 so as to irradiate the processing light EL toward the beam detector 325.
  • the head drive system 22 moves the modeling head 21 so that the processing light EL (more specifically, the irradiation region EA of the processing light EL) crosses the opening 324 in the plane along the XY plane. May be good.
  • the modeling head 21 irradiates the processing light EL during the period of movement by the head drive system 22.
  • the processing light EL is applied to the opening 324 at a certain timing during the period when the modeling head 21 is moving. That is, the processing light EL is detected by the beam detector 325 at a certain timing during the period when the modeling head 21 is moving.
  • the control device 7 associates the modeling coordinate system with the stage coordinate system based on the detection result of the beam detector 325 in step S112 (step S113). Specifically, the detection result of the beam detector 325 shows that at least a part of the processing light EL irradiates the opening 324 as compared with the intensity of the processing light EL during the period when the processing light EL is not irradiated to the opening 324. It shows that the intensity of the processed light EL during the period is increased. Therefore, the control device 7 determines the time when the processing light EL is irradiating the opening 324 (that is, the time when the processing light EL is irradiating the beam detector 325) based on the detection result of the beam detector 325. It is identifiable.
  • control device 7 is based on the time when the processing light EL is irradiated to the opening 324 and the measurement result of the position measuring device 23, and the modeling head 21 at the time when the processing light EL is irradiated to the beam detector 325.
  • the position of is identifiable.
  • the control device 7 can specify the position of the modeling head 21 in a state where the beam detector 325 can be irradiated with the processing light EL based on the output of the beam detector 325 and the measurement result of the position measuring device 23. There may be. That is, the control device 7 can specify the position of the modeling head 21 in a state in which the beam detector 325 can be irradiated with the processing light EL in the modeling coordinate system.
  • the position of the modeling head 21 referred to here may include the position of the modeling head 21 itself, or may include a position unique to the modeling head 21.
  • there is an additional processing position that is, a focus position of the processing light EL
  • the control device 7 models based on the information on the position of the modeling head 21 in which the opening 324 can be irradiated with the processing light EL and the information on the positional relationship between the opening 324 and the through hole 322.
  • the position of the modeling head 21 in a state where the through hole 322 can be irradiated with the processing light EL in the situation where the beam detection member 32 is mounted on the mounting surface 311 the through hole 322 and the pin 312 overlap in the Z-axis direction. Therefore, the position of the modeling head 21 in which the through hole 322 can be irradiated with the processing light EL can be regarded as equivalent to the position of the modeling head 21 in which the pin 312 can be irradiated with the processing light EL. Further, as described above, the information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7.
  • the position in the modeling coordinate system of the modeling head 21 in a state where the pin 312 can be irradiated with the processing light EL and the position in the stage coordinate system where the pin 312 is formed are determined. It can be identified as a position that should be associated with each other. That is, the control device 7 can specify that a specific position in the modeling coordinate system and a specific position in the stage coordinate system should be associated with each other. As a result, the control device 7 has the modeling coordinate system and the stage based on the specific result that a specific position in the modeling coordinate system and a specific position in the stage coordinate system should be associated with each other. Can be associated with a coordinate system.
  • control device 7 can specify the position of the modeling head 21 in a state in which the processing light EL can be irradiated to an arbitrary position in the stage coordinate system in the modeling coordinate system. Further, the control device 7 can specify a position (for example, an additional processing position) in which the modeling head 21 arranged at an arbitrary position in the modeling coordinate system irradiates the processing light EL in the stage coordinate system.
  • the reference member 34 is placed on the mounting surface 311 of the stage 31.
  • the reference member 34 is placed on the mounting surface 311 so that the positional relationship between the reference member 34 and the mounting surface 311 is a desired second positional relationship.
  • the reference member 34 and the mounting surface 311 are mounted. Marks for alignment are formed on both sides of the surface 311.
  • FIG. 11 is a plan view showing a reference member 34 on which a mark for alignment is formed.
  • FIG. 12 is a plan view showing a reference member 34 mounted on the mounting surface 311.
  • a mark different from the pin 312 formed on the mounting surface 311 may be used as a mark for mounting the reference member 34 on the mounting surface 311.
  • the reference member 34 includes a base member 341.
  • the base member 341 is a plate-shaped member.
  • the base member 341 has a shape and size that can be mounted on the mounting surface 311.
  • a plurality of through holes 342 are formed in the base member 341 as a mark for alignment.
  • the base member 341 is formed with two through holes 342.
  • the through hole 342 penetrates the base member 341 along the Z-axis direction.
  • the reference member 34 is placed on the mounting surface 311 so that the pin 312 is inserted into the through hole 342. Therefore, the arrangement pattern of the through hole 342 is the same as the arrangement pattern of the pin 312. Further, the number of through holes 342 is the same as (or may be large) the number of pins 312. As a result, the reference member 34 is placed on the mounting surface 311 so as to have a desired second positional relationship with respect to the mounting surface 311. The reference member 34 is mounted on the mounting surface 311 so as to have a desired second positional relationship with respect to the pin 312 on the mounting surface 311.
  • the reference member 34 is placed on the mounting surface 311 so as to satisfy the desired second positional relationship that the pin 312 of the mounting surface 311 and the through hole 342 of the reference member 34 overlap in the Z-axis direction.
  • the position of the pin 312 in the X-axis direction and the position of the through hole 342 corresponding to the pin 312 in the X-axis direction are the same, and the position of the pin 312 in the Y-axis direction and the pin It is placed on the mounting surface 311 so as to satisfy the desired second positional relationship that the position of the through hole 342 corresponding to 312 in the Y-axis direction is the same.
  • the position where the pin 312 is formed may be used as a reference position on the mounting surface 311 when the reference member 34 is mounted on the mounting surface 311.
  • the reference member 34 is placed on the mounting surface 311 in a state of being aligned so as to have a desired second positional relationship with respect to the reference position on the mounting surface 311.
  • At least one reference mark 343 is formed on the upper surface of the base member 341.
  • One reference mark 343 may be formed, two reference marks 343 may be formed, three reference marks 343 may be formed, or four reference marks 343 may be formed on the base member 341.
  • the reference mark 343 may be formed, or five or more reference marks 343 may be formed.
  • FIG. 11 shows an example in which five reference marks 343 are formed on the upper surface of the base member 341.
  • the reference mark 343 is a mark that can be measured by the measuring device 8.
  • the reference mark 343 is a mark that can be imaged by the image pickup device 82 included in the measuring device 8.
  • the information regarding the positional relationship between the reference mark 343 and the through hole 342 is known to the control device 7.
  • the reference mark 343 is a predetermined position on the mounting surface 311 (for example, the center of the mounting surface 311) when the reference member 34 is mounted on the mounting surface 311 so that the pin 312 is inserted into the through hole 342. It may be formed at a predetermined position on the base member 341 so that the reference mark 343 is arranged on the base member 341.
  • the information regarding the predetermined position on the mounting surface 311 on which the reference mark 343 is arranged may be information known to the control device 7. ..
  • the predetermined position on the mounting surface 311 on which the reference mark 343 is to be placed serves as the reference position on the mounting surface 311 when the reference member 34 is mounted on the mounting surface 311. It may be used.
  • the reference member 34 is placed on the mounting surface 311 in a state where the reference mark 343 is arranged at the reference position on the mounting surface 311.
  • the information regarding the positional relationship between the position where the reference mark 343 is arranged and the through hole 342 does not have to be known to the control device 7.
  • the beam detection member 32 shown in FIGS. 7 to 9 and the reference member shown in FIGS. 11 and 12 may be provided on the same member.
  • the measuring device 8 measures the reference member 34 (step S114). In particular, the measuring device 8 measures the reference mark 343 formed on the reference member 34.
  • the control device 7 associates the measurement coordinate system with the stage coordinate system based on the measurement result of the measurement device 8 in step S115 (step S116). Specifically, the control device 7 can specify the position of the reference mark 343 in the measurement coordinate system from the measurement result of the measurement device 8. Further, as described above, the information regarding the positional relationship between the reference mark 343 and the through hole 342 is known to the control device 7. Therefore, the control device 7 determines the through hole 322 in the measurement coordinate system based on the information regarding the position of the reference mark 343 in the measurement coordinate system and the information regarding the positional relationship between the reference mark 343 and the through hole 342. The position can be specified.
  • the position of the through hole 342 and the position of the pin 312 are the same under the condition that the reference member 34 is mounted on the mounting surface 311. Therefore, the position of the through hole 342 in the measurement coordinate system can be regarded as equivalent to the position of the pin 312 in the measurement coordinate system.
  • the information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7. Therefore, the control device 7 can specify that the position of the pin 312 in the measurement coordinate system and the position of the pin 312 in the stage coordinate system should be associated with each other. That is, the control device 7 can specify that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other.
  • control device 7 is based on the specific result that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other, and the measurement coordinate system and the stage. Can be associated with a coordinate system. As a result, the control device 7 can specify the position of the measurement target in the stage coordinate system.
  • the control device 7 can specify that the information regarding the position of the reference mark 343 in the measurement coordinate system and the predetermined position in the stage coordinate system in which the reference mark 343 is arranged are positions to be associated with each other. .. That is, the control device 7 can specify that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other. As a result, the control device 7 is based on the specific result that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other, and the measurement coordinate system and the stage. Can be associated with a coordinate system.
  • the beam detection member 32 may be used to measure the positional deviation between the processing light EL and the guide light GL.
  • the processing system SYS emits a plurality of guide light GLs
  • the positional deviation between the position where the plurality of guide light GLs intersect and the focus position (additional processing position) of the processing light EL is measured by using the beam detection member 32. You may.
  • the focus position and / or the position of the guide light GL of the processing light EL (when a plurality of guide light GLs are used, the intersection position of the plurality of guide light GLs). May be changed.
  • the work model alignment operation is an operation of aligning the work model WM, which is a three-dimensional model of the work W to form the three-dimensional structure ST, with the actual work W.
  • the work model alignment operation is an operation of aligning the work model WM and the work W in the reference coordinate system.
  • the reference coordinate system is a coordinate system that serves as a reference for the processing system SYS.
  • the reference coordinate system is a coordinate system used for control by the control device 7.
  • the stage coordinate system is used as the reference coordinate system.
  • the work model alignment operation is an operation of aligning the work model WM and the work W in the stage coordinate system.
  • the measurement coordinate system or the modeling coordinate system may be used as the reference coordinate system.
  • Other coordinate systems different from the stage coordinate system, the measurement coordinate system, and the modeling coordinate system may be used as the reference coordinate system.
  • the work information includes both the work position information regarding the position of the work model WM and the work shape information regarding the shape of the work model WM.
  • the work information is information corresponding to the work position information and the work shape information.
  • the position of the work model WM coincides with the actual position of the work W (or, if not, it substantially matches). Therefore, the work position information can be regarded as equivalent to the information regarding the position of the work W.
  • the shape of the work model WM matches the shape of the actual work W (or, if not, it substantially matches). Therefore, the work shape information can be regarded as equivalent to the information regarding the actual shape of the work W.
  • the "work information corresponding to the work position information and the work shape information" is the same as the "measurement information corresponding to the measurement position information and the measurement shape information", and is both the position and shape of each part of the work model WM. Means information that can be identified. It should be noted that such work information does not have to include the work position information and the work shape information as separate and independent information, as long as both the position and shape of each part of the work model WM can be specified.
  • the work information may have any data structure.
  • the work shape information is information on the positions of the pixels (in other words, volume elements, so-called voxels) constituting the work model WM (that is, data indicating the shape of the work model WM using information on the pixel positions). It may be included.
  • the work shape information may include polygon data of the work model WM.
  • the work shape information may include cross-sectional shape data regarding the cross section of each layer obtained by slicing the work model WM (that is, slicing the work model WM to a predetermined thickness in an arbitrary surface direction).
  • FIG. 13 is a perspective view showing the mounting surface 311 and the work model WM in the stage coordinate system.
  • the position and orientation (in other words, posture) of each part of the work model WM (for example, each part of the surface of the work model WM) can be specified in the stage coordinate system. That is, the control device 7 can specify the position and orientation (in other words, the posture) of each part of the work W (for example, each part of the surface of the work W) in the stage coordinate system.
  • the machining system SYS can appropriately perform additional machining on the work W whose position and orientation are known from the work information in the modeling operation described later based on the work information.
  • the machining system SYS performs at least one of the first work model alignment operation, the second work model alignment operation, and the third work model alignment operation as the work model alignment operation. Therefore, in the following, the first to third work alignment operations will be described in order.
  • the machining system SYS does not have to perform the work model alignment operation. For example, when the work information is input to the machining system SYS via the input device 92, the machining system SYS does not have to perform the work model alignment operation.
  • FIG. 14 is a flowchart showing the flow of the first work model alignment operation.
  • the work W is placed on the mounting surface 311 of the stage 31 (step S121). After that, the measuring device 7 measures the work W (step S122).
  • the control device 7 After that, the control device 7 generates work information based on the measurement result of the measuring device 8 in step S122 (step S123). Specifically, as described above, the control device 7 generates measurement information regarding the work W measured by the measuring device 8 based on the measurement result of the measuring device 8 (that is, the imaging result of the imaging device 82).
  • the measurement information includes measurement shape information regarding the shape of the work W. This measured shape information is used as it is as the work shape information. Further, the measurement information includes measurement position information regarding the position of the work W. However, the measurement position information is information regarding the position of the work W in the measurement coordinate system. Therefore, the control device 7 converts the position of the work W in the measurement coordinate system indicated by the measurement position information into the position of the work W in the stage coordinate system.
  • the information about the position of the work W in the stage coordinate system acquired by the conversion is used as the work position information.
  • the control device 7 can generate work information in which the work position information and the work shape information correspond to each other. That is, the control device 7 can generate work information about the work model WM corresponding to the actual work W.
  • FIG. 15 is a flowchart showing the flow of the second work model alignment operation.
  • the work W is placed on the mounting surface 311 of the stage 31 (step S131). After that, the measuring device 7 measures the work W (step S132).
  • the control device 7 acquires work model data corresponding to the shape of the work W mounted on the mounting surface 311 in tandem with or in parallel with the processing of steps S131 to S132 (step S133). Specifically, the control device 7 acquires work model data indicating a work model WM having the same or similar shape as the work W.
  • the work model data includes work model feature information regarding the features of the work model WM.
  • the work model data includes at least work model shape information regarding the shape of the work model WM, which is an example of the features of the work model WM.
  • the work model data may be recorded in a memory (that is, a recording medium) included in the control device 7.
  • the work model data may be recorded on an arbitrary recording medium (for example, a hard disk or a semiconductor memory) built in the control device 7 or externally attached to the control device 7.
  • the control device 7 may acquire the work model data by reading the work model data from these recording media by using the input device 92 as needed.
  • the work model data may be recorded in a device external to the control device 7.
  • the work model data may be recorded in an external device of the processing system SYS.
  • the control device 7 may acquire the work model data by downloading the work model data from an external device by using the input device 92 as needed.
  • a plurality of work model data indicating a plurality of work model WMs having a plurality of different shapes may be recorded on the recording medium (or an external device).
  • the control device 7 may acquire one work model data corresponding to the shape of the work W from the plurality of work model data.
  • the control device 7 can appropriately acquire one work model data corresponding to the shape of the work W.
  • a single work model data may be recorded on the recording medium (or an external device).
  • the control device 7 may acquire work model data based on the instruction of the user of the processing system SYS. Specifically, the control device 7 may control the display 91 so as to display a plurality of work model WMs. Further, the control device 7 displays a GUI for allowing the user to select any one of the plurality of work model WMs as a work model WM having the same or similar shape as the work W.
  • the display 91 may be controlled.
  • the user may grasp the shape of the work W by visually recognizing the work W, and may select a work model WM having the same or similar shape as the grasped work W by using the input device 92.
  • the control device 7 acquires the work model data indicating the work model WM selected by the user.
  • the control device 7 indicates a work model WM having the same or similar shape as the predetermined shape of the work W.
  • Work model data may be acquired.
  • the control device 7 may modify the work model WM indicated by the acquired work model data based on the user's instruction. For example, the control device 7 may modify the characteristics (for example, at least one of the shape and the size) of the work model WM based on the instruction of the user.
  • the work model data related to the modified work model WM is used in the subsequent processing.
  • the control device 7 acquires the work model shape information regarding the shape of the work model WM from the work model data. Since the shape of the work model WM is the same as or similar to the shape of the work W, the work model shape information can be regarded as equivalent to the information regarding the shape of the work W.
  • the measurement information generated based on the measurement result of the measuring device 8 also includes the measurement shape information regarding the shape of the work W. However, the accuracy of the shape of the work W indicated by the measured shape information may be lower than the accuracy of the shape of the work model WM indicated by the work model shape information due to the measurement error of the measuring device 8. Therefore, in the first embodiment, the control device 7 uses the work model shape information acquired from the work model data as the work shape information instead of the measurement shape information included in the measurement information.
  • the work model shape information is information separate from the measurement information generated based on the measurement result of the measuring device 8. Therefore, the work model shape information is not associated with information regarding the position of the work W on the mounting surface 311. That is, the control device 7 cannot specify at which position the work model WM (that is, the work W) is arranged on the mounting surface 311 only by referring to the work model shape information. Further, the control device 7 cannot specify the posture in which the work model WM (that is, the work W) is arranged on the mounting surface 311 only by referring to the work model shape information. Further, the control device 7 cannot specify how large the work model WM (that is, the work W) has on the mounting surface 311 only by referring to the work model shape information.
  • the control device 7 associates the measurement position information regarding the position of the work W included in the measurement information with the work model shape information.
  • the control device 7 can specify the position of the work model WM on the mounting surface 311 in addition to the shape of the work model WM by associating the measurement position information with the work model shape information. Generate information.
  • the position of the work model WM on the mounting surface 311 can be used as the position of the work W on the mounting surface 311. Therefore, the control device 7 can generate work information that can specify the position of the work W on the mounting surface 311 (and, of course, the shape can also be specified).
  • the control device 7 can function as an arithmetic unit that associates the measurement position information with the work model shape information.
  • the control device 7 generates measurement information including the measurement shape information and the measurement position information in a state of being associated with each other, based on the measurement result of the measurement device 8. After that, the control device 7 performs an alignment process for arranging the work model WM at the position of the work W indicated by the measurement position information. That is, the control device 7 performs the alignment process of moving, enlarging, reducing and / or rotating the work model WM to bring it closer to the work W indicated by the measured shape information. As a result, the position of the work model WM on the mounting surface 311 (that is, the position of the work W on the mounting surface 311) is determined. Therefore, the control device 7 can generate work information based on the result of the alignment process.
  • control device 7 is a measurement feature point that is a feature point of the work W (specifically, a feature point of the work W that can be identified from the measurement information) based on the measurement information and corresponds to the work model extraction point. Is also extracted.
  • the control device 7 extracts a plurality of (for example, three or more) measurement feature points.
  • the control device 7 may extract the measurement feature points based on the operation for designating the measurement feature points performed by the user using the input device 92.
  • the control device 7 may extract the measurement feature points according to a predetermined extraction standard without requiring the operation of the user. After that, the control device 7 pattern-matches the work model WM and the work W indicated by the measurement information based on the work model feature points and the measurement feature points.
  • the work model feature points are the measurement feature points, as shown in FIG. 16, which is a conceptual diagram conceptually showing how the work model WM and the work W indicated by the measurement information are pattern-matched.
  • the work model WM is translated, enlarged, reduced and / or rotated so as to approach.
  • the control device 7 translates, enlarges, reduces and / or rotates the work model WM until the deviation between the work model feature point and the measurement feature point becomes a predetermined amount or less (typically, until it becomes the minimum).
  • the work model WM is arranged at the same position as the arrangement position of the work W indicated by the measurement information in the measurement coordinate system.
  • the control device 7 can specify the position of the work model WM in the measurement coordinate system.
  • the position of the work model WM in the measurement coordinate system is converted to the position of the work model WM in the stage coordinate system as described above.
  • information on the position of the work model WM that can be used as the work position information is acquired. That is, the work information corresponding to the work model shape information that can be used as the work shape information and the information about the position of the work model WM that can be used as the work position information is acquired as the information about the work model WM.
  • the control device 7 may perform the alignment process by using an arbitrary algorithm for performing the alignment process.
  • an arbitrary algorithm for performing the alignment process there is an ICP (Interactive Closet Point) algorithm for aligning a plurality of point clouds (for example, a point cloud including the above-mentioned work model feature points and a point cloud including the measurement feature points). Be done.
  • ICP Interactive Closet Point
  • the shape of the work model WM (that is, the shape of the work W) indicated by the work information can be more accurate than that of the first work model alignment operation.
  • the accuracy of the shape of the work W indicated by the measured shape information may be lower than the accuracy of the shape of the work model WM indicated by the work model shape information. Therefore, by using the work information generated by the second work model alignment operation, the machining system SYS may be able to form the three-dimensional structure ST with higher accuracy by the modeling operation described later. ..
  • the control device 7 has the measurement result (particularly, measurement position information) of the measurement device 8 included in the processing system SYS and the work model data (particularly) acquired in step S133. , Work model shape information) and work information is generated. That is, the control device 7 associates the measurement position information generated from the measurement result of the measurement device 8 included in the processing system SYS with the work model shape information. However, even if the control device 7 acquires the measurement position information from the outside of the processing system SYS via the input device 92 and generates the work information based on the acquired measurement position information and the work model shape information. Good. That is, the control device 7 may associate the measurement position information acquired from the outside of the processing system SYS via the input device 92 with the work model shape information.
  • step S134 of FIG. 15 the control device 7 included in the processing system SYS associates the measurement position information with the work model shape information.
  • an external device of the processing system SYS may associate the measurement position information with the work model shape information.
  • the control device 7 may transmit (that is, output) the measurement position information, the model shape information, and the external device of the processing system SYS via the network.
  • FIG. 17 is a flowchart showing the flow of the third work model alignment operation.
  • the work W is placed on the mounting surface 311 of the stage 31 (step S141). After that, the measuring device 7 measures the work W (step S142).
  • step S142 acquires the work model data corresponding to the shape of the work W mounted on the mounting surface 311 (step S142). Since the process of step S142 may be the same as the process of step S133 in the second work model alignment operation described above, detailed description thereof will be omitted.
  • a certain point on the surface of the work model WM is designated as a user-designated point by the user (step S143).
  • the user uses the input device 92 to specify a user-designated point.
  • the control device 7 controls the display 91 so as to display the work model WM indicated by the work model data acquired in step S142, and the user controls the display 91 so as to display the work model WM, and the user can use the user designated point on the work model WM displayed on the display 91. May be specified.
  • the user-designated point may be a characteristic point on the surface of the work model WM.
  • the vertices, the corners, the points located on the most + Z side, the points located on the most -Z side, the points located on the most + X side, and the points located on the most -X side At least one of a point, a point located on the most + Y side, and a point located on the most ⁇ Y side can be mentioned.
  • the user-specified point may be any point as long as it is a point on the surface of the work model WM.
  • the head drive system 22 has a desired third positional relationship between the point on the work W (hereinafter, referred to as “work designated point”) corresponding to the user-designated point designated in step S143 and the modeling device 2.
  • the modeling head 21 is moved so that the position condition is satisfied (step S144).
  • the work designated point is typically the same as the user designated point.
  • the information regarding the third positional relationship is information known to the control device 7.
  • An example of a state in which the work designated point and the modeling device 2 have a desired third positional relationship is a state in which the modeling device 2 can process the work designated point. Since the modeling device 2 mainly processes the object at the additional processing position (that is, the focus position of the processing light EL), the additional processing is an example of a state in which the work designated point and the modeling device 2 have a desired third positional relationship. The state where the position is set to the work designated point can be mentioned. As described above, the plurality of guide light GLs emitted from the plurality of guide light emitting devices 24 intersect at the additional processing position.
  • a state in which a plurality of guide light GLs intersect at the work designated point can be mentioned. That is, as an example of a state in which the work designated point and the modeling apparatus 2 have a desired third positional relationship, a state in which a plurality of guide light GLs are applied to the work designated point can be mentioned.
  • the plurality of guide light emitting devices 24 emit a plurality of guide light GLs
  • the head drive system 22 emits a plurality of guide light GLs.
  • the modeling head 21 is moved so that the plurality of guide light GLs intersect at the designated point (step S144). That is, the head drive system 22 changes the relative positional relationship between the work W and the additional processing position so that the plurality of guide light GLs intersect at the work designated point by moving the modeling head 21.
  • FIG. 18 is a cross-sectional view showing how a plurality of guide light GLs intersect at a designated work point.
  • FIG. 19 is a cross-sectional view showing a state in which a plurality of guide light GLs do not intersect at a designated work point.
  • the state of the plurality of guide light GLs changes from the state shown in FIG. 19 to the state shown in FIG. 18 (that is, the point where the plurality of guide light GLs intersect approaches the work designated point. ), Move the modeling head 21.
  • the guide light GL can function as a guide light for aligning the work designated point and the modeling device 2 so that the work designated point and the modeling device 2 have a desired third positional relationship. Since the work designated point is designated on the surface of the work W, the guide light GL aligns the work W and the modeling device 2 so that the work designated point and the modeling device 2 have a desired third positional relationship. Can function as a guide light to do.
  • the control device 7 may control the head drive system 22 so that the modeling head 21 moves based on a user's instruction to move the modeling head 21. That is, the user may visually confirm whether or not the plurality of guide light GLs intersect at the work designated point, and the head drive system 22 may move the modeling head 21 based on the confirmation result by the user.
  • the user's instruction may be input via the input device 92.
  • the control device 7 controls the image pickup device 82 so as to image the state of the guide light GL on the work W, and displays the image pickup result of the image pickup device 82.
  • 91 may be controlled.
  • the control device 7 controls the other image pickup device so as to image the state of the guide light GL on the work W.
  • the display 91 may be controlled so as to display the imaging result of another imaging device.
  • the user may input an instruction to move the modeling head 21 by using the input device 92 while referring to the display content of the display 91.
  • the control device 7 may control the head drive system 22 so that the modeling head 21 moves based on the imaging result of the imaging device 82 (or the imaging result of another imaging device, the same applies hereinafter).
  • the wavelength of the guide light GL may be different from the wavelength of the processed light EL.
  • a filter that reflects the processing light EL and transmits the guide light GL is arranged on the most work W side of the optical system of the imaging device 82 or another imaging device. You may.
  • an infrared reflection filter may be used as the filter.
  • the image pickup result of the image pickup apparatus 82 is the surface of the work W (particularly, the work designation) as shown in FIG. 20A.
  • Point indicates that the beam spots of a plurality of guide light GLs overlap. That is, the imaging result of the imaging device 82 shows that a single beam spot is formed on the surface of the work W (particularly, the designated work point) as shown in FIG. 20 (a).
  • the imaging result of the imaging device 82 is the surface of the work W (particularly, the work designated point) as shown in FIG. 20 (b).
  • the control device 7 can determine whether or not a plurality of guide light GLs intersect at the work designated point based on the imaging result of the imaging device 82. If the plurality of guide light GLs do not intersect at the work designated point, the user or the control device 7 can change the state of the plurality of guide light GLs on the surface of the work W from the state shown in FIG. 20 (b) to FIG. 20 (a). ) Is changed (that is, a plurality of beam spots are approached), and the modeling head 21 is moved.
  • step S145 the position measuring device 23 measures the position of the modeling head 21 when a plurality of guide light GLs intersect at the work designated point (step S145). As described above, the plurality of guide light GLs intersect at the additional processing position. Therefore, in step S145, it can be said that the position measuring device 23 measures the position of the modeling head 21 in a state where the additional processing position is set at the work designated point.
  • step S145 it can be said that the position measuring device 23 measures the position of the modeling head 21 in a state where the work designated point can be processed. Further, since the additional processing position has a fixed positional relationship with respect to the modeling head 21, the operation of measuring the position of the modeling head 21 can be regarded as equivalent to the operation of indirectly measuring the additional processing position. Further, since the position of the modeling head 21 is measured with the additional processing position set at the work designated point, the operation of measuring the position of the modeling head 21 (that is, indirectly measuring the additional processing position) is performed. , It can be regarded as equivalent to the operation of indirectly measuring the position of the work designated point on the work W.
  • the control device 7 determines whether or not a new user-designated point should be designated (step S146). Specifically, the control device 7 may determine whether or not the desired number of user-designated points have been designated and the above-described processes of steps S144 and S145 have been performed for each of the desired number of user-designated points. Good. The desired number may be one, two, three, four, or five or more. When it is determined that the desired number of user-designated points has not been specified (as a result, the processes of steps S144 and S145 described above have not been performed for each of the desired number of user-designated points), the control device 7 may determine that a new user-designated point should be designated.
  • control device 7 when a desired number of user-designated points are specified and it is determined that the processes of steps S144 and S145 described above have been performed for each of the desired number of user-designated points, the control device 7 is newly added. It may be determined that the user-specified point does not have to be specified.
  • the position of the work W in the X-axis direction, the position in the Y-axis direction, and the position in the Z-axis direction can be calculated in step S148 described later.
  • the shape of the work W is information known to the control device 7 and the number of user-specified points is two, in addition to the position of the work W in the X-axis direction, the position in the Y-axis direction, and the position in the Z-axis direction. Therefore, the rotation ⁇ z around the Z axis of the work W can be calculated.
  • the position of the work W in the X-axis direction, the position in the Y-axis direction, and the Z-axis direction can be calculated.
  • step S147 when it is determined that a new user-designated point should be specified (step S147: Yes), a certain point on the surface of the work model WM by the user (however, until now, the user has been specified). A point that has never been designated as a point) is designated as a new user-designated point (step S147). After that, the processes of steps S144 and S145 described above are performed for the new user-designated points.
  • step S147 if it is determined as a result of the determination in step S146 that a new user-designated point does not have to be specified (step S147: No), the control device 7 measures the position measuring device 23 in step S145. Work information is generated based on the result and the work model data acquired in step S142 (step S148).
  • the measurement result of the position measuring device 23 in step S145 indicates the position of the modeling head 21 when the work designated point and the modeling device 2 have a desired third positional relationship. .. Therefore, the control device 7 can specify the position of the work designated point in the modeling coordinate system from the measurement result of the position measuring device 23. This is because the work designated point and the modeling device 2 have a desired third positional relationship, so that the work designated point and the modeling head 21 naturally have a third position that is known information to the control device 7. This is because it has a certain positional relationship that can be specified from the information on the relationship.
  • the control device 7 performs an alignment process for arranging the user-designated point of the work model WM at the position of the work designated point specified from the measurement result of the position measuring device 23. That is, the control device 7 performs the alignment process of moving, enlarging, reducing and / or rotating the work model WM indicated by the work model shape information to bring the user-designated point closer to the position of the work-designated point. As a result, the position of the work model WM on the mounting surface 311 is known. Therefore, the control device 7 generates work information based on the result of the alignment process. As the alignment process, the control device 7 may perform the same process as the alignment process used in the second work model alignment operation described above.
  • control device 7 uses an ICP (Interactive Closet Point) algorithm for aligning a plurality of point clouds (for example, a point cloud including a model designated point and a point cloud including a user designated point). Processing may be performed. Therefore, the details of the alignment process in the third work model alignment operation will be omitted.
  • ICP Interactive Closet Point
  • the control device 7 can generate work information without requiring the measurement device 8 to measure the work W. Therefore, even if the work W has a shape that is difficult to measure or cannot be measured by the measuring device 8, the control device 7 can generate the work information.
  • the modeling model alignment operation aligns the modeling model PM, which is a three-dimensional model of the three-dimensional structure ST to be formed by additional processing, with the work model WM indicated by the work information generated by the work model alignment operation. It is an operation.
  • the modeling model alignment operation is an operation of aligning the modeling model PM and the work model WM in the reference coordinate system.
  • the stage coordinate system is used as the reference coordinate system. Therefore, the modeling model alignment operation is an operation of aligning the modeling model PM and the work model WM in the stage coordinate system.
  • modeling information regarding the modeling model PM aligned with the work model WM is generated.
  • the modeling model information is information corresponding to the modeling position information regarding the position of the modeling model PM and the modeling shape information regarding the shape of the modeling model PM.
  • the "modeling information corresponding to the modeling position information and the modeling shape information" means information in a state in which both the position and the shape of each part of the modeling model PM can be specified. It should be noted that such modeling information does not have to include the modeling position information and the modeling shape information as separate and independent information, as long as both the position and shape of each part of the modeling model PM can be specified.
  • the modeling information may have any data structure.
  • the modeling shape information is information on the positions of the pixels (in other words, volume elements, so-called voxels) constituting the modeling model PM (that is, data indicating the shape of the modeling model PM using the information on the pixel positions). It may be included.
  • the modeling shape information may include polygon data of the modeling model PM.
  • the modeling shape information may include cross-sectional shape data regarding the cross section of each layer obtained by slicing the modeling model PM (that is, slicing the modeling model PM to a predetermined thickness in an arbitrary surface direction).
  • the control device 7 is as shown in FIG. 21, which is a perspective view showing the work W and the three-dimensional structure ST in the stage coordinate system.
  • the positional relationship between the work W and the three-dimensional structure ST to be formed on the work W can be specified in the stage coordinate system. That is, the control device 7 can specify at which position on the work W the three-dimensional structure ST should be formed in the stage coordinate system.
  • the control device 7 can specify what kind of posture the three-dimensional structure ST should have on the work W in the stage coordinate system.
  • the control device 7 can specify what size the three-dimensional structure ST should have on the work W in the stage coordinate system.
  • the processing system SYS can form the three-dimensional structure ST at an appropriate position on the work W in the modeling operation described later based on the modeling information (furthermore, the work information if necessary). .. That is, the processing system SYS forms a three-dimensional structure ST having an appropriate shape according to the modeling information at an appropriate position specified by the modeling information on the work W whose position and shape can be specified by the workpiece information. can do.
  • the processing system SYS does not have to perform the modeling model alignment operation. For example, when the modeling information is input to the processing system SYS via the input device 92, the processing system SYS does not have to perform the modeling model alignment operation.
  • FIG. 22 is a flowchart showing the flow of the modeling model alignment operation.
  • the control device 7 acquires modeling model data corresponding to the shape of the three-dimensional structure ST to be formed by additional processing (step S151). Specifically, the control device 7 acquires modeling model data indicating a modeling model PM having the same or similar shape as the shape of the three-dimensional structure ST.
  • the modeling model data includes modeling model feature information regarding the features of the modeling model PM.
  • the modeling model data includes at least modeling model shape information regarding the shape of the modeling model PM, which is an example of the features of the modeling model PM.
  • the modeling model data may be recorded in a memory (that is, a recording medium) included in the control device 7.
  • the modeling model data may be recorded on an arbitrary recording medium (for example, a hard disk or a semiconductor memory) built in the control device 7 or externally attached to the control device 7.
  • the control device 7 may acquire the modeling model data by reading the modeling model data from these recording media by using the input device 92 as needed.
  • the modeling model data may be recorded in a device external to the control device 7.
  • the modeling model data may be recorded in an external device of the processing system SYS. In this case, the control device 7 may acquire the modeling model data by downloading the modeling model data from an external device via the input device 92.
  • a plurality of modeling model data indicating a plurality of modeling model PMs having a plurality of different shapes may be recorded on the recording medium (or an external device).
  • the control device 7 may acquire one modeling model data corresponding to the shape of the three-dimensional structure ST from the plurality of modeling model data.
  • the control device 7 appropriately obtains one modeling model data corresponding to the shape of the three-dimensional structure ST. Can be obtained.
  • a single modeling model data is recorded on the recording medium (or an external device). May be good.
  • the control device 7 may acquire modeling model data based on the instruction of the user of the processing system SYS. Specifically, the control device 7 may control the display 91 so as to display a plurality of modeling model PMs. Further, the control device 7 displays a GUI for allowing the user to select any one of the plurality of modeling model PMs as a modeling model PM having the same or similar shape as the shape of the three-dimensional structure ST. As such, the display 91 may be controlled.
  • the user may use the input device 92 to select a modeling model PM having the same or similar shape as the shape of the three-dimensional structure ST to be formed by additional processing. As a result, the control device 7 acquires the modeling model data indicating the modeling model PM selected by the user.
  • the control device 7 has a modeling model having the same or similar shape as the predetermined shape of the three-dimensional structure ST.
  • the modeling model data indicating PM may be acquired.
  • the control device 7 may modify the modeling model PM indicated by the acquired modeling model data based on the user's instruction. For example, the control device 7 may modify the characteristics (for example, at least one of the shape and the size) of the modeling model PM based on the instruction of the user. When the characteristics of the modeling model PM are modified, the modeling model data related to the modified modeling model PM is used in the subsequent processing.
  • the control device 7 controls the display 91 so as to display the work model WM based on the work information (step S152). That is, the control device 7 displays the image showing the work model WM having the shape indicated by the work information at the position indicated by the work information (that is, the position of the actual work W) in the stage coordinate system. To control. At this time, the control device 7 may control the display 91 so as to display the work model WM together with the stage 3 (particularly, the mounting surface 311). Alternatively, the control device 7 may control the display 91 so as to display the actual work W (that is, an image showing the actual work W). For example, the control device 7 may control the display 91 so as to display the imaging result of the imaging device 82 that is imaging the actual work W. Note that FIG. 23 shows a display example of the work model WM.
  • the control device 7 receives an input from the user for aligning the work model WM and the modeling model PM (that is, aligning the work W and the modeling model PM) (step S153).
  • the work model WM is displayed on the display 91 in step S152. Therefore, in step S153, the control device 7 may accept an input from the user for designating the position of the modeling model PM with respect to the work model WM displayed on the display 91. Therefore, the input device 92 may be referred to as a designated device because it is a device used to specify the position of the modeling model PM.
  • the user specifies a position where at least a part of the three-dimensional structure ST should be formed by additional processing (that is, a modeling position where at least a part of the three-dimensional structure ST should be formed) as a position of the modeling model PM.
  • the modeling position may include a position where at least a part of the three-dimensional structure ST formed by the addition processing is distributed.
  • the modeling position may include a position where additional processing is performed to form at least a part of the three-dimensional structure ST. Since the additional processing is performed at the above-mentioned additional processing position (typically, the focus position of the processing light EL), the modeling position is set so that the additional processing position forms at least a part of the three-dimensional structure ST. It may include the position to be set.
  • the modeling position is the processing light for forming at least a part of the three-dimensional structure ST. It may include a position where the EL is irradiated (that is, a position where the irradiation region EA is set). Since the additional processing is performed at the position where the modeling material M is supplied (that is, the position where the supply region MA is set), the modeling position is the modeling material for forming at least a part of the three-dimensional structure ST. It may include a position where M is supplied (that is, a position where the supply area MA is set).
  • the modeling position may include a position where additional processing for forming the three-dimensional structure ST is started (that is, a modeling start position).
  • the modeling position may include a position where the additional processing for forming the three-dimensional structure ST ends (that is, the modeling end position).
  • the modeling position may include a position where a feature point of the three-dimensional structure ST should be formed.
  • the characteristic points of the three-dimensional structure ST the apex, the angle, the point located on the most + Z side, the point located on the most -Z side, the point located on the most + X side, and the point located on the most -X side.
  • At least one of a point, a point located on the most + Y side, and a point located on the most ⁇ Y side can be mentioned.
  • the user may specify a position having a predetermined positional relationship with the above-mentioned modeling position as the position of the modeling model PM. ..
  • the user may specify a position offset by a predetermined distance in a predetermined direction from the above-mentioned modeling position as the position of the modeling model PM.
  • the user may specify the position of the modeling model PM by using the input device 92.
  • the user may specify the position of the modeling model PM on the display screen of the display 91 on which the work model WM is displayed in step S152.
  • the user uses the input device 92 to move the pointer 911 for designating the position of the modeling model PM, and the pointer 911 to the position desired to be designated as the position of the modeling model PM.
  • the position of the pointer 911 may be designated as the position of the modeling model PM at the timing when is positioned.
  • the user may specify the position of the modeling model PM by using the guide light GL emitted by the guide light emitting device 24 described above.
  • the user uses the input device 92 to move the modeling head 21 to move a plurality of guide light GLs with respect to the work W, and at the same time, a plurality of guide light GLs at positions desired to be designated as positions of the modeling model PM.
  • the position where the plurality of guide light GLs intersect at the timing when the two guide lights intersect may be designated as the position of the modeling model PM.
  • the control device 7 may control the display 91 so as to display the position designated as the position of the modeling model PM in association with the work model WM.
  • the control device 7 is a display object 912 indicating a position designated as a position of the modeling model PM (in the example shown in FIG. 24, a display object indicating a white circle). ) May be controlled so that the display 91 is displayed in a display mode in which the positional relationship between the display object and the work model WM can be specified.
  • the user may specify a single position as the position of the modeling model PM.
  • the position specified by the user may be specified as the position of a part of the modeling model PM (that is, the position (region) where the part of the three-dimensional structure ST should be formed).
  • a region determined according to the position designated by the user may be designated as the position of the modeling model PM (that is, the position where the three-dimensional structure ST should be formed).
  • the area determined according to the position specified by the user the area including the position specified by the user, the area centered on the position specified by the user, the area having the position specified by the user as the apex, and the user. At least one of an area defined by a boundary including the position specified by the user and an area having a predetermined positional relationship with respect to the position specified by the user can be mentioned.
  • the user may specify a plurality of positions as the positions of the modeling model PM as shown in FIG. 25 showing a display example of the work model WM.
  • the area surrounded by the plurality of positions specified by the user is designated as the position of the modeling model PM (that is, the position where the three-dimensional structure ST should be formed).
  • You may.
  • a region having a predetermined positional relationship with respect to a plurality of positions designated by the user may be designated as a position of the modeling model PM (that is, a position where the three-dimensional structure ST should be formed).
  • the user may specify a single position as the position of the modeling model PM and also specify the posture of the modeling model PM.
  • the control device 7 uses the work W as shown in FIG. 26 showing a display example of the display 91.
  • the work model WM may be displayed in a display mode in which a defective surface portion of the surface of the work W and a non-defective surface portion of the surface of the work W can be distinguished.
  • the surface portion of the surface of the work W where the defect is generated is set as the modeling position. You may specify.
  • the control device 7 When accepting an input for designating the position of the modeling model PM, the control device 7 adds the modeling WM (or the actual work W) to the modeling as shown in FIG. 27 showing an example of display on the display 91.
  • the display 91 may be controlled to display the model PM (that is, the image of the modeling model PM). That is, the control device 7 may control the display 91 so as to display the modeling model PM arranged at the position designated by the user.
  • the user may specify the position of the modeling model PM by moving the modeling model PM on the display screen of the display 91 on which the modeling model PM is displayed by using the input device 92.
  • the user can intuitively specify the position of the modeling model PM.
  • the control device 7 may accept from the user an input for designating the posture of the modeling model PM with respect to the work model WM in addition to the input for designating the position of the modeling model PM with respect to the work model WM.
  • the control device 7 may accept from the user an input for designating the size of the modeling model PM with respect to the work model WM in addition to the input for designating the position of the modeling model PM with respect to the work model WM.
  • the user may use the input device 92 to specify the orientation and / or size of the modeling model PM.
  • the user can translate, rotate, enlarge, and / or reduce the modeling model PM by using the input device 92 on the display screen of the display 91 on which the modeling model PM is displayed, so that the position of the modeling model PM can be determined.
  • the posture and / or the posture may be specified.
  • the control device 7 can generate modeling position information regarding the position of the modeling model PM in the stage coordinate system.
  • the control device 7 generates modeling information in which the modeling position information regarding the position of the modeling model PM and the modeling shape information regarding the shape of the modeling model PM correspond to each other (step S154). That is, the control device 7 generates modeling information regarding the modeling model PM whose position and shape in the stage coordinate system are fixed.
  • control device 7 may modify the modeling information generated in step S154, if necessary.
  • the three-dimensional structure ST is formed on the work W. That is, the modeling model PM and the work model WM are aligned so that the modeling model PM is arranged on the work model WM.
  • the modeling information generated in step S154 is used depending on the relationship between the shape of the surface of the modeling model PM facing the work model WM side and the shape of the surface of the work model WM facing the modeling model PM side.
  • the modeling information generated in step S154 is used.
  • the three-dimensional structure ST cannot be formed on the work W. Specifically, as shown in FIG.
  • the modeling information can be used as 3 There is a possibility that a gap is formed between the dimensional structure ST and the work W. Alternatively, if the modeling information is used, there is a possibility that a three-dimensional structure ST that partially bites into the work W is formed.
  • the control device 7 may modify the modeling information.
  • FIG. 29 which is a cross-sectional view conceptually showing a modification example of the modeling information together with the modeling model PM and the work model WM
  • the control device 7 is a modeling model PM indicated by the modified modeling information.
  • the modeling information (particularly, the modeling shape information) may be modified so that the shape of the surface PMa has a complementary relationship with the shape of the surface WMa of the work model WM.
  • FIGS. 30 (a) to 30 (c) An example of a method of modifying the modeling information as shown in FIG. 29 is shown in FIGS. 30 (a) to 30 (c).
  • FIGS. 30 (a) to 30 (c) is a cross-sectional view conceptually showing an example of a method of modifying the modeling information together with the work model WM and the modeling model PM.
  • the control device 7 brings the modeling model PM and the work model WM close to each other until there is no gap between the surface PMa of the modeling model PM and the surface WMa of the work model WM. That is, the control device 7 causes the modeling model PM to bite into the work model WM until there is no gap between the surface PMa of the modeling model PM and the surface WMa of the work model WM.
  • the control device 7 calculates the thickness D of the overlapping portion between the modeling model PM and the work model WM (that is, the amount of the modeling model PM biting into the work model WM) D.
  • the control device 7 adds a cutting allowance model CM, which is a three-dimensional model corresponding to a modeled object having a thickness D, to the surface PMa before modification of the modeling model PM.
  • the control device 7 cuts the surface CMa facing the work model WM of the cutting allowance model CM so as to have a complementary relationship with the shape of the surface WMa of the work model WM. Partially cut the substitute model CM.
  • the modified modeling information includes the position and position of the three-dimensional model (that is, the modified modeling model PM) including the partially cut cutting allowance model CM and the modified modeling model PM.
  • the modeling information (particularly, the modeling shape information) may be modified to include information about the shape.
  • FIGS. 31 (a) to 31 (c) are cross-sectional views conceptually showing another example of the method of modifying the modeling information together with the work model WM and the modeling model PM.
  • the control device 7 brings the modeling model PM and the work model WM close to each other until there is no gap between the surface PMa of the modeling model PM and the surface WMa of the work model WM.
  • the control device 7 calculates the thickness D of the overlapping portion between the modeling model PM and the work model WM (that is, the amount of the modeling model PM biting into the work model WM) D.
  • the control device 7 cuts a portion of the modeling model PM that overlaps with the work model WM. Further, the control device 7 cuts a portion of the modeling model PM other than the lower end portion having the thickness D. As a result, the lower end portion of the modeling model PM having the thickness D and not overlapping with the work model WM remains as the repair model RM.
  • the shape of the surface RMa of the repair model RM facing the work model WM is complementary to the shape of the surface WMa of the work model WM.
  • This repair model RM can be regarded as equivalent to a three-dimensional model of the modeled object for filling the gap between the surface PMa of the model PM and the surface WMa of the work model WM.
  • the repair model RM is added to the lower end of the modeling model PM.
  • the three-dimensional model including the repair model RM and the modeling model PM is used as a new (that is, modified) modeling model PM. Therefore, in the control device 7, the modified modeling information includes information regarding the position and shape of the three-dimensional model (that is, the modified modeling model PM) including the repair model RM and the modified modeling model PM. , The modeling information (particularly, the modeling shape information) may be modified.
  • the modeling operation is an operation for actually forming the three-dimensional structure ST on the work W.
  • the processing system SYS forms the three-dimensional structure ST by the laser overlay welding method. Therefore, the processing system SYS may form the three-dimensional structure ST by performing the existing modeling operation based on the laser overlay welding method.
  • the existing modeling operation based on the laser overlay welding method.
  • the processing system SYS forms a three-dimensional structure ST whose position and shape are specified by the above-mentioned modeling model alignment operation on the work W whose position and shape are specified by the above-mentioned work model alignment operation. That is, the machining system SYS is a three-dimensional structure having a desired shape at a desired position on the work W based on the work information generated by the work model alignment operation described above and the modeling information generated by the modeling model alignment operation described above.
  • Form ST is a three-dimensional structure having a desired shape at a desired position on the work W based on the work information generated by the work model alignment operation described above and the modeling information generated by the modeling model alignment operation described above.
  • the processing system SYS forms, for example, a plurality of layered partial structures (hereinafter referred to as "structural layers") SLs arranged along the Z-axis direction in order.
  • structural layers layered partial structures
  • the processing system SYS sequentially forms a plurality of structural layers SL obtained by cutting the three-dimensional structure ST into round slices along the Z-axis direction.
  • a three-dimensional structure ST which is a laminated structure in which a plurality of structural layers SL are laminated, is formed.
  • the flow of the operation of forming the three-dimensional structure ST by forming the plurality of structural layers SL one by one in order will be described.
  • each structural layer SL Under the control of the control device 7, the processing system SYS sets an irradiation region EA in a desired region on the modeling surface MS corresponding to the surface of the work W or the surface of the formed structural layer SL, and the irradiation region EA is set with respect to the irradiation region EA.
  • the processing light EL is irradiated from the irradiation optical system 211.
  • the region occupied by the processed light EL emitted from the irradiation optical system 211 on the modeling surface MS may be referred to as an irradiation region EA.
  • the focus position (that is, the condensing position) of the processed light EL coincides with the modeling surface MS.
  • the molten pool (that is, the pool of metal melted by the processing light EL) MP is generated in the desired region on the modeling surface MS by the processing light EL emitted from the irradiation optical system 211. It is formed.
  • the processing system SYS sets a supply region MA in a desired region on the modeling surface MS under the control of the control device 7, and supplies the modeling material M to the supply region MA from the material nozzle 212.
  • the processing system SYS supplies the modeling material M to the molten pool MP from the material nozzle 212.
  • the modeling material M supplied to the molten pool MP melts.
  • the processing light EL is not irradiated to the molten pool MP as the modeling head 21 moves, the modeling material M melted in the molten pool MP is cooled and solidified (that is, solidified) again.
  • the solidified modeling material M is deposited on the modeling surface MS. That is, a modeled object is formed by the deposit of the solidified modeling material M.
  • a series of modeling processes including formation of the molten pool MP by irradiation with such processing light EL, supply of the modeling material M to the molten pool MP, melting of the supplied modeling material M, and solidification of the molten modeling material M can be performed.
  • the modeling head 21 is repeatedly moved relative to the modeling surface MS along the XY plane. That is, when the modeling head 21 moves relative to the modeling surface MS, the irradiation region EA also moves relative to the modeling surface MS. Therefore, a series of modeling processes is repeated while moving the irradiation region EA relative to the modeling surface MS along the XY plane (that is, in the two-dimensional plane).
  • the processed light EL is selectively irradiated to the irradiation region EA set in the region where the modeled object is to be formed on the modeling surface MS, but it is not desired to form the modeled object on the modeling surface MS.
  • the irradiation area EA set in the area is not selectively irradiated (it can be said that the irradiation area EA is not set in the area where the modeled object is not to be formed). That is, the processing system SYS moves the irradiation region EA along the predetermined movement locus on the modeling surface MS, and converts the processing light EL into the modeling surface MS at a timing according to the distribution mode of the region where the modeled object is to be formed. Irradiate.
  • the mode of distribution of the region where the modeled object is to be formed may be referred to as a distribution pattern or a pattern of the structural layer SL.
  • the molten pool MP also moves on the modeling surface MS along the movement locus according to the movement locus of the irradiation region EA.
  • the molten pool MP is sequentially formed on the modeling surface MS in the portion of the region along the movement locus of the irradiation region EA that is irradiated with the processing light EL.
  • the supply region MA also moves on the modeling surface MS along the movement locus according to the movement locus of the irradiation region EA. Become.
  • a structural layer SL corresponding to an aggregate of the modeled objects made of the solidified modeling material M is formed on the modeling surface MS. That is, the structural layer SL corresponding to the aggregate of the shaped objects formed on the modeling surface MS in the pattern corresponding to the moving locus of the molten pool MP (that is, the shape corresponding to the moving locus of the molten pool MP in a plan view).
  • the structural layer SL) to have is formed.
  • At this time, at least a part of the side surface of the structural layer SL may be parallel to at least a part of the side surface of the work W. That is, the processing system SYS may form a structural layer SL including a surface parallel to at least a part of the side surface of the work W on the upper surface of the work W having a flat side surface.
  • FIG. 32 (e) shows an example in which at least a part of the side surface of the structural layer SL and at least a part of the side surface of the work W are parallel to the Z axis.
  • the processing light EL may be irradiated to the irradiation region EA and the supply of the modeling material M may be stopped. Further, when the irradiation region EA is set in the region where the modeled object is not to be formed, the modeling material M is supplied to the irradiation region EL, and the irradiation region EL is irradiated with the processing light EL having a strength that does not allow the molten pool MP. You may. In the above description, the irradiation area EA is moved with respect to the modeling surface MS, but the modeling surface MS may be moved with respect to the irradiation area EA.
  • the processing system SYS repeatedly performs the operation for forming such a structural layer SL under the control of the control device 7 based on the modeling information (that is, the information regarding the modeling model PM). Specifically, first, the modeling model PM indicated by the modeling information is sliced at a stacking pitch to create slice data. Note that this slice data may be partially modified according to the characteristics of the processing system SYS.
  • the processing system SYS performs an operation for forming the first structural layer SL # 1 on the modeling surface MS corresponding to the surface of the work W, that is, three-dimensional model data corresponding to the structural layer SL # 1, that is, the structural layer. This is performed based on the slice data corresponding to SL # 1.
  • the processing system SYS uses information on the tool path which is the locus of the irradiation region EA (supply region MA) passing through the region where the structural layer SL # 1 exists in the slice data corresponding to the structural layer SL # 1. May be operated. As a result, the structural layer SL # 1 is formed on the modeling surface MS as shown in FIG. 33A.
  • the structural layer SL # 1 is integrated (in other words, bonded) with the modeling surface MS. That is, the structural layer SL # 1 is integrated (in other words, combined) with the work W.
  • the processing system SYS sets the surface (that is, the upper surface) of the structural layer SL # 1 on the new modeling surface MS, and then forms the second structural layer SL # 2 on the new modeling surface MS.
  • the control device 7 first controls the head drive system 22 so that the modeling head 21 moves along the Z axis. Specifically, the control device 7 controls the head drive system 22 so that the irradiation region EA and the supply region MA are set on the surface of the structural layer SL # 1 (that is, the new modeling surface MS). The modeling head 21 is moved toward the + Z side. As a result, the focus position of the processing light EL coincides with the new modeling surface MS. After that, the processing system SYS operates on the structural layer SL # 1 based on the slice data corresponding to the structural layer SL # 2 in the same operation as the operation of forming the structural layer SL # 1 under the control of the control device 7.
  • the structural layer SL # 2 is formed on the surface. As a result, the structural layer SL # 2 is formed as shown in FIG. 33 (b).
  • the structural layer SL # 1 is integrated (in other words, bonded) with the modeling surface MS. That is, the structural layer SL # 1 is integrated (in other words, bonded) with the structural layer SL # 2.
  • the same operation is repeated until all the structural layers SL constituting the three-dimensional structure ST to be formed on the work W are formed.
  • the three-dimensional structure ST is formed by the laminated structure in which a plurality of structural layers SL are laminated.
  • the side surface of the three-dimensional structure ST composed of the plurality of structural layer SL At least a part may also be parallel to at least a part of the side surface of the work W. That is, the processing system SYS may form a three-dimensional structure ST including a surface parallel to at least a part of the side surface of the work W on the upper surface of the work W having a planar side surface.
  • the three-dimensional structure ST formed in this way is typically integrated with the work W (in other words, it is combined). That is, the processing system SYS forms a three-dimensional structure ST integrated (in other words, combined) with the work W.
  • the processing system SYS forms a three-dimensional structure ST integrated (in other words, combined) with the work W.
  • the relative positions of the work W and the 3D structure ST are fixed (that is, maintained). ). That is, it can be said that the machining system SYS forms a three-dimensional structure ST whose relative position with respect to the work W is fixed.
  • the machining system SYS can generate work information by a work model alignment operation and can form a three-dimensional structure ST on a work W whose position and shape are specified based on the generated work information. Therefore, the machining system SYS can appropriately form the three-dimensional structure ST on the work W as compared with the case where the work information is not used. Further, since the work information is mainly generated by the machining system SYS, the load on the user is reduced as compared with the case where the work information is generated by the user himself / herself.
  • the processing system SYS can generate modeling position information by the modeling model alignment operation, and can form a three-dimensional structure ST whose position is specified based on the generated modeling position information on the work W. Therefore, the processing system SYS can appropriately form the three-dimensional structure ST on the work W as compared with the case where the modeling position information is not used. Further, since the modeling position information is mainly generated by the processing system SYS, the load on the user is reduced as compared with the case where the modeling position information is generated by the user himself / herself.
  • machining system SYSA Processing system SYS of the second embodiment
  • FIG. 34 is a system configuration diagram showing an example of the system configuration of the processing system SYSa of the second embodiment.
  • FIG. 35 is a perspective view showing an external structure of a processing unit UNTa2 included in the processing system SYSa of the second embodiment.
  • the constituent requirements already explained will be designated by the same reference numerals, and detailed description thereof will be omitted.
  • the processing system SYSa includes a modeling unit UNTa1, a processing unit UNTa2, and a transfer device 10a.
  • the modeling unit UNTa1 includes a material supply device 1, a modeling device 2, a stage device 3, a light source 4, a gas supply device 5, a housing 6, and a control device. 7, a measuring device 8, a display 91, and an input device 92. Therefore, the modeling unit UNTa1 can form the three-dimensional structure ST on the work W by performing the coordinate matching operation, the work model alignment operation, the modeling model alignment operation, and the modeling operation in the same manner as the processing system SYS. it can.
  • the modeling unit UNTa1 is different from the processing system SYS in that it further includes an output device 93a. Other features of the modeling unit UNTa1 may be the same as other features of the processing system SYS.
  • the output device 93a is a device that outputs information to the outside of the modeling unit UNTa1.
  • the output device 93a may output information to the user of the modeling unit UNTa1 and / or the user of the processing unit UNTa2.
  • the output device 93a may output information to a device outside the modeling unit UNTa1.
  • the output device 93a may output information to the processing unit UNTa2.
  • the output device 93a may output information to a recording medium that can be attached to the modeling unit UNTa1.
  • Examples of the output device 93a include at least one of a display capable of outputting information as an image and a speaker capable of outputting information as audio.
  • Another example of the output device 93a is an interface device for connecting to an external device of the modeling unit UNTa1. As another example of the output device 93a, there is a writing device that can write to a recording medium that can be attached to the modeling unit UNTa1.
  • the information output by the output device 93a may include information about the modeling unit UNTa1.
  • the information about the modeling unit UNTa1 may include, for example, information about an operation performed by the modeling unit UNTa1 (for example, a coordinate matching operation, a work model alignment operation, a modeling model alignment operation and / or a modeling operation).
  • the processing unit UNTa2 processes the object to be processed.
  • the object to be processed includes the three-dimensional structure ST (that is, the three-dimensional structure ST formed by the above-mentioned modeling unit UNTa1).
  • the machining operation performed by the machining unit UNTa2 may be any motion as long as the three-dimensional structure ST can be machined.
  • the processing unit UNTa2 shall perform finish processing for bringing the dimensions of the three-dimensional structure ST closer to the design dimensions (that is, ideal dimensions).
  • the processing unit UNTa2 may perform finish processing on the three-dimensional structure ST by removing (for example, cutting) a part of the three-dimensional structure ST. That is, the processing unit UNTa2 may perform removal processing on the three-dimensional structure ST.
  • the machining unit UNTa2 has an input device 101a (not shown in FIG. 35), a machining device 102a, a stage device 103a, and a control device 104a (FIG. 35), as shown in FIGS. 34 and 35. (Not shown).
  • FIG. 35 shows an example in which the machining unit UNTa2 is a machining unit (so-called machining center) having three translational axes orthogonal to each other and two rotation axes orthogonal to each other.
  • the structure of the processing unit UNTa2 is not limited to the structure shown in FIG. 35.
  • the machining unit UNTa2 may be any machine tool (for example, a lathe, a turning center, a multi-tasking machine, a drilling machine or a grinding machine) different from the machining center.
  • the input device 101a is a device that receives input of information from the outside of the processing unit UNTa2.
  • the input device 101a may accept input of information from the user.
  • the input device 101a may accept input of information from the user of the processing unit UNTa2 and / or the user of the modeling unit UNTa1.
  • the input device 101a may accept input of information from an external device of the processing unit UNTa2.
  • the input device 101a may accept the input of information output from the modeling unit UNTa1.
  • the input device 101a may accept input of information from a recording medium that can be attached to the processing unit UNTa2.
  • An example of the input device 101a is an operation device that can be operated by the user.
  • Examples of the operating device include at least one of a keyboard, a mouse, a touch pad, a touch panel (for example, a touch panel integrated with a display (not shown) included in the processing unit UNTa2) and a pointing device.
  • Another example of the input device 101a is an interface device for connecting to an external device of the processing unit UNTa2.
  • As another example of the input device 101a there is a reading device capable of reading a recording medium that can be attached to the processing unit UNTa2.
  • the information received by the input device 101a (that is, the information input to the input device 101a) is output to, for example, the control device 104a.
  • the processing device 102a processes the three-dimensional structure ST (that is, the object to be processed) (for example, as described above, it is removed).
  • the processing device 102a includes a processing head 1021a, a head drive system 1022a (however, not shown in FIG. 35), and a position measuring device 1023a (however, not shown in FIG. 35). It has. However, the processing device 102a does not have to include the head drive system 1022a and the position measuring device 1023a.
  • the processing head 1021a processes the three-dimensional structure ST (that is, the object to be processed).
  • the processing head 1021a may have any structure as long as the three-dimensional structure ST can be processed.
  • An example of such a processing head 1021a is shown in FIGS. 36 and 37.
  • FIG. 36 shows a machining head 1021a that partially cuts a three-dimensional structure ST using a cutting tool 10211a.
  • cutting tools 10211a include at least one of a drill, a tool, a milling cutter, an end mill, a reamer, a tap, a hob, a pinion cutter, a die, a broach, a trimmer and a router.
  • the processing head 1021a partially removes the three-dimensional structure ST by injecting an energy beam EB from the irradiation optical system 10212a onto the three-dimensional structure ST.
  • the portion of the three-dimensional structure ST irradiated with the energy beam EB is evaporated or ablated, so that the three-dimensional structure ST is partially removed.
  • An example of the energy beam EB is light, a charged particle beam, or the like.
  • the head drive system 1022a moves the processing head 1021a under the control of the control device 104a.
  • the head drive system 1022a moves the machining head 1021a along at least one of the X-axis, the Y-axis, the Z-axis, the ⁇ X direction, the ⁇ Y direction, and the ⁇ Z direction.
  • the head drive system 1022a includes, for example, a motor and the like.
  • the head drive system 1022a moves the processing head 1021a with respect to the bed 1030a which is the base of the stage device 103a along the X-axis and the Z-axis which are translational axes and are orthogonal to each other. .. That is, the processing head 1021a can move with respect to the bed 1030a with two translational degrees of freedom.
  • the position measuring device 1023a can measure the position of the processing head 1021a.
  • the position measuring device 1023a may include, for example, at least one of an encoder and a laser interferometer.
  • the stage device 103a includes a stage 1031a.
  • the stage 1031a can support the work W (more specifically, the work W on which the three-dimensional structure ST is formed by the modeling unit UNTa1).
  • the state of "stage 1031a supporting the work W" referred to here may mean a state in which the work W is directly or indirectly supported by the stage 1031a.
  • the stage 1031a may be capable of holding the work W. That is, the stage 1031a may support the work W by holding the work W. Alternatively, the stage 1031a may not be able to hold the work W. In this case, the work W may be placed on the stage 1031a. That is, the stage 1031a may support the work W placed on the stage 1031a.
  • the state in which the "stage 1031a supports the work W" in the second embodiment may include a state in which the stage 1031a holds the work W and a state in which the work W is placed on the stage 1031a.
  • the stage 1031a may be referred to as a support device for supporting the work W, a mounting device on which the work W is placed, a holding device for holding the work W, or a table. Further, the stage 1031a can release the held work W when the work W is held.
  • the processing head 1021a described above processes the three-dimensional structure ST during at least a part of the period in which the stage 1031a supports the work W.
  • the stage 1031a may be provided with a mechanical chuck, a vacuum suction chuck, a magnetic chuck, or the like in order to hold the work W.
  • the stage device 103a further includes a stage drive system 1032a (however, not shown in FIG. 35). However, the stage device 103a does not have to include the stage drive system 1032a.
  • the stage drive system 1032a rotates about the C axis, which is the rotation axis, with respect to the cradle 1033a of the stage device 103a (that is, moves in the rotation direction along the ⁇ Z direction).
  • Move 1031a That is, the stage 1031a can move with respect to the cradle 1033a with one degree of rotation freedom.
  • the stage drive system 1032a rotates (that is, moves in the rotation direction along the ⁇ X direction) with respect to the trunnion 1034a of the stage device 103a around the A axis which is the rotation axis and is orthogonal to the C axis.
  • the cradle 1033a may be referred to as a swing member or a rotating member.
  • the stage drive system 1032a moves the trunnion 1034a with respect to the bed 1030a along the translation axis and the Y axis intersecting the X axis and the Z axis. That is, the trunnion 1034a can move with respect to the bed 1030a with one translational degree of freedom.
  • the trunnion 1034a may be referred to as a moving member.
  • the processing head 1021a can move with respect to the stage 1031a with three translational degrees of freedom and two rotation degrees of freedom.
  • Each feed axis in the stage drive system 1032a (furthermore, the head drive system 1022a) (that is, the feed axis corresponding to the X axis, the feed axis corresponding to the Y axis, the feed axis corresponding to the Z axis, and the feed corresponding to the C axis).
  • the shaft and the feed shaft corresponding to the A shaft are driven by a servomotor under the control of the control device 7 or the control device 104a.
  • the number of axes of movement of the processing head 1021a is not limited to 5, and may be 3, 4, or 6 axes.
  • the stage 1031a may not be movable with two rotation degrees of freedom, the processing head 1021a may be movable with two rotation degrees of freedom, and each of the processing head 1021a and the stage 1031a has one rotation degree of freedom or more. You may be able to exercise at.
  • Such a processing device 102a may have a function of measuring the work W or the three-dimensional structure ST supported by the stage 1031a.
  • the function of the processing apparatus 102a to measure the work W or the three-dimensional structure ST will be described with reference to FIGS. 38 to 42.
  • FIG. 38 is a cross-sectional view showing a processing head 1021a to which a probe 10213a for measuring a work W or a three-dimensional structure ST is attached.
  • FIGS. 39 to 42 is a plan view showing how the work W or the three-dimensional structure ST is measured by using the probe 10213a.
  • a probe (specifically, a touch probe) 10213a is attached to the processing head 1021a.
  • the processing device 102a brings the probe 10213a into contact with a predetermined portion of the work W or the three-dimensional structure ST under the control of the control device 104a.
  • the control device 104a calculates the position of the work W or the three-dimensional structure ST based on the position of the processing head 1021a when the probe 10213a comes into contact with the predetermined portion of the work W or the three-dimensional structure ST.
  • the processing apparatus 102a may bring the probe 10213a into contact with the corner (that is, the apex) of the work W.
  • the processing apparatus 102a may bring the probe 10213a into contact with one corner of the work W.
  • the control device 104a can calculate the position of the work W in each of the X-axis direction, the Y-axis direction, and the Z-axis direction.
  • the processing apparatus 102a may bring the probe 10213a into contact with each of the two corners of the work W.
  • control device 104a has the position of the work W in the ⁇ Z direction (that is, the amount of rotation of the work W around the Z axis) in addition to the position of the work W in each of the X-axis direction, the Y-axis direction, and the Z-axis direction. Can be calculated.
  • the processing apparatus 102a may bring the probe 10213a into contact with each of the three corners of the work W.
  • control device 104a is the position of the work W in each of the X-axis direction, the Y-axis direction and the Z-axis direction, and the position of the work W in each of the ⁇ X direction, the ⁇ Y direction and the ⁇ Z direction (that is, around the X-axis).
  • the amount of rotation of each work W around the Y-axis and the Z-axis) can be calculated.
  • the processing apparatus 102a may bring the probe 10213a into contact with the side surface of the work W.
  • the processing apparatus 102a is on the + X side of the work W as shown in FIG.
  • the probe 10213a may be brought into contact with each of the side surface and the side surface on the ⁇ X side.
  • the control device 104a can calculate the center position of the work W in the X-axis direction.
  • the processing apparatus 102a attaches the probe 10213a to each of the + Y side side surface and the ⁇ Y side side surface of the work W as shown in FIG. You may make contact.
  • the control device 104a can calculate the center position of the work W in the Y-axis direction.
  • the processing apparatus 102a also uses the work W as shown in FIG. 41.
  • the probe 10213a may be brought into contact with each of the side surfaces.
  • the control device 104a can calculate the center position of the work W (in the example shown in FIG. 41, the center position in the plane along the XY plane).
  • control device 104a controls the operation of the processing unit UNTa2.
  • the control device 104a may include, for example, a CPU (Central Processing Unit) (or a GPU (Graphics Processing Unit) in addition to or in place of the CPU) and a memory.
  • the control device 104a functions as a device that controls the operation of the machining unit UNTa2 by the CPU executing a computer program.
  • This computer program is a computer program for causing the control device 104a (for example, the CPU) to perform (that is, execute) the operation described later to be performed by the control device 104a. That is, this computer program is a computer program for causing the control device 104a to function so that the processing unit UNTa2 performs an operation described later.
  • the control device 104a may control the machining mode of the three-dimensional structure ST by the machining head 1021a.
  • the machining mode may include the state of the cutting tool 10211a (for example, the amount of rotation of the cutting tool 10211a).
  • the processing head 1021a includes the irradiation optical system 10212a (see FIG. 37)
  • the processing mode includes the state of the energy beam EB (for example, at least one of the intensity of the energy beam EB and the injection timing of the energy beam EB). You may be.
  • the control device 104a may control the movement mode of the processing head 1021a by the head drive system 1022a.
  • the control device 104a may not be provided inside the processing unit UNTa2, and may be provided as a server or the like outside the processing unit UNTa2, for example.
  • the control device 104a and the processing unit UNTa2 may be connected by a wired and / or wireless network (or a data bus and / or a communication line).
  • a wired network for example, a network using a serial bus type interface represented by at least one of IEEE1394, RS-232x, RS-422, RS-423, RS-485 and USB may be used.
  • a network using a parallel bus interface may be used.
  • control device 104a may be able to transmit information such as commands and control parameters to the processing unit UNTa2 via the network.
  • the processing unit UNTa2 may include a receiving device that receives information such as commands and control parameters from the control device 104a via the network. Even if the processing unit UNTa2 is provided with a transmission device (that is, an output device that outputs information to the control device 104a) that transmits information such as commands and control parameters to the control device 104a via the network. Good.
  • the first control device that performs a part of the processing performed by the control device 104a is provided inside the processing unit UNTa2, the second control device that performs the other part of the processing performed by the control device 104a is provided.
  • the control device may be provided outside the processing unit UNTa2.
  • each process or function included in the computer program may be realized by a logical processing block realized in the control device 104a by the control device 104a (that is, a computer) executing the computer program. It may be realized by hardware such as a predetermined gate array (FPGA, ASIC) included in the control device 104a, or a logical processing block and a partial hardware module that realizes a part of the hardware are mixed. It may be realized in the form of.
  • FPGA predetermined gate array
  • the transport device 10a transports the work W from the modeling unit UNTa1 to the processing unit UNTa2.
  • the transport device 10a may, for example, grab the work W using a transport arm and transport the gripped work W.
  • the transport device 10a may transport the work W by accommodating the work W in the accommodating container and transporting the accommodating container in which the work W is accommodated.
  • the processing system SYS forms a three-dimensional structure ST integrated with the work W. Therefore, the transport device 10a substantially transports the three-dimensional structure ST formed on the work W by transporting the work W.
  • the transport device 10a transports the three-dimensional structure ST together with the work W.
  • the transport device 10a transports the three-dimensional structure ST together with the work W while maintaining the relative position between the work W and the three-dimensional structure ST. Therefore, the transfer device 10a conveys the work W (three-dimensional structure ST) from the modeling unit UNTa1 to the processing unit UNTa2 after the modeling unit UNTa1 forms the three-dimensional structure ST on the work W.
  • the processing unit UNTa2 processes the three-dimensional structure ST conveyed from the modeling unit UNTa1 by the transfer device 10a.
  • the transport device 10a transports the work W from the modeling unit UNTa1 to the processing unit UNTa2.
  • the transport device 10a transports the work W to the processing unit UNTa2 after the modeling unit UNTa1 forms the three-dimensional structure ST on the work W.
  • the transfer device 10a conveys the work W integrated with the three-dimensional structure ST.
  • the transport device 10a transports the work W together with the three-dimensional structure ST.
  • the transport device 10a transports the work W together with the three-dimensional structure ST while maintaining the relative positions between the three-dimensional structure ST and the work W.
  • the processing system SYSa does not have to be provided with the transfer device 10a.
  • the modeling unit UNTa1 forms a three-dimensional structure ST in the same manner as the processing system SYS of the first embodiment described above. That is, the modeling unit UNTa1 performs a coordinate matching operation, then a work model alignment operation, then a modeling model alignment operation, and then a modeling operation.
  • the control device 7 sets the reference point RP whose relative position with respect to the three-dimensional structure ST is fixed. Therefore, the control device 7 may set the reference point RP on the object whose relative position with respect to the three-dimensional structure ST is fixed in addition to or instead of setting the reference point RP on the work W. ..
  • the control device 7 may set the reference point RP on an object whose relative position with respect to the three-dimensional structure ST does not change.
  • the control device 7 may set a reference point RP on the three-dimensional structure ST. Also in this case, the reference point RP whose relative position to the three-dimensional structure ST is fixed can be set.
  • the control device 7 may set the reference point RP based on the instruction of the user of the modeling unit UNTa1. That is, the user may specify the position where the reference point RP is to be set by using the input device 92, and the control device 7 may set the reference point RP at the position specified by the user. In this case, the control device 7 may control the display 91 so as to display the work model WM and the modeling model PM.
  • FIG. 43 is a plan view showing a display example of the work model WM and the modeling model PM. Further, the user may specify a position on which the reference point RP is to be set on the display screen of the display 91 on which the work model WM and the modeling model PM are displayed. For example, as shown in FIG.
  • the user uses the input device 92 to move the pointer 913 for setting the reference point RP, and at the timing when the pointer 913 is positioned at the position where the reference point RP is desired to be set.
  • the position of the pointer 913 may be specified as the position where the reference point RP should be set.
  • the control device 7 may set the reference point RP by the control device 7 itself without being based on the instruction of the user of the modeling unit UNTa1. For example, the control device 7 extracts the feature points of the work model WM (that is, the feature points of the work W) based on the work model data indicating the work model WM, and sets the reference point RP at the position of the extracted feature points. It may be set. That is, the control device 7 may set the feature point of the work model WM as the reference point RP. Alternatively, for example, the control device 7 may set the feature point of the object whose relative position with respect to the three-dimensional structure ST does not change as the reference point RP.
  • the control device 7 may set the feature point of the existing structure formed on the work W (for example, the three-dimensional structure ST formed by the previous modeling operation) as the reference point RP.
  • the feature point of a certain object may include a point of a feature position in the three-dimensional shape of the object indicated by the point cloud data which is a set of points indicating the position on the surface of the object.
  • feature points vertices, corners, boundaries, points located on the most + Z side, points located on the most -Z side, points located on the most + X side, points located on the most -X side, and most on the + Y side. At least one of the points located and the point located closest to the -Y side can be mentioned.
  • the control device 7 is an object having a predetermined positional relationship with the modeling model PM (or an object whose relative position with respect to the three-dimensional structure ST does not change, or an existing structure formed on the work W). , The same shall apply hereinafter in this paragraph)
  • the reference point RP may be set at a position above.
  • the control device 7 may set the reference point RP at a position on the work W which is separated from the position of the modeling model PM by a predetermined distance in a predetermined direction.
  • the control device 7 sets a reference point RP at the position of the mark or a position on the work W having a predetermined positional relationship with the mark. May be good.
  • FIGS. 44 (a) to 44 (c) is a plan view showing an example of a mark provided on the work W.
  • the marker MK1 as an example of the mark may be formed on the work W.
  • the shape of the marker MK1 is not limited to a rectangular shape (box shape), and may be, for example, a cross shape or an L shape.
  • a notch MK2 as an example of a mark may be formed on a side of the work W (for example, near the center of the side).
  • the condition that the reference point RP is set at the corner of is may be preset.
  • a notch MK3 as an example of a mark may be formed at a corner of the work W.
  • a condition that the reference point RP is set at the angle opposite to the angle at which the notch MK3 is formed may be set in advance.
  • the modeling position information indicating the position of the modeling model PM described above is based on the reference point RP in addition to or in place of the absolute position of the modeling model PM in the reference coordinate system.
  • the relative position of the modeling model PM to be used may be shown.
  • the modeling position information may indicate the relative position between the reference point RP and the modeling model PM.
  • the modeling position information may indicate where the modeling model PM is located with respect to the reference point RP.
  • FIG. 45 is a plan view showing the positional relationship between the reference point RP and the modeling model PM.
  • the modeling position information may indicate the distance between the reference point RP and the modeling model PM in the X-axis direction. As shown in FIG.
  • the modeling position information may indicate the distance between the reference point RP and the modeling model PM in the Y-axis direction. Although not shown for simplification of the drawings, the modeling position information may indicate the distance between the reference point RP and the modeling model PM in the Z-axis direction. In the example shown in FIG. 45, the modeling position information is obtained when the distance between the reference point RP and the modeling model PM (more specifically, a part of the modeling model PM) in the X-axis direction is xx [mm]. It is shown that the distance between the reference point RP and the modeling model PM in the Y-axis direction is yy [mm].
  • the modeling position information is a three-dimensional structure at a position separated from the reference point RP by xx [mm] along the X-axis direction and by yy [mm] along the Y-axis direction in the reference coordinate system. Indicates that ST should be formed.
  • the modeling information including such modeling position information is the modeling information associated with the reference point RP (more specifically, associated with the position of the reference point RP).
  • the modeling information including such the modeling position information includes the reference point RP and the modeling information (for example, the modeling shape information (that is, the modeling shape information). It can also be said that the modeling information is associated with the modeling model PM (that is, the shape of the three-dimensional structure ST).
  • the work position information indicating the position of the work model WM described above is added to or replaced with the absolute position of the work model WM in the reference coordinate system.
  • the position of the reference point RP set on the work W may be indicated.
  • the work position information may indicate the relative position between the reference point RP and the work W.
  • the work position information may indicate where in the work model WM the reference point RP is set.
  • the control device 7 may modify the work position information (that is, the work information) generated in the work model alignment operation based on the reference point RP.
  • the control device 7 may add information regarding the reference point RP to the work position information (that is, work information) generated in the work model alignment operation. For example, as shown in FIG.
  • the work position information indicates that the reference point RP is set at the vertices on the + X side and ⁇ Y side of the work W whose shape is square in the plane along the XY plane. You may be.
  • the work information including such work position information is the work information associated with the reference point RP (more specifically, associated with the position of the reference point RP).
  • the work information including the work position information includes the reference point RP and the work information (for example, the work shape information (that is, the work shape information).
  • the shape of the work model WM (that is, the work W))))
  • the modeling unit UNTa1 forms the three-dimensional structure ST based on the work information and the modeling information, as in the processing system SYS of the first embodiment. Perform the modeling operation for.
  • the control device 7 determines the work W based on the information regarding the reference point RP.
  • the modeling apparatus 2 may be controlled so that the three-dimensional structure ST is formed with reference to the reference point RP.
  • the control device 7 may control the modeling device 2 so that the additional processing is performed at a position determined with reference to the reference point RP.
  • control device 7 may control the head drive system 22 so that the modeling head 21 moves with reference to the reference point RP of the work W.
  • control device 7 sets the processing light EL at the timing when the irradiation region EA overlaps the position determined with reference to the reference point RP of the work W (for example, the position where the modeled object constituting the three-dimensional structure ST should be formed).
  • the modeling device 2 may be controlled so as to irradiate.
  • the three-dimensional structure ST is formed at a position having a predetermined positional relationship with respect to the reference point RP of the work W (that is, the reference point RP of the work model WM).
  • FIG. 46 is a plan view showing a three-dimensional structure ST formed on the work W when the reference point RP shown in FIG. 45 is set. As shown in FIG. 46, the three-dimensional structure ST is separated from the reference point RP of the work W by xx [mm] along the X-axis direction and by yy [mm] along the Y-axis direction. It is formed.
  • the output device 93a further outputs information regarding the reference point RP (hereinafter referred to as reference point information). Specifically, the output device 93a outputs reference point information to the processing unit UNTa2. In this case, the processing unit SYS2 processes the three-dimensional structure ST formed by the modeling unit UNTa1 based on the reference point information.
  • the reference point information may include the first information regarding the position of the reference point RP (for example, the position of the reference point RP in the reference coordinate system). Specifically, the reference point information may include the first information indicating the position on the work model WM in which the reference point RP is set. The reference point information may include the first information indicating the position of the portion of the work model WM in which the reference point RP is set. That is, the reference point information may include the first information indicating at which position the reference point RP is set on the work model WM. Since the reference point RP on the work W corresponds to the reference point RP on the work model WM, the reference point information may include the first information indicating the position on the work W in which the reference point RP is set. ..
  • the processing unit UNTa2 can specify at which position on the work W transported from the modeling unit UNTa1 by the transfer device 10a the reference point RP is set.
  • the reference point RP is set.
  • the work information (specifically, the work information associated with the reference point RP) may indicate the position of the reference point RP.
  • the work information may be associated with the reference point RP, as described above.
  • the reference point information may include work information (particularly, work information associated with the reference point RP). That is, the output device 93a may output the work information (particularly, the work information associated with the reference point RP) to the processing unit UNTa2 as the reference point information. Even in this case, the machining unit UNTa2 can specify which position on the work W is designated as the reference point RP.
  • the reference point information includes measurement information (particularly, measurement information associated with the reference point RP) regarding the measurement result of the work W by the measuring device 8 in addition to or in place of the work information associated with the reference point RP. May be good. That is, the output device 93a may output the measurement information (particularly, the measurement information associated with the reference point RP) regarding the measurement result of the work W to the processing unit UNTa2 as the reference point information. This is because the measurement information regarding the measurement result of the work W includes the information regarding the shape of the work W and the information regarding the position of the work W as well as the work information.
  • the "measurement information of the work W associated with the reference point RP” may mean measurement information including information about the reference point RP (for example, measurement information capable of specifying the position of the reference point RP).
  • the measuring device 8 may measure the work W before the modeling unit UNTa1 forms the three-dimensional structure ST (that is, before starting the modeling operation).
  • the reference point information may include measurement information regarding the measurement result of the work W before the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the portion that can be a feature point on the work W is the three-dimensional structure. It has the advantage that it is less likely to be blocked by the ST.
  • the measuring device 8 may measure the work W at a desired timing during the period when the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the reference point information may include measurement information regarding the measurement result of the work W at a desired timing during the period when the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the measuring device 8 may measure the work W after the modeling unit UNTa1 forms the three-dimensional structure ST (that is, after the modeling operation is completed).
  • the reference point information may include measurement information regarding the measurement result of the work W after the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the reference point information is, in addition to or in place of the first information described above, the relative position between the reference point RP and the three-dimensional structure ST (for example, the relative position between the reference point RP and the three-dimensional structure ST in the reference coordinate system).
  • the reference point information may include the relationship between the position of the reference point RP and the position of the three-dimensional structure ST (for example, the position of the reference point RP and the three-dimensional structure in the reference coordinate system).
  • the second information regarding the position of the object ST) may be included.
  • the reference point information includes the second information indicating the formation position of the three-dimensional structure ST starting from the reference point RP. That is, the reference point information may include the second information indicating the position where the three-dimensional structure ST is formed with respect to the reference point RP.
  • the reference point information is the second information indicating which position is designated as the position of the modeling model PM with reference to the reference point RP. That is, the reference point information may include information about the positional relationship between the reference point RP and the modeling model PM (that is, the relationship between the position of the reference point RP and the position of the modeling model PM). It may be included.
  • the processing unit UNTa2 can specify where the three-dimensional structure ST is formed with reference to the reference point RP.
  • the modeling information may indicate the relative position of the modeling model PM with respect to the reference point RP.
  • the modeling information may be associated with the reference point RP.
  • the reference point information may include modeling information (particularly, modeling information associated with the reference point RP). That is, the output device 93a may output the modeling information (particularly, the modeling information associated with the reference point RP) to the processing unit UNTa2 as the reference point information.
  • the processing unit UNTa2 can specify where the three-dimensional structure ST is formed with reference to the reference point RP.
  • the reference point information is, in addition to or in place of the modeling information associated with the reference point RP, measurement information regarding the measurement result of the three-dimensional structure ST by the measuring device 8 (particularly, measurement information associated with the reference point RP). It may be included. That is, the output device 93a may output the measurement information (particularly, the measurement information associated with the reference point RP) regarding the measurement result of the three-dimensional structure ST to the processing unit UNTa2 as the reference point information. This is because the measurement information regarding the measurement result of the three-dimensional structure ST includes the information regarding the shape of the three-dimensional structure ST and the information regarding the position of the three-dimensional structure ST as well as the modeling information.
  • the "measurement information of the three-dimensional structure ST associated with the reference point RP" is measurement information including information about the reference point RP (for example, measurement information capable of specifying the position of the three-dimensional structure ST with respect to the reference point RP). ) May mean.
  • the measuring device 8 may measure the three-dimensional structure ST at a desired timing during the period when the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the reference point information may include measurement information regarding the measurement result of the three-dimensional structure ST at a desired timing during the period when the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the measuring device 8 may measure the three-dimensional structure ST after the modeling unit UNTa1 forms the three-dimensional structure ST (that is, after completing the modeling operation).
  • the reference point information may include measurement information regarding the measurement result of the three-dimensional structure ST after the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the processing unit UNTa2 processes (for example, removal processing) the three-dimensional structure ST formed by the modeling unit UNTa1.
  • the processing unit UNTa2 performs finish processing for bringing the dimensions of the three-dimensional structure ST closer to the design dimensions (that is, ideal dimensions).
  • the processing unit UNTa2 performs finish processing for bringing the dimensions of the three-dimensional structure ST closer to the design dimensions (that is, ideal dimensions).
  • the three-dimensional structure ST is placed on the stage 1031a of the processing unit UNTa2 (step S21). Specifically, the three-dimensional structure ST is conveyed from the modeling unit UNTa1 to the processing unit UNTa2 by the transfer device 10a. Specifically, since the three-dimensional structure ST is integrated with the work W, the three-dimensional structure ST integrated with the work W is conveyed from the modeling unit UNTa1 to the processing unit UNTa2 by the transfer device 10a. To.
  • the three-dimensional structure ST (that is, the three-dimensional structure ST integrated with the work W) conveyed by the conveying device 10a is placed on the stage 1031a. At this time, the stage 1031a may hold the three-dimensional structure ST.
  • the stage 1031a may hold the three-dimensional structure ST.
  • the reference point information output by the output device 93a of the modeling unit UNTa1 is input to the input device 101a of the processing unit UNTa2 (step S22). That is, the input device 101a acquires the reference point information.
  • the processing unit UNTa2 processes the three-dimensional structure ST based on the reference point information (steps S23 to S24). That is, the control device 104a of the processing unit UNTa2 controls the processing device 102a so as to process the three-dimensional structure ST based on the reference point information.
  • the control device 104a may control the processing device 102a so as to process the three-dimensional structure ST with reference to the reference point RP of the work W.
  • control device 104a may control the processing device 102a so that the processing (for example, the above-mentioned removal processing, which is substantially the finishing processing) is performed at a position determined with reference to the reference point RP. ..
  • the control device 104a may control the head drive system 1022a so that the machining head 1021a moves with reference to the reference point RP of the work W.
  • processing is performed on the three-dimensional structure ST formed at a position having a predetermined positional relationship with respect to the reference point RP of the work W.
  • the processing unit UNTa2 processes the three-dimensional structure ST with reference to the reference point RP, which is the reference when the modeling unit UNTa1 performs the modeling operation.
  • the reference point used as the reference position by the processing unit UNTa2 when performing the processing operation coincides with the reference point used as the reference position when the modeling unit UNTa1 performs the modeling operation.
  • the control device 104a first aligns the work W with the processing device 102a (particularly, the processing head 1021a) (step S23). That is, the control device 104a positions the processing head 1021a (step S23). In the second embodiment, particularly, the control device 104a aligns the reference point RP with the processing device 102a (particularly, the processing head 1021a) so that the work W and the processing device 102a (particularly, the processing head 1021a) are aligned with each other. Alignment shall be performed.
  • the control device 104a aligns the reference point RP and the machining head 1021a in the reference coordinate system of the machining unit UNTa2.
  • the machining coordinate system is used as the reference coordinate system of the machining unit UNTa2.
  • the machining coordinate system is a three-dimensional coordinate system used to specify the position of the machining head 1021a.
  • the head drive system 1022a moves the machining head 1021a based on the information regarding the position of the machining head 1021a specified in the machining coordinate system.
  • the position measuring device 1023a measures the position of the machining head 1021a in the machining coordinate system.
  • the reference coordinate system of the modeling unit UNTa1 (that is, the reference coordinate system of the processing system SYS of the first embodiment) is referred to as a "modeling reference coordinate system", and the reference coordinate system of the processing unit UNTa2. Is referred to as a "processing reference coordinate system" to distinguish between the two.
  • the work W may be measured using the above-mentioned probe 10213a or the like prior to the alignment of the reference point RP and the processing device 102a. That is, the position of the work W in the machining reference coordinate system may be measured. Then, the reference point RP of the work W whose position in the processing reference coordinate system has been found may be aligned with the processing apparatus 102a.
  • the control device 104a sets the reference point RP and the processing device 102a on the work W based on the reference point information.
  • the machining head 1021a is moved so that the alignment condition that the machining head 1021a has a predetermined positional relationship is satisfied.
  • the alignment condition is that the cutting tool 10211a is located at the reference point RP (for example, the tip of the cutting tool 10211a is at the reference point RP). It may include the first condition of contacting). However, when the first condition is used, the cutting tool 10211a is stopped in order to prevent the three-dimensional structure ST from being erroneously machined in the process of aligning the reference point RP and the machining device 102a. It is preferable to do.
  • the processing head 1021a includes the irradiation optical system 10212a (see FIG.
  • the alignment condition is the second condition that the energy beam EB from the irradiation optical system 10212a is applied to the reference point RP. It may be included.
  • the alignment condition may include a second condition that the convergent position of the energy beam EB from the irradiation optical system 10212a is located at the reference point RP.
  • the strength of the energy beam EB is used to prevent the three-dimensional structure ST from being erroneously machined in the process of aligning the reference point RP and the processing device 102a. Is preferably so low that the three-dimensional structure ST cannot be processed. For example, when the alignment probe 10213a (see FIG.
  • the alignment condition is that the probe 10213a is located at the reference point RP (for example, the tip of the probe 10213a is the reference point). It may include the third condition of contacting the RP).
  • the alignment condition includes a fourth condition that the beam from the irradiation device is irradiated to the reference point RP. You may.
  • the alignment condition may include a fourth condition that the convergent position of the beam from the irradiation device is located at the reference point RP.
  • the control device 104a may move the machining head 1021a based on the reference point information so that the alignment condition is satisfied.
  • the reference point information indicates the position on the work W in which the reference point RP is set, as described above. Therefore, the control device 104a specifies the reference point RP set on the work W based on the reference point information, and the alignment condition that the specified reference point RP and the processing device 102a have a predetermined positional relationship is satisfied.
  • the processing head 1021a may be moved so as to be used.
  • the control device 104a is instructed by the user to be input to the machining unit UNTa2 via the input device 101a.
  • the machining head 1021a may be moved so that the alignment condition that the reference point RP and the machining device 102a have a predetermined positional relationship is satisfied. That is, the user may move the machining head 1021a so that the alignment condition is satisfied.
  • the control device 104a controls the processing device 102a so as to process the three-dimensional structure ST based on the result of the alignment between the reference point RP and the processing head 1021a (step S24). Specifically, the control device 104a specifies the position of the processing head 1021a when the alignment condition is satisfied, based on the measurement result of the position measuring device 1023a. That is, the control device 104a specifies the position of the machining head 1021a when the reference point RP and the machining head 1021a are aligned so that the alignment condition is satisfied. After that, the control device 104a identifies the position of the reference point RP in the machining reference coordinate system based on the position of the machining head 1021a in the machining reference coordinate system when the alignment condition is satisfied.
  • the control device 104a aligns. Based on the position of the machining head 1021a when the condition is satisfied, the position of the cutting tool 10211a when the alignment condition is satisfied (for example, the position of the cutting tool 10211a) can be specified. This is because the cutting tool 10211a is attached to the machining head 1021a, so that the cutting tool 10211a and the machining head 1021a usually have a specific positional relationship known to the control device 104a.
  • the position of the cutting tool 10211a when the alignment condition is satisfied can be regarded as equivalent to the position of the reference point RP in the machining reference coordinate system. This is because the cutting tool 10211a is located at the reference point RP when the alignment condition is satisfied. Therefore, the control device 104a sets the position of the cutting tool 10211a when the alignment condition is satisfied as a reference point in the machining reference coordinate system based on the position of the machining head 1021a when the alignment condition is satisfied. It may be specified as the position of the RP. At this time, the tool diameter of the cutting tool 1021a may be corrected.
  • the control device 104a when the third condition that the probe 10213a is located at the reference point RP (for example, the tip of the probe 10213a comes into contact with the reference point RP) is used as the alignment condition, the control device 104a also uses the alignment condition.
  • the position of the probe 10213a when the alignment condition is satisfied may be specified as the position of the reference point RP in the processing reference coordinate system based on the position of the processing head 1021a when is satisfied.
  • the control device 104a is the processing head when the alignment condition is satisfied. Based on the position of 1021a, the irradiation position of the energy beam EB when the alignment condition is satisfied can be specified. This is because the irradiation optical system 10212a is attached to the processing head 1021a, so that the irradiation position of the energy beam EB and the processing head 1021a usually have a specific positional relationship known to the control device 104a. Is.
  • the irradiation position of the energy beam EB when the alignment condition is satisfied can be regarded as equivalent to the position of the reference point RP in the processing reference coordinate system. This is because the energy beam EB is irradiated to the reference point RP when the alignment condition is satisfied. Therefore, the control device 104a determines the irradiation position of the energy beam EB when the alignment condition is satisfied as a reference in the processing quasi-coordinate system based on the position of the processing head 1021a when the alignment condition is satisfied. It may be specified as the position of the point RP.
  • the control device 104a is the position of the processing head 1021a when the alignment condition is satisfied.
  • the irradiation position of the beam when the alignment condition is satisfied may be specified as the position of the reference point RP in the processing reference coordinate system.
  • control device 104a uses the position of the machining head 1021a in the machining reference coordinate system as a reference when the alignment condition is satisfied, instead of specifying the position of the reference point RP in the machining reference coordinate system.
  • the processing apparatus 102a may be controlled so as to process the three-dimensional structure ST (step S24). This is because the position of the machining head 1021a in the machining reference coordinate system when the alignment condition is satisfied typically corresponds to the position of the reference point RP in the machining reference coordinate system. Therefore, the operation of machining the three-dimensional structure ST based on the position of the machining head 1021a in the machining reference coordinate system when the alignment condition is satisfied is substantially in the machining reference coordinate system. It may be regarded as equivalent to the operation of processing the three-dimensional structure ST with reference to the position of the reference point RP.
  • the control device 104a controls the processing device 102a so as to process the three-dimensional structure ST based on the position of the reference point RP in the processing reference coordinate system based on the reference point information (step S24). ).
  • the reference point information indicates the formation position of the three-dimensional structure ST starting from the reference point RP. Therefore, the control device 104a is based on the position of the reference point RP in the machining reference coordinate system and the reference point information, and the relative position between the reference point RP and the three-dimensional structure ST in the machining reference coordinate system. Can be identified. That is, the control device 104a can specify the position of the three-dimensional structure ST in the machining reference coordinate system.
  • FIGS. 48 (a) and 48 (b) are perspective views and plan views showing an example of the work W and the three-dimensional structure ST supported by the stage 1031a, respectively.
  • the control device 104a is based on the reference point information on each side surface (for example, the side surface on the + X side and the side surface on the ⁇ X side) of the prismatic three-dimensional structure ST. It is possible to specify how far the side surface, the side surface on the + Y side and the side surface on the ⁇ Y side) are located from the reference point RP set at the corner of the work W.
  • the reference point RP set at the corner of the work W.
  • the side surface of the three-dimensional structure ST on the + X side is located at a position separated from the reference point RP by a distance d11 based on the reference point information.
  • the side surface of the dimensional structure ST on the -X side is located at a position separated from the reference point RP by a distance d12
  • the side surface of the three-dimensional structure ST on the + Y side is located at a position separated from the reference point RP by a distance d13. Therefore, it can be specified that the side surface of the three-dimensional structure ST on the ⁇ Y side is located at a position separated from the reference point RP by a distance d14.
  • the control device 104a is based on the reference point information and the measurement result of the work W. , It is possible to specify how far each side surface of the prismatic three-dimensional structure ST is located from each side surface of the work W. In the example shown in FIG. 48B, the control device 104a is located at a position where the side surface of the three-dimensional structure ST on the + X side is separated from the side surface of the work W on the + X side by a distance d21 based on the reference point information.
  • the side surface on the -X side of the 3D structure ST is located at a position separated from the side surface on the -X side of the work W by a distance d22, and the side surface on the + Y side of the 3D structure ST is the work W.
  • the side surface on the ⁇ Y side of the three-dimensional structure ST is located at a position separated from the side surface on the + Y side by a distance d23, and the side surface on the ⁇ Y side of the work W is located at a position separated by a distance d24 from the side surface on the ⁇ Y side of the work W. Can be identified.
  • FIGS. 49 (a) and 49 (b) are perspective views and plan views showing another example of the three-dimensional structure ST of the work W supported by the stage 1031a, respectively.
  • the control device 104a has a prismatic shape based on the reference point information. It is possible to specify how far each side surface of the three-dimensional structure ST is located from the reference point RP set near the center of the work W. In the example shown in FIG.
  • the side surface of the three-dimensional structure ST on the + X side is located at a position separated from the reference point RP by a distance d31 based on the reference point information.
  • the side surface of the dimensional structure ST on the -X side is located at a position separated from the reference point RP by a distance d32, and the side surface of the three-dimensional structure ST on the + Y side is located at a position separated from the reference point RP by a distance d33. Therefore, it can be specified that the side surface of the three-dimensional structure ST on the ⁇ Y side is located at a position separated from the reference point RP by a distance d34.
  • the control device 104a specifies in which direction and how much the machining head 1021a should be moved with reference to the reference point RP in the machining reference coordinate system to appropriately machine the three-dimensional structure ST. can do.
  • the control device 104a can specify the movement locus (so-called tool path) of the machining head 1021a with reference to the reference point RP in the machining reference coordinate system. Therefore, the processing apparatus 2 can appropriately process the three-dimensional structure ST.
  • control device 104a can specify the respective shapes of the work W and the three-dimensional structure ST with high accuracy only by referring to the position of the reference point RP and the reference point information in the machining reference coordinate system. It may not be possible. Therefore, in the second embodiment, the work shape information regarding the shape of the work W and the modeling shape information regarding the shape of the three-dimensional structure ST are processed from the output device 93a of the modeling unit UNTa1 in a state of being associated with the reference point information. It may be input to the input device 101a of the unit UNTa2.
  • the control device 104a is used for the work W whose shape can be specified with relatively high accuracy based on the work shape information in the machining reference coordinate system (particularly, for the reference point RP on the work W). ), Where is the 3D structure ST whose shape can be specified with relatively high accuracy based on the modeling shape information, with the position of the reference point RP and the reference point information in the processing reference coordinate system. Can be identified based on.
  • the work shape information and the modeling shape data may be input from the modeling unit UNTa1 to the processing unit UNTa2 in a state of being associated with each other.
  • "Work information and modeling information in a state associated with each other” means work information and modeling in a state in which the positional relationship between the work model WM (work W) and the modeling model PM (three-dimensional structure ST) can be specified. It may mean information.
  • the measurement information regarding the measurement result of the measuring device 8 included in the modeling unit UNTa1 is associated with the reference point information from the output device 93a of the modeling unit UNTa1. It may be input to the input device 101a of the processing unit UNTa2.
  • measurement information regarding the measurement result of the work W using the measuring device 8 may be input to the processing unit UNTa2.
  • measurement information regarding the measurement result of the three-dimensional structure ST using the measuring device 8 may be input to the processing unit UNTa2.
  • the control device 104a is used for the work W whose shape can be specified with relatively high accuracy based on the measured shape information in the machining reference coordinate system (particularly, for the reference point RP on the work W). ), Where is the 3D structure ST whose shape can be specified with relatively high accuracy based on the measured shape information, with the position of the reference point RP and the reference point information in the processing reference coordinate system. Can be identified based on.
  • the measurement information may be input from the modeling unit UNTa1 to the processing unit UNTa2 in a state where the measurement result of the work W and the measurement result of the three-dimensional structure ST are associated with each other.
  • the "measurement information in which the measurement result of the work W and the measurement result of the three-dimensional structure ST are associated with each other" means that the positional relationship between the work W and the three-dimensional structure ST can be specified. It may mean some measurement information.
  • the measuring device 8 may measure the work W before the modeling unit UNTa1 forms the three-dimensional structure ST (that is, before starting the modeling operation).
  • the measuring device 8 may measure at least one of the work W and the three-dimensional structure ST at a desired timing during the period when the modeling unit UNTa1 forms the three-dimensional structure ST.
  • the measuring device 8 may measure the work W and the three-dimensional structure ST after the modeling unit UNTa1 forms the three-dimensional structure ST (that is, after the modeling operation is completed).
  • the machining system SYS Sa of the second embodiment is different from the machining system SYS of the first embodiment described above in that it further includes an output device 93a. It is equipped with different modeling units UNTa1. Therefore, the processing system SYS of the second embodiment can enjoy the same effect as the effect that can be enjoyed by the processing system SYS of the first embodiment described above.
  • the processing unit UNTa2 processes the three-dimensional structure ST based on the reference point information regarding the reference point RP, which is the reference when the modeling unit UNTa1 performs the modeling operation. Can be done. Specifically, the processing unit UNTa2 can process the three-dimensional structure ST based on the reference point RP, which is the reference when the modeling unit UNTa1 performs the modeling operation. As a result, it is compared with the case where the reference point information is not used (that is, the case where the 3D structure ST is processed based on the point unrelated to the reference point RP used as the reference when the modeling unit UNTa1 performs the modeling operation). As a result, the positioning of the processing head 1021a becomes easy.
  • the modeling unit UNTa1 and the processing unit UNTa2 are separate devices, the modeling reference coordinate system and the processing reference coordinate system do not always match. Therefore, even if the position of the 3D structure ST in the modeling reference coordinate system is known information, the position of the 3D structure ST in the processing reference coordinate system is not always known information. Therefore, in order for the processing unit UNTa2 to process the three-dimensional structure ST, the positioning of the processing head 1021a described above (more specifically, the three-dimensional structure ST and the processing head 1021a, which are the objects to be processed, Alignment) is required.
  • the machining unit UNTa2 determines the positions of the machining head 1021a and the plurality of feature points of the three-dimensional structure ST, for example, in order to position the machining head 1021a. It may be necessary to make adjustments. For example, the machining unit UNTa2 aligns the + X side end of the three-dimensional structure ST with the machining head 1021a, and aligns the ⁇ X side end of the three-dimensional structure ST with the machining head 1021a. After that, it may be necessary to identify the center position of the 3D structure ST in the X-axis direction.
  • the machining unit UNTa2 aligns the + Y side end of the three-dimensional structure ST with the machining head 1021a, and aligns the ⁇ Y end of the three-dimensional structure ST with the machining head 1021a. After that, it may be necessary to identify the center position of the 3D structure ST in the Y-axis direction. For example, the machining unit UNTa2 may need to perform other necessary operations. Therefore, the processing cost of the three-dimensional structure ST (for example, at least one of the time cost and the cost cost) may be relatively large.
  • the machining unit UNTa2 it is sufficient for the machining unit UNTa2 to align the work W (particularly, the reference point RP on the work W) and the machining head 1021a in order to position the machining head 1021a. is there.
  • the machining unit UNTa2 does not have to align the three-dimensional structure ST and the machining head 1021a. This is because the modeling unit UNTa1 forms the three-dimensional structure ST with reference to the reference point RP, so that the processing unit UNTa2 can be used as the reference point RP of the work W by referring to the reference point information regarding the reference point RP.
  • the processing cost of the three-dimensional structure ST can be reduced as compared with the case where the reference point information is not used.
  • the reference point RP is set on the work W integrated with the three-dimensional structure ST, even if the three-dimensional structure ST is transported from the modeling unit UNTa1 to the processing unit UNTa2, the reference point RP and the reference point RP The relative position with respect to the three-dimensional structure ST does not change. That is, when the relative position between the reference point RP and the three-dimensional structure ST when the work W is placed on the stage 31 of the modeling unit UNTa1, and when the work W is placed on the stage 1031a of the processing unit UNTa2. The relative positions of the reference point RP and the three-dimensional structure ST are the same.
  • the processing unit UNTa2 is three-dimensionally based on the reference point RP as a reference when the modeling unit UNTa1 performs the modeling operation.
  • the structure ST can be appropriately processed.
  • FIG. 50 is a plan view showing a three-dimensional structure ST formed on the work W by the modeling unit UNTa1 having a relatively poor modeling accuracy when the reference point RP shown in FIG. 45 is set. is there. As shown in FIG.
  • the modeling accuracy of the modeling unit UNTa1 when the modeling accuracy of the modeling unit UNTa1 is relatively poor, it is originally separated from the reference point RP of the work W by xx [mm] along the X-axis direction and in the Y-axis direction.
  • the three-dimensional structure ST should be formed at a position separated by yy [mm] along the line, the actual work W is xx [mm] along the X-axis direction from the reference point RP.
  • the three-dimensional structure ST is formed at a position separated by xx'[mm] different from that of xx'[mm] and separated by yy'[mm] different from yy [mm] along the Y-axis direction.
  • a three-dimensional structure ST having a size of s [mm] along a certain direction for example, at least one of the X-axis direction, the Y-axis direction, and the Z-axis direction
  • a three-dimensional structure ST having a size along the direction of s'[mm] different from s [mm] is actually formed.
  • the reference point information output from the modeling unit UNTa1 to the processing unit UNTa2 does not include information on the modeling error of the three-dimensional structure ST. Therefore, the processing unit UNTa2 cannot determine whether or not a modeling error of the three-dimensional structure ST has occurred. Therefore, the processing unit UNTa2 may not be able to properly process the three-dimensional structure ST.
  • the modeling unit UNTa1 may perform an operation for reducing the influence caused by the modeling error of the three-dimensional structure ST.
  • the modeling unit UNTa1 may measure the actually formed three-dimensional structure ST by using the measuring device 8 after forming the three-dimensional structure ST.
  • the measurement result of the measuring device 8 indicates that the 3D structure ST is measured at the ideal position indicated by the modeling information, it means that the modeling error of the 3D structure ST has not occurred. Presumed.
  • the processing unit UNTa2 may process the three-dimensional structure ST so as to reduce the influence caused by the modeling error of the three-dimensional structure ST.
  • the output device 93a of the modeling unit UNTa1 may output the measurement result of the measuring device 8 to the processing unit UNTa2.
  • the processing unit UNTa2 may process the three-dimensional structure ST based on the measurement result of the measuring device 8 so as to reduce the influence caused by the modeling error of the three-dimensional structure ST.
  • the control device 104a of the processing unit UNTa2 may correct the reference point information that does not reflect the modeling error based on the measurement result of the measuring device 8 to generate the reference point information that reflects the modeling error.
  • the reference point information that reflects the modeling error is relative to the reference point RP and the actual 3D structure ST (for example, the 3D structure ST formed at a position deviated from the ideal position indicated by the modeling information).
  • the control device 104a may control the processing device 102a so as to process the three-dimensional structure ST based on the reference point information in which the modeling error is reflected. Alternatively, for example, the control device 104a reduces the influence of the modeling error based on the measurement result of the measuring device 8 and the reference point information that does not reflect the modeling error (for example, processing caused by the modeling error).
  • the processing apparatus 102a may be controlled (so as to suppress the deterioration of accuracy). Specifically, for example, the control device 104a determines the actual position of the three-dimensional structure ST in the reference coordinate system based on the measurement result of the measuring device 8 and the reference point information that does not reflect the modeling error.
  • the processing apparatus 102a may be controlled so as to process the three-dimensional structure ST in which the actual position (that is, the position where the modeling error is reflected) is specified.
  • control device 7 of the modeling unit UNTa1 corrects the reference point information that does not reflect the modeling error based on the measurement result of the measuring device 8 and generates the reference point information that reflects the modeling error. You may.
  • the output device 93a of the modeling unit UNTa1 may output the reference point information reflecting the modeling error to the processing unit UNTa2.
  • the processing unit UNTa2 may process the three-dimensional structure ST based on the reference point information output from the modeling unit UNTa1.
  • the reference point information is output from the modeling unit UNTa1 to the processing unit UNTa2.
  • the user of the modeling unit UNTa1 and / or the processing unit UNTa2 may manually input the reference point information into the processing unit UNTa2. That is, the user of the modeling unit UNTa1 and / or the processing unit UNTa2 may input the reference point information into the processing unit UNTa2 by using an input device 101a such as a keyboard. That is, as the acquisition route of the reference point information by the processing unit UNTa2, there may be a route for acquiring the reference point information from the user in addition to or instead of the route for acquiring the reference point information from the modeling unit UNTa1. In this case, the output device 93a of the modeling unit UNTa1 does not have to output the reference point information to the processing unit UNTa2. The modeling unit UNTa1 does not have to include the output device 93a.
  • reference point information is input to the processing unit UNTa2 from the modeling unit UNTa1 and / or the user.
  • information different from the reference point information may be input to the processing unit UNTa2 via the input device 101a, and the processing unit UNTa2 is three-dimensionally based on the input information.
  • the structure ST may be processed. That is, the control device 104a of the processing unit UNTa2 may control the processing device 102a so as to process the three-dimensional structure ST based on information different from the reference point information.
  • control device 104a generates reference point information based on information different from the reference point information, and controls the processing device 102a so as to process the three-dimensional structure ST based on the generated reference point information. May be good.
  • the control device 104a may control the processing device 102a so as to process the three-dimensional structure ST based on information different from the reference point information without generating the reference point information.
  • the control device 104a identifies and specifies the position of the three-dimensional structure ST in the machining reference coordinate system (and other characteristics such as the shape if necessary) based on information different from the reference point information.
  • the processing apparatus 102a may be controlled to process the three-dimensional structure ST based on the information regarding the position.
  • Work information and modeling information are examples of information that is different from the reference point information. That is, the work information and the modeling information may be input from the output device 93a of the modeling unit UNTa1 to the input device 101a of the processing unit UNTa2. At this time, the work information and the modeling information may be input from the modeling unit UNTa1 to the processing unit UNTa2 in a state of being associated with each other.
  • the work information and the modeling information include the work shape information included in the work information (that is, information on the three-dimensional shape of the work model WM, which is substantially information on the three-dimensional shape of the work W) and the modeling information.
  • the processing unit from the modeling unit UNTa1 in a state in which the included modeling shape information (that is, information on the three-dimensional shape of the modeling model PM, which is substantially information on the three-dimensional shape of the three-dimensional structure ST) is associated. It may be input to UNTa2.
  • the work information and the modeling information are the work position information included in the work information (that is, information on the position of the work model WM, which is substantially information on the position of the work W) and the modeling position included in the modeling information.
  • Information (that is, information regarding the position of the modeling model PM, which is substantially information regarding the position of the three-dimensional structure ST) may be input from the modeling unit UNTa1 to the processing unit UNTa2 in a state of being associated with the information.
  • the "work information and modeling information in a state associated with each other" is work information in a state in which the positional relationship between the work model WM (work W) and the modeling model PM (three-dimensional structure ST) can be specified. And may mean modeling information.
  • the modeling unit UNTa1 may measure the work W using the measuring device 8 before forming the three-dimensional structure ST, and measures the measurement result of the measuring device 8 before forming the three-dimensional structure ST.
  • Information may be input to the machining unit UNTa2 via the input device 101a.
  • the modeling unit UNTa1 may measure at least one of the work W and the three-dimensional structure ST by using the measuring device 8 at a desired timing during the period during which the three-dimensional structure ST is formed. Measurement information regarding the measurement result of the measuring device 8 at a desired timing during the period of forming the structure ST may be input to the processing unit UNTa2 via the input device 101a.
  • the modeling unit UNTa1 may measure the work W and the three-dimensional structure ST using the measuring device 8 after forming the three-dimensional structure ST, and the measuring device 8 after forming the three-dimensional structure ST. The measurement information regarding the measurement result of the above may be input to the processing unit UNTa2 via the input device 101a.
  • the "measurement information in which the measurement result of the work W and the measurement result of the three-dimensional structure ST are associated" are the work model WM (work W) and the modeling model PM (three-dimensional structure ST). It may mean the measurement information in a state where the positional relationship of the above can be specified.
  • the machining unit UNTa2 may be provided with a measuring device for measuring the three-dimensional structure ST, and is based on the measurement result of the measuring device included in the machining unit UNTa2 (that is, the measurement result of the three-dimensional structure ST).
  • the reference point information may be generated.
  • the processing unit UNTa2 may process the three-dimensional structure ST based on the measurement result of the measuring device included in the processing unit UNTa2 (that is, the measurement result of the three-dimensional structure ST).
  • the measuring device included in the processing unit UNTa2 may have the same structure as the measuring device 8 included in the modeling unit UNTa1.
  • the modeling unit UNTa1 and the processing unit UNTa2 are provided with a control device 7 and a control device 104a, respectively. That is, the processing system SYSa includes a control device 7 and a control device 104a that control the modeling unit UNTa1 and the processing unit UNTa2, respectively.
  • the machining system SYSA may include, in addition to or in place of the control device 7 and the control device 104a, a common control device 7a that controls the modeling unit UNTa1 and the machining unit UNTa2.
  • the processing system SYSa includes a modeling unit UNTa1 that does not have to be provided with the control device 7, a processing unit UNTa2 that does not have to be provided with the control device 104a, a transfer device 10a, and a control device 7a. May be good.
  • FIG. 51 is a system configuration diagram showing a system configuration of a processing system SYSA including a common control device 7a for controlling the modeling unit UNTa1 and the processing unit UNTa2.
  • FIG. 51 shows an example in which the modeling unit UNTa1 does not include the control device 7, but the modeling unit UNTa1 may include the control device 7.
  • processing system SYSA1 including the control device 7a will be referred to as "processing system SYSA1".
  • control device 7a may perform at least a part of the operation performed by the control device 7 and the operation performed by the control device 104a.
  • the reference point information does not necessarily have to be input from the output device 93a of the modeling unit UNTa1 to the input device 101a of the processing unit UNTa2.
  • the control device 7a may set a reference point RP in the modeling operation and control the processing device 102a in the machining operation based on the reference point information regarding the set reference point RP.
  • control device 7a controls the modeling device 2 so as to form the three-dimensional structure ST based on the work information and the modeling information, generates the reference point information based on the work information and the modeling information, and generates the reference point information.
  • the processing apparatus 102a may be controlled so as to process the three-dimensional structure ST based on the above.
  • the control device 7a may acquire the reference point information regarding the reference point RP generated by the control device 7 of the modeling unit UNTa1 in the modeling operation, and input the acquired reference point information to the input device 101a of the processing unit UNTa2. ..
  • the control device 7a may acquire the work information and the modeling information used by the control device 7 of the modeling unit UNTa1 in the modeling operation, and input the acquired work information and the modeling information to the input device 101a of the processing unit UNTa2. ..
  • the control device 7a acquires reference point information regarding the reference point RP generated by the control device 7 of the modeling unit UNTa1 in the modeling operation, and processes the three-dimensional structure ST based on the acquired reference point information.
  • the device 102a may be controlled.
  • the control device 7a acquires the work information and the modeling information used by the control device 7 of the modeling unit UNTa1 in the modeling operation, generates the reference point information based on the acquired work information and the modeling information, and generates the generated reference point.
  • the processing apparatus 102a may be controlled so as to process the three-dimensional structure ST based on the information.
  • the processing system SYS1 does not have to be provided with the transfer device 10a. Further, the control device 7 may be provided outside the processing system SYS1.
  • the stage 31 of the modeling unit UNTa1 supports the work W alone. However, the stage 31 may support the work W through an object different from the work W. In this case, the measuring device 8 of the modeling unit UNTa1 may measure the work W together with an object different from the work W.
  • FIG. 52 is a perspective view showing an example of a stage 31 that supports the work W through an object different from the work W.
  • the stage 31 may support the work W via, for example, a fixing jig (for example, a vise) 36a for fixing the work W. That is, the stage 31 may support the fixing jig 36a, and the work W may be fixed to the fixing jig 36a supported by the stage 31.
  • the fixing jig 36a is, for example, a device for fixing the work W so that the three-dimensional structure ST does not shift with respect to the stage 1031a during the processing of the three-dimensional structure ST by the processing unit UNTa2. May be good.
  • the measuring device 8 may measure the work W fixed to the fixing jig 36a. That is, the measuring device 8 may measure the work W together with the fixing jig 36a. Further, as long as the fixing jig 36a fixes the work W, the relative positions of the fixing jig 36a and the three-dimensional structure ST hardly change. Therefore, the control device 104a is placed on the fixing jig 36a. A reference point RP may be set. Further, in the modeling operation, the processing apparatus 2 may form the three-dimensional structure ST on the work W fixed to the fixing jig 36a.
  • FIG. 53 is a perspective view showing a three-dimensional structure ST formed on the work W fixed to the fixing jig 36a.
  • the transport device 10a may transport the work W fixed to the fixing jig 36a.
  • the transport device 10a may transport the work W fixed to the fixing jig 36a together with the fixing jig 36a. That is, when the stage 31 supports the work W through an object different from the work W, the transport device 10a may transport the work W together with an object different from the work W.
  • the stage 1031a of the processing unit UNTa2 may also support the work W via a fixing jig 36a for fixing the work W. That is, the stage 1031a may support the fixing jig 36a, and the work W may be fixed to the fixing jig 36a supported by the stage 1031a.
  • FIG. 54 is a perspective view showing the stage 1031a that supports the work W fixed to the fixing jig 36a. That is, when the stage 31 supports the work W through an object different from the work W, the stage 1031a may support the work W through an object different from the work W.
  • the fixing jig 36a may be fixed to the stage 1031a. As a result, the displacement of the three-dimensional structure ST with respect to the stage 1031a during the machining of the three-dimensional structure ST by the processing unit UNTa2 is suppressed.
  • the fixing jig 36a is screwed to the stage 1031a via a screw hole 361a formed in the fixing jig 36a and a groove (for example, a T groove) formed in the stage 1031a. May be good.
  • the stage 31 may support a plurality of work Ws fixed to each of the plurality of fixing jigs 36a. That is, the stage 31 may support a plurality of work Ws via the plurality of fixing jigs 36a, respectively.
  • the work model alignment operation described above is performed for each of the plurality of work Ws.
  • the stage 31 supports N (where N is an integer of 2 or more) work Ws
  • the work model alignment operation is performed on the first work W, so that the first work W is performed.
  • Work information about the work W is generated, and the work model alignment operation is performed for the second work W, so that the work information about the second work W is generated, ..., For the Nth work W.
  • the work model alignment operation By performing the work model alignment operation, work information regarding the Nth work W is generated. However, when the measurement range of the measuring device 8 includes two or more work Ws, the measurement by the measuring device 8 for the work model alignment operation is performed collectively for the two or more work Ws. May be good. Further, when the measuring device 8 forms the three-dimensional structure ST after the three-dimensional structure ST is formed, the measuring device 8 forms the plurality of three-dimensional structure STs formed on the plurality of works W, respectively. It may be measured together with a plurality of work Ws or in order.
  • the stage 31 may support a plurality of work Ws without using the fixing jig 36a. Similarly in this case, the work model alignment operation described above may be performed for each of the plurality of work Ws.
  • FIG. 55 showing another example of the system configuration of the processing system SYS of the first embodiment (that is, another example of the system configuration of the modeling unit UNTa1 of the second embodiment).
  • the stage device 3 may include a stage drive system 32 for moving the stage 31.
  • the stage drive system 32 may move the stage 31 within the chamber space 63IN, for example.
  • the stage drive system 32 may move the stage 31 along at least one of the X-axis, the Y-axis, and the Z-axis.
  • each of the irradiation region EA and the supply region MA moves on the work W along at least one of the X-axis and the Y-axis.
  • the stage drive system 32 may move the stage 31 along at least one of the ⁇ X direction, the ⁇ Y direction, and the ⁇ Z direction in addition to at least one of the X-axis, the Y-axis, and the Z-axis.
  • the stage drive system 32 includes, for example, a motor and the like.
  • the stage device 3 may further include the position measuring device 33.
  • the position measuring device 33 can measure the position of the stage 31.
  • the position measuring device 33 may include, for example, at least one of an encoder and a laser interferometer.
  • the modeling device 2 does not have to include the head drive system 22. However, even when the processing system SYS includes the stage drive system 32, the modeling device 2 may include the head drive system 22. When the modeling device 2 does not include the head drive system 22, the modeling device 2 does not have to include the position measuring device 23.
  • step S112 of FIG. 4 described above which shows the flow of the coordinate matching operation for associating the above-mentioned modeling coordinate system with the stage coordinate system
  • the stage drive system 32 May move the stage 31 so that the processing light EL is irradiated toward the beam detector 325.
  • the control device 7 corrects the position of the pin 312 in the stage coordinate system, which is information known to the control device 7, according to the amount of movement of the stage 31, and then the pin 312.
  • the position in the modeling coordinate system of the modeling head 21 in a state where the processing light EL can be irradiated and the position in the stage coordinate system where the pin 312 is formed should be associated with each other. You may. However, if the processing system SYS does not have the head drive system 22 (that is, the modeling head 21 does not move), the modeling coordinate system may not be used. In this case, the modeling coordinate system and the stage coordinates The processing of steps S111 to S113 of FIG. 4 described above showing the flow of the coordinate matching operation for associating with the system may not be performed.
  • the position measuring device 33 is shown in step S115 of FIG. 4 described above showing the flow of the coordinate matching operation for associating the measured coordinate system with the stage coordinate system. May measure the position of the stage 31 when the measuring device 8 is measuring the reference member 34.
  • the control device 7 includes the measurement result of the measuring device 8 in step S115 and the measurement result of the position of the stage 31 when the measuring device 8 is measuring the reference member 34 in step S115.
  • the measurement coordinate system and the stage coordinate system may be associated with each other based on. Specifically, the control device 7 can specify the position of the reference mark 343 in the measurement coordinate system from the measurement result of the measurement device 8.
  • the control device 7 has the through hole 322 and the through hole 322 in the measurement coordinate system based on the information regarding the position of the reference mark 343 in the measurement coordinate system and the information regarding the positional relationship between the reference mark 343 and the through hole 322.
  • the position of the pin 312 can be specified.
  • the information regarding the position of the pin 312 in the stage coordinate system is known to the control device 7.
  • the control device 7 can identify that the position of the pin 312 in the measurement coordinate system and the position of the pin 312 in the stage coordinate system should be associated with each other.
  • the position of the pin 312 in the stage coordinate system is corrected by the amount of movement of the stage 31 by the stage drive system 32.
  • the control device 7 can specify that the position of the pin 312 in the measurement coordinate system and the corrected position of the pin 312 in the stage coordinate system are positions to be associated with each other.
  • the control device 7 is based on the specific result that a specific position in the measurement coordinate system and a specific position in the stage coordinate system should be associated with each other, and the measurement coordinate system and the stage. Can be associated with a coordinate system.
  • step S144 of FIG. 17 which shows the flow of the third work model alignment operation described above
  • the stage drive system 32 is described in step S143 of FIG.
  • the stage 31 may be moved so that the positional condition that the designated user-designated point and the modeling apparatus 2 have a desired third positional relationship is satisfied.
  • step S145 of FIG. 17 after the stage 31 is moved so that the position condition that the user-designated point and the modeling device 2 have a desired third positional relationship is satisfied, the position condition of the position measuring device 33 is changed.
  • the position of the stage 31 at the time of filling may be measured.
  • the control device 7 obtains work information based on the measurement results of the position measuring devices 23 and / or 33 in step S145 of FIG. 17 and the work model data acquired in step S142. It may be generated.
  • the measurement result of the position measuring device 23 and / or 33 in step S145 is the position of the modeling head 21 and / or the stage 31 when the user-designated point and the modeling device 2 have a desired third positional relationship. Is shown. Therefore, the control device 7 can specify the position of the user-designated point in the modeling coordinate system and / or the position of the user-designated point in the stage coordinate system from the measurement results of the position measuring device 23 and / or 33.
  • the control device 7 arranges the work model designated point, which is a point corresponding to the user designated point in the work model WM, at the position of the user designated point specified from the measurement results of the position measuring device 23 and / or 33. You may perform the alignment process for this. After that, the control device 7 may generate work information based on the result of the alignment process.
  • the beam detection member 32 is placed on the mounting surface 311 in order to perform the coordinate matching operation.
  • the beam detection member 32 (particularly, the light shielding member 323 and the beam detector 325) may be formed on the stage 31 (for example, the mounting surface 311).
  • the reference member 34 is placed on the mounting surface 311 in order to perform the coordinate matching operation.
  • the reference member 34 (particularly, the reference mark 343) may be formed on the stage 31 (for example, the mounting surface 311).
  • the pin 312 and the through hole 322 are used as markings for positioning when the beam detection member 32 is mounted on the mounting surface 311.
  • the pin 312 and the through hole 322 are merely examples of markings for alignment, and markings different from those of the pin 312 and the through hole 322 may be used.
  • a convex structure which is an example of a mark is formed on the mounting surface 311
  • a concave structure which is an example of a mark is formed on the beam detection member 32
  • the convex structure is concave.
  • the beam detection member 32 and the mounting surface 311 may be aligned by mounting the beam detecting member 32 on the mounting surface 311 so as to be fitted into the structure of the above.
  • a concave structure which is an example of a mark is formed on the mounting surface 311
  • a convex structure which is an example of a mark is formed on the beam detection member 32
  • the convex structure is concave.
  • the beam detection member 32 and the mounting surface 311 may be aligned by mounting the beam detecting member 32 on the mounting surface 311 so as to be fitted into the structure of the above.
  • a guide member having a shape along at least a part of the outer edge of the beam detection member 32 is formed on the mounting surface 311 as a mark, and the beam is detected so that the outer edge of the beam detection member 32 comes into contact with the guide member.
  • the beam detection member 32 and the mounting surface 311 may be aligned by mounting the member 32 on the mounting surface 311. The same applies to the positioning mark when the reference member 34 is placed on the mounting surface 311.
  • a reference member 34 different from the beam detection member 32 for associating the modeling coordinate system with the stage coordinate system is used.
  • the beam detection member 32 may be used as a reference member 34 for associating the measurement coordinate system with the stage coordinate system.
  • at least one of the light-shielding member 323, the opening 324, and the beam detector 325 formed on the beam detection member 32 may be used as the reference mark 343.
  • the reference mark 343 may be formed on the base member 321 of the beam detection member 32.
  • the reference member 34 is formed with a mark that can be measured by the measuring device 8 as the reference mark 343.
  • the reference member 34 is a cross-sectional view showing another example of the reference member 34.
  • FIG. 52 (b) which is a cross-sectional view taken along the line AA in FIGS. 52 (a) and 52 (a)
  • 52 (a) and 52 (b) show an example in which at least a part (specifically, a hemisphere) of a sphere is formed on the reference member 34 as a three-dimensional member 344.
  • the three-dimensional member 344 may have the same characteristics as the reference mark 343 except that it has a three-dimensional structure. As a result, even when the three-dimensional member 344 is formed, the measurement coordinate system and the stage coordinate system are appropriately associated with each other.
  • the beam detection member 32 is mounted on the mounting surface 311 in order to perform the coordinate matching operation.
  • the reference member 34 is placed on the mounting surface 311 in order to perform the coordinate matching operation.
  • the coordinate matching operation may be performed without using the beam detection member 32 or the reference member 34.
  • a photosensitive / heat-sensitive member heat-sensitive paper as an example
  • a processing coordinate system head coordinate system
  • the processing light reference origin As a result, a mark is exposed on the photosensitive / heat-sensitive member, and this mark becomes the processing light reference origin.
  • the intersecting positions of the plurality of guide lights GL emitted from the plurality of guide light emitting devices 24 are matched with the positions of the exposed marks on the photosensitive / heat sensitive member.
  • the processed coordinate system and the measured coordinate system can be associated with each other.
  • the position of the exposed mark may be measured by using the measuring device 8.
  • the modeling device 2 melts the modeling material M by irradiating the modeling material M with processing light EL.
  • the modeling apparatus 2 may melt the modeling material M by irradiating the modeling material M with an arbitrary energy beam.
  • the modeling device 2 may include a beam irradiating device capable of irradiating an arbitrary energy beam in addition to or in place of the irradiation optical system 211.
  • Any energy beam includes, but is not limited to, a charged particle beam such as an electron beam, an ion beam, or an electromagnetic wave.
  • the processing system SYS can form the three-dimensional structure ST by the laser overlay welding method.
  • the processing system SYS can form the three-dimensional structure ST from the modeling material M by another method capable of forming the three-dimensional structure ST by irradiating the modeling material M with the processing light EL (or an arbitrary energy beam). It may be formed.
  • Other methods include, for example, a powder bed melting bonding method (Power Bed Fusion) such as a powder sintering laminated molding method (SLS: Selective Laser Sintering), a binder jetting method (Binder Jetting), or a laser metal fusion method (LMF:). Laser Metal Fusion) can be mentioned.
  • the processing system SYS may use an arbitrary method for additional processing, which is different from the method capable of forming the three-dimensional structure ST by irradiating the modeling material M with the processing light EL (or an arbitrary energy beam).
  • the three-dimensional structure ST may be formed.
  • the processing system SYS forms the three-dimensional structure ST by supplying the modeling material M from the material nozzle 212 toward the irradiation region EA where the irradiation optical system 211 irradiates the processing light EL. ..
  • the processing system SYS may form the three-dimensional structure ST by supplying the modeling material M from the material nozzle 212 without irradiating the processing light EL from the irradiation optical system 211.
  • the processing system SYS melts the modeling material M on the modeling surface MS by spraying the modeling material M onto the modeling surface MS from the material nozzle 212, and solidifies the melted modeling material M.
  • the dimensional structure ST may be formed.
  • the processing system SYS melts the modeling material M on the modeling surface MS and solidifies the molten modeling material M by blowing a gas containing the modeling material M onto the modeling surface MS from the material nozzle 212 at an ultra-high speed.
  • the three-dimensional structure ST may be formed.
  • the processing system SYS melts the modeling material M on the modeling surface MS by spraying the heated modeling material M onto the modeling surface MS from the material nozzle 212, and solidifies the melted modeling material M.
  • the three-dimensional structure ST may be formed.
  • the processing system SYS (particularly, the modeling head 21) does not have to include the irradiation optical system 211. Good.
  • the processing system SYS performs a removal processing capable of removing at least a part of the object by irradiating an object such as a work W with a processing light EL (or an arbitrary energy beam) in addition to or instead of the additional processing. You may.
  • the processing system SYS irradiates an object such as a work W with processing light EL (or an arbitrary energy beam) in addition to or in place of at least one of addition processing and removal processing to mark at least a part of the object. Marking processing capable of forming (for example, letters, numbers or figures) may be performed. Even in this case, the above-mentioned effects can be enjoyed.
  • Appendix 1 A modeling device that models a modeled object on the base member based on the set position set on the base member, and A modeling unit including an output device that outputs position information related to the set position.
  • Appendix 2 The modeling unit according to Appendix 1, wherein the output device outputs the position information to a processing unit that performs a processing operation on the modeled object.
  • Appendix 3 The modeling unit according to Appendix 2, which performs the processing operation based on the position information output from the output device.
  • [Appendix 4] The processing unit aligns the modeled object with the processing unit based on the position information output from the output device, and performs the processing operation based on the result of the alignment.
  • Appendix 2 or 3 The modeling unit described in.
  • Appendix 5 The modeling unit according to any one of Appendix 1 to 4, wherein the modeling device models the modeled object whose relative position with respect to the base member is fixed.
  • Appendix 6 The modeling unit according to any one of Appendix 1 to 5, wherein the modeling device models the modeled object coupled to the base member.
  • [Appendix 7] The modeling unit according to any one of Appendix 1 to 6, wherein the position information includes information on a relative position between the set position and the base member.
  • [Appendix 11] The modeling apparatus models the modeled object on the base member based on the modeling data.
  • Appendix 12 The modeling unit according to Appendix 11, wherein the modeling data includes data that determine the content of a modeling operation for modeling the modeled object.
  • Appendix 13 The modeling unit according to Appendix 11 or 12, wherein the modeling data includes three-dimensional shape data of the modeled object.
  • Appendix 14 Further equipped with a measuring device that measures the modeled object and obtains the measurement result, The modeling unit according to any one of Appendix 8 to 13, wherein the output device outputs the measurement result associated with the set position as the position information.
  • Appendix 15 The measuring device measures the position of the base member in the reference coordinate system of the modeling unit.
  • Appendix 16 Further provided with a support device for supporting the base member, The modeling unit according to Appendix 15, wherein the reference coordinate system includes a support position coordinate system for indicating a position of the support device on a support surface.
  • the measuring device measures the position of the portion of the base member in the reference coordinate system of the modeling unit, The output device outputs the position of the portion of the base member associated with the set position.
  • Appendix 18 The modeling unit according to Appendix 9 to 17, wherein the output device outputs information regarding the set position.
  • [Appendix 19] The modeling unit according to any one of Appendix 14 to 18, wherein the measuring device measures the modeled object in a non-contact manner.
  • Appendix 20 The modeling unit according to any one of Appendix 1 to 19, further comprising a control device for setting the set position.
  • Appendix 21 The modeling unit according to Appendix 19, wherein the control device sets the set position on the base member.
  • Appendix 22 A control device that sets the set position on the base member, A modeling unit including a modeling device that models a modeled object on the base member based on the set position.
  • [Appendix 26] A modeling device that models a modeled object on the base member, A modeling unit including a base member and an output device that outputs position information regarding a relationship between a set position set on at least one of the modeled objects and the position of the modeled object.
  • [Appendix 27] A modeling device that models a modeled object on the base member, A modeling unit including an output device that outputs three-dimensional shape data of the base member and three-dimensional shape data of the modeled object.
  • [Appendix 28] The modeling unit according to Appendix 27, wherein the output device outputs the three-dimensional shape data of the base member in association with the three-dimensional shape data of the modeled object.
  • [Appendix 29] The modeling unit according to Appendix 27 or 28, wherein the output device outputs position information regarding a set position set on the base member.
  • [Appendix 30] The modeling unit according to Appendix 29, wherein the output device outputs the set position in association with the three-dimensional shape data of the base member.
  • [Appendix 31] The modeling unit according to Appendix 29 or 30, wherein the output device outputs the set position in association with the three-dimensional shape data of the modeled object.
  • [Appendix 32] A modeling device that models a modeled object on the base member, A measuring device that acquires three-dimensional information of the base member and the modeled object, and A modeling unit including an output device that outputs measurement results by the measuring device.
  • the measuring device measures the base member in at least one period before the modeled object is modeled and while the modeled object is being modeled, obtains the first measurement result, and the modeled object is modeled.
  • the modeling unit according to Appendix 32 which measures the modeled object and acquires a second measurement result during at least one period after the modeled object is modeled.
  • the modeling unit according to Appendix 34 The modeling unit according to Appendix 33, wherein the output device outputs the first measurement result and the second measurement result in association with each other.
  • Appendix 35 A modeling device that models a modeled object on the base member, A measuring device for measuring the base member and the modeled object, and It is equipped with an output device that outputs the measurement results of the measuring device.
  • the measuring device measures the base member in at least one period before the modeled object is modeled and while the modeled object is being modeled, obtains the first measurement result, and the modeled object is modeled.
  • Appendix 36 The modeling unit according to Appendix 35, wherein the output device outputs the first measurement result and the second measurement result in association with each other.
  • Appendix 37 The modeling unit according to any one of Appendix 1 to 31, further comprising a measuring device for measuring the modeled object.
  • [Appendix 38] The modeling unit according to Appendix 37, wherein the output device outputs position information regarding a set position set on the base member and a measurement result of the measuring device.
  • a control device for correcting the position information regarding the set position set on the base member based on the measurement result of the measuring device is provided.
  • the modeling device includes a supply device that supplies materials to the modeling position.
  • Appendix 42 The modeling unit according to Appendix 41, wherein the modeling device includes a beam irradiation device that irradiates the modeling position with an energy beam.
  • Appendix 43 The modeling unit according to any one of Appendix 1 to 42, wherein the modeling device forms the modeled object by performing additional processing on the base member.
  • Appendix 44 The modeling unit according to any one of Appendix 1 to 43, wherein a mark is provided on the base member.
  • [Appendix 45] The modeling unit according to Appendix 44, wherein the position of the mark or a position having a predetermined relationship with the mark is a set position on the base member.
  • [Appendix 46] The modeling unit according to any one of Appendix 1 to 45, wherein the feature point of the base member is a set position on the base member.
  • [Appendix 47] The modeling unit according to Appendix 46, wherein the feature point includes a boundary of the base member or a boundary of a structure on the base member.
  • [Appendix 48] The modeling unit according to Appendix 43 or 44, wherein the feature point includes a corner of the base member or a corner of a structure on the base member.
  • a modeling device for modeling a modeled object including a flat surface on the upper surface of a base member having a flat side surface, A modeling unit including a control device that controls the modeling device so that the side surface of the base member and the planar surface of the modeled object are parallel to each other.
  • the processing unit according to Appendix 50 further comprising an input device for inputting the position information.
  • Appendix 52 The processing unit according to Appendix 51, wherein the position information from the modeling unit that models the modeled object is input to the input device.
  • Appendix 53 The processing unit according to Appendix 52, wherein the position information is input to the input device from at least one of a user of the modeling unit for modeling the modeled object and a user of the processing unit.
  • Appendix 54 The processing unit according to any one of Appendix 50 to 53, wherein the control device generates the position information based on the modeling data that determines the content of the modeling operation for modeling the modeled object.
  • Appendix 55 The processing unit according to any one of Appendix 50 to 54, wherein the control device generates the position information based on the modeling data including the three-dimensional shape data of the modeled object.
  • Appendix 56 The processing unit according to Appendix 54 or 55, further comprising an input device into which the modeling data is input.
  • Appendix 57 The processing unit according to Appendix 56, wherein the modeling data is input to the input device from the modeling unit that models the modeled object.
  • Appendix 58 From Appendix 50, the control device adjusts the set position and the processing device based on the position information, and controls the processing device so as to perform the processing operation based on the result of the alignment.
  • the processing unit according to any one of 57 The processing unit according to any one of 57.
  • Appendix 59 The processing unit according to any one of Appendix 50 to 58, wherein the modeled object is transported from the modeling unit to the processing unit after the modeling unit for modeling the modeled object has modeled the modeled object.
  • Appendix 60 The processing unit according to Appendix 59, wherein the modeled object is conveyed from the modeling unit to the processing unit together with the base member.
  • Appendix 61 The processing unit according to Appendix 60, wherein the modeled object is conveyed from the modeling unit to the processing unit together with the base member while maintaining the relative position between the base member and the modeled object.
  • Appendix 66 The processing unit according to any one of Appendix 50 to 65, wherein the processing apparatus performs a removal processing operation for removing a part of the modeled object as the processing operation.
  • Appendix 67 A processing device that performs processing operations on a modeled object formed on the base member, A machining unit including a control device that controls the machining device by using information on the relationship between the set position set on the base member and the position of the modeled object.
  • Appendix 68 A processing device that performs processing operations on a modeled object formed on the base member, A machining unit including a control device that controls the machining device by using the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • Appendix 69 The processing unit according to Appendix 68, wherein the control device controls the processing device by using information associated with the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • Appendix 70 The machining unit according to Appendix 68 or 69, wherein the control device controls the machining device by using information about a set position set on the base member.
  • Appendix 71 The machining unit according to Appendix 70, wherein the control device controls the machining device by using information associated with the set position and the three-dimensional shape data of the base member.
  • Appendix 72 The processing unit according to Appendix 70 or 71, wherein the control device controls the processing device by using information associated with the set position and the three-dimensional shape data of the modeled object.
  • Appendix 73 A processing device that performs processing operations on a modeled object formed on the base member, A processing unit including a control device that controls the processing device by using the first measurement result of the base member and the second measurement result of the base member and the modeled object.
  • Appendix 74 The processing unit according to Appendix 73, wherein the first measurement result and the second measurement result are associated with each other.
  • [Appendix 75] A modeling unit that models a modeled object on the base member based on a set position set on the base member, and A machining system including a machining unit that performs a machining operation on the modeled object based on position information regarding the set position.
  • [Appendix 76] The processing system according to Appendix 75, wherein the modeling unit outputs the position information to the processing unit.
  • [Appendix 77] The processing system according to Appendix 76, wherein the processing unit performs the processing operation based on the position information output from the modeling unit.
  • the modeling unit models the modeled object based on the modeling data, and outputs the modeling data to the processing unit.
  • the processing unit generates the position information based on the modeling data, and performs the processing operation on the modeled object based on the generated position information according to any one of the items 75 to 77.
  • Processing system [Appendix 79] The processing system according to any one of Appendix 75 to 78, further comprising a control device for controlling at least one of the modeling unit and the processing unit.
  • Appendix 80 The processing system according to Appendix 79, wherein the control device acquires position information regarding the set position from the modeling unit and outputs the acquired position information to the processing unit.
  • Appendix 81 The processing system according to Appendix 79 or 80, wherein the control device acquires modeling data from the modeling unit and outputs the acquired modeling data to the processing unit.
  • the control device acquires position information regarding the set position from the modeling unit, and controls the processing unit so as to perform the processing operation based on the acquired position information. Any one of the items 79 to 81.
  • the processing system described in. [Appendix 83]
  • the control device acquires modeling data from the modeling unit, generates position information regarding the set position based on the acquired modeling data, and performs the processing operation based on the generated position information.
  • the machining system according to any one of Appendix 79 to 82, which controls a machining unit.
  • the control device controls the modeling unit so as to model the modeled object based on the position information regarding the set position, and controls the machining unit so as to perform the machining operation based on the position information.
  • the processing system according to any one of 79 to 83.
  • the control device controls the modeling unit so as to model the modeled object based on the modeling data, generates position information regarding the set position based on the modeling data, and is based on the generated position information.
  • the machining system according to any one of Appendix 79 to 84, which controls the machining unit so as to perform the machining operation.
  • Appendix 86 The processing system according to Appendix 78, 81, 83 or 85, wherein the modeling data includes data defining the content of a modeling operation for modeling the modeled object.
  • Appendix 87 The processing system according to Appendix 78, 81, 83, 85 or 86, wherein the modeling data includes three-dimensional shape data of the modeled object.
  • Appendix 88 The processing system according to any one of Appendix 75 to 87, further comprising a transport device for transporting the modeled object from the modeling unit to the processing unit.
  • Appendix 89 The processing system according to Appendix 88, wherein the transfer device transfers the modeled object from the modeling unit to the processing unit after the modeling unit has modeled the modeled object.
  • Appendix 90 The processing system according to Appendix 88 or 89, wherein the transfer device conveys the modeled object together with the base member from the modeling unit to the processing unit.
  • Appendix 91 The processing system according to Appendix 90, wherein the transport device transports the modeled object from the modeling unit to the processing unit together with the base member while maintaining a relative position between the base member and the modeled object.
  • Appendix 92 The processing system according to Appendix 90 or 91, wherein the transport device transports the modeled object coupled to the base member from the modeling unit to the processing unit.
  • Appendix 93 A modeling unit that models a modeled object on the base member based on a set position set on the base member, and A machining system including a machining unit that performs a machining operation on the modeled object based on position information regarding a relative position between the set position and the modeled object.
  • [Appendix 94] The modeling apparatus models the modeled object on the base member based on the modeling data.
  • [Appendix 95] The processing system according to Appendix 94, wherein the modeling data includes data that determine the content of a modeling operation for modeling the modeled object.
  • [Appendix 96] The processing system according to Appendix 94 or 95, wherein the modeling data includes three-dimensional shape data of the modeled object.
  • Appendix 97 Further equipped with a measuring unit that measures the modeled object, The processing system according to any one of Appendix 93 to 96, wherein the position information includes a measurement result by the measurement unit associated with the set position.
  • the measuring unit measures the position of the base member in the reference coordinate system of the modeling unit.
  • the reference coordinate system includes a support position coordinate system for indicating a position of the support device on a support surface.
  • the measuring unit measures the position of a portion of the base member in the reference coordinate system of the modeling unit, The processing system according to any one of Supplementary note 97 to 99, wherein the position information includes information regarding the position of the portion of the base member associated with the set position.
  • a modeling unit that models a modeled object on the base member A processing system including a processing unit that performs a processing operation on a modeled object formed on the base member by using information on the relationship between a set position set on the base member and the position of the modeled object.
  • a modeling unit that models a modeled object on the base member A processing unit including a processing unit that performs a processing operation on a modeled object formed on the base member by using the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • Appendix 103 The processing system according to Appendix 102, wherein the processing unit performs the processing operation by using information associated with the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • Appendix 104 The machining system according to Appendix 102 or 103, wherein the machining unit performs the machining operation using information about a set position set on the base member.
  • Appendix 105 The machining system according to Appendix 104, wherein the machining unit performs the machining operation by using information associated with the set position and the three-dimensional shape data of the base member.
  • Appendix 106 The machining system according to Appendix 104 or 105, wherein the machining unit performs the machining operation by using information associated with the set position and the three-dimensional shape data of the modeled object.
  • Appendix 107 A modeling unit that models a modeled object on the base member, It is equipped with a processing unit that performs processing operations on the modeled object formed on the base member. The processing unit is a processing system that performs the processing operation by using the first measurement result of the base member and the second measurement result of the base member and the modeled object.
  • Appendix 108 The processing system according to Appendix 107, wherein the first measurement result and the second measurement result are associated with each other.
  • the modeling unit is the modeling unit according to any one of Appendix 1 to 49.
  • the processing system according to any one of Appendix 75 to 108.
  • the processing unit is the processing unit according to any one of Appendix 50 to 74.
  • a control device that controls the output device so as to output position information regarding the set position.
  • a control device that controls a modeling unit including a modeling device and an output device.
  • the modeling device Based on the set position set on the base member, the modeling device is controlled so as to model a modeled object on the base member. A control device that controls the output device so as to output position information regarding a relative position between the set position and the modeled object.
  • a control device that controls the modeling device so as to model the modeled object on the base member based on the set position A control device that controls the modeling device so as to model the modeled object on the base member based on the set position.
  • a control device that controls a modeling unit including a modeling device and an output device A set position is set on at least one of the base member and the modeled object, and the modeling device is controlled so as to model the modeled object on the base member based on the set position.
  • the modeling device is controlled so as to model a modeled object on the base member.
  • a control device that controls the output device so as to output position information regarding a relationship between a set position set on at least one of the base member and the modeled object and the position of the modeled object.
  • a control device that controls a modeling unit including a modeling device and an output device.
  • the modeling device is controlled so as to model a modeled object on the base member.
  • a control device that controls the output device so as to output the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • a control device that controls a modeling unit including a modeling device, a measuring device, and an output device.
  • the modeling device is controlled so as to model a modeled object on the base member.
  • the measuring device is controlled so as to measure the base member and the modeled object.
  • the output device is controlled so as to output the measurement result by the measuring device.
  • the base member is measured and the first measurement result is obtained during at least one period before the modeled object is modeled and while the modeled object is being modeled, and while the modeled object is being modeled and said.
  • the modeling device is controlled so as to form a modeled object including the planar surface on the upper surface of the base member having the planar side surface.
  • a control device that controls the modeling device so that the side surface of the base member and the planar surface of the modeled object are parallel to each other.
  • a control device that controls a processing device that performs a processing operation on a modeled object formed on the base member based on a set position set on the base member based on position information related to the set position.
  • Appendix 122 A control device that controls a processing device that performs a processing operation on a modeled object formed on a base member by using the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • Appendix 123 A control device that controls a processing device that performs a processing operation on a modeled object formed on a base member by using the first measurement result of the base member and the second measurement result of the base member and the modeled object. ..
  • Appendix 124 A control device used in a processing system including a modeling unit and a processing unit. The modeling unit is controlled so as to model a modeled object on the base member based on a set position set on the base member.
  • [Appendix 131] Based on the set position set on the base member, modeling the modeled object on the base member and A modeling method including outputting position information regarding the relationship between the set position and the position of the modeled object.
  • [Appendix 132] Setting the set position on the base member and A modeling method including modeling a modeled object on the base member based on the set position.
  • [Appendix 133] Modeling a modeled object on the base member and To set the set position on at least one of the base member and the modeled object, It includes outputting the first position information regarding the set position and the second position information regarding the positional relationship between the set position and the position of the modeled object.
  • the modeling is a modeling method in which the modeled object is modeled based on the set position.
  • [Appendix 138] Performing processing operations on the modeled object formed on the base member Including obtaining information on the relationship between the set position set on the base member and the position of the modeled object.
  • Performing the processing operation is a processing method including performing the processing operation using the information.
  • [Appendix 139] Performing processing operations on the modeled object formed on the base member Including the acquisition of the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • Performing the processing operation is a processing method including performing the processing operation by using the three-dimensional shape data of the base member and the three-dimensional shape data of the modeled object.
  • [Appendix 140] Performing processing operations on the modeled object formed on the base member Including the acquisition of the first measurement result of the base member and the second measurement result of the base member and the modeled object. Performing the processing operation is a processing method including performing the processing operation using the first measurement result and the second measurement result.
  • [Appendix 141] Based on the set position set on the base member, modeling the modeled object on the base member and A processing method including performing a processing operation on the modeled object based on the position information.
  • [Appendix 142] Based on the set position set on the base member, modeling the modeled object on the base member and A processing method including performing a processing operation on the modeled object based on position information regarding a relative position between the set position and the modeled object.
  • the present invention is not limited to the above-described embodiment, and can be appropriately modified within the scope of claims and within the scope not contrary to the gist or idea of the invention that can be read from the entire specification, and the modeling unit accompanied by such modification. Machining units, machining systems, control devices, modeling methods and machining methods are also included in the technical scope of the present invention.

Abstract

造形ユニットは、ベース部材上に設定された設定位置に基づいて、ベース部材に造形物を造形する造形装置と、設定位置に関する位置情報を出力する出力装置とを備える。

Description

造形ユニット
 本発明は、例えば、造形物を造形するための造形ユニットの技術分野に関する。
 特許文献1には、粉状の材料をエネルギビームで溶融した後に、溶融した材料を固化させることで造形物を造形する装置が記載されている。このような造形物を造形する装置では、造形物を適切に造形することが技術的課題となる。
米国特許出願公開第2017/014909号明細書
 第1の態様によれば、ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、前記設定位置に関する位置情報を出力する出力装置とを備える造形ユニットが提供される。
 第2の態様によれば、ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、前記設定位置と前記造形物との相対位置に関する位置情報を出力する出力装置とを備える造形ユニットが提供される。
 第3の態様によれば、ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、前記設定位置と前記造形物の位置との関係に関する位置情報を出力する出力装置とを備える造形ユニットが提供される。
 第4の態様によれば、ベース部材上に設定位置を設定する制御装置と、前記設定位置に基づいて、前記ベース部材に造形物を造形する造形装置とを備える造形ユニットが提供される。
 第5の態様によれば、ベース部材に造形物を造形する造形装置と、前記ベース部材及び前記造形物のうち少なくとも一方の上に設定位置を設定し、前記設定位置に基づいて前記造形装置を制御する制御装置と、前記設定位置に関する第1位置情報と、前記設定位置と前記造形物の位置との位置関係に関する第2位置情報とを出力する出力装置とを備える造形ユニットが提供される。
 第6の態様によれば、ベース部材に造形物を造形する造形装置と、前記ベース部材及び前記造形物のうち少なくとも一方の上に設定された設定位置と前記造形物の位置との関係に関する位置情報を出力する出力装置とを備える造形ユニットが提供される。
 第7の態様によれば、ベース部材に造形物を造形する造形装置と、前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを出力する出力装置とを備える造形ユニットが提供される。
 第8の態様によれば、ベース部材に造形物を造形する造形装置と、前記ベース部材及び前記造形物の三次元情報を取得する計測装置と、前記計測装置による計測結果を出力する出力装置とを備える造形ユニットが提供される。
 第9の態様によれば、ベース部材に造形物を造形する造形装置と、前記ベース部材及び前記造形物を計測する計測装置と、前記計測装置による計測結果を出力する出力装置とを備え、前記計測装置は、前記造形物が造形される前及び前記造形物が造形されている間の少なくとも一方の期間において前記ベース部材を計測して第1計測結果を取得し、前記造形物が造形されている間及び前記造形物が造形された後の少なくとも一方の期間において前記造形物を計測して第2計測結果を取得する造形ユニットが提供される。
 第10の態様によれば、平面状の側面を有するベース部材の上面に、平面状の面を含む造形物を造形する造形装置と、前記ベース部材の前記側面と前記造形物の前記平面状の面とが平行となるように前記造形装置を制御する制御装置とを備える造形ユニットが提供される。
 本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。
図1は、第1実施形態の加工システムの構造を示す断面図である。 図2は、第1実施形態の加工システムのシステム構成を示すシステム構成図である。 図3(a)から図3(j)のそれぞれは、投影装置が投影する投影パターンを示す平面図である。 図4は、座標マッチング動作の流れを示すフローチャートである。 図5は、位置合わせ用の目印が形成された載置面を含むステージを示す平面図である。 図6は、図5に示すステージのV-V’断面図である。 図7は、位置合わせ用の目印が形成されたビーム検出部材を示す平面図である。 図8は、図7に示すビーム検出部材のVII#1-VII#1’断面図である。 図9は、図7に示すビーム検出部材のVII#2-VII#2’断面図である。 図10は、載置面に載置されたビーム検出部材を示す平面図である。 図11は、位置合わせ用の目印が形成された基準部材を示す平面図である。 図12は、載置面に載置された基準部材を示す平面図である。 図13は、ステージ座標系内での載置面とワークとを示す斜視図である。 図14は、第1のワークモデルアライメント動作の流れを示すフローチャートである。 図15は、第2のワークモデルアライメント動作の流れを示すフローチャートである。 図16は、モデル形状情報が示す3次元モデル(つまり、ワーク)と計測形状情報が示すワークとをパターンマッチングする様子を概念的に示す概念図である。 図17は、第3のワークモデルアライメント動作の流れを示すフローチャートである。 図18は、指定点において複数のガイド光が交差する様子を示す断面図である。 図19は、指定点において複数のガイド光が交差していない様子を示す断面図である。 図20(a)は、ユーザ指定点において複数のガイド光が交差しているときの、ワークWの表面(特に、ユーザ指定点)における複数のガイド光のビームスポットを示す平面図であり、図20(b)は、ユーザ指定点において複数のガイド光が交差していないときの、ワークWの表面(特に、ユーザ指定点)における複数のガイド光のビームスポットを示す平面図である。 図21は、ステージ座標系内でのワークと3次元構造物とを示す斜視図である。 図22は、造形モデルアライメント動作の流れを示すフローチャートである。 図23は、ワークモデルの表示例を示す平面図である。 図24は、ワークモデルの表示例を示す平面図である。 図25は、ワークモデルの表示例を示す平面図である。 図26は、ワークモデルの表示例を示す平面図である。 図27は、ディスプレイにおける表示例を示す平面図である。 図28は、ワークモデル及び造形モデルを示す断面図である。 図29は、造形情報の修正例を、造形モデル及びワークモデルと共に概念的に示す断面図である 図30(a)から図30(c)のそれぞれは、造形情報を修正する方法の一例を、ワークモデル及び造形モデルと共に概念的に示す断面図である。 図31(a)から図31(c)のそれぞれは、造形情報を修正する方法の他の例を、ワークモデル及び造形モデルと共に概念的に示す断面図である。 図32(a)から図32(e)のそれぞれは、ワーク上のある領域において光を照射し且つ造形材料を供給した場合の様子を示す断面図である。 図23(a)から図33(c)のそれぞれは、3次元構造物を形成する過程を示す断面図である。 図34は、第2実施形態の加工システムのシステム構成を示すシステム構成図である。 図35は、第2実施形態の加工システムが備える加工ユニットの外観構造を示す斜視図である。 図36は、加工ヘッドの構造の一例を示す断面図である。 図37は、加工ヘッドの構造の一例を示す断面図である。 図38は、プローブを用いてワーク又は3次元構造物を計測する様子を示す平面図である。 図39は、プローブを用いてワーク又は3次元構造物を計測する様子を示す平面図である。 図40は、プローブを用いてワーク又は3次元構造物を計測する様子を示す平面図である。 図41は、プローブを用いてワーク又は3次元構造物を計測する様子を示す平面図である。 図42は、プローブを用いてワーク又は3次元構造物を計測する様子を示す平面図である。 図43は、ワークモデル及び造形モデルの表示例を示す平面図である。 図44(a)から図44(c)のそれぞれは、ワークに設けられる目印の一例を示す平面図である。 図45は、基準位置と造形モデルとの位置関係を示す平面図である。 図46は、図45に示す基準点が設定された場合にワーク上に形成される3次元構造物を示す平面図である。 図47は、加工ユニットが行う加工動作の流れを示すフローチャートである。 図48(a)は、ステージが支持しているワーク及び3次元構造物の一例を示す斜視図であり、図48(b)及び図48(c)のそれぞれは、ステージが支持しているワーク及び3次元構造物の一例を示す平面図である。 図49(a)は、ステージが支持しているワーク及び3次元構造物の一例を示す斜視図であり、図49(b)は、ステージが支持しているワーク及び3次元構造物の一例を示す平面図である。 図50は、図45に示す基準点が設定された場合に造形精度が相対的に悪い造形ユニットによってワーク上に形成された3次元構造物を示す平面図である。 図51は、第2実施形態の加工システムの第4変形例におけるシステム構成を示すシステム構成図である。 図52は、ワークとは異なる物体を介してワークを支持するステージの一例を示す斜視図である。 図53は、固定治具に固定されたワーク上に形成された3次元構造物を示す斜視図である。 図54は、固定治具に固定されたワークを支持するステージを示す斜視図である。 図55は、加工システムのシステム構成の他の例を示すシステム構成図である。 図56(a)は、基準部材の他の例を示す平面図であり、図52(b)は、図56(a)におけるA-A’断面図である。
 以下、図面を参照しながら、造形ユニットの実施形態について説明する。以下では、物体の一例であるワークWに付加加工を行うことでワークWに造形物を形成する加工システム(つまり、造形システム)SYSを用いて、造形ユニットの実施形態を説明する。特に、以下では、レーザ肉盛溶接法(LMD:Laser Metal Deposition)に基づく付加加工を行う加工システムSYSを用いて、造形ユニットの実施形態を説明する。レーザ肉盛溶接法に基づく付加加工は、ワークWに供給した造形材料Mを加工光ELで溶融することで、ワークWと一体化された又はワークWから分離可能な3次元構造物STを形成する付加加工である。尚、レーザ肉盛溶接法(LMD)は、ダイレクト・メタル・デポジション、ディレクテッド・エナジー・デポジション、レーザクラッディング、レーザ・エンジニアード・ネット・シェイピング、ダイレクト・ライト・ファブリケーション、レーザ・コンソリデーション、シェイプ・デポジション・マニュファクチャリング、ワイヤ-フィード・レーザ・デポジション、ガス・スルー・ワイヤ、レーザ・パウダー・フージョン、レーザ・メタル・フォーミング、セレクティブ・レーザ・パウダー・リメルティング、レーザ・ダイレクト・キャスティング、レーザ・パウダー・デポジション、レーザ・アディティブ・マニュファクチャリング、レーザ・ラピッド・フォーミングと称してもよい。
 また、以下の説明では、互いに直交するX軸、Y軸及びZ軸から定義されるXYZ直交座標系を用いて、加工システムSYSを構成する各種構成要素の位置関係について説明する。尚、以下の説明では、説明の便宜上、X軸方向及びY軸方向のそれぞれが水平方向(つまり、水平面内の所定方向)であり、Z軸方向が鉛直方向(つまり、水平面に直交する方向であり、実質的には上下方向)であるものとする。また、X軸、Y軸及びZ軸周りの回転方向(言い換えれば、傾斜方向)を、それぞれ、θX方向、θY方向及びθZ方向と称する。ここで、Z軸方向を重力方向としてもよい。また、XY平面を水平方向としてもよい。
 (1)第1実施形態の加工システムSYSの構造
 初めに、図1及び図2を参照しながら、第1実施形態の加工システムSYSの構造について説明する。図1は、第1実施形態の加工システムSYSの構造の一例を示す断面図である。図2は、第1実施形態の加工システムSYSのシステム構成の一例を示すシステム構成図である。
 加工システムSYSは、3次元構造物ST(つまり、3次元方向のいずれの方向においても大きさを持つ3次元の物体であり、立体物)を形成可能である。加工システムSYSは、3次元構造物STを形成するための基礎となるワークW上に、3次元構造物STを形成可能である。このワークWをベース部材又は台座と称してもよい。加工システムSYSは、ワークWに付加加工を行うことで、ワークW上に3次元構造物STを形成可能である。ワークWが後述するステージ31である場合には、加工システムSYSは、ステージ31上に、3次元構造物STを形成可能である。ワークWがステージ31によって保持されている(或いは、ステージ31に載置されている)既存構造物である場合には、加工システムSYSは、既存構造物上に、3次元構造物STを形成可能である。この場合、加工システムSYSは、既存構造物と一体化された3次元構造物STを形成してもよい。既存構造物と一体化された3次元構造物STを形成する動作は、既存構造物に新たな構造物を付加する動作と等価とみなせる。尚、既存構造物は例えば欠損箇所がある要修理品であってもよい。加工システムSYSは、要修理品の欠損箇所を埋めるように、要修理品に3次元構造物を形成してもよい。或いは、加工システムSYSは、既存構造物と分離可能な3次元構造物STを形成してもよい。尚、図1は、ワークWが、ステージ31によって保持されている既存構造物である例を示している。また、以下でも、ワークWがステージ31によって保持されている既存構造物である例を用いて説明を進める。
 上述したように、加工システムSYSは、レーザ肉盛溶接法により3次元構造物STを形成可能である。つまり、加工システムSYSは、積層造形技術を用いて物体を形成する3Dプリンタであるとも言える。尚、積層造形技術は、ラピッドプロトタイピング(Rapid Prototyping)、ラピッドマニュファクチャリング(Rapid Manufacturing)、又は、アディティブマニュファクチャリング(Additive Manufacturing)とも称される。
 3次元構造物STを形成するために、加工システムSYSは、図1及び図2に示すように、材料供給装置1と、造形装置2と、ステージ装置3と、光源4と、ガス供給装置5と、筐体6と、制御装置7と、計測装置8と、ディスプレイ91と、入力装置92とを備える。造形装置2とステージ装置3と計測装置8とのそれぞれの少なくとも一部は、筐体6の内部のチャンバ空間63IN内に収容されている。
 材料供給装置1は、造形装置2に造形材料Mを供給する。材料供給装置1は、造形装置2が3次元構造物STを形成するために単位時間あたりに必要とする分量の造形材料Mが造形装置2に供給されるように、当該必要な分量に応じた所望量の造形材料Mを供給する。
 造形材料Mは、所定強度以上の加工光ELの照射によって溶融可能な材料である。このような造形材料Mとして、例えば、金属材料及び樹脂材料の少なくとも一方が使用可能である。但し、造形材料Mとして、金属材料及び樹脂材料とは異なるその他の材料が用いられてもよい。造形材料Mは、粉状の材料である。つまり、造形材料Mは、粉体である。粉体は、粉状の材料に加えて、粒状の材料を含んでいてもよい。造形材料Mは、例えば、90マイクロメートル±40マイクロメートルの範囲に収まる粒径の粉体を含んでいてもよい。造形材料Mを構成する粉体の平均粒径は、例えば、75マイクロメートルであってもよいし、その他のサイズであってもよい。但し、造形材料Mは、粉体でなくてもよく、例えばワイヤ状の造形材料やガス状の造形材料が用いられてもよい。尚、加工システムSYSは、造形材料Mを荷電粒子線等のエネルギビームで加工して造形物を形成してもよい。
 造形装置2は、材料供給装置1から供給される造形材料Mを用いて3次元構造物STを形成する。造形材料Mを用いて3次元構造物STを形成するために、造形装置2は、造形ヘッド21と、ヘッド駆動系22と、位置計測装置23と、複数の(例えば、2つの)ガイド光射出装置24とを備える。尚、造形装置2は、造形ユニットと称されてもよい。更に、造形ヘッド21は、照射光学系211と、材料ノズル(つまり造形材料Mを供給する供給系)212とを備えている。造形ヘッド21と、ヘッド駆動系22とは、チャンバ空間63IN内に収容されている。但し、造形ヘッド21及び/又はヘッド駆動系22の少なくとも一部が、筐体6の外部の空間である外部空間64OUTに配置されていてもよい。尚、外部空間64OUTは、加工システムSYSのオペレータが立ち入り可能な空間であってもよい。尚、造形装置2は、造形物たる3次元構造物STを付加加工によって形成する装置でもあるため、付加加工装置と称してもよい。
 照射光学系211は、射出部213から加工光ELを射出するための光学系(例えば、集光光学系)である。具体的には、照射光学系211は、加工光ELを発する光源4と、光ファイバやライトパイプ等の不図示の光伝送部材を介して光学的に接続されている。照射光学系211は、光伝送部材を介して光源4から伝搬してくる加工光ELを射出する。照射光学系211は、加工光ELがチャンバ空間63INを進むように加工光ELを射出する。照射光学系211は、照射光学系211から下方(つまり、-Z側)に向けて加工光ELを照射する。照射光学系211の下方には、ステージ31が配置されている。ステージ31にワークWが載置されている場合には、照射光学系211は、ワークWに向けて加工光ELを照射する。具体的には、照射光学系211は、加工光ELが照射される(典型的には、集光される)領域としてワークW上に設定される照射領域EAに加工光ELを照射可能である。更に、照射光学系211の状態は、制御装置7の制御下で、照射領域EAに加工光ELを照射する状態と、照射領域EAに加工光ELを照射しない状態との間で切替可能である。尚、照射光学系211から射出される加工光ELの方向は真下(つまり、-Z軸方向と一致)には限定されず、例えば、Z軸に対して所定の角度だけ傾いた方向であってもよい。
 材料ノズル212は、造形材料Mを供給する供給アウトレット214を有する。材料ノズル212は、供給アウトレット214から造形材料Mを供給する(例えば、噴射する、噴出する、又は、吹き付ける)。材料ノズル212は、造形材料Mの供給源である材料供給装置1と、不図示のパイプ等を介して物理的に接続されている。材料ノズル212は、パイプを介して材料供給装置1から供給される造形材料Mを供給する。材料ノズル212は、パイプを介して材料供給装置1から供給される造形材料Mを圧送してもよい。即ち、材料供給装置1からの造形材料Mと搬送用の気体(例えば、窒素やアルゴン等の不活性ガス)とを混合してパイプを介して材料ノズル212に圧送してもよい。この場合、搬送用の気体として、例えば、ガス供給装置5から供給されるパージガスが用いられてもよい。尚、図1において材料ノズル212は、チューブ状に描かれているが、材料ノズル212の形状は、この形状に限定されない。材料ノズル212は、チャンバ空間63INに向けて造形材料Mを供給する。材料ノズル212は、材料ノズル212から下方(つまり、-Z側)に向けて造形材料Mを供給する。材料ノズル212の下方には、ステージ31が配置されている。ステージ31にワークWが搭載されている場合には、材料ノズル212は、ワークWに向けて造形材料Mを供給する。尚、材料ノズル212から供給される造形材料Mの進行方向はZ軸方向に対して所定の角度(一例として鋭角)だけ傾いた方向であるが、-Z側(つまり、真下)であってもよい。
 第1実施形態では、材料ノズル212は、照射光学系211が加工光ELを照射する照射領域EAに向けて造形材料Mを供給するように、照射光学系211に対して位置合わせされている。つまり、材料ノズル212が造形材料Mを供給する領域としてワークW上に設定される供給領域MAと照射領域EAとが一致する(或いは、少なくとも部分的に重複する)ように、材料ノズル212と照射光学系211とが位置合わせされている。尚、照射光学系211から射出された加工光ELによって形成される溶融池MPに、材料ノズル212が造形材料Mを供給するように位置合わせされていてもよい。
 ヘッド駆動系22は、造形ヘッド21を移動させる。ヘッド駆動系22は、例えば、チャンバ空間63IN内で造形ヘッド21を移動させる。ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つに沿って造形ヘッド21を移動させる。造形ヘッド21がX軸及びY軸の少なくとも一方に沿って移動すると、照射領域EA及び供給領域MAのそれぞれは、ワークW上をX軸及びY軸の少なくとも一方に沿って移動する。更に、ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つに加えて、θX方向、θY方向及びθZ方向の少なくとも一つの回転方向に沿って造形ヘッド21を移動させてもよい。言い換えると、ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つの軸回りに造形ヘッド21を回転させてもよい。ヘッド駆動系22は、X軸、Y軸及びZ軸の少なくとも一つの軸回りに造形ヘッド21の姿勢を変えてもよい。ヘッド駆動系22は、例えば、モータ等を含む。
 尚、ヘッド駆動系22は、照射光学系211と材料ノズル212とを別々に移動させてもよい。具体的には、例えば、ヘッド駆動系22は、射出部213の位置、射出部213の向き、供給アウトレット214の位置及び供給アウトレット214の向きの少なくとも一つを調整可能であってもよい。この場合、照射光学系211が加工光ELを照射する照射領域EAと、材料ノズル212が造形材料Mを供給する供給領域MAとが別々に制御可能となる。
 位置計測装置23は、造形ヘッド21の位置を計測可能である。位置計測装置23は、例えば、エンコーダ及びレーザ干渉計のうちの少なくとも一方を含んでいてもよい。
 ガイド光射出装置24は、造形ヘッド21に配置されている。ガイド光射出装置24は、ガイド光GLを射出する。ガイド光射出装置24は、ガイド光GLがチャンバ空間63INを進むようにガイド光GLを射出する。複数のガイド光射出装置24は、複数のガイド光射出装置24からそれぞれ射出される複数のガイド光GLが、造形ヘッド21の下方のある位置において互いに交差するように、位置合わせされている。特に、複数のガイド光射出装置24は、複数のガイド光GLが加工光ELのフォーカス位置において互いに交差するように、位置合わせされている。造形装置2は主として加工光ELのフォーカス位置において物体を加工する(つまり、付加加工する)ことから、複数のガイド光射出装置24は、複数のガイド光GLが造形装置2による付加加工が行われる付加加工位置において互いに交差するように、互いに位置合わせされているとも言える。付加加工位置は、典型的には、照射領域EA及び供給領域MAのそれぞれの位置と少なくとも部分的に重複する。尚、このようなガイド光射出装置24の利用方法については、後に詳述する。尚、複数のガイド光GLが加工光ELのフォーカス位置から外れた位置(デフォーカス位置)において互いに交差するように位置合わせされていてもよい。
 ステージ装置3は、ステージ31を備えている。ステージ31は、チャンバ空間63INに収容される。ステージ31は、ワークWを支持可能である。尚、ここで言う「ステージ31がワークWを支持する」状態は、ワークWがステージ31によって直接的に又は間接的に支えられている状態を意味していてもよい。ステージ31は、ワークWを保持可能であってもよい。つまり、ステージ31は、ワークWを保持することでワークWを支持してもよい。或いは、ステージ31は、ワークWを保持可能でなくてもよい。この場合、ワークWは、ステージ31に載置されていてもよい。つまり、ステージ31は、ステージ31に載置されたワークWを支持してもよい。このとき、ワークWは、クランプレスでステージ31に載置されていてもよい。従って、本実施形態における「ステージ31がワークWを支持する」状態は、ステージ31がワークWを保持する状態及びワークWがステージ31に載置される状態をも含んでいてもよい。ステージ31を、ワークWを支持する支持装置、ワークWが載置される載置装置、ワークWを保持する保持装置又はテーブルと称してもよい。ステージ31がチャンバ空間63INに収容されるため、ステージ31が支持するワークWもまた、チャンバ空間63INに収容される。更に、ステージ31は、ワークWが保持されている場合には、保持したワークWをリリース可能である。上述した照射光学系211は、ステージ31がワークWを支持している期間の少なくとも一部において加工光ELを照射する。更に、上述した材料ノズル212は、ステージ31がワークWを支持している期間の少なくとも一部において造形材料Mを供給する。尚、材料ノズル212が供給した造形材料Mの一部は、ワークWの表面からワークWの外部へと(例えば、ステージ31の周囲へと)散乱する又はこぼれ落ちる可能性がある。このため、加工システムSYSは、ステージ31の周囲に、散乱した又はこぼれ落ちた造形材料Mを回収する回収装置を備えていてもよい。尚、ステージ31は、ワークWを保持するために、機械的なチャックや真空吸着チャック等を備えていてもよい。
 光源4は、例えば、赤外光及び紫外光のうちの少なくとも一つを、加工光ELとして射出する。但し、加工光ELとして、その他の波長の光、例えば可視域の波長の光が用いられてもよい。加工光ELは、レーザ光である。この場合、光源4は、半導体レーザ等のレーザ光源を含んでいてもよい。レーザ光源の一例としては、レーザダイオード(LD:Laser Diode)、ファイバ・レーザ、COレーザ、YAGレーザ及びエキシマレーザ等の少なくとも一つがあげられる。但し、加工光ELはレーザ光でなくてもよいし、光源4は任意の光源(例えば、LED(Light Emitting Diode)及び放電ランプ等の少なくとも一つ)を含んでいてもよい。
 ガス供給装置5は、チャンバ空間631INをパージするためのパージガスの供給源である。パージガスは、不活性ガスを含む。不活性ガスの一例として、窒素ガス又はアルゴンガスがあげられる。ガス供給装置5は、チャンバ空間63INにパージガスを供給する。その結果、チャンバ空間63INは、パージガスによってパージされた空間となる。尚、ガス供給装置5は、窒素ガスやアルゴンガス等の不活性ガスが格納されたボンベであってもよい。不活性ガスが窒素ガスである場合には、ガス供給装置5は、大気を原料として窒素ガスを発生する窒素ガス発生装置であってもよい。
 筐体6は、筐体6の内部空間であるチャンバ空間63INに少なくとも造形装置2及びステージ装置3のそれぞれの少なくとも一部を収容する収容装置である。筐体6は、チャンバ空間63INを規定する隔壁部材61を含む。隔壁部材61は、チャンバ空間63INと、筐体6の外部空間64OUTとを隔てる部材である。隔壁部材61は、その内壁611を介してチャンバ空間63INに面し、その外壁612を介して外部空間64OUTに面する。この場合、隔壁部材61によって囲まれた空間(より具体的には、隔壁部材61の内壁611によって囲まれた空間)が、チャンバ空間63INとなる。尚、隔壁部材61には、開閉可能な扉が設けられていてもよい。この扉は、ワークWをステージ31に載置する際に開かれてもよい。この扉は、ステージ31からワークW及び/又は造形物(例えば、3次元構造物ST)を取り出す際に開かれてもよい。この扉は、造形装置2が造形物を造形している期間中には閉じられていてもよい。
 制御装置7は、加工システムSYSの動作を制御する。制御装置7は、例えば、CPU(Central Processing Unit)(或いは、CPUに加えて又は代えてGPU(Graphics Processing Unit))と、メモリとを含んでいてもよい。制御装置7は、CPUがコンピュータプログラムを実行することで、加工システムSYSの動作を制御する装置として機能する。このコンピュータプログラムは、制御装置7が行うべき後述する動作を制御装置7(例えば、CPU)に行わせる(つまり、実行させる)ためのコンピュータプログラムである。つまり、このコンピュータプログラムは、加工システムSYSに後述する動作を行わせるように制御装置7を機能させるためのコンピュータプログラムである。CPUが実行するコンピュータプログラムは、制御装置7が備えるメモリ(つまり、記録媒体)に記録されていてもよいし、制御装置7に内蔵された又は制御装置7に外付け可能な任意の記憶媒体(例えば、ハードディスクや半導体メモリ)に記録されていてもよい。或いは、CPUは、実行するべきコンピュータプログラムを、ネットワークインタフェースを介して、制御装置7の外部の装置からダウンロードしてもよい。
 例えば、制御装置7は、照射光学系211による加工光ELの射出態様を制御してもよい。射出態様は、例えば、加工光ELの強度及び加工光ELの射出タイミングの少なくとも一方を含んでいてもよい。加工光ELがパルス光である場合には、射出態様は、例えば、パルス光の発光時間の長さとパルス光の発光周期との比(いわゆる、デューティ比)を含んでいてもよい。また、射出態様は、例えば、パルス光の発光時間の長さそのものや、発光周期そのものを含んでいてもよい。更に、制御装置7は、ヘッド駆動系22による造形ヘッド21の移動態様を制御してもよい。移動態様は、例えば、移動量、移動速度、移動方向及び移動タイミングの少なくとも一つを含んでいてもよい。更に、制御装置7は、材料供給装置1による造形材料Mの供給態様を制御してもよい。材料ノズル212による造形材料Mの供給態様は、主として、材料供給装置1による造形材料Mの供給態様によって定まる。このため、材料供給装置1による造形材料Mの供給態様を制御することは、材料ノズル212による造形材料Mの供給態様を制御することと等価とみなせる。供給態様は、例えば、供給量(特に、単位時間当たりの供給量)及び供給タイミングの少なくとも一方を含んでいてもよい。
 制御装置7は、加工システムSYSの内部に設けられていなくてもよく、例えば、加工システムSYS外にサーバ等として設けられていてもよい。この場合、制御装置7と加工システムSYSとは、有線及び/又は無線のネットワーク(或いは、データバス及び/又は通信回線)で接続されていてもよい。有線のネットワークとして、例えばIEEE1394、RS-232x、RS-422、RS-423、RS-485及びUSBの少なくとも一つに代表されるシリアルバス方式のインタフェースを用いるネットワークが用いられてもよい。有線のネットワークとして、パラレルバス方式のインタフェースを用いるネットワークが用いられてもよい。有線のネットワークとして、10BASE-T、100BASE-TX及び1000BASE-Tの少なくとも一つに代表されるイーサネット(登録商標)に準拠したインタフェースを用いるネットワークが用いられてもよい。無線のネットワークとして、電波を用いたネットワークが用いられてもよい。電波を用いたネットワークの一例として、IEEE802.1xに準拠したネットワーク(例えば、無線LAN及びBluetooth(登録商標)の少なくとも一方)があげられる。無線のネットワークとして、赤外線を用いたネットワークが用いられてもよい。無線のネットワークとして、光通信を用いたネットワークが用いられてもよい。この場合、制御装置7と加工システムSYSとはネットワークを介して各種の情報の送受信が可能となるように構成されていてもよい。また、制御装置7は、ネットワークを介して加工システムSYSにコマンドや制御パラメータ等の情報を送信可能であってもよい。加工システムSYSは、制御装置7からのコマンドや制御パラメータ等の情報を、上記ネットワークを介して受信する受信装置を備えていてもよい。加工システムSYSは、制御装置7に対してコマンドや制御パラメータ等の情報を、上記ネットワークを介して送信する送信装置(つまり、制御装置7に対して情報を出力する出力装置)を備えていてもよい。或いは、制御装置7が行う処理のうちの一部を行う第1制御装置が加工システムSYSの内部に設けられている一方で、制御装置7が行う処理のうちの他の一部を行う第2制御装置が加工システムSYSの外部に設けられていてもよい。
 尚、CPUが実行するコンピュータプログラムを記録する記録媒体としては、CD-ROM、CD-R、CD-RWやフレキシブルディスク、MO、DVD-ROM、DVD-RAM、DVD-R、DVD+R、DVD-RW、DVD+RW及びBlu-ray(登録商標)等の光ディスク、磁気テープ等の磁気媒体、光磁気ディスク、USBメモリ等の半導体メモリ、及び、その他プログラムを格納可能な任意の媒体の少なくとも一つが用いられてもよい。記録媒体には、コンピュータプログラムを記録可能な機器(例えば、コンピュータプログラムがソフトウェア及びファームウェア等の少なくとも一方の形態で実行可能な状態に実装された汎用機器又は専用機器)が含まれていてもよい。更に、コンピュータプログラムに含まれる各処理や機能は、制御装置7(つまり、コンピュータ)がコンピュータプログラムを実行することで制御装置7内に実現される論理的な処理ブロックによって実現されてもよいし、制御装置7が備える所定のゲートアレイ(FPGA、ASIC)等のハードウェアによって実現されてもよいし、論理的な処理ブロックとハードウェアの一部の要素を実現する部分的ハードウェアモジュールとが混在する形式で実現してもよい。
 計測装置8は、制御装置7の制御下で、計測対象物を計測可能である。計測装置8の計測結果は、計測装置8から制御装置7に出力される。尚、計測装置8は、計測ユニットと称されてもよい。
 計測は、計測対象物の位置の計測を含んでいてもよい。計測対象物の位置は、計測対象物を細分化した各部分(つまり、各部位)のX軸方向、Y軸方向及びZ軸方向の少なくとも一つにおける位置を含んでいてもよい。計測対象物の位置は、計測対象物の表面の位置を含んでいてもよい。計測対象物の表面の位置は、計測対象物の表面を細分化した各部分(つまり、各部位)のX軸方向、Y軸方向及びZ軸方向の少なくとも一つにおける位置を含んでいてもよい。計測は、計測対象物の形状(例えば、3次元形状)の計測を含んでいてもよい。計測対象物の形状は、計測対象物を細分化した各部分の向き(例えば、各部分の法線の向きであり、X軸、Y軸及びZ軸の少なくとも一つに対する各部分の傾斜量と実質的に等価)を含んでいてもよい。計測対象物の形状は、計測対象物の表面の形状を含んでいてもよい。計測対象物の表面の形状は、計測対象物の表面を細分化した各部分の向き(例えば、各部分の法線の向きであり、X軸、Y軸及びZ軸の少なくとも一つに対する各部分の傾斜量(つまり、各部分の姿勢)と実質的に等価)を含んでいてもよい。尚、計測は、計測対象物の属性の計測を含んでいてもよい。計測対象物の属性は、例えば、計測対象物の反射率、計測対象物の分光反射率、及び、計測対象物の表面粗さ等の少なくとも一つを含んでいてもよい。
 第1実施形態では、計測対象物は、例えば、ステージ31の載置面311上に載置された物体を含む。このため、計測装置8の計測範囲は、載置面311上に載置された物体を計測することができるように所望の範囲に設定されている。載置面311上に載置される物体の一例として、上述したワークWがあげられる。載置面311上に載置される物体の他の一例として、ワークW上に形成される3次元構造物STがあげられる。載置面311上に載置される物体の他の一例として、後述する基準部材34(図11等参照)があげられる。
 計測装置8は、計測対象物を計測可能である限りはどのような構造を有していてもよい。計測装置8は、計測対象物を計測可能である限りはどのような種類の計測装置であってもよい。図1及び図2は、計測装置8が3Dスキャナである例を示している。つまり、図1及び図2は、計測装置8が光学的に計測対象物を計測する例を示している。図1及び図2は、計測装置8が計測対象物に接触することなく計測対象物を計測する例を示している。つまり、図1及び図2は、計測装置8が計測対象物を非接触計測する例を示している。しかしながら、計測装置8は、光学的手法とは異なる手法、例えば電磁波や音波を用いて計測対象物を計測してもよい。計測装置8は、計測対象物に接触して計測対象物を計測してもよい。計測対象物に接触して計測対象物を計測する計測装置の一例として、計測対象物に対してプローブ等のセンサを押し当てながら計測対象物を計測する計測装置があげられる。
 計測装置8が3Dスキャナである場合、計測装置8は、例えば、図2に示すように、投影装置81と、撮像装置82とを備えている。図2に示す例では、計測装置8は、複数の撮像装置82を備えている。より具体的には、図2に示す例では、計測装置8は、2つの撮像装置82(具体的には、撮像装置82#1及び撮像装置82#2)を備えている。但し、計測装置8は、単一の撮像装置82を備えていてもよい。
 投影装置81は、載置面311に対して計測光DLを照射する。計測光DLは、載置面311に所望の投影パターンを投影するための光である。計測光DLは、載置面311に載置された計測対象物に所望の投影パターンを投影するための光である。所望の投影パターンは、1次元の投影パターンを含んでいてもよい。所望の投影パターンは、2次元の投影パターンを含んでいてもよい。投影装置81は、単一種類の投影パターンを計測対象物に投影してもよい。或いは、投影装置81は、複数種類の投影パターンを計測対象物に順に投影してもよい。
 図3(a)から図3(j)は、投影パターンの一例を示している。図3(a)は、白画像に相当する投影パターンを示している。図3(b)は、黒画像に相当する投影パターンを示している。図3(a)及び図3(b)は、環境光の状態を計測するために用いられてもよい。図3(c)から図3(f)は、互いに異なる複数の縞パターン(例えば、縞の数及び幅が互いに異なる複数の縞パターン)に相当する複数の投影パターンを示している。図3(g)から図3(j)は、互いに位相が異なるグレーパターン(言い換えれば、位相シフトパターン)に相当する複数の投影パターンを示している。
 投影装置81は、図3(a)及び図3(b)に示す複数の投影パターンを順に投影し、その後、図3(c)から図3(f)に示す複数の投影パターンを順に投影し、その後、図3(g)から図3(j)に示す複数の投影パターンを順に投影してもよい。この場合、図3(g)から図3(j)のそれぞれに示す投影パターンに含まれるグレーコードの周期幅は、図3(c)から図3(f)に示す投影パターンに含まれる縞の最小幅と同じであってもよい。尚、位相シフトパターンが投影された計測対象物を複数の撮像装置82を用いて撮像することで計測対象物の状態を計測する手法の一例として、ステレオ視位相シフト法があげられる。
 撮像装置82は、載置面311を撮像する。撮像装置82は、載置面311に載置された計測対象物を撮像する。特に、撮像装置82は、計測対象物に投影された投影パターンを撮像する。制御装置7は、撮像装置82の撮像結果(特に、撮像された投影パターンに関する情報)に基づいて、計測装置8が計測した計測対象物に関する計測情報(つまり、計測装置8による計測対象物の計測結果に関する計測情報)を生成する。計測対象物の計測が計測対象物の位置の計測及び計測対象物の形状の計測の少なくとも一つを含んでいるため、計測情報は、計測装置8が計測した計測対象物の位置に関する計測位置情報及び計測装置8が計測した計測対象物の形状に関する計測形状情報の少なくとも一つを含んでいてもよい。この場合、制御装置7は、計測情報(つまり、計測位置情報及び計測形状情報の少なくとも一つ)を生成するための情報生成装置として機能可能である。
 計測情報は、計測位置情報及び計測形状情報のいずれか一つを含んでいてもよい。計測情報は、計測位置情報及び計測形状情報の双方を含んでいてもよい。特に、計測情報は、計測位置情報と計測形状情報とが対応する情報であってもよい。「計測位置情報と計測形状情報とが対応する計測情報」は、計測対象物の各部分の位置及び形状の双方を特定可能な状態にある情報を意味する。このため、このような計測情報を参照すれば、計測対象物のある部分の位置が特定できるものの、同じ部分の形状を特定することができないという状況は生じない。以下の説明では、説明の便宜上、計測情報は、計測位置情報と計測形状情報が対応している情報である例を用いて説明を進める。尚、このような計測情報は、計測位置情報と計測形状情報とを別個独立した異なる情報として含んでいなくてもよく、計測対象物の各部分の位置及び形状の双方を特定できる限りは、計測情報はどのようなデータ構造を有していてもよい。
 計測装置8は、隔壁部材83によってチャンバ空間63INから隔離されている。計測装置8は、隔壁部材83によってチャンバ空間63INから隔離された空間に配置されている。これにより、チャンバ空間63INに存在する物質の計測装置8に対する付着が抑制される。尚、チャンバ空間63INに存在する物質の一例として、材料ノズル212からチャンバ空間63INに供給される造形材料M、及び、加工光ELの照射に起因して後述する造形面MSから発生する物質があげられる。加工光ELの照射に起因して後述する造形面MSから発生する物質の一例として、溶融した造形材料Mの微粒子及び溶融したワークWを構成する材料の微粒子の少なくとも一方を含むヒュームがあげられる。
 隔壁部材83は、投影装置81が照射する計測光DLの光路と隔壁部材83とが交差する位置に、計測光DLが通過可能である一方で上述した物質を遮断可能な光透過部材84を備えている。その結果、計測装置8が隔壁部材83によってチャンバ空間63INから隔離されていたとしても、計測装置8は、チャンバ空間63INに配置される計測対象物に対して計測光DLを適切に照射することができる。尚、計測装置8は隔壁部材83によってチャンバ空間63INから隔離されていなくてもよい。例えば、計測装置8はチャンバ空間63IN内に配置されていてもよい。計測装置8がチャンバ空間63IN内に配置される場合、計測装置8は耐粉塵性を有していてもよい。
 ディスプレイ91は、制御装置7の制御下で所望の画像を表示可能な表示装置である。例えば、ディスプレイ91は、加工システムSYSに関する情報を表示してもよい。例えば、ディスプレイ91は、3次元構造物STに関する情報を表示してもよい。例えば、ディスプレイ91は、ワークWに関する情報を表示してもよい。例えば、ディスプレイ91は、撮像装置82による撮像結果に関する情報を表示してもよい。
 尚、ディスプレイ91は、加工システムSYSの内部に設けられていなくてもよい。例えば、ディスプレイ91は、加工システムSYSの外部に、外部ディスプレイとして設けられていてもよい。この場合、ディスプレイ91と加工システムSYSとは、有線及び/又は無線のネットワーク(或いは、ケーブル、データバス及び/又は通信回線)で接続されていてもよい。この場合、制御装置7は、ネットワークを介して、ディスプレイ91との間で各種の情報の送受信(つまり、入出力)が可能となるように構成されていてもよい。ディスプレイ91は、制御装置7との間で(更には、制御装置7を介して又は介することなく加工システムSYSが備えるその他の装置との間で)情報の送受信を行う送受信部(つまり、入出力部)と、画像を表示する表示部とを備えていてもよい。
 入力装置92は、加工システムSYSの外部からの情報の入力を受け付ける装置である。例えば、入力装置92は、加工システムSYSのユーザからの情報の入力を受け付けてもよい。例えば、入力装置92は、加工システムSYSの外部の装置からの情報の入力を受け付けてもよい。例えば、入力装置92は、加工システムSYSに対して装着可能な記録媒体からの情報の入力を受け付けてもよい。入力装置92の一例として、ユーザが操作可能な操作装置があげられる。操作装置の一例として、キーボード、マウス、タッチパッド、タッチパネル(例えば、ディスプレイ91と一体化されたタッチパネル)及びポインティングデバイスの少なくとも一つがあげられる。入力装置92の他の一例として、加工システムSYSの外部の装置と接続するためのインタフェース装置があげられる。入力装置92の他の一例として、加工システムSYSに対して装着可能な記録媒体を読み取り可能な読取装置があげられる。入力装置92が入力を受け付けた情報(つまり、入力装置92に入力された情報)は、例えば、制御装置7に出力される。
 入力装置92は、ディスプレイ91の表示画面を介して、情報の入力を受け付けてもよい。例えば、入力装置92は、ディスプレイ91の表示画面上に表示されたGUI(Graphical User Interface)を介して、情報の入力を受け付けてもよい。例えば、入力装置92は、ディスプレイ91の表示画面上に表示されたGUIに対するユーザの操作に関する情報の入力を受け付けてもよい。この場合、ディスプレイ91は、制御装置7の制御下で、入力装置92を介した情報の入力を受け付けるための画像(例えば、上述したGUI)を表示してもよい。このように、ディスプレイ91は入力装置92として兼用されていてもよい。
 尚、入力装置92は、加工システムSYSの内部に設けられていなくてもよい。例えば、入力装置92は、加工システムSYSの外部に、外部入力装置として設けられていてもよい。この場合、入力装置92と加工システムSYSとは、有線及び/又は無線のネットワーク(或いは、ケーブル、データバス及び/又は通信回線)で接続されていてもよい。この場合、制御装置7は、入力装置92に入力される情報を、ネットワークを介して取得するように構成されていてもよい。言い換えれば、制御装置7は、入力装置92に入力される情報を、ネットワークを介して受信する受信装置として機能するように構成されていてもよい。入力装置92は、制御装置7との間で(更には、制御装置7を介して又は介することなく加工システムSYSが備えるその他の装置との間で)情報の送受信を行う送受信部(つまり、入出力部)と、加工システムSYSの外部からの入力を受け付ける入力受付部とを備えていてもよい。
 (2)第1実施形態の加工システムSYSの動作
 続いて、加工システムSYSの動作の流れについて説明する。第1実施形態では、加工システムSYSは、制御装置7の制御下で、ワークモデルアライメント動作を行う。その後、加工システムSYSは、制御装置7の制御下で、造形モデルアライメント動作を行う。その後、加工システムSYSは、制御装置7の制御下で、造形動作を行う。更に、加工システムSYSは、制御装置7の制御下で、ワークモデルアライメント動作に先立って、座標マッチング動作を行ってもよい。このため、以下では、座標マッチング動作、ワークモデルアライメント動作、造形モデルアライメント動作及び造形動作について順に説明する。
 (2-1)座標マッチング動作
 はじめに、座標マッチング動作について説明する。座標マッチング動作は、造形座標系と、ステージ座標系と、計測座標系とを互いに関連付けるための動作である。造形座標系は、造形ヘッド21の位置を特定するために用いられる3次元座標系である。例えば、ヘッド駆動系22は、造形座標系内において特定される造形ヘッド21の位置に関する情報に基づいて、造形ヘッド21を移動させる。例えば、位置計測装置23は、造形座標系内における造形ヘッド21の位置を計測する。ステージ座標系は、ステージ31上の位置(特に、ステージ31の載置面311上の位置)を特定するために用いられる3次元座標系である。或いは、ステージ座標系は、ステージ31の位置を特定するために用いられる3次元座標系であってもよい。後述するようにステージ駆動系によってステージ31が移動可能である場合には、ステージ駆動系は、ステージ座標系内において特定されるステージ31の位置に関する情報に基づいて、ステージ31を移動させてもよい。計測座標系は、計測装置8が計測した計測対象物の位置を特定するために用いられる3次元座標系である。つまり、計測座標系は、計測装置8の計測範囲内での位置を特定するために用いられる3次元座標系である。制御装置7は、計測装置8の計測結果に基づいて、計測座標系内における計測対象物の位置に関する計測位置情報を生成する。
 造形座標系とステージ座標系と計測座標系とが互いに関連付けられると、造形座標系、ステージ座標系及び計測座標系のうちのいずれか一つの座標系内のある位置の座標を、造形座標系、ステージ座標系及び計測座標系の別の一つの座標系内のある位置の座標に変換可能となる。従って、座標マッチング動作は、造形座標系内の座標をステージ座標系及び計測座標系のそれぞれの座標に変換するために用いられる情報(例えば、変換行列)、ステージ座標系内の座標を造形座標系及び計測座標系のそれぞれの座標に変換するために用いられる情報(例えば、変換行列)、並びに、計測座標系内の座標を造形座標系及びステージ座標系のそれぞれの座標に変換するために用いられる情報(例えば、変換行列)を取得するための動作と等価であると言える。
 尚、座標マッチング動作によって得られる情報(例えば、変換行列に関する情報)が制御装置7にとって既に既知の情報である場合には、加工システムSYSは、座標マッチング動作を行わなくてもよい。例えば、座標マッチング動作によって得られる情報が入力装置92を介して加工システムSYSに入力される場合には、加工システムSYSは、座標マッチング動作を行わなくてもよい。
 以下、このような座標マッチング動作の流れについて、図4を参照しながら説明する。図4は、座標マッチング動作の流れを示すフローチャートである。
 図4に示すように、加工システムSYSは、座標マッチング動作の一部として、造形座標系とステージ座標系とを関連付ける動作を行う(ステップS111からステップS113)。更に、加工システムSYSは、座標マッチング動作の一部として、計測座標系とステージ座標系とを関連付ける動作を行う(ステップS114からステップS116)。造形座標系とステージ座標系とが関連付けられ且つ計測座標系とステージ座標系とが関連付けられると、造形座標系と計測座標系とは、ステージ座標系を介して間接的に関連付けられている。このため、ステップS111からステップS116までの処理が行われることで、造形座標系とステージ座標系と計測座標系とが互いに関連付けられる。
 図4は、加工システムSYSが、造形座標系とステージ座標系とを関連付ける動作を行った後に、計測座標系とステージ座標系とを関連付ける動作を行う例を示している。しかしながら、加工システムSYSは、計測座標系とステージ座標系とを関連付ける動作を行った後に、造形座標系とステージ座標系とを関連付ける動作を行ってもよい。
 造形座標系とステージ座標系とを関連付けるために、まずは、ステージ31の載置面311に、ビーム検出部材32が載置される(ステップS111)。特に、ビーム検出部材32は、ビーム検出部材32と載置面311との位置関係が所望の第1位置関係となるように、載置面311に載置される。第1実施形態では、ビーム検出部材32と載置面311との位置関係が所望の第1位置関係となるようにビーム検出部材32を載置面311に載置するために、ビーム検出部材32と載置面311との双方に、位置合わせ用の目印が形成される。以下、図5から図10を参照しながら、位置合わせ用の目印が形成された載置面311及びビーム検出部材32の一例について説明する。図5は、位置合わせ用の目印が形成された載置面311を含むステージ31を示す平面図である。図6は、図5に示すステージ31のV-V’断面図である。図7は、位置合わせ用の目印が形成されたビーム検出部材32を示す平面図である。図8は、図7に示すビーム検出部材32のVII#1-VII#1’断面図である。図9は、図7に示すビーム検出部材32のVII#2-VII#2’断面図である。図10は、載置面311に載置されたビーム検出部材32を示す平面図である。
 図5及び図6に示すように、載置面311には、位置合わせ用の目印として、複数のピン312が形成されている。図5及び図6に示す例では、載置面311には、2つのピン312が形成されているが、3つ以上のピン312が形成されていてもよい。ピン312は、載置面311からZ軸方向に沿って突き出る部材である。尚、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。
 図7から図9に示すように、ビーム検出部材32は、ベース部材321を備えている。ベース部材321は、板状の部材である。ベース部材321は、載置面311に載置可能な形状及びサイズを有している。ベース部材321には、位置合わせ用の目印として、複数の貫通孔322が形成されている。図7及び図8に示す例では、ベース部材321には、2つの貫通孔322が形成されている。貫通孔322は、Z軸方向に沿ってベース部材321を貫通する。
 第1実施形態では、図10に示す通り、ビーム検出部材32は、貫通孔322にピン312が挿入されるように、載置面311上に載置される。ビーム検出部材32は、貫通孔322にピン312が挿入された状態で載置面311上に載置される。このため、貫通孔322の配列態様は、ピン312の配列態様と同一である。更に、貫通孔322の数は、ピン312の数と同一である(或いは、多くてもよい)。その結果、ビーム検出部材32は、載置面311に対して所望の第1位置関係を有するように載置面311に載置される。ビーム検出部材32は、載置面311上のピン312に対して所望の第1位置関係を有するように載置面311に載置される。ビーム検出部材32は、載置面311のピン312とビーム検出部材32の貫通孔322とがZ軸方向において重なるという所望の第1位置関係を満たすように、載置面311に載置される。ビーム検出部材32は、あるピン312のX軸方向における位置と当該あるピン312に対応する貫通孔322のX軸方向における位置とが同じになり且つあるピン312のY軸方向における位置と当該あるピン312に対応する貫通孔322のY軸方向における位置とが同じになるという所望の第1位置関係を満たすように、載置面311に載置される。
 ピン312が形成されている位置は、載置面311にビーム検出部材32を載置する際の載置面311上の基準位置として用いられてもよい。この場合、ビーム検出部材32は、載置面311上の基準位置に対して所望の第1位置関係を有するように位置合わせされた状態で載置面311に載置される。
 ビーム検出部材32は更に、遮光部材323を備えている。遮光部材323は、加工光ELを遮光する部材である。遮光部材323は、ベース部材321の上面(つまり、+Z側を向いた面)に形成されている。遮光部材323の上面は、ベース部材321の上面よりも上方に位置している。但し、遮光部材323の上面は、ベース部材321の上面よりも下方に位置していてもよいし、ベース部材321の上面と同じ高さに位置していてもよい。遮光部材323の少なくとも一部は、ベース部材321と一体化されていてもよい。遮光部材323は、ベース部材321から取り外し可能であってもよい。
 遮光部材323には、Z軸方向に沿って遮光部材323を貫通する開口324が形成されている。XY平面に沿った面内での開口324の形状は、スリット形状であるが、その他の任意の形状、円形状(ピンホール状)や長丸形状、多角形状等であってもよい。開口324は、加工光ELが通過可能な貫通孔である。
 ビーム検出部材32は更に、ビーム検出器325を備えている。ビーム検出器325は、開口324を通過した加工光ELを受光できる位置に配置される。そして、開口324は、貫通孔322に対して所定の位置関係を有する位置に配置される。この場合、開口324と貫通孔322との間の位置関係に関する情報は、制御装置7にとって既知の情報である。その結果、例えば、ビーム検出部材32が単一のビーム検出器325(典型的には、受光した加工光ELを光電変換可能な光量センサ等の光電変換器)を備える場合、この光電変換器の出力から開口324と加工光ELとの位置関係を求めることができる。典型的には、ビーム検出器325は、遮光部材323の下方(つまり、-Z側)に配置される。
 尚、開口324とビーム検出器325との間及び/又は開口324の入射側に、加工光EL又はガイド光GLを拡散させる拡散板が配置されていてもよい。また、開口324の入射側に、開口324を保護するためのカバーガラスが配置されていてもよい。
 ビーム検出部材32は、上述の通り単一のビーム検出器325を備えていてもよいし、複数のビーム検出器325を備えていてもよい。ビーム検出部材32が複数のビーム検出器325を備えている場合には、遮光部材323には、複数のビーム検出器325にそれぞれ対応する複数の開口324が形成されていてもよい。この場合、各ビーム検出器325は、各ビーム検出器325に対応する開口324を介して各ビーム検出器325に入射してくる加工光ELを検出する。
 ビーム検出器325の検出結果は、ビーム検出器325に入射した加工光ELの状態に関する情報を含んでいてもよい。例えば、ビーム検出器325の検出結果は、ビーム検出器325に入射した加工光ELの強度(具体的には、XY平面に交差する面内での強度)に関する情報を含む。より具体的には、ビーム検出器325の検出結果は、XY平面に沿った面内における加工光ELの強度分布に関する情報を含む。ビーム検出器325の検出結果は、制御装置7に出力される。
 再び図4において、ビーム検出部材32が載置面311に載置された後、造形装置2は、ビーム検出部材32に向けて加工光ELを照射する(ステップS112)。特に、造形装置2は、ビーム検出部材32に配置されたビーム検出器325に向けて加工光ELを照射する。ビーム検出部材32が複数のビーム検出器325を備えている場合には、造形装置2は、複数のビーム検出器325に向けて順に加工光ELを照射する。具体的には、ヘッド駆動系22は、ビーム検出器325に向けて加工光ELが照射されるように造形ヘッド21を移動させる。このとき、ヘッド駆動系22は、XY平面に沿った面内において加工光EL(より具体的には、加工光ELの照射領域EA)が開口324を横切るように、造形ヘッド21を移動させてもよい。造形ヘッド21は、ヘッド駆動系22によって移動している期間中に加工光ELを照射する。その結果、造形ヘッド21が移動している期間中のあるタイミングで加工光ELが開口324に照射されることになる。つまり、造形ヘッド21が移動している期間中のあるタイミングで、加工光ELがビーム検出器325によって検出される。
 その後、制御装置7は、ステップS112におけるビーム検出器325の検出結果に基づいて、造形座標系とステージ座標系とを関連付ける(ステップS113)。具体的には、ビーム検出器325の検出結果は、加工光ELが開口324に照射されていない期間中の加工光ELの強度と比較して、加工光ELの少なくとも一部が開口324に照射されている期間中の加工光ELの強度が大きくなっていることを示している。このため、制御装置7は、ビーム検出器325の検出結果に基づいて、加工光ELが開口324に照射されていた時刻(つまり、加工光ELがビーム検出器325に照射されていた時刻)を特定可能である。更に、制御装置7は、加工光ELが開口324に照射されていた時刻と位置計測装置23の計測結果とに基づいて、加工光ELがビーム検出器325に照射されていた時刻における造形ヘッド21の位置を特定可能である。尚、制御装置7は、ビーム検出器325の出力と位置計測装置23の計測結果とに基づいて、ビーム検出器325に加工光ELを照射可能な状態にある造形ヘッド21の位置を特定可能であってもよい。つまり、制御装置7は、造形座標系内において、ビーム検出器325に加工光ELを照射可能な状態にある造形ヘッド21の位置を特定可能である。尚、ここで言う造形ヘッド21の位置は、造形ヘッド21そのものの位置を含んでいてもよいし、造形ヘッド21に固有の位置を含んでいてもよい。造形ヘッド21に固有の位置の一例として、造形ヘッド21が付加加工を行う付加加工位置(つまり、加工光ELのフォーカス位置)があげられる。更に、上述したように、開口324と貫通孔322との間の位置関係に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、開口324に加工光ELを照射可能な状態にある造形ヘッド21の位置に関する情報と、開口324と貫通孔322との間の位置関係に関する情報とに基づいて、造形座標系内において、貫通孔322に加工光ELを照射可能な状態にある造形ヘッド21の位置を特定可能である。更に、上述したように、載置面311にビーム検出部材32が載置されている状況下では、貫通孔322とピン312とはZ軸方向において重なる。このため、貫通孔322に加工光ELを照射可能な状態にある造形ヘッド21の位置は、ピン312に加工光ELを照射可能な状態にある造形ヘッド21の位置と等価とみなせる。更に、上述したように、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、ピン312に加工光ELを照射可能な状態にある造形ヘッド21の造形座標系内での位置と、ステージ座標系内でのピン312が形成されている位置とが互いに関連付けられるべき位置であると特定することができる。つまり、制御装置7は、造形座標系内でのある特定の位置と、ステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、造形座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、造形座標系とステージ座標系とを関連付けることができる。その結果、制御装置7は、ステージ座標系内の任意の位置に加工光ELを照射可能な状態にある造形ヘッド21の位置を、造形座標系において特定することができる。更には、制御装置7は、造形座標系内の任意の位置に配置された造形ヘッド21が加工光ELを照射する位置(例えば、付加加工位置)を、ステージ座標系において特定することができる。
 続いて、計測座標系とステージ座標系とを関連付けるために、まずは、ステージ31の載置面311に、基準部材34が載置される。特に、基準部材34は、基準部材34と載置面311との位置関係が所望の第2位置関係となるように、載置面311に載置される。第1実施形態では、基準部材34と載置面311との位置関係が所望の第2位置関係となるように基準部材34を載置面311に載置するために、基準部材34と載置面311との双方に、位置合わせ用の目印が形成される。具体的には、基準部材34を載置面311に載置する場合にも、ビーム検出部材32を載置面311に載置する場合と同様に、載置面311に形成されたピン312が目印として用いられてもよい。このため、以下では、位置合わせ用の目印が形成された載置面311についての説明を省略した上で、図11から図12を参照しながら、位置合わせ用の目印が形成された基準部材34の一例について説明する。図11は、位置合わせ用の目印が形成された基準部材34を示す平面図である。図12は、載置面311に載置された基準部材34を示す平面図である。但し、載置面311に形成されたピン312とは異なる目印が、基準部材34を載置面311に載置するための目印として用いられてもよい。
 図11に示すように、基準部材34は、ベース部材341を備えている。ベース部材341は、板状の部材である。ベース部材341は、載置面311に載置可能な形状及びサイズを有している。ベース部材341には、位置合わせ用の目印として、複数の貫通孔342が形成されている。図11に示す例では、ベース部材341には、2つの貫通孔342が形成されている。貫通孔342は、Z軸方向に沿ってベース部材341を貫通する。
 第1実施形態では、図12に示すように、基準部材34は、貫通孔342にピン312が挿入されるように、載置面311上に載置される。このため、貫通孔342の配列パターンは、ピン312の配列パターンと同一である。更に、貫通孔342の数は、ピン312の数と同一である(或いは、多くてもよい)。その結果、基準部材34は、載置面311に対して所望の第2位置関係を有するように載置面311に載置される。基準部材34は、載置面311上のピン312に対して所望の第2位置関係を有するように載置面311に載置される。基準部材34は、載置面311のピン312と基準部材34の貫通孔342とがZ軸方向において重なるという所望の第2位置関係を満たすように、載置面311に載置される。基準部材34は、あるピン312のX軸方向における位置と当該あるピン312に対応する貫通孔342のX軸方向における位置とが同じになり且つあるピン312のY軸方向における位置と当該あるピン312に対応する貫通孔342のY軸方向における位置とが同じになるという所望の第2位置関係を満たすように、載置面311に載置される。
 ピン312が形成されている位置は、載置面311に基準部材34を載置する際の載置面311上の基準位置として用いられてもよい。この場合、基準部材34は、載置面311上の基準位置に対して所望の第2位置関係を有するように位置合わせされた状態で載置面311に載置される。
 ベース部材341の上面には、少なくとも一つの基準マーク343が形成されている。ベース部材341には、1つの基準マーク343が形成されていてもよいし、2つの基準マーク343が形成されていてもよいし、3つの基準マーク343が形成されていてもよいし、4つの基準マーク343が形成されていてもよいし、5つ以上の基準マーク343が形成されていてもよい。図11は、ベース部材341の上面に5つの基準マーク343が形成されている例を示している。基準マーク343は、計測装置8によって計測可能なマークである。例えば、基準マーク343は、計測装置8が備える撮像装置82によって撮像可能なマークである。基準マーク343と貫通孔342との間の位置関係に関する情報は、制御装置7にとって既知の情報である。
 基準マーク343は、ピン312が貫通孔342に挿入されるように基準部材34が載置面311に載置された場合において載置面311上の所定位置(例えば、載置面311の中心)に基準マーク343が配置されるように、ベース部材341上の所定位置に形成されていてもよい。この場合、基準マーク343が配置される載置面311上の所定位置(つまり、ステージ座標系における載置面311上の所定位置)に関する情報は、制御装置7にとって既知の情報であってもよい。また、この場合には、基準マーク343が配置されることになる載置面311上の所定位置が、載置面311に基準部材34を載置する際の載置面311上の基準位置として用いられてもよい。この場合、基準部材34は、載置面311上の基準位置に基準マーク343が配置されるように位置合わせされた状態で載置面311に載置される。尚、この場合には、基準マーク343が配置されている位置と貫通孔342との間の位置関係に関する情報は、制御装置7にとって既知の情報でなくてもよい。
 尚、図7から図9に示したビーム検出部材32と、図11及び図12に示した基準部材とを同一の部材に設けてもよい。
 再び図4において、基準部材34が載置面311に載置された後、計測装置8は、基準部材34を計測する(ステップS114)。特に、計測装置8は、基準部材34に形成された基準マーク343を計測する。
 その後、制御装置7は、ステップS115における計測装置8の計測結果に基づいて、計測座標系とステージ座標系とを関連付ける(ステップS116)。具体的には、制御装置7は、計測装置8の計測結果から、計測座標系における基準マーク343の位置を特定することができる。更に、上述したように、基準マーク343と貫通孔342との間の位置関係に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系における基準マーク343の位置に関する情報と、基準マーク343と貫通孔342との間の位置関係に関する情報とに基づいて、計測座標系内における貫通孔322の位置を特定可能である。更に、上述したように、載置面311に基準部材34が載置されている状況下では、貫通孔342の位置とピン312の位置とは同じである。このため、計測座標系内における貫通孔342の位置は、計測座標系内におけるピン312の位置と等価とみなせる。更に、上述したように、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系内におけるピン312の位置と、ステージ座標系内でのピン312の位置とが互いに関連付けられるべき位置であると特定することができる。つまり、制御装置7は、計測座標系内でのある特定の位置と、ステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、計測座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、計測座標系とステージ座標系とを関連付けることができる。その結果、制御装置7は、計測対象物のステージ座標系における位置を特定することができる。
 或いは、上述したように、載置面311上の所定位置(例えば、載置面311の中心)に基準マーク343が配置されるように基準マーク343がベース部材341に形成されている場合には、基準マーク343が配置されるステージ座標系内の所定位置に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系における基準マーク343の位置に関する情報と、基準マーク343が配置されるステージ座標系内の所定位置とが互いに関連付けられるべき位置であると特定することができる。つまり、制御装置7は、計測座標系内でのある特定の位置と、ステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、計測座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、計測座標系とステージ座標系とを関連付けることができる。
 尚、ビーム検出部材32を用いて、加工光ELとガイド光GLとの位置ずれを計測してもよい。加工システムSYSが複数のガイド光GLを射出する場合、複数のガイド光GLが交差する位置と加工光ELのフォーカス位置(付加加工位置)との位置ずれを、ビーム検出部材32を用いて計測してもよい。加工光ELとガイド光GLとが位置ずれしていた場合には、加工光ELのフォーカス位置及び/又はガイド光GLの位置(複数のガイド光GLを用いるときには複数のガイド光GLの交差位置)を変更してもよい。
 (2-2)ワークモデルアライメント動作
 続いて、ワークモデルアライメント動作について説明する。ワークモデルアライメント動作は、3次元構造物STを形成するべきワークWの3次元モデルであるワークモデルWMと実際のワークWとの位置合わせを行う動作である。特に、ワークモデルアライメント動作は、基準座標系においてワークモデルWMとワークWとの位置合わせを行う動作である。基準座標系は、加工システムSYSの基準となる座標系である。基準座標系は、制御装置7による制御に際して用いられる座標系である。第1実施形態では、ステージ座標系が基準座標系として用いられるものとする。この場合、ワークモデルアライメント動作は、ステージ座標系においてワークモデルWMとワークWとの位置合わせを行う動作である。但し、計測座標系又は造形座標系が基準座標系として用いられてもよい。ステージ座標系、計測座標系及び造形座標系とは異なる他の座標系が基準座標系として用いられてもよい。
 ワークモデルWMとワークWとの位置合わせの結果、ワークWに対して位置合わせされたワークモデルWMに関するワーク情報が生成される。ワーク情報は、ワークモデルWMの位置に関するワーク位置情報とワークモデルWMの形状に関するワーク形状情報との双方を含む。ワーク情報は、ワーク位置情報とワーク形状情報とが対応する情報である。ワークモデルWMの位置は、実際のワークWの位置と一致する(或いは、一致していないとしても、実質的にはほぼ一致する)。このため、ワーク位置情報は、ワークWの位置に関する情報と等価とみなせる。ワークモデルWMの形状は、実際のワークWの形状と一致する(或いは、一致していないとしても、実質的にはほぼ一致する)。このため、ワーク形状情報は、実際のワークWの形状に関する情報と等価とみなせる。尚、「ワーク位置情報とワーク形状情報とが対応するワーク情報」は、「計測位置情報と計測形状情報とが対応する計測情報」と同様に、ワークモデルWMの各部分の位置及び形状の双方を特定可能な状態にある情報を意味する。尚、このようなワーク情報は、ワーク位置情報とワーク形状情報とを別個独立した異なる情報として含んでいなくてもよく、ワークモデルWMの各部分の位置及び形状の双方を特定できる限りは、ワーク情報はどのようなデータ構造を有していてもよい。
 ワーク形状情報は、ワークモデルWMを構成する画素(言い換えれば、体積要素であって、いわゆるボクセル)の位置に関する情報(つまり、画素の位置に関する情報を用いてワークモデルWMの形状を示すデータ)を含んでいてもよい。ワーク形状情報は、ワークモデルWMのポリゴンデータを含んでいてもよい。ワーク形状情報は、ワークモデルWMをスライス処理する(つまり、ワークモデルWMを任意の面方向で所定の厚みにスライスする)ことで得られる各層の断面に関する断面形状データを含んでいてもよい。
 ワーク位置情報とワーク形状情報とが対応するワーク情報を参照すれば、制御装置7は、ステージ座標系内での載置面311とワークモデルWMとを示す斜視図である図13に示すように、ステージ座標系内において、ワークモデルWMの各部分(例えば、ワークモデルWMの表面の各部分)の位置及び向き(言い換えれば、姿勢)を特定することができる。つまり、制御装置7は、ステージ座標系内において、ワークWの各部分(例えば、ワークWの表面の各部分)の位置及び向き(言い換えれば、姿勢)を特定することができる。その結果、加工システムSYSは、ワーク情報に基づいて、後述する造形動作において、ワーク情報により位置及び向きが判明しているワークWに対して、適切に付加加工を行うことができる。
 第1実施形態では、加工システムSYSは、ワークモデルアライメント動作として、第1のワークモデルアライメント動作、第2のワークモデルアライメント動作及び第3のワークモデルアライメント動作の少なくとも一つを行う。このため、以下では、第1から第3のワークアライメント動作について順に説明する。
 尚、ワーク情報が制御装置7にとって既に既知の情報である場合には、加工システムSYSは、ワークモデルアライメント動作を行わなくてもよい。例えば、ワーク情報が入力装置92を介して加工システムSYSに入力される場合には、加工システムSYSは、ワークモデルアライメント動作を行わなくてもよい。
 (2-2-1)第1のワークモデルアライメント動作
 はじめに、図14を参照しながら、第1のワークモデルアライメント動作について説明する。図14は、第1のワークモデルアライメント動作の流れを示すフローチャートである。
 図14に示すように、まずは、ステージ31の載置面311にワークWが載置される(ステップS121)。その後、計測装置7は、ワークWを計測する(ステップS122)。
 その後、制御装置7は、ステップS122における計測装置8の計測結果に基づいて、ワーク情報を生成する(ステップS123)。具体的には、上述したように、制御装置7は、計測装置8の計測結果(つまり、撮像装置82の撮像結果)に基づいて、計測装置8が計測したワークWに関する計測情報を生成する。計測情報には、ワークWの形状に関する計測形状情報が含まれている。この計測形状情報は、ワーク形状情報としてそのまま用いられる。更に、計測情報には、ワークWの位置に関する計測位置情報が含まれている。但し、計測位置情報は、計測座標系内でのワークWの位置に関する情報である。このため、制御装置7は、計測位置情報が示す計測座標系内でのワークWの位置を、ステージ座標系内でのワークWの位置に変換する。変換によって取得されたステージ座標系内でのワークWの位置に関する情報が、ワーク位置情報として用いられる。その結果、制御装置7は、ワーク位置情報とワーク形状情報が対応するワーク情報を生成することができる。つまり、制御装置7は、実際のワークWに対応するワークモデルWMに関するワーク情報を生成することができる。
 (2-2-2)第2のワークモデルアライメント動作
 続いて、図15を参照しながら、第2のワークモデルアライメント動作について説明する。図15は、第2のワークモデルアライメント動作の流れを示すフローチャートである。
 図15に示すように、まずは、ステージ31の載置面311にワークWが載置される(ステップS131)。その後、計測装置7は、ワークWを計測する(ステップS132)。
 ステップS131からステップS132の処理と相前後して又は並行して、制御装置7は、載置面311に載置されているワークWの形状に対応するワークモデルデータを取得する(ステップS133)。具体的には、制御装置7は、ワークWの形状と同じ又は相似の形状を有するワークモデルWMを示すワークモデルデータを取得する。ワークモデルデータは、ワークモデルWMの特徴に関するワークモデル特徴情報を含んでいる。特に、ワークモデルデータは、ワークモデルWMの特徴の一例であるワークモデルWMの形状に関するワークモデル形状情報を少なくとも含んでいる。
 ワークモデルデータは、制御装置7が備えるメモリ(つまり、記録媒体)に記録されていてもよい。ワークモデルデータは、制御装置7に内蔵された又は制御装置7に外付け可能な任意の記録媒体(例えば、ハードディスクや半導体メモリ)に記録されていてもよい。この場合、制御装置7は、必要に応じて入力装置92を用いて、これらの記録媒体からワークモデルデータを読み出すことで、ワークモデルデータを取得してもよい。ワークモデルデータは、制御装置7の外部の装置に記録されていてもよい。ワークモデルデータは、加工システムSYSの外部の装置に記録されていてもよい。この場合、制御装置7は、必要に応じて入力装置92を用いて、外部の装置からワークモデルデータをダウンロードすることで、ワークモデルデータを取得してもよい。
 記録媒体(或いは、外部の装置)には、複数の異なる形状をそれぞれ有する複数のワークモデルWMを示す複数のワークモデルデータが記録されていてもよい。この場合、制御装置7は、複数のワークモデルデータの中から、ワークWの形状に対応する一のワークモデルデータを取得してもよい。その結果、載置面311に載置されるワークWの形状が変わる場合であっても、制御装置7は、ワークWの形状に対応する一のワークモデルデータを適切に取得することができる。或いは、載置面311に載置されるワークWの形状が常に同じである場合には、記録媒体(或いは、外部の装置)には、単一のワークモデルデータが記録されていてもよい。
 制御装置7は、加工システムSYSのユーザの指示に基づいて、ワークモデルデータを取得してもよい。具体的には、制御装置7は、複数のワークモデルWMを表示するようにディスプレイ91を制御してもよい。更に、制御装置7は、複数のワークモデルWMのうちのいずれか一つを、ワークWの形状と同じ又は相似の形状を有するワークモデルWMとしてユーザに選択させるためのGUIを表示するように、ディスプレイ91を制御してもよい。ユーザは、ワークWを視認することでワークWの形状を把握すると共に、把握したワークWの形状と同じ又は相似の形状を有するワークモデルWMを、入力装置92を用いて選択してもよい。その結果、制御装置7は、ユーザが選択したワークモデルWMを示すワークモデルデータを取得する。或いは、載置面311に載置されるワークWの形状が予め定まっている場合には、制御装置7は、予め定まっているワークWの形状と同じ又は相似の形状を有するワークモデルWMを示すワークモデルデータを取得してもよい。
 制御装置7は、ユーザの指示に基づいて、取得したワークモデルデータが示すワークモデルWMを修正してもよい。例えば、制御装置7は、ユーザの指示に基づいて、ワークモデルWMの特徴(例えば、形状及びサイズの少なくとも一方)を修正してもよい。ワークWMモデルが修正された場合には、修正後のワークモデルWMに関するワークモデルデータが、以降の処理では用いられる。
 その後、制御装置7は、ステップS132における計測装置8の計測結果と、ステップS133で取得されたワークモデルデータとに基づいて、ワーク情報を生成する(ステップS134)。
 具体的には、制御装置7は、ワークモデルデータから、ワークモデルWMの形状に関するワークモデル形状情報を取得する。ワークモデルWMの形状がワークWの形状と同一又は相似であるため、ワークモデル形状情報は、ワークWの形状に関する情報と等価とみなせる。一方で、計測装置8の計測結果に基づいて生成される計測情報にもまた、ワークWの形状に関する計測形状情報が含まれている。しかしながら、計測装置8の計測誤差等に起因して、計測形状情報が示すワークWの形状の精度は、ワークモデル形状情報が示すワークモデルWMの形状の精度よりも低くなる可能性がある。そこで、第1実施形態では、制御装置7は、計測情報に含まれる計測形状情報に代えて、ワークモデルデータから取得されるワークモデル形状情報を、ワーク形状情報として用いる。
 但し、ワークモデル形状情報は、計測装置8の計測結果に基づいて生成される計測情報とは別個の情報である。このため、ワークモデル形状情報には、載置面311上でのワークWの位置に関する情報が対応付けられていない。つまり、ワークモデル形状情報を参照するだけでは、制御装置7は、ワークモデルWM(つまり、ワークW)が、載置面311上のどの位置に配置されているかを特定することができない。また、ワークモデル形状情報を参照するだけでは、制御装置7は、ワークモデルWM(つまり、ワークW)が、載置面311上でどのような姿勢で配置されているかを特定することができない。また、ワークモデル形状情報を参照するだけでは、制御装置7は、ワークモデルWM(つまり、ワークW)が、載置面311上でどの程度のサイズを有しているかを特定することができない。そこで、制御装置7は、計測情報に含まれるワークWの位置に関する計測位置情報とワークモデル形状情報とを関連付ける。具体的には、制御装置7は、計測位置情報とワークモデル形状情報とを関連付けることで、ワークモデルWMの形状に加えてワークモデルWMの載置面311上での位置をも特定可能なワーク情報を生成する。ワークモデルWMの載置面311上での位置は、それぞれ、ワークWの載置面311上での位置としてそれぞれ利用可能である。このため、制御装置7は、ワークWの載置面311上での位置を特定可能な(更には、当然に形状も特定可能な)ワーク情報を生成することができる。この場合、制御装置7は、計測位置情報とワークモデル形状情報とを関連付ける演算装置として機能可能である。
 具体的には、制御装置7は、計測装置8の計測結果に基づいて、計測形状情報と計測位置情報とが互いに関連付けられた状態で含まれている計測情報を生成する。その後、制御装置7は、計測位置情報が示すワークWの位置にワークモデルWMを配置するための位置合わせ処理を行う。つまり、制御装置7は、ワークモデルWMを平行移動、拡大、縮小及び/又は回転して計測形状情報が示すワークWに近づける位置合わせ処理を行う。その結果、ワークモデルWMの載置面311上での位置(つまり、ワークWの載置面311上での位置)が判明する。このため、制御装置7は、位置合わせ処理の結果に基づいて、ワーク情報を生成することができる。
 制御装置7は、位置合わせ処理の一部として、パターンマッチング処理を行ってもよい。以下、パターンマッチング処理を含む位置合わせ処理の一具体例について説明する。制御装置7は、ワークモデルWMに基づいて、ワークモデルWMの複数の特徴点であるワークモデル特徴点を抽出する。制御装置7は、複数の(例えば、3つ以上の)ワークモデル特徴点を抽出する。制御装置7は、入力装置92を用いてユーザが行うワークモデル特徴点を指定するための操作に基づいて、ワークモデル特徴点を抽出してもよい。制御装置7は、ユーザの操作を必要とすることなく、所定の抽出基準に従ってワークモデル特徴点を抽出してもよい。また、制御装置7は、計測情報に基づいて、ワークWの特徴点(具体的には、計測情報から特定可能なワークWの特徴点)であって且つワークモデル抽出点に対応する計測特徴点も抽出する。制御装置7は、複数の(例えば、3つ以上の)計測特徴点を抽出する。制御装置7は、入力装置92を用いてユーザが行う計測特徴点を指定するための操作に基づいて、計測特徴点を抽出してもよい。制御装置7は、ユーザの操作を必要とすることなく、所定の抽出基準に従って計測特徴点を抽出してもよい。その後、制御装置7は、ワークモデル特徴点と計測特徴点とに基づいて、ワークモデルWMと計測情報が示すワークWとをパターンマッチングする。具体的には、制御装置7は、ワークモデルWMと計測情報が示すワークWとをパターンマッチングする様子を概念的に示す概念図である図16に示すように、ワークモデル特徴点が計測特徴点に近づくようにワークモデルWMを平行移動、拡大、縮小及び/又は回転させる。制御装置7は、ワークモデル特徴点と計測特徴点とのずれが所定量以下になるまで(典型的には、最少になるまで)ワークモデルWMを平行移動、拡大、縮小及び/又は回転させる。その結果、計測座標系内において、ワークモデルWMが、計測情報が示すワークWの配置位置と同じ位置に配置されることになる。このため、位置合わせ処理の結果、制御装置7は、計測座標系内でのワークモデルWMの位置を特定することができる。但し、ワーク情報を生成するにあたって、計測座標系内でのワークモデルWMの位置は、上述したように、ステージ座標系内でのワークモデルWMの位置に変換される。その結果、ワーク位置情報として利用可能なワークモデルWMの位置に関する情報が取得される。つまり、ワーク形状情報として利用可能なワークモデル形状情報とワーク位置情報として利用可能なワークモデルWMの位置に関する情報とが対応するワーク情報が、ワークモデルWMに関する情報として取得される。
 制御装置7は、位置合わせ処理を行うための任意のアルゴリズムを用いて、位置合わせ処理を行ってもよい。このようなアルゴリズムの一例として、複数の点群(例えば、上述したワークモデル特徴点を含む点群と計測特徴点を含む点群)の位置合わせを行うためのICP(Interative Closest Point)アルゴリズムがあげられる。
 以上説明した第2のワークモデルアライメント動作によれば、第1のワークモデルアライメント動作と比較して、ワーク情報が示すワークモデルWMの形状(つまり、ワークWの形状)がより高精度になる可能性がある。その理由は、上述したとおり、計測形状情報が示すワークWの形状の精度は、ワークモデル形状情報が示すワークモデルWMの形状の精度よりも低くなる可能性があるからである。このため、第2のワークモデルアライメント動作によって生成されたワーク情報を用いることで、加工システムSYSは、後述する造形動作によって3次元構造物STをより高精度に形成することができる可能性がある。
 尚、上述した説明では、制御装置7は、図15のステップS134において、加工システムSYSが備える計測装置8の計測結果(特に、計測位置情報)と、ステップS133で取得されたワークモデルデータ(特に、ワークモデル形状情報)とに基づいて、ワーク情報を生成している。つまり、制御装置7は、加工システムSYSが備える計測装置8の計測結果から生成される計測位置情報とワークモデル形状情報とを関連付けている。しかしながら、制御装置7は、加工システムSYSの外部から入力装置92を介して計測位置情報を取得すると共に、当該取得した計測位置情報とワークモデル形状情報とに基づいて、ワーク情報を生成してもよい。つまり、制御装置7は、加工システムSYSの外部から入力装置92を介して取得された計測位置情報とワークモデル形状情報とを関連付けてもよい。
 上述した説明では、図15のステップS134において、加工システムSYSが備える制御装置7が計測位置情報とワークモデル形状情報とを関連付けている。しかしながら、加工システムSYSの外部の装置が、計測位置情報とワークモデル形状情報とを関連付けてもよい。この場合、制御装置7は、ネットワークを介して、計測位置情報とモデル形状情報と加工システムSYSの外部の装置に対して送信(つまり、出力)してもよい。
 (2-2-3)第3のワークモデルアライメント動作
 続いて、図17を参照しながら、第3のワークモデルアライメント動作について説明する。図17は、第3のワークモデルアライメント動作の流れを示すフローチャートである。
 図17に示すように、まずは、ステージ31の載置面311にワークWが載置される(ステップS141)。その後、計測装置7は、ワークWを計測する(ステップS142)。
 その後、制御装置7は、載置面311に載置されているワークWの形状に対応するワークモデルデータを取得する(ステップS142)。尚、ステップS142の処理は、上述した第2のワークモデルアライメント動作におけるステップS133の処理と同一であってもよいため、その詳細な説明を省略する。
 その後、ユーザによって、ワークモデルWMの表面上のある点が、ユーザ指定点として指定される(ステップS143)。具体的には、ユーザは、入力装置92を用いて、ユーザ指定点を指定する。この場合、制御装置7は、ステップS142で取得されたワークモデルデータが示すワークモデルWMを表示するようにディスプレイ91を制御し、ユーザは、ディスプレイ91に表示されたワークモデルWM上においてユーザ指定点を指定してもよい。ユーザ指定点は、ワークモデルWMの表面の特徴的な点であってもよい。ワークモデルWMの表面の特徴的な点の一例として、頂点、角、最も+Z側に位置する点、最も-Z側に位置する点、最も+X側に位置する点、最も-X側に位置する点、最も+Y側に位置する点、及び、最も-Y側に位置する点の少なくとも一つがあげられる。但し、ユーザ指定点は、ワークモデルWMの表面上の点である限りは、どのような点であってもよい。
 その後、ヘッド駆動系22は、ステップS143で指定されたユーザ指定点に対応するワークW上の点(以降、“ワーク指定点”と称する)と造形装置2とが所望の第3位置関係を有するという位置条件が満たされるように、造形ヘッド21を移動させる(ステップS144)。ワーク指定点は、典型的には、ユーザ指定点と同じ点となる。例えば、ワークモデルWMの頂点がユーザ指定点として指定されている場合には、ワークWの頂点がワーク指定点となる。この場合、第3位置関係に関する情報は、制御装置7にとって既知の情報である。
 ワーク指定点と造形装置2とが所望の第3位置関係を有する状態の一例として、造形装置2がワーク指定点を加工可能な状態があげられる。造形装置2は主として付加加工位置(つまり、加工光ELのフォーカス位置)において物体を加工することから、ワーク指定点と造形装置2とが所望の第3位置関係を有する状態の一例として、付加加工位置がワーク指定点に設定される状態があげられる。上述したように、複数のガイド光射出装置24からそれぞれ射出される複数のガイド光GLは、付加加工位置において交差する。このため、ワーク指定点と造形装置2とが所望の第3位置関係を有する状態の一例として、複数のガイド光GLがワーク指定点において交差する状態があげられる。つまり、ワーク指定点と造形装置2とが所望の第3位置関係を有する状態の一例として、複数のガイド光GLがワーク指定点に照射される状態があげられる。
 複数のガイド光GLがワーク指定点において交差するという条件が位置条件として用いられる場合には、複数のガイド光射出装置24は、それぞれ複数のガイド光GLを射出し、ヘッド駆動系22は、ワーク指定点において複数のガイド光GLが交差するように、造形ヘッド21を移動させる(ステップS144)。つまり、ヘッド駆動系22は、造形ヘッド21を移動させることで、ワーク指定点において複数のガイド光GLが交差するようにワークWと付加加工位置との相対的な位置関係を変更する。
 図18は、ワーク指定点において複数のガイド光GLが交差する様子を示す断面図である。一方で、図19は、ワーク指定点において複数のガイド光GLが交差していない様子を示す断面図である。ヘッド駆動系22は、複数のガイド光GLの状態が図19に示す状態から図18に示す状態へと変化するように(つまり、複数のガイド光GLが交差する点がワーク指定点に近づくように)、造形ヘッド21を移動させる。
 この場合、ガイド光GLは、ワーク指定点と造形装置2とが所望の第3位置関係を有するようにワーク指定点と造形装置2との位置合わせを行うためのガイド光として機能し得る。ワーク指定点がワークWの表面に指定されることから、ガイド光GLは、ワーク指定点と造形装置2とが所望の第3位置関係を有するようにワークWと造形装置2との位置合わせを行うためのガイド光として機能し得る。
 制御装置7は、造形ヘッド21を移動させるユーザの指示に基づいて造形ヘッド21が移動するようにヘッド駆動系22を制御してもよい。つまり、ワーク指定点において複数のガイド光GLが交差するか否かをユーザが目視で確認すると共に、ヘッド駆動系22は、ユーザによる確認結果に基づいて造形ヘッド21を移動させてもよい。この場合、ユーザの指示は、入力装置92を介して入力されてもよい。
 造形ヘッド21を移動させる場合には、制御装置7は、ワークW上でのガイド光GLの状態を撮像するように撮像装置82を制御すると共に、撮像装置82の撮像結果を表示するようにディスプレイ91を制御してもよい。或いは、加工システムSYSが撮像装置82とは異なる撮像装置を備えている場合には、制御装置7は、ワークW上でのガイド光GLの状態を撮像するように他の撮像装置を制御すると共に、他の撮像装置の撮像結果を表示するようにディスプレイ91を制御してもよい。この場合、ユーザは、ディスプレイ91の表示内容を参照しながら、入力装置92を用いて、造形ヘッド21を移動させる指示を入力してもよい。或いは、制御装置7は、撮像装置82の撮像結果(或いは、他の撮像装置の撮像結果、以下同じ)に基づいて造形ヘッド21が移動するようにヘッド駆動系22を制御してもよい。
 尚、ガイド光GLの波長は、加工光ELの波長と異なっていてもよい。ガイド光GLの波長が加工光ELの波長と異なる場合、撮像装置82又は他の撮像装置の光学系の最もワークW側に、加工光ELを反射しガイド光GLを透過するフィルタが配置されていてもよい。例えば、加工光ELが赤外光の波長帯域であるときには、フィルタとして赤外反射フィルタを用いてもよい。
 具体的には、ワーク指定点において複数のガイド光GLが交差している場合には、撮像装置82の撮像結果は、図20(a)に示すように、ワークWの表面(特に、ワーク指定点)において複数のガイド光GLのビームスポットが重なっていることを示す。つまり、撮像装置82の撮像結果は、図20(a)に示すように、ワークWの表面(特に、ワーク指定点)に単一のビームスポットが形成されていることを示す。一方で、ワーク指定点において複数のガイド光GLが交差していない場合には、撮像装置82の撮像結果は、図20(b)に示すように、ワークWの表面(特に、ワーク指定点)において複数のガイド光GLのビームスポットが重なっていないことを示す。つまり、撮像装置82の撮像結果は、図20(b)に示すように、ワークWの表面(特に、ワーク指定点)に複数のビームスポットが形成されていることを示す。従って、制御装置7は、撮像装置82の撮像結果に基づいて、ワーク指定点において複数のガイド光GLが交差するか否かを判定することができる。ワーク指定点において複数のガイド光GLが交差していなければ、ユーザ又は制御装置7は、ワークWの表面における複数のガイド光GLの状態が、図20(b)に示す状態から図20(a)に示す状態へと変化するように(つまり、複数のビームスポットが近づくように)、造形ヘッド21を移動させる。
 その後、ワーク指定点と造形装置2とが所望の第3位置関係を有するという位置条件が満たされるように造形ヘッド21が移動した後、位置計測装置23は、位置条件が満たされた時点での造形ヘッド21の位置を計測する(ステップS145)。上述した例で言えば、位置計測装置23は、ワーク指定点において複数のガイド光GLが交差しているときの造形ヘッド21の位置を計測する(ステップS145)。上述したように、複数のガイド光GLは、付加加工位置において交差する。このため、ステップS145では、位置計測装置23は、ワーク指定点に付加加工位置が設定された状態にある造形ヘッド21の位置を計測していると言える。つまり、ステップS145では、位置計測装置23は、ワーク指定点を加工可能な状態にある造形ヘッド21の位置を計測していると言える。また、付加加工位置は、造形ヘッド21に対して固定された位置関係を有するがゆえに、造形ヘッド21の位置を計測する動作は、付加加工位置を間接的に計測する動作と等価とみなせる。また、付加加工位置がワーク指定点に設定された状態で造形ヘッド21の位置が計測されるがゆえに、造形ヘッド21の位置を計測する(つまり、付加加工位置を間接的に計測する)動作は、ワークW上のワーク指定点の位置を間接的に計測する動作と等価とみなせる。
 その後、制御装置7は、新たなユーザ指定点が指定されるべきか否かを判定する(ステップS146)。具体的には、制御装置7は、所望数のユーザ指定点が指定され且つ所望数のユーザ指定点のそれぞれを対象に上述したステップS144及びS145の処理が行われたか否かを判定してもよい。所望数は、1つであってもよいし、2つであってもよいし、3つであってもよいし、4つであってもよいし、5つ以上であってもよい。所望数のユーザ指定点が指定されていない(その結果、所望数のユーザ指定点のそれぞれを対象に上述したステップS144及びS145の処理が行われていない)と判定された場合には、制御装置7は、新たなユーザ指定点が指定されるべきであると判定してもよい。他方で、所望数のユーザ指定点が指定され且つ所望数のユーザ指定点のそれぞれを対象に上述したステップS144及びS145の処理が行われたと判定された場合には、制御装置7は、新たなユーザ指定点が指定されなくてもよいと判定してもよい。
 尚、ユーザ指定点の数が1つであるときには、後述するステップS148において、ワークWのX軸方向の位置、Y軸方向の位置及びZ軸方向の位置が算出可能である。ワークWの形状が制御装置7にとって既知の情報であって且つユーザ指定点の数が2つであるときには、ワークWのX軸方向の位置、Y軸方向の位置及びZ軸方向の位置に加えて、ワークWのZ軸周りの回転θzが算出可能となる。また、ワークWの形状が制御装置7にとって既知の情報であって且つユーザ指定点の数が3つ以上であるときには、ワークWのX軸方向の位置、Y軸方向の位置及びZ軸方向の位置に加えて、ワークWのX軸周りの回転θx、ワークWのY軸周りの回転θy及びワークWのZ軸周りの回転θzが算出可能となる。
 ステップS146における判定の結果、新たなユーザ指定点が指定されるべきと判定された場合には(ステップS147:Yes)、ユーザによって、ワークモデルWMの表面上のある点(但し、今までユーザ指定点として指定されたことがない点)が、新たなユーザ指定点として指定される(ステップS147)。その後、新たなユーザ指定点を対象に、上述したステップS144及びS145の処理が行われる。
 他方で、ステップS146における判定の結果、新たなユーザ指定点が指定されなくてもよいと判定された場合には(ステップS147:No)、制御装置7は、ステップS145における位置計測装置23の計測結果と、ステップS142で取得されたワークモデルデータとに基づいて、ワーク情報を生成する(ステップS148)。
 具体的には、上述したように、ステップS145における位置計測装置23の計測結果は、ワーク指定点と造形装置2とが所望の第3位置関係を有するときの造形ヘッド21の位置を示している。このため、制御装置7は、位置計測装置23の計測結果から、造形座標系におけるワーク指定点の位置を特定することができる。なぜならば、ワーク指定点と造形装置2とが所望の第3位置関係を有しているがゆえに、ワーク指定点と造形ヘッド21とは当然に、制御装置7にとって既知の情報である第3位置関係に関する情報から特定可能な一定の位置関係を有しているからである。
 その後、制御装置7は、ワークモデルWMのユーザ指定点を、位置計測装置23の計測結果から特定したワーク指定点の位置に配置するための位置合わせ処理を行う。つまり、制御装置7は、ワークモデル形状情報が示すワークモデルWMを平行移動、拡大、縮小及び/又は回転して、ユーザ指定点をワーク指定点の位置に近づける位置合わせ処理を行う。その結果、ワークモデルWMの載置面311上での位置が判明する。このため、制御装置7は、位置合わせ処理の結果に基づいて、ワーク情報を生成する。尚、制御装置7は、位置合わせ処理として、上述した第2のワークモデルアライメント動作で用いられた位置合わせ処理と同様の処理を行ってもよい。例えば、制御装置7は、複数の点群(例えば、モデル指定点を含む点群とユーザ指定点を含む点群)の位置合わせを行うためのICP(Interative Closest Point)アルゴリズムを用いて、位置合わせ処理を行ってもよい。このため、第3のワークモデルアライメント動作における位置合わせ処理の詳細については省略する。
 以上説明した第3のワークモデルアライメント動作によれば、制御装置7は、計測装置8によるワークWの計測を必要とすることなく、ワーク情報が生成可能となる。このため、計測装置8が計測しにくい又は計測できない形状をワークWが有する場合であっても、制御装置7は、ワーク情報を生成することができる。
 (2-3)造形モデルアライメント動作
 続いて、造形モデルアライメント動作について説明する。造形モデルアライメント動作は、付加加工によって形成されるべき3次元構造物STの3次元モデルである造形モデルPMと、ワークモデルアライメント動作によって生成されたワーク情報が示すワークモデルWMとの位置合わせを行う動作である。特に、造形モデルアライメント動作は、基準座標系において造形モデルPMとワークモデルWMとの位置合わせを行う動作である。上述したように、第1実施形態では、ステージ座標系が基準座標系として用いられる。このため、造形モデルアライメント動作は、ステージ座標系において造形モデルPMとワークモデルWMとの位置合わせを行う動作である。
 造形モデルPMとワークモデルWMとの位置合わせの結果、ワークモデルWMに対して位置合わせされた造形モデルPMに関する造形情報が生成される。造形モデル情報は、造形モデルPMの位置に関する造形位置情報と造形モデルPMの形状に関する造形形状情報とが対応する情報である。尚、「造形位置情報と造形形状情報とが対応する造形情報」は、造形モデルPMの各部分の位置及び形状の双方を特定可能な状態にある情報を意味する。尚、このような造形情報は、造形位置情報と造形形状情報とを別個独立した異なる情報として含んでいなくてもよく、造形モデルPMの各部分の位置及び形状の双方を特定できる限りは、造形情報はどのようなデータ構造を有していてもよい。
 造形形状情報は、造形モデルPMを構成する画素(言い換えれば、体積要素であって、いわゆるボクセル)の位置に関する情報(つまり、画素の位置に関する情報を用いて造形モデルPMの形状を示すデータ)を含んでいてもよい。造形形状情報は、造形モデルPMのポリゴンデータを含んでいてもよい。造形形状情報は、造形モデルPMをスライス処理する(つまり、造形モデルPMを任意の面方向で所定の厚みにスライスする)ことで得られる各層の断面に関する断面形状データを含んでいてもよい。
 造形情報(更には、必要に応じてワーク情報)を参照すれば、制御装置7は、ステージ座標系内でのワークWと3次元構造物STとを示す斜視図である図21に示すように、ステージ座標系内において、ワークWと当該ワークW上に形成するべき3次元構造物STとの位置関係を特定することができる。つまり、制御装置7は、ステージ座標系内において、ワークW上のどの位置に3次元構造物STを形成するべきかを特定することができる。制御装置7は、ステージ座標系内において、ワークW上においてどのような姿勢を有している3次元構造物STを形成するべきかを特定することができる。制御装置7は、ステージ座標系内において、ワークW上においてどのようなサイズを有している3次元構造物STを形成するべきかを特定することができる。その結果、加工システムSYSは、造形情報(更には、必要に応じてワーク情報)に基づいて、後述する造形動作において、ワークW上の適切な位置に3次元構造物STを形成することができる。つまり、加工システムSYSは、ワーク情報によってその位置及び形状を特定可能なワークW上において造形情報によって特定される適切な位置に、造形情報に応じた適切な形状を有する3次元構造物STを形成することができる。
 尚、造形情報が制御装置7にとって既に既知の情報である場合には、加工システムSYSは、造形モデルアライメント動作を行わなくてもよい。例えば、造形情報が入力装置92を介して加工システムSYSに入力される場合には、加工システムSYSは、造形モデルアライメント動作を行わなくてもよい。
 以下、図22を参照しながら、造形モデルアライメント動作について説明する。図22は、造形モデルアライメント動作の流れを示すフローチャートである。
 図22に示すように、制御装置7は、付加加工によって形成するべき3次元構造物STの形状に対応する造形モデルデータを取得する(ステップS151)。具体的には、制御装置7は、3次元構造物STの形状と同じ又は相似の形状を有する造形モデルPMを示す造形モデルデータを取得する。造形モデルデータは、造形モデルPMの特徴に関する造形モデル特徴情報を含んでいる。特に、造形モデルデータは、造形モデルPMの特徴の一例である造形モデルPMの形状に関する造形モデル形状情報を少なくとも含んでいる。
 造形モデルデータは、制御装置7が備えるメモリ(つまり、記録媒体)に記録されていてもよい。造形モデルデータは、制御装置7に内蔵された又は制御装置7に外付け可能な任意の記録媒体(例えば、ハードディスクや半導体メモリ)に記録されていてもよい。この場合、制御装置7は、必要に応じて入力装置92を用いて、これらの記録媒体から造形モデルデータを読み出すことで、造形モデルデータを取得してもよい。造形モデルデータは、制御装置7の外部の装置に記録されていてもよい。造形モデルデータは、加工システムSYSの外部の装置に記録されていてもよい。この場合、制御装置7は、入力装置92を介して外部の装置から造形モデルデータをダウンロードすることで、造形モデルデータを取得してもよい。
 記録媒体(或いは、外部の装置)には、複数の異なる形状をそれぞれ有する複数の造形モデルPMを示す複数の造形モデルデータが記録されていてもよい。この場合、制御装置7は、複数の造形モデルデータの中から、3次元構造物STの形状に対応する一の造形モデルデータを取得してもよい。その結果、載置面311に載置される3次元構造物STの形状が変わる場合であっても、制御装置7は、3次元構造物STの形状に対応する一の造形モデルデータを適切に取得することができる。或いは、載置面311に載置される3次元構造物STの形状が常に同じである場合には、記録媒体(或いは、外部の装置)には、単一の造形モデルデータが記録されていてもよい。
 制御装置7は、加工システムSYSのユーザの指示に基づいて、造形モデルデータを取得してもよい。具体的には、制御装置7は、複数の造形モデルPMを表示するようにディスプレイ91を制御してもよい。更に、制御装置7は、複数の造形モデルPMのうちのいずれか一つを、3次元構造物STの形状と同じ又は相似の形状を有する造形モデルPMとしてユーザに選択させるためのGUIを表示するように、ディスプレイ91を制御してもよい。ユーザは、付加加工によって形成したい3次元構造物STの形状と同じ又は相似の形状を有する造形モデルPMを、入力装置92を用いて選択してもよい。その結果、制御装置7は、ユーザが選択した造形モデルPMを示す造形モデルデータを取得する。或いは、付加加工によって形成するべき3次元構造物STの形状が予め定まっている場合には、制御装置7は、予め定まっている3次元構造物STの形状と同じ又は相似の形状を有する造形モデルPMを示す造形モデルデータを取得してもよい。
 制御装置7は、ユーザの指示に基づいて、取得した造形モデルデータが示す造形モデルPMを修正してもよい。例えば、制御装置7は、ユーザの指示に基づいて、造形モデルPMの特徴(例えば、形状及びサイズの少なくとも一方)を修正してもよい。造形モデルPMの特徴が修正された場合には、修正後の造形モデルPMに関する造形モデルデータが、以降の処理では用いられる。
 その後、制御装置7は、ワーク情報に基づいて、ワークモデルWMを表示するようにディスプレイ91を制御する(ステップS152)。つまり、制御装置7は、ステージ座標系内において、ワーク情報が示す形状を有するワークモデルWMを示す画像を、ワーク情報が示す位置(つまり、実際のワークWの位置)に表示するようにディスプレイ91を制御する。この際、制御装置7は、ステージ3(特に、載置面311)と共にワークモデルWMを表示するように、ディスプレイ91を制御してもよい。或いは、制御装置7は、実際のワークW(つまり、実際のワークWを示す画像)を表示するようにディスプレイ91を制御してもよい。例えば、制御装置7は、実際のワークWを撮像している撮像装置82の撮像結果を表示するようにディスプレイ91を制御してもよい。尚、図23は、ワークモデルWMの表示例を示している。
 その後、制御装置7は、ワークモデルWMと造形モデルPMとの位置合わせ(つまり、ワークWと造形モデルPMとの位置合わせ)を行うための入力をユーザから受け付ける(ステップS153)。具体的には、ステップS152においてワークモデルWMがディスプレイ91に表示されている。このため、ステップS153では、制御装置7は、ディスプレイ91に表示されたワークモデルWMに対する造形モデルPMの位置を指定するための入力をユーザから受け付けてもよい。従って、入力装置92は、造形モデルPMの位置を指定するために用いられる装置であるがゆえに、指定装置と称されてもよい。
 ユーザは、付加加工によって3次元構造物STの少なくとも一部が形成されるべき位置(つまり、3次元構造物STの少なくとも一部が造形されるべき造形位置)を、造形モデルPMの位置として指定してもよい。造形位置は、付加加工によって形成される3次元構造物STの少なくとも一部が分布する位置を含んでいてもよい。造形位置は、3次元構造物STの少なくとも一部を形成するための付加加工が行われる位置を含んでいてもよい。付加加工は、上述した付加加工位置(典型的には、加工光ELのフォーカス位置)において行われるがゆえに、造形位置は、3次元構造物STの少なくとも一部を形成するために付加加工位置が設定される位置を含んでいてもよい。付加加工は、加工光ELが照射される位置(つまり、照射領域EAが設定される位置)において行われるがゆえに、造形位置は、3次元構造物STの少なくとも一部を形成するために加工光ELが照射される位置(つまり、照射領域EAが設定される位置)を含んでいてもよい。付加加工は、造形材料Mが供給される位置(つまり、供給領域MAが設定される位置)において行われるがゆえに、造形位置は、3次元構造物STの少なくとも一部を形成するために造形材料Mが供給される位置(つまり、供給領域MAが設定される位置)を含んでいてもよい。造形位置は、3次元構造物STを形成するための付加加工が開始される位置(つまり、造形開始位置)を含んでいてもよい。造形位置は、3次元構造物STを形成するための付加加工が終了する位置(つまり、造形終了位置)を含んでいてもよい。造形位置は、3次元構造物STの特徴点が形成されるべき位置を含んでいてもよい。3次元構造物STの特徴的な点の一例として、頂点、角、最も+Z側に位置する点、最も-Z側に位置する点、最も+X側に位置する点、最も-X側に位置する点、最も+Y側に位置する点、及び、最も-Y側に位置する点の少なくとも一つがあげられる。
 ユーザは、上述した造形位置そのものを造形モデルPMの位置として指定することに加えて又は代えて、上述した造形位置と所定の位置関係を有する位置を、造形モデルPMの位置として指定してもよい。例えば、ユーザは、上述した造形位置から所定方向に所定距離だけオフセットした位置を、造形モデルPMの位置として指定してもよい。
 ユーザは、入力装置92を用いて、造形モデルPMの位置を指定してもよい。この際、ユーザは、ステップS152でワークモデルWMが表示されたディスプレイ91の表示画面上において、造形モデルPMの位置を指定してもよい。例えば、上述した図23に示すように、ユーザは、入力装置92を用いて、造形モデルPMの位置を指定するためのポインタ911を移動させると共に、造形モデルPMの位置に指定したい位置にポインタ911が位置するタイミングで当該ポインタ911の位置を造形モデルPMの位置として指定してもよい。
 ユーザは、上述したガイド光射出装置24が射出するガイド光GLを用いて、造形モデルPMの位置を指定してもよい。例えば、ユーザは、入力装置92を用いて、造形ヘッド21を移動させることで複数のガイド光GLをワークWに対して移動させると共に、造形モデルPMの位置として指定したい位置において複数のガイド光GLが交差したタイミングで当該複数のガイド光GLが交差した位置を造形モデルPMの位置として指定してもよい。
 制御装置7は、造形モデルPMの位置として指定された位置をワークモデルWMと関連付けて表示するように、ディスプレイ91を制御してもよい。例えば、ワークモデルWMの表示例を示す図24に示すように、制御装置7は、造形モデルPMの位置として指定された位置を示す表示物912(図24に示す例では、白丸を示す表示物)を、当該表示物とワークモデルWMとの位置関係が特定できる表示態様で表示するように、ディスプレイ91を制御してもよい。
 また、図24に示すように、ユーザは、造形モデルPMの位置として、単一の位置を指定してもよい。この場合、ユーザによって指定された位置が、造形モデルPMのある部分の位置(つまり、3次元構造物STのある部分を形成するべき位置(領域))として指定されてもよい。或いは、ユーザによって指定された位置に応じて定まる領域が、造形モデルPMの位置(つまり、3次元構造物STを形成するべき位置)として指定されてもよい。ユーザによって指定された位置に応じて定まる領域の一例として、ユーザによって指定された位置を含む領域、ユーザによって指定された位置を中心とする領域、ユーザによって指定された位置を頂点とする領域、ユーザによって指定された位置を含む境界によって規定される領域、及び、ユーザによって指定された位置に対して所定の位置関係を有する領域の少なくとも一つがあげられる。
 或いは、ユーザは、ワークモデルWMの表示例を示す図25に示すように、造形モデルPMの位置として、複数の位置を指定してもよい。この場合、ユーザによって指定された複数の位置によって囲まれる領域(図25中の点線で囲まれる領域)が、造形モデルPMの位置(つまり、3次元構造物STを形成するべき位置)として指定されてもよい。ユーザによって指定された複数の位置に対して所定の位置関係を有する領域が、造形モデルPMの位置(つまり、3次元構造物STを形成するべき位置)として指定されてもよい。
 また、ユーザは、造形モデルPMの位置として、単一の位置を指定すると共に、造形モデルPMの姿勢を指定してもよい。
 ここで、上述したように、3次元構造物STは、ワークW上に形成される。このため、ユーザは、ワークWの表面上の位置を造形位置として指定する可能性が高い。一方で、ワークWの表面の状態によっては、ワークWの表面上のある位置が造形位置として適切ではない可能性がある。具体的には、ワークWの表面のうち欠陥が生じている面部分は、造形位置として適切ではない可能性がある。尚、ここで言う欠陥は、3次元構造物STの適切な形成にとって障害となる欠陥を意味していてもよい。そこで、ワークWの表面のうち欠陥が生じている面部分が造形位置として指定される可能性を減らすために、制御装置7は、ディスプレイ91の表示例を示す図26に示すように、ワークWの表面のうち欠陥が生じている面部分とワークWの表面のうち欠陥が生じていない面部分とを区別可能な表示態様で、ワークモデルWMを表示してもよい。尚、ワークWの欠陥が生じている部分の上に3次元構造物STを造形して、ワークWを補修する場合には、ワークWの表面のうち欠陥が生じている面部分を造形位置として指定してもよい。
 造形モデルPMの位置を指定する入力を受け付ける場合には、ディスプレイ91における表示例を示す図27に示すように、制御装置7は、ワークモデルWM(或いは、実際のワークW)に加えて、造形モデルPM(つまり、造形モデルPMの画像)を表示するようにディスプレイ91を制御してもよい。つまり、制御装置7は、ユーザによって指定された位置に配置された造形モデルPMを表示するようにディスプレイ91を制御してもよい。この場合、ユーザは、造形モデルPMが表示されたディスプレイ91の表示画面上において、入力装置92を用いて造形モデルPMを移動させることで、造形モデルPMの位置を指定してもよい。その結果、ユーザは、直感的に造形モデルPMの位置を指定することができる。
 制御装置7は、ワークモデルWMに対する造形モデルPMの位置を指定するための入力に加えて、ワークモデルWMに対する造形モデルPMの姿勢を指定するための入力をユーザから受け付けてもよい。制御装置7は、ワークモデルWMに対する造形モデルPMの位置を指定するための入力に加えて、ワークモデルWMに対する造形モデルPMのサイズを指定するための入力をユーザから受け付けてもよい。いずれの場合であっても、ユーザは、入力装置92を用いて、造形モデルPMの姿勢及び/又はサイズを指定してもよい。例えば、ユーザは、造形モデルPMが表示されたディスプレイ91の表示画面上において、入力装置92を用いて造形モデルPMを平行移動、回転、拡大及び/又は縮小させることで、造形モデルPMの位置、姿勢及び/又は姿勢を指定してもよい。
 ステップS153におけるワークモデルWMと造形モデルPMとの位置合わせが完了すると、ステージ座標系内での造形モデルPMの位置(更には、姿勢及び/又はサイズ)が確定する。このため、制御装置7は、ステージ座標系内での造形モデルPMの位置に関する造形位置情報を生成することができる。その結果、制御装置7は、造形モデルPMの位置に関する造形位置情報と造形モデルPMの形状に関する造形形状情報とが対応する造形情報を生成する(ステップS154)。つまり、制御装置7は、ステージ座標系内での位置及び形状が確定した造形モデルPMに関する造形情報を生成する。
 但し、制御装置7は、必要に応じて、ステップS154で生成した造形情報を修正してもよい。例えば、上述したように、3次元構造物STは、ワークW上に形成される。つまり、造形モデルPMは、ワークモデルWM上に配置されるように、造形モデルPMとワークモデルWMとの位置合わせが行われる。この場合、造形モデルPMのワークモデルWM側を向いた表面の形状と、ワークモデルWMの造形モデルPM側を向いた表面の形状との関係によっては、ステップS154で生成された造形情報を用いて3次元構造物STをワークW上に形成することができないという技術的問題が生ずる可能性がある。具体的には、ワークモデルWM及び造形モデルPMを示す断面図である図28に示すように、造形モデルPMのワークモデルWM側を向いた表面(図28では、-Z側を向いた表面)PMaの形状と、ワークモデルWMの造形モデルPM側を向いた表面(図28では、+Z側を向いた表面)WMaの形状とが相補の関係にない場合には、造形情報を用いると、3次元構造物STとワークWとの間に隙間ができてしまう可能性がある。或いは、造形情報を用いると、ワークWに部分的に食い込む3次元構造物STが形成されてしまう可能性がある。そこで、表面PMaの形状と表面WMaの形状とが相補の関係にない場合には、制御装置7は、造形情報を修正してもよい。具体的には、造形情報の修正例を造形モデルPM及びワークモデルWMと共に概念的に示す断面図である図29に示すように、制御装置7は、修正後の造形情報が示す造形モデルPMの表面PMaの形状が、ワークモデルWMの表面WMaの形状と相補な関係になるように、造形情報(特に、造形形状情報)を修正してもよい。
 図29に示すように造形情報を修正する方法の一例が、図30(a)から図30(c)に示されている。図30(a)から図30(c)のそれぞれは、造形情報を修正する方法の一例を、ワークモデルWM及び造形モデルPMと共に概念的に示す断面図である。この場合、制御装置7は、図30(a)に示すように、造形モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間がなくなるまで造形モデルPMとワークモデルWMとを近づける。つまり、制御装置7は、造形モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間がなくなるまで造形モデルPMをワークモデルWMに食い込ませる。その後、制御装置7は、造形モデルPMとワークモデルWMとの重複部分の厚み(つまり、ワークモデルWMに対する造形モデルPMの食い込み量)Dを算出する。その後、図30(b)に示すように、制御装置7は、造形モデルPMの修正前の表面PMaに対して、厚みDを有する造形物に相当する3次元モデルである切代モデルCMを付加する。その後、図30(c)に示すように、制御装置7は、切代モデルCMのワークモデルWMを向いた表面CMaが、ワークモデルWMの表面WMaの形状と相補な関係になるように、切代モデルCMを部分的にカットする。その結果、部分的にカットされた切代モデルCMと造形モデルPMとを含む3次元モデルが、新たな(つまり、修正後)造形モデルPMとして用いられる。従って、制御装置7は、修正後の造形情報が、部分的にカットされた切代モデルCMと修正前の造形モデルPMとを含む3次元モデル(つまり、修正後の造形モデルPM)の位置及び形状に関する情報を含むように、造形情報(特に、造形形状情報)を修正してもよい。
 図29に示すように造形情報を修正する方法の他の例が、図31(a)から図31(c)に示されている。図31(a)から図31(c)のそれぞれは、造形情報を修正する方法の他の例を、ワークモデルWM及び造形モデルPMと共に概念的に示す断面図である。この場合、制御装置7は、図31(a)に示すように、造形モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間がなくなるまで造形モデルPMとワークモデルWMとを近づける。その後、制御装置7は、造形モデルPMとワークモデルWMとの重複部分の厚み(つまり、ワークモデルWMに対する造形モデルPMの食い込み量)Dを算出する。その後、図31(b)に示すように、制御装置7は、造形モデルPMのうちワークモデルWMと重複している部分をカットする。更に、制御装置7は、造形モデルPMのうち厚みDを有する下端部分以外の部分をカットする。その結果、造形モデルPMのうち厚みDを有する下端部分であって且つワークモデルWMと重複してない部分が、補修モデルRMとして残存する。補修モデルRMのワークモデルWMを向いた表面RMaの形状は、ワークモデルWMの表面WMaの形状と相補な関係にある。この補修モデルRMは、造形モデルPMの表面PMaとワークモデルWMの表面WMaとの間の隙間を埋めるための造形物の3次元モデルと等価とみなせる。その後、図31(c)に示すように、造形モデルPMの下端に対して補修モデルRMを付加する。その結果、補修モデルRMと造形モデルPMとを含む3次元モデルが、新たな(つまり、修正後の))造形モデルPMとして用いられる。従って、制御装置7は、修正後の造形情報が、補修モデルRMと修正前の造形モデルPMとを含む3次元モデル(つまり、修正後の造形モデルPM)の位置及び形状に関する情報を含むように、造形情報(特に、造形形状情報)を修正してもよい。
 (2-4)造形動作
 続いて、造形動作について説明する。造形動作は、ワークW上に実際に3次元構造物STを形成するための動作である。
 上述したように、加工システムSYSは、レーザ肉盛溶接法により3次元構造物STを形成する。このため、加工システムSYSは、レーザ肉盛溶接法に準拠した既存の造形動作を行うことで、3次元構造物STを形成してもよい。以下、レーザ肉盛溶接法を用いて3次元構造物STを形成する造形動作の一例について簡単に説明する。
 加工システムSYSは、上述したワークモデルアライメント動作によって位置及び形状が特定されるワークW上に、上述した造形モデルアライメント動作によって位置及び形状が特定される3次元構造物STを形成する。つまり、加工システムSYSは、上述したワークモデルアライメント動作によって生成されるワーク情報及び上述した造形モデルアライメント動作によって生成される造形情報に基づいて、ワークW上の所望位置に所望形状の3次元構造物STを形成する。
 加工システムSYSは、3次元構造物STを形成するために、例えば、Z軸方向に沿って並ぶ複数の層状の部分構造物(以下、“構造層”と称する)SLを順に形成していく。例えば、加工システムSYSは、3次元構造物STをZ軸方向に沿って輪切りにすることで得られる複数の構造層SLを1層ずつ順に形成していく。その結果、複数の構造層SLが積層された積層構造体である3次元構造物STが形成される。以下、複数の構造層SLを1層ずつ順に形成していくことで3次元構造物STを形成する動作の流れについて説明する。
 まず、各構造層SLを形成する動作について図32(a)から図32(e)を参照して説明する。加工システムSYSは、制御装置7の制御下で、ワークWの表面又は形成済みの構造層SLの表面に相当する造形面MS上の所望領域に照射領域EAを設定し、当該照射領域EAに対して照射光学系211から加工光ELを照射する。尚、照射光学系211から照射される加工光ELが造形面MS上に占める領域を照射領域EAと称してもよい。第1実施形態においては、加工光ELのフォーカス位置(つまり、集光位置)が造形面MSに一致している。その結果、図32(a)に示すように、照射光学系211から射出された加工光ELによって造形面MS上の所望領域に溶融池(つまり、加工光ELによって溶融した金属のプール)MPが形成される。更に、加工システムSYSは、制御装置7の制御下で、造形面MS上の所望領域に供給領域MAを設定し、当該供給領域MAに対して材料ノズル212から造形材料Mを供給する。ここで、上述したように照射領域EAと供給領域MAとが一致しているため、供給領域MAは、溶融池MPが形成された領域に設定されている。このため、加工システムSYSは、図32(b)に示すように、溶融池MPに対して、材料ノズル212から造形材料Mを供給する。その結果、溶融池MPに供給された造形材料Mが溶融する。造形ヘッド21の移動に伴って溶融池MPに加工光ELが照射されなくなると、溶融池MPにおいて溶融した造形材料Mは、冷却されて再度固化(つまり、凝固)する。その結果、図32(c)に示すように、固化した造形材料Mが造形面MS上に堆積される。つまり、固化した造形材料Mの堆積物による造形物が形成される。
 このような加工光ELの照射による溶融池MPの形成、溶融池MPへの造形材料Mの供給、供給された造形材料Mの溶融及び溶融した造形材料Mの固化を含む一連の造形処理が、図32(d)に示すように、造形面MSに対して造形ヘッド21をXY平面に沿って相対的に移動させながら繰り返される。つまり、造形面MSに対して造形ヘッド21が相対的に移動すると、造形面MSに対して照射領域EAもまた相対的に移動する。従って、一連の造形処理が、造形面MSに対して照射領域EAをXY平面に沿って(つまり、二次元平面内において)相対的に移動させながら繰り返される。この際、加工光ELは、造形面MS上において造形物を形成したい領域に設定された照射領域EAに対して選択的に照射される一方で、造形面MS上において造形物を形成したくない領域に設定された照射領域EAに対して選択的に照射されない(造形物を形成したくない領域には照射領域EAが設定されないとも言える)。つまり、加工システムSYSは、造形面MS上を所定の移動軌跡に沿って照射領域EAを移動させながら、造形物を形成したい領域の分布の態様に応じたタイミングで加工光ELを造形面MSに照射する。尚、造形物を形成したい領域の分布の態様を分布パターンとも構造層SLのパターンとも称してもよい。その結果、溶融池MPもまた、照射領域EAの移動軌跡に応じた移動軌跡に沿って造形面MS上を移動することになる。具体的には、溶融池MPは、造形面MS上において、照射領域EAの移動軌跡に沿った領域のうち加工光ELが照射された部分に順次形成される。更に、上述したように照射領域EAと供給領域MAとが一致しているため、供給領域MAもまた、照射領域EAの移動軌跡に応じた移動軌跡に沿って造形面MS上を移動することになる。その結果、図32(e)に示すように、造形面MS上に、凝固した造形材料Mによる造形物の集合体に相当する構造層SLが形成される。つまり、溶融池MPの移動軌跡に応じたパターンで造形面MS上に形成された造形物の集合体に相当する構造層SL(つまり、平面視において、溶融池MPの移動軌跡に応じた形状を有する構造層SL)が形成される。
 この際、構造層SLの側面の少なくとも一部は、ワークWの側面の少なくとも一部と平行であってもよい。つまり、加工システムSYSは、平面状の側面を有するワークWの上面に、ワークWの側面の少なくとも一部と平行な面を含む構造層SLを形成してもよい。尚、図32(e)は、構造層SLの側面の少なくとも一部とワークWの側面の少なくとも一部との双方が、Z軸に平行になる例を示している。
 なお、造形物を形成したくない領域に照射領域EAが設定されている場合、加工光ELを照射領域EAに照射するとともに、造形材料Mの供給を停止してもよい。また、造形物を形成したくない領域に照射領域EAが設定されている場合に、造形材料Mを照射領域ELに供給するとともに、溶融池MPができない強度の加工光ELを照射領域ELに照射してもよい。尚、上述した説明では、造形面MSに対して照射領域EAを移動させたが、照射領域EAに対して造形面MSを移動させてもよい。
 加工システムSYSは、このような構造層SLを形成するための動作を、制御装置7の制御下で、造形情報(つまり、造形モデルPMに関する情報)に基づいて繰り返し行う。具体的には、まず、造形情報が示す造形モデルPMを積層ピッチでスライス処理してスライスデータを作成する。尚、加工システムSYSの特性に応じてこのスライスデータを一部修正したデータを用いてもよい。加工システムSYSは、ワークWの表面に相当する造形面MS上に1層目の構造層SL#1を形成するための動作を、構造層SL#1に対応する3次元モデルデータ、即ち構造層SL#1に対応するスライスデータに基づいて行う。例えば、加工システムSYSは、構造層SL#1に対応するスライスデータのうち構造層SL#1が存在する領域を通過する、照射領域EA(供給領域MA)の軌跡であるツールパスに関する情報を用いて動作されてもよい。その結果、造形面MS上には、図33(a)に示すように、構造層SL#1が形成される。構造層SL#1は、造形面MSと一体化する(言い換えれば、結合する)。つまり、構造層SL#1は、ワークWと一体化する(言い換えれば、結合する)。その後、加工システムSYSは、構造層SL#1の表面(つまり、上面)を新たな造形面MSに設定した上で、当該新たな造形面MS上に2層目の構造層SL#2を形成する。構造層SL#2を形成するために、制御装置7は、まず、造形ヘッド21がZ軸に沿って移動するようにヘッド駆動系22を制御する。具体的には、制御装置7は、ヘッド駆動系22を制御して、照射領域EA及び供給領域MAが構造層SL#1の表面(つまり、新たな造形面MS)に設定されるように、+Z側に向かって造形ヘッド21を移動させる。これにより、加工光ELのフォーカス位置が新たな造形面MSに一致する。その後、加工システムSYSは、制御装置7の制御下で、構造層SL#1を形成する動作と同様の動作で、構造層SL#2に対応するスライスデータに基づいて、構造層SL#1上に構造層SL#2を形成する。その結果、図33(b)に示すように、構造層SL#2が形成される。構造層SL#1は、造形面MSと一体化する(言い換えれば、結合する)。つまり、構造層SL#1は、構造層SL#2と一体化する(言い換えれば、結合する)。以降、同様の動作が、ワークW上に形成するべき3次元構造物STを構成する全ての構造層SLが形成されるまで繰り返される。その結果、図33(c)に示すように、複数の構造層SLが積層された積層構造物によって、3次元構造物STが形成される。
 この際、上述したように構造層SLの側面の少なくとも一部がワークWの側面の少なくとも一部と平行である場合には、複数の構造層SLから構成される3次元構造物STの側面の少なくとも一部もまた、ワークWの側面の少なくとも一部と平行であってもよい。つまり、加工システムSYSは、平面状の側面を有するワークWの上面に、ワークWの側面の少なくとも一部と平行な面を含む3次元構造物STを形成してもよい。
 このように形成された3次元構造物STは、典型的には、ワークWと一体化している(言い換えれば、結合している)。つまり、加工システムSYSは、ワークWと一体化した(言い換えれば、結合した)3次元構造物STを形成する。ワークWと3次元構造物STとが一体化している(言い換えれば、結合している)場合には、ワークWと3次元構造物STとの相対位置は固定されている(つまり、維持される)と言える。つまり、加工システムSYSは、ワークWに対する相対位置が固定された3次元構造物STを形成していると言える。
 (3)第1実施形態の加工システムSYSの技術的効果
 以上説明したように、第1実施形態の加工システムSYSによれば、ワークWに対して適切に付加加工を行うことができる。
 加工システムSYSは、ワークモデルアライメント動作によってワーク情報を生成すると共に、生成したワーク情報に基づいて位置及び形状が特定されるワークW上に3次元構造物STを形成することができる。このため、加工システムSYSは、ワーク情報を用いない場合と比較して、ワークW上に3次元構造物STを適切に形成することができる。また、ワーク情報は、主として加工システムSYSによって生成されるがゆえに、ワーク情報をユーザ自身が生成する場合と比較して、ユーザの負荷が低減される。
 加工システムSYSは、造形モデルアライメント動作によって造形位置情報を生成すると共に、生成した造形位置情報に基づいて位置が特定される3次元構造物STをワークW上に形成することができる。このため、加工システムSYSは、造形位置情報を用いない場合と比較して、ワークW上に3次元構造物STを適切に形成することができる。また、造形位置情報は、主として加工システムSYSによって生成されるがゆえに、造形位置情報をユーザ自身が生成する場合と比較して、ユーザの負荷が低減される。
 (4)第2実施形態の加工システムSYS
 続いて、第2実施形態の加工システムSYSについて説明する。以下では、第2実施形態の加工システムSYSを“加工システムSYSa”と称することで、第1実施形態の加工システムSYSと区別する。
 (4-1)第2実施形態の加工システムSYSaの構造
 はじめに、図34及び図35を参照しながら、第2実施形態の加工システムSYSaの構造について説明する。図34は、第2実施形態の加工システムSYSaのシステム構成の一例を示すシステム構成図である。図35は、第2実施形態の加工システムSYSaが備える加工ユニットUNTa2の外観構造を示す斜視図である。尚、以降の説明では、既に説明済みの構成要件については、同一の参照符号を付してその詳細な説明については省略する。
 図34に示すように、加工システムSYSaは、造形ユニットUNTa1と、加工ユニットUNTa2と、搬送装置10aとを備えている。
 造形ユニットUNTa1は、第1実施形態の加工システムSYSと同様に、材料供給装置1と、造形装置2と、ステージ装置3と、光源4と、ガス供給装置5と、筐体6と、制御装置7と、計測装置8と、ディスプレイ91と、入力装置92とを備える。このため、造形ユニットUNTa1は、加工システムSYSと同様に、座標マッチング動作、ワークモデルアライメント動作、造形モデルアライメント動作及び造形動作を行うことで、ワークW上に3次元構造物STを形成することができる。造形ユニットUNTa1は、加工システムSYSと比較して、出力装置93aを更に備えているという点で異なる。造形ユニットUNTa1のその他の特徴は、加工システムSYSのその他の特徴と同一であってもよい。
 出力装置93aは、造形ユニットUNTa1の外部に対して情報を出力する装置である。例えば、出力装置93aは、造形ユニットUNTa1のユーザ及び/又は加工ユニットUNTa2のユーザに対して情報を出力してもよい。例えば、出力装置93aは、造形ユニットUNTa1の外部の装置に対して情報を出力してもよい。具体的には、例えば、出力装置93aは、加工ユニットUNTa2に対して情報を出力してもよい。例えば、出力装置93aは、造形ユニットUNTa1に対して装着可能な記録媒体に対して情報を出力してもよい。出力装置93aの一例として、情報を画像として出力可能なディスプレイ及び情報を音声として出力可能なスピーカの少なくとも一つがあげられる。出力装置93aの他の一例として、造形ユニットUNTa1の外部の装置と接続するためのインタフェース装置があげられる。出力装置93aの他の一例として、造形ユニットUNTa1に対して装着可能な記録媒体に書き込み可能な書き込み装置があげられる。
 出力装置93aが出力する情報は、造形ユニットUNTa1に関する情報を含んでいてもよい。造形ユニットUNTa1に関する情報は、例えば、造形ユニットUNTa1が行う動作(例えば、座標マッチング動作、ワークモデルアライメント動作、造形モデルアライメント動作及び/又は造形動作)に関する情報を含んでいてもよい。
 加工ユニットUNTa2は、加工対象物を加工する。第2実施形態では、加工対象物は、3次元構造物ST(つまり、上述した造形ユニットUNTa1が形成した3次元構造物ST)を含む。加工ユニットUNTa2が行う加工動作は、3次元構造物STを加工可能な動作である限りは、どのような動作であってもよい。以下の説明では、説明の便宜上、加工ユニットUNTa2は、3次元構造物STの寸法を、設計上の寸法(つまり、理想的な寸法)に近づけるための仕上げ加工を行うものとする。この場合、例えば、加工ユニットUNTa2は、3次元構造物STの一部を除去する(例えば、切削する)ことで、3次元構造物STに対して仕上げ加工を行ってもよい。つまり、加工ユニットUNTa2は、3次元構造物STに対して除去加工を行ってもよい。
 加工動作を行うために、加工ユニットUNTa2は、図34及び図35に示すように、入力装置101a(図35では不図示)と、加工装置102aと、ステージ装置103aと、制御装置104a(図35では不図示)とを備えている。尚、図35は、加工ユニットUNTa2が、3つの互いに直交する並進軸と2つの互いに直交する回転軸とを有する加工ユニット(いわゆる、マシニングセンタ)である例を示している。しかしながらが、加工ユニットUNTa2の構造が図35に示す構造に限定されることはない。例えば、加工ユニットUNTa2は、マシニングセンタとは異なる任意の工作機械(例えば、旋盤、ターニングセンタ、複合加工機、ボール盤又は研削盤)であってもよい。
 入力装置101aは、加工ユニットUNTa2の外部からの情報の入力を受け付ける装置である。例えば、入力装置101aは、ユーザからの情報の入力を受け付けてもよい。具体的には、例えば、入力装置101aは、加工ユニットUNTa2のユーザ及び/又は造形ユニットUNTa1のユーザからの情報の入力を受け付けてもよい。例えば、入力装置101aは、加工ユニットUNTa2の外部の装置からの情報の入力を受け付けてもよい。具体的には、例えば、入力装置101aは、造形ユニットUNTa1から出力される情報の入力を受け付けてもよい。例えば、入力装置101aは、加工ユニットUNTa2に対して装着可能な記録媒体からの情報の入力を受け付けてもよい。入力装置101aの一例として、ユーザが操作可能な操作装置があげられる。操作装置の一例として、キーボード、マウス、タッチパッド、タッチパネル(例えば、加工ユニットUNTa2が備える不図示のディスプレイと一体化されたタッチパネル)及びポインティングデバイスの少なくとも一つがあげられる。入力装置101aの他の一例として、加工ユニットUNTa2の外部の装置と接続するためのインタフェース装置があげられる。入力装置101aの他の一例として、加工ユニットUNTa2に対して装着可能な記録媒体を読み取り可能な読取装置があげられる。入力装置101aが入力を受け付けた情報(つまり、入力装置101aに入力された情報)は、例えば、制御装置104aに出力される。
 加工装置102aは、3次元構造物ST(つまり、加工対象物)を加工する(例えば、上述したように、除去加工する)。3次元構造物STを加工するために、加工装置102aは、加工ヘッド1021aと、ヘッド駆動系1022a(但し、図35では不図示)と、位置計測装置1023a(但し、図35では不図示)とを備えている。但し、加工装置102aは、ヘッド駆動系1022aと、位置計測装置1023aとを備えていなくてもよい。
 加工ヘッド1021aは、3次元構造物ST(つまり、加工対象物)を加工する。加工ヘッド1021aは、3次元構造物STを加工可能である限りは、どのような構造を有していてもよい。このような加工ヘッド1021aの一例が、図36及び図37に示されている。図36は、切削工具10211aを用いて3次元構造物STを部分的に切削する加工ヘッド1021aを示している。切削工具10211aの一例として、ドリル、バイト、」フライス、エンドミル、リーマー、タップ、ホブ、ピニオンカッタ、ダイス、ブローチ、トリマ及びルータの少なくとも一つがあげられる。図37は、エネルギビームEBを用いて3次元構造物STを部分的に切削する加工ヘッド1021aを示している。図37に示す例では、加工ヘッド1021aは、照射光学系10212aから3次元構造物STに対してエネルギビームEBを射出することで、3次元構造物STを部分的に除去する。この場合、3次元構造物STのうちエネルギビームEBが照射された部分が蒸発する又はアブレーションされることで、3次元構造物STが部分的に除去される。尚、エネルギビームEBの一例として、光や荷電粒子線等があげられる。
 ヘッド駆動系1022aは、制御装置104aの制御下で、加工ヘッド1021aを移動させる。ヘッド駆動系1022aは、X軸、Y軸、Z軸、θX方向、θY方向及びθZ方向の少なくとも一つに沿って加工ヘッド1021aを移動させる。ヘッド駆動系1022aは、例えば、モータ等を含む。
 図35に示す例では、ヘッド駆動系1022aは、並進軸であって且つ互いに直交するX軸及びZ軸に沿って、ステージ装置103aの基台となるベッド1030aに対して加工ヘッド1021aを移動させる。つまり、加工ヘッド1021aは、ベッド1030aに対して、並進2自由度の運動が可能である。
 位置計測装置1023aは、加工ヘッド1021aの位置を計測可能である。位置計測装置1023aは、例えば、エンコーダ及びレーザ干渉計のうちの少なくとも一方を含んでいてもよい。
 ステージ装置103aは、ステージ1031aを備えている。ステージ1031aは、ワークW(より具体的には、造形ユニットUNTa1によって3次元構造物STが形成されたワークW)を支持可能である。尚、ここで言う「ステージ1031aがワークWを支持する」状態は、ワークWがステージ1031aによって直接的に又は間接的に支えられている状態を意味していてもよい。ステージ1031aは、ワークWを保持可能であってもよい。つまり、ステージ1031aは、ワークWを保持することでワークWを支持してもよい。或いは、ステージ1031aは、ワークWを保持可能でなくてもよい。この場合、ワークWは、ステージ1031aに載置されていてもよい。つまり、ステージ1031aは、ステージ1031aに載置されたワークWを支持してもよい。このとき、ワークWは、クランプレスでステージ1031aに載置されていてもよい。従って、第2実施形態における「ステージ1031aがワークWを支持する」状態は、ステージ1031aがワークWを保持する状態及びワークWがステージ1031aに載置される状態をも含んでいてもよい。ステージ1031aを、ワークWを支持する支持装置、ワークWが載置される載置装置、ワークWを保持する保持装置又はテーブルと称してもよい。更に、ステージ1031aは、ワークWが保持されている場合には、保持したワークWをリリース可能である。上述した加工ヘッド1021aは、ステージ1031aがワークWを支持している期間の少なくとも一部において3次元構造物STを加工する。尚、ステージ1031aは、ワークWを保持するために、機械的なチャックや真空吸着チャック、磁気的なチャック等を備えていてもよい。
 ステージ装置103aは更に、ステージ駆動系1032aを備える(但し、図35では不図示)。但し、ステージ装置103aは、ステージ駆動系1032aを備えていなくてもよい。図35に示す例では、ステージ駆動系1032aは、ステージ装置103aのクレードル1033aに対して、回転軸であるC軸周りに回転する(つまり、θZ方向に沿った回転方向に移動する)ようにステージ1031aを移動させる。つまり、ステージ1031aは、クレードル1033aに対して、回転1自由度の運動が可能である。更に、ステージ駆動系1032aは、ステージ装置103aのトラニオン1034aに対して、回転軸であって且つC軸に直交するA軸周りに回転する(つまり、θX方向に沿った回転方向に移動する)ようにクレードル1033aを移動させる。つまり、クレードル1033aは、トラニオン1034aに対して、回転1自由度の運動が可能である。尚、クレードル1033aは、揺動部材又は回転部材と称されてもよい。更に、ステージ駆動系1032aは、ベッド1030aに対して、並進軸であって且つX軸及びZ軸に交差するY軸に沿ってトラニオン1034aを移動させる。つまり、トラニオン1034aは、ベッド1030aに対して、並進1自由度の運動が可能である。尚、トラニオン1034aは、移動部材と称されてもよい。その結果、加工ヘッド1021aは、ステージ1031aに対して、並進3自由度及び回転2自由度の運動が可能となる。ステージ駆動系1032a(更には、ヘッド駆動系1022a)における各送り軸(つまり、X軸に対応する送り軸、Y軸に対応する送り軸、Z軸に対応する送り軸、C軸に対応する送り軸及びA軸に対応する送り軸)は、制御装置7又は制御装置104aの制御下で、サーボモータにより駆動される。
 但し、加工ヘッド1021aの移動の軸数は、5軸に限らず、3軸、4軸又は6軸であってもよい。また、ステージ1031aが回転2自由度で運動可能でなくてもよく、加工ヘッド1021aが回転2自由度で運動可能であってもよいし、加工ヘッド1021a及びステージ1031aのそれぞれが回転1自由度以上で運動可能であってもよい。
 このような加工装置102aは、ステージ1031aが支持するワークW又は3次元構造物STを計測する機能を有していてもよい。以下、図38から図42を参照しながら、加工装置102aがワークW又は3次元構造物STを計測する機能について説明する。図38は、ワークW又は3次元構造物STを計測するためのプローブ10213aが取り付けられた加工ヘッド1021aを示す断面図である。図39から図42のそれぞれは、プローブ10213aを用いてワークW又は3次元構造物STを計測する様子を示す平面図である。
 図38に示すように、加工装置102aがワークW又は3次元構造物STを計測する場合には、加工ヘッド1021aには、プローブ(具体的には、タッチプローブ)10213aが取り付けられる。加工装置102aは、制御装置104aの制御下でプローブ10213aをワークW又は3次元構造物STの所定部分に接触させる。制御装置104aは、プローブ10213aがワークW又は3次元構造物STの所定部分に接触した時の加工ヘッド1021aの位置に基づいて、ワークW又は3次元構造物STの位置を算出する。
 例えば、図39に示すように、加工装置102aは、ワークWの角(つまり、頂点)にプローブ10213aを接触させてもよい。例えば、加工装置102aは、ワークWの1つの角にプローブ10213aを接触させてもよい。この場合、制御装置104aは、X軸方向、Y軸方向及びZ軸方向のそれぞれにおけるワークWの位置を算出することができる。例えば、加工装置102aは、ワークWの2つの角のそれぞれにプローブ10213aを接触させてもよい。この場合、制御装置104aは、X軸方向、Y軸方向及びZ軸方向のそれぞれにおけるワークWの位置に加えて、θZ方向におけるワークWの位置(つまり、Z軸周りのワークWの回転量)を算出することができる。例えば、加工装置102aは、ワークWの3つの角のそれぞれにプローブ10213aを接触させてもよい。この場合、制御装置104aは、X軸方向、Y軸方向及びZ軸方向のそれぞれにおけるワークWの位置と、θX方向、θY方向及びθZ方向のそれぞれにおけるワークWの位置(つまり、X軸周り、Y軸周り及びZ軸周りのそれぞれのワークWの回転量)を算出することができる。
 例えば、ワークWの形状が加工ユニットUNTa2にとって既知の形状である場合には、加工装置102aは、ワークWの側面にプローブ10213aを接触させてもよい。例えば、ワークWの形状が平面視において矩形の形状となる(つまり、ワークWの形状が角柱形状である)場合には、加工装置102aは、図40に示すように、ワークWの+X側の側面及び-X側の側面のそれぞれにプローブ10213aを接触させてもよい。この場合、制御装置104aは、X軸方向におけるワークWの中心位置を算出することができる。例えば、ワークWの形状が平面視において矩形の形状となる場合には、加工装置102aは、図40に示すように、ワークWの+Y側の側面及び-Y側の側面のそれぞれにプローブ10213aを接触させてもよい。この場合、制御装置104aは、Y軸方向におけるワークWの中心位置を算出することができる。例えば、ワークWの形状が平面視において円形の形状となる場合(つまり、ワークWの形状が円柱形状となる場合)についても同様に、加工装置102aは、図41に示すように、ワークWの各側面のそれぞれにプローブ10213aを接触させてもよい。この場合、制御装置104aは、ワークWの中心位置(図41に示す例では、XY平面に沿った面内での中心位置)を算出することができる。
 例えば、ワークWの形状が加工ユニットUNTa2にとって既知の矩形形状である場合には、図42に示すように、加工装置102aは、ワークWの互いに交差する2つの側面のそれぞれの異なる複数個所にプローブ10213aを接触させてもよい。例えば、加工装置102aは、ワークWの第1の側面(図42に示す例では、+X側の側面)の異なる2か所にプローブ10213aを接触させ、且つ、ワークWの第2の側面(図42に示す例では、-Y側の側面)の異なる2か所にプローブ10213aを接触させてもよい。この場合、制御装置104aは、ワークWの第1の側面とワークWの第2の側面との交点(図42に示す例では、ワークWの+X側の側面とワークWの-Y側の側面との交点)の位置を算出することができる。
 尚、加工装置102aは、プローブ10213aに加えて又は代えて、位置合わせ用のビームを照射可能な照射装置を用いて、ワークWを計測してもよい。具体的には、加工装置102aは、加工ヘッド1021aに取り付けられた照射装置からの位置合わせ用のビームがワークW又は3次元構造物STの所定部分に照射されている時の加工ヘッド1021aの位置に基づいて、ワークW又は3次元構造物STの位置を算出してもよい。
 再び図34において、制御装置104aは、加工ユニットUNTa2の動作を制御する。制御装置104aは、例えば、CPU(Central Processing Unit)(或いは、CPUに加えて又は代えてGPU(Graphics Processing Unit))と、メモリとを含んでいてもよい。制御装置104aは、CPUがコンピュータプログラムを実行することで、加工ユニットUNTa2の動作を制御する装置として機能する。このコンピュータプログラムは、制御装置104aが行うべき後述する動作を制御装置104a(例えば、CPU)に行わせる(つまり、実行させる)ためのコンピュータプログラムである。つまり、このコンピュータプログラムは、加工ユニットUNTa2に後述する動作を行わせるように制御装置104aを機能させるためのコンピュータプログラムである。CPUが実行するコンピュータプログラムは、制御装置104aが備えるメモリ(つまり、記録媒体)に記録されていてもよいし、制御装置104aに内蔵された又は制御装置104aに外付け可能な任意の記憶媒体(例えば、ハードディスクや半導体メモリ)に記録されていてもよい。或いは、CPUは、実行するべきコンピュータプログラムを、ネットワークインタフェースを介して、制御装置104aの外部の装置からダウンロードしてもよい。
 例えば、制御装置104aは、加工ヘッド1021aによる3次元構造物STの加工態様を制御してもよい。加工ヘッド1021aが切削工具10211aを含む場合(図36参照)には、加工態様は、切削工具10211aの状態(例えば、切削工具10211aの回転量)を含んでいてもよい。加工ヘッド1021aが照射光学系10212aを含む場合(図37参照)には、加工態様は、エネルギビームEBの状態(例えば、エネルギビームEBの強度及びエネルギビームEBの射出タイミングの少なくとも一つ)を含んでいてもよい。更に、制御装置104aは、ヘッド駆動系1022aによる加工ヘッド1021aの移動態様を制御してもよい。移動態様は、例えば、移動量、移動速度、移動方向及び移動タイミングの少なくとも一つを含んでいてもよい。特に、制御装置104aは、3次元構造物STのうちの加工ユニットUNTa2によって除去されるべき除去対象部分が適切に除去されるように、加工ヘッド1021aの移動態様を制御してもよい。つまり、制御装置104aは、3次元構造物STの除去対象部分に切削工具10211aが接触するように又はエネルギビームEBが照射されるように、加工ヘッド1021aの移動態様を制御してもよい。
 制御装置104aは、加工ユニットUNTa2の内部に設けられていなくてもよく、例えば、加工ユニットUNTa2外にサーバ等として設けられていてもよい。この場合、制御装置104aと加工ユニットUNTa2とは、有線及び/又は無線のネットワーク(或いは、データバス及び/又は通信回線)で接続されていてもよい。有線のネットワークとして、例えばIEEE1394、RS-232x、RS-422、RS-423、RS-485及びUSBの少なくとも一つに代表されるシリアルバス方式のインタフェースを用いるネットワークが用いられてもよい。有線のネットワークとして、パラレルバス方式のインタフェースを用いるネットワークが用いられてもよい。有線のネットワークとして、10BASE-T、100BASE-TX及び1000BASE-Tの少なくとも一つに代表されるイーサネット(登録商標)に準拠したインタフェースを用いるネットワークが用いられてもよい。無線のネットワークとして、電波を用いたネットワークが用いられてもよい。電波を用いたネットワークの一例として、IEEE802.1xに準拠したネットワーク(例えば、無線LAN及びBluetooth(登録商標)の少なくとも一方)があげられる。無線のネットワークとして、赤外線を用いたネットワークが用いられてもよい。無線のネットワークとして、光通信を用いたネットワークが用いられてもよい。この場合、制御装置104aと加工ユニットUNTa2とはネットワークを介して各種の情報の送受信が可能となるように構成されていてもよい。また、制御装置104aは、ネットワークを介して加工ユニットUNTa2にコマンドや制御パラメータ等の情報を送信可能であってもよい。加工ユニットUNTa2は、制御装置104aからのコマンドや制御パラメータ等の情報を、上記ネットワークを介して受信する受信装置を備えていてもよい。加工ユニットUNTa2は、制御装置104aに対してコマンドや制御パラメータ等の情報を、上記ネットワークを介して送信する送信装置(つまり、制御装置104aに対して情報を出力する出力装置)を備えていてもよい。或いは、制御装置104aが行う処理のうちの一部を行う第1制御装置が加工ユニットUNTa2の内部に設けられている一方で、制御装置104aが行う処理のうちの他の一部を行う第2制御装置が加工ユニットUNTa2の外部に設けられていてもよい。
 尚、CPUが実行するコンピュータプログラムを記録する記録媒体としては、CD-ROM、CD-R、CD-RWやフレキシブルディスク、MO、DVD-ROM、DVD-RAM、DVD-R、DVD+R、DVD-RW、DVD+RW及びBlu-ray(登録商標)等の光ディスク、磁気テープ等の磁気媒体、光磁気ディスク、USBメモリ等の半導体メモリ、及び、その他プログラムを格納可能な任意の媒体の少なくとも一つが用いられてもよい。記録媒体には、コンピュータプログラムを記録可能な機器(例えば、コンピュータプログラムがソフトウェア及びファームウェア等の少なくとも一方の形態で実行可能な状態に実装された汎用機器又は専用機器)が含まれていてもよい。更に、コンピュータプログラムに含まれる各処理や機能は、制御装置104a(つまり、コンピュータ)がコンピュータプログラムを実行することで制御装置104a内に実現される論理的な処理ブロックによって実現されてもよいし、制御装置104aが備える所定のゲートアレイ(FPGA、ASIC)等のハードウェアによって実現されてもよいし、論理的な処理ブロックとハードウェアの一部の要素を実現する部分的ハードウェアモジュールとが混在する形式で実現してもよい。
 搬送装置10aは、造形ユニットUNTa1から加工ユニットUNTa2に対して、ワークWを搬送する。搬送装置10aは、例えば、搬送アームを用いてワークWをつかむと共に、つかんだワークWを搬送してもよい。搬送装置10aは、収容容器にワークWを収容すると共に、ワークWが収容された収容容器を搬送することでワークWを搬送してもよい。
 上述したように、加工システムSYSは、ワークWと一体化した3次元構造物STを形成する。このため、搬送装置10aは、ワークWを搬送することで、実質的には、ワークW上に形成された3次元構造物STを搬送する。搬送装置10aは、ワークWと共に3次元構造物STを搬送する。搬送装置10aは、ワークWと3次元構造物STとの相対位置を維持したまま、ワークWと共に3次元構造物STを搬送する。このため、搬送装置10aは、造形ユニットUNTa1がワークW上に3次元構造物STを形成した後に、造形ユニットUNTa1から加工ユニットUNTa2に対して、ワークW(3次元構造物ST)を搬送する。その後、加工ユニットUNTa2は、搬送装置10aによって造形ユニットUNTa1から搬送されてきた3次元構造物STを加工する。
 搬送装置10aは、造形ユニットUNTa1から加工ユニットUNTa2にワークWを搬送する。搬送装置10aは、造形ユニットUNTa1がワークW上に3次元構造物STを形成した後に、加工ユニットUNTa2にワークWを搬送する。上述したように、造形ユニットUNTa1はワークWと一体化した(つまり、結合した)3次元構造物STを形成するがゆえに、搬送装置10aは、3次元構造物STと一体化したワークWを搬送する。搬送装置10aは、3次元構造物STと共にワークWを搬送する。搬送装置10aは、3次元構造物STとワークWとの相対位置を維持したまま3次元構造物STと共にワークWを搬送する。尚、加工システムSYSaは搬送装置10aを備えていなくてもよい。
 (4-2)第2実施形態の加工システムSYSaの動作
 続いて、第2実施形態の加工システムSYSaが行う動作について説明する。第2実施形態では、造形ユニットUNTa1が3次元構造物STを形成した後に、加工ユニットUNTa2が3次元構造物STを加工する。従って、以下では、造形ユニットUNTa1が行う動作と加工ユニットUNTa2が行う動作とについて順に説明する。
 (4-2-1)造形ユニットUNTa1が行う動作
 造形ユニットUNTa1は、上述した第1実施形態の加工システムSYSと同様に3次元構造物STを形成する。つまり、造形ユニットUNTa1は、座標マッチング動作を行い、その後ワークモデルアライメント動作を行い、その後造形モデルアライメント動作を行い、その後造形動作を行う。
 但し、第2実施形態では、造形モデルアライメント動作(或いは、ワークモデルアライメント動作)において、制御装置7は、3次元構造物STを形成する際の基準位置として利用可能な基準点RPを設定(言い換えれば、指定)する。具体的には、図22のステップS153において、制御装置7は、造形モデルPMの位置(例えば、造形位置)を指定する入力を受け付けることに加えて、基準点RPを設定する。尚、基準点RPは、基準位置と称されてもよい。また、基準点RPは、制御装置7によって設定(言い換えれば、指定)されるがゆえに、設定点又は指定点(或いは、設定位置又は指定位置)と称されてもよい。
 基準点RPは、造形動作での基準位置として用いられてもよい。例えば、基準点RPは、造形モデルPMの位置を特定するための基準として用いられてもよい。基準点RPは、3次元構造物STを形成するべき位置を特定するための基準として用いられてもよい。基準点RPは、造形モデルPMの位置を特定するための原点として用いられてもよい。基準点RPは、3次元構造物STを形成するべき位置を特定するための原点として用いられてもよい。基準点RPは、造形ヘッド21の移動の基準位置として用いられてもよい。この場合、基準点RPは、造形ユニットUNTa1の基準座標系の原点として用いられてもよい。但し、基準点RPは、造形ユニットUNTa1の基準座標系の原点として用いられなくてもよい。このような基準点RPは、原点(例えば、造形原点)と称されてもよい。
 制御装置7は、ワークモデルWM上に基準点RPを設定する。ワークモデルWMが実際のワークWに対応しているがゆえに、制御装置7は、実質的には、ワークW上に基準点RPを設定する。つまり、制御装置7は、3次元構造物STがその上に形成されるワークW上に(つまり、このようなワークWに対応するワークモデルWM上に)、基準点RPを設定する。
 ここで、上述したように、ワークW上に形成される3次元構造物STは、ワークWと一体化している。このため、通常であれば、ワークW上に形成された3次元構造物STとワークWとの位置関係が変わることはない。このため、制御装置7は、3次元構造物STとの相対位置が固定された基準点RPを設定していると言える。従って、制御装置7は、ワークW上に基準点RPを設定することに加えて又は代えて、3次元構造物STとの相対位置が固定された物体上に基準点RPを設定してもよい。制御装置7は、3次元構造物STとの相対位置が変わらない物体上に基準点RPを設定してもよい。尚、制御装置7は、3次元構造物ST上に基準点RPを設定してもよい。この場合においても、3次元構造物STとの相対位置が固定された基準点RPが設定可能となる。
 制御装置7は、造形ユニットUNTa1のユーザの指示に基づいて、基準点RPを設定してもよい。つまり、ユーザは、入力装置92を用いて基準点RPを設定したい位置を指定し、制御装置7は、ユーザが指定した位置に基準点RPを設定してもよい。この場合、制御装置7は、ワークモデルWM及び造形モデルPMを表示するようにディスプレイ91を制御してもよい。尚、図43は、ワークモデルWM及び造形モデルPMの表示例を示す平面図である。更に、ユーザは、ワークモデルWM及び造形モデルPMが表示されたディスプレイ91の表示画面上において、基準点RPを設定したい位置を指定してもよい。例えば、図43に示すように、ユーザは、入力装置92を用いて、基準点RPを設定するためのポインタ913を移動させると共に、基準点RPを設定したい位置にポインタ913が位置するタイミングで当該ポインタ913の位置を基準点RPが設定されるべき位置としてとして指定してもよい。
 制御装置7は、造形ユニットUNTa1のユーザの指示に基づくことなく、制御装置7自身で基準点RPを設定してもよい。例えば、制御装置7は、ワークモデルWMを示すワークモデルデータに基づいて、ワークモデルWMの特徴点(つまり、ワークWの特徴点)を抽出し、抽出した特徴点の位置に、基準点RPを設定してもよい。つまり、制御装置7は、ワークモデルWMの特徴点を基準点RPに設定してもよい。或いは、例えば、制御装置7は、3次元構造物STとの相対位置が変わらない物体の特徴点を基準点RPに設定してもよい。或いは、制御装置7は、ワークW上に形成されている既存の構造物(例えば、前回の造形動作によって形成された3次元構造物ST)の特徴点を基準点RPに設定してもよい。尚、ある物体の特徴点は、物体の表面上の位置を示す点の集合である点群データによって示される物体の3次元形状のうちの特徴的な位置の点を含んでいてもよい。特徴点の一例として、頂点、角、境界、最も+Z側に位置する点、最も-Z側に位置する点、最も+X側に位置する点、最も-X側に位置する点、最も+Y側に位置する点、及び、最も-Y側に位置する点の少なくとも一つがあげられる。或いは、例えば、制御装置7は、造形モデルPMと所定の位置関係を有するワークW(或いは、3次元構造物STとの相対位置が変わらない物体又はワークW上に形成されている既存の構造物、以下この段落において同じ)上の位置に、基準点RPを設定してもよい。一例として、制御装置7は、造形モデルPMの位置から所定方向に所定距離だけ離れたワークW上の位置に、基準点RPを設定してもよい。或いは、例えば、制御装置7は、ワークWに所定の目印が設けられている場合には、目印の位置又は目印と所定の位置関係を有するワークW上の位置に、基準点RPを設定してもよい。ステージ31にワークWが支持されるときのステージ31に対する目印の位置の条件及び目印と基準点RPとして設定される位置との位置関係に関する条件が予め定められていてもよい。図44(a)から図44(c)のそれぞれは、ワークWに設けられる目印の一例を示す平面図である。図44(a)に示すように、ワークWには、目印の一例としてのマーカMK1が形成されていてもよい。尚、マーカMK1の形状は矩形状(ボックス状)には限定されず、例えば十字状やL字状であってもよい。図44(b)に示すように、ワークWのある辺(例えば、その辺の中央付近)には、目印の一例としての切り欠きMK2が形成されていてもよい。この場合、例えば、切り欠きMK2が形成されている辺がステージ31に向かって手前側に位置するようにワークWが支持されるという条件及び切り欠きMK2に対して左側(例えば、-Y側)の角に基準点RPが設定されるという条件が予め設定されていてもよい。図44(c)に示すように、ワークWのある角には、目印の一例としての切り欠きMK3が形成されていてもよい。この場合、例えば、切り欠きMK3が形成されている角に対して対向する角に基準点RPが設定されるという条件が予め設定されていてもよい。
 基準点RPが設定された場合には、上述した造形モデルPMの位置を示す造形位置情報は、基準座標系での造形モデルPMの絶対的な位置に加えて又は代えて、基準点RPを基準とする造形モデルPMの相対的な位置を示していてもよい。造形位置情報は、基準点RPと造形モデルPMとの相対位置を示していてもよい。造形位置情報は、基準点RPに対して造形モデルPMがどこに位置しているかを示していてもよい。例えば、図45は、基準点RPと造形モデルPMとの位置関係を示す平面図である。図45に示すように、造形位置情報は、X軸方向における基準点RPと造形モデルPMとの間の距離を示していてもよい。図45に示すように、造形位置情報は、Y軸方向における基準点RPと造形モデルPMとの間の距離を示していてもよい。図面の簡略化のために図示していないものの、造形位置情報は、Z軸方向における基準点RPと造形モデルPMとの間の距離を示していてもよい。図45に示す例では、造形位置情報は、X軸方向における基準点RPと造形モデルPM(より具体的には、造形モデルPMのうちのある部分)との間の距離がxx[mm]であり、且つ、Y軸方向における基準点RPと造形モデルPMとの間の距離がyy[mm]であることを示している。つまり、造形位置情報は、基準座標系において、基準点RPからX軸方向に沿ってxx[mm]だけ離れており且つY軸方向に沿ってyy[mm]だけ離れた位置に3次元構造物STが形成されるべきであることを示している。この場合、このような造形位置情報を含む造形情報は、基準点RPと関連付けられた(より具体的には、基準点RPの位置と関連付けられた)造形情報であるとも言える。また、造形情報が造形位置情報と造形形状情報とが対応付けられた情報であるがゆえに、このような造形位置情報を含む造形情報は、基準点RPと造形情報(例えば、造形形状情報(つまり、造形モデルPM(つまり、3次元構造物ST)の形状)とが関連付けられた造形情報であるとも言える。
 また、基準点RPがワークW上に設定される場合には、上述したワークモデルWMの位置を示すワーク位置情報は、基準座標系でのワークモデルWMの絶対的な位置に加えて又は代えて、ワークW上に設定された基準点RPの位置を示していてもよい。ワーク位置情報は、基準点RPとワークWとの相対位置を示していてもよい。ワーク位置情報は、基準点RPがワークモデルWMのどこに設定されたかを示していてもよい。具体的には、制御装置7は、ワークモデルアライメント動作において生成したワーク位置情報(つまり、ワーク情報)を、基準点RPに基づいて修正してもよい。制御装置7は、ワークモデルアライメント動作において生成したワーク位置情報(つまり、ワーク情報)に対して、基準点RPに関する情報を付加してもよい。例えば、図45に示すように、ワーク位置情報は、XY平面に沿った面内における形状が正方形となるワークWの+X側且つ-Y側の頂点に基準点RPが設定されていることを示していてもよい。この場合、このようなワーク位置情報を含むワーク情報は、基準点RPと関連付けられた(より具体的には、基準点RPの位置と関連付けられた)ワーク情報であるとも言える。また、ワーク情報がワーク位置情報とワーク形状情報とが対応付けられた情報であるがゆえに、このようなワーク位置情報を含むワーク情報は、基準点RPとワーク情報(例えば、ワーク形状情報(つまり、ワークモデルWM(つまり、ワークW)の形状))とが関連付けられたワーク情報であるとも言える。
 このように造形モデルアライメント動作によって造形情報が生成された後、造形ユニットUNTa1は、第1実施形態の加工システムSYSと同様に、ワーク情報及び造形情報に基づいて、3次元構造物STを形成するための造形動作を行う。この際、上述したように、基準点RPを基準とする造形モデルPMの相対的な位置をワーク情報が示しているがゆえに、制御装置7は、基準点RPに関する情報に基づいて、ワークWの基準点RPを基準に3次元構造物STが形成されるように、造形装置2を制御してもよい。具体的には、制御装置7は、基準点RPを基準に定まる位置において付加加工が行われるように、造形装置2を制御してもよい。例えば、制御装置7は、ワークWの基準点RPを基準に造形ヘッド21が移動するようにヘッド駆動系22を制御してもよい。例えば、制御装置7は、ワークWの基準点RPを基準に定まる位置(例えば、3次元構造物STを構成する造形物を形成すべき位置)に照射領域EAが重なったタイミングで加工光ELを照射するように、造形装置2を制御してもよい。その結果、ワークWの基準点RP(つまり、ワークモデルWMの基準点RP)に対して所定の位置関係を有する位置に、3次元構造物STが形成される。つまり、基準点RPに対して造形情報が示す位置関係を有する位置に、3次元構造物STが形成される。尚、図46は、図45に示す基準点RPが設定された場合にワークW上に形成される3次元構造物STを示す平面図である。図46に示すように、ワークWの基準点RPからX軸方向に沿ってxx[mm]だけ離れており且つY軸方向に沿ってyy[mm]だけ離れた位置に3次元構造物STが形成される。
 第2実施形態では更に、出力装置93aは、基準点RPに関する情報(以降、基準点情報と称する)を出力する。具体的には、出力装置93aは、加工ユニットUNTa2に対して基準点情報を出力する。この場合、加工ユニットSYSa2は、基準点情報に基づいて、造形ユニットUNTa1が形成した3次元構造物STを加工する。
 基準点情報は、基準点RPの位置(例えば、基準座標系における基準点RPの位置)に関する第1情報を含んでいてもよい。具体的には、基準点情報は、基準点RPが設定されたワークモデルWM上の位置を示す第1情報を含んでいてもよい。基準点情報は、ワークモデルWMのうち基準点RPが設定された部分の位置を示す第1情報を含んでいてもよい。つまり、基準点情報は、基準点RPがワークモデルWM上のどの位置に設定されているかを示す第1情報を含んでいてもよい。ワークW上の基準点RPがワークモデルWM上の基準点RPに対応するがゆえに、基準点情報は、基準点RPが設定されたワークW上の位置を示す第1情報を含んでいてもよい。加工ユニットUNTa2は、第1情報を参照することで、造形ユニットUNTa1から搬送装置10aによって搬送されてきたワークW上のどの位置に基準点RPが設定されたかを特定することができる。このような第1情報の一例として、ワークWと基準点RPとの相対位置(つまり、ワークモデルWMと基準点RPとの相対位置)に関する情報があげられる。
 ワーク情報(具体的には、基準点RPに関付けられたワーク情報)が基準点RPの位置を示していてもよいことは、上述したとおりである。言い換えれば、ワーク情報が基準点RPと関連付けられていてもよいことは、上述したとおりである。この場合、基準点情報は、ワーク情報(特に、基準点RPと関連付けられたワーク情報)を含んでいてもよい。つまり、出力装置93aは、ワーク情報(特に、基準点RPと関連付けられたワーク情報)を、基準点情報として加工ユニットUNTa2に対して出力してもよい。この場合であっても、加工ユニットUNTa2は、ワークW上のどの位置が基準点RPに指定されたかを特定することができる。
 基準点情報は、基準点RPが関連付けられたワーク情報に加えて又は代えて、計測装置8によるワークWの計測結果に関する計測情報(特に、基準点RPと関連付けられた計測情報)を含んでいてもよい。つまり、出力装置93aは、ワークWの計測結果に関する計測情報(特に、基準点RPと関連付けられた計測情報)を、基準点情報として加工ユニットUNTa2に対して出力してもよい。なぜならば、ワークWの計測結果に関する計測情報は、ワーク情報と同様に、ワークWの形状に関する情報及びワークWの位置に関する情報を含んでいるからである。尚、「基準点RPと関連付けられたワークWの計測情報」は、基準点RPに関する情報を含む計測情報(例えば、基準点RPの位置を特定可能な計測情報)を意味していてもよい。計測装置8は、造形ユニットUNTa1が3次元構造物STを形成する前に(つまり、造形動作を開始する前に)、ワークWを計測してもよい。この場合、基準点情報は、造形ユニットUNTa1が3次元構造物STを形成する前におけるワークWの計測結果に関する計測情報を含んでいてもよい。尚、3次元構造物STを形成する前に(つまり、造形動作を開始する前に)計測装置8がワークWを計測する場合には、ワークW上の特徴点となり得る箇所が3次元構造物STによって遮られる恐れが少ないという利点がある。また、計測装置8は、造形ユニットUNTa1が3次元構造物STを形成している期間中の所望のタイミングでワークWを計測してもよい。この場合、基準点情報は、造形ユニットUNTa1が3次元構造物STを形成している期間中の所望のタイミングにおけるワークWの計測結果に関する計測情報を含んでいてもよい。計測装置8は、造形ユニットUNTa1が3次元構造物STを形成した後に(つまり、造形動作を完了した後に)、ワークWを計測してもよい。この場合、基準点情報は、造形ユニットUNTa1が3次元構造物STを形成した後におけるワークWの計測結果に関する計測情報を含んでいてもよい。
 基準点情報は、上述した第1情報に加えて又は代えて、基準点RPと3次元構造物STとの相対位置(例えば、基準座標系における基準点RPと3次元構造物STとの相対位置に関する第2情報を含んでいてもよい。つまり、基準点情報は、基準点RPの位置と3次元構造物STの位置との関係(例えば、基準座標系における基準点RPの位置と3次元構造物STの位置との関係)に関する第2情報を含んでいてもよい。具体的には、基準点情報は、基準点RPを起点とする3次元構造物STの形成位置を示す第2情報を含んでいてもよい。つまり、基準点情報は、基準点RPを基準にどの位置に3次元構造物STが形成されるかを示す第2情報を含んでいてもよい。また、造形モデルアライメント動作で指定された造形モデルPMの位置に3次元構造物STが形成されるがゆえに、基準点情報は、基準点RPを基準にどの位置が造形モデルPMの位置として指定されたかを示す第2情報を含んでいてもよい。つまり、基準点情報は、基準点RPと造形モデルPMとの間の位置関係(つまり、基準点RPの位置と造形モデルPMの位置との間の関係)に関する情報を含んでいてもよい。加工ユニットUNTa2は、第2情報を参照することで、基準点RPを基準にどこに3次元構造物STが形成されているかを特定することができる。
 造形情報(特に、造形位置情報)が基準点RPを基準とする造形モデルPMの相対的な位置を示していてもよいことは、上述したとおりである。言い換えれば、造形情報が基準点RPと関連付けられていてもよいことは、上述したとおりである。この場合、基準点情報は、造形情報(特に、基準点RPと関連付けられた造形情報)を含んでいてもよい。つまり、出力装置93aは、造形情報(特に、基準点RPと関連付けられた造形情報)を、基準点情報として加工ユニットUNTa2に対して出力してもよい。この場合であっても、加工ユニットUNTa2は、基準点RPを基準にどこに3次元構造物STが形成されているかを特定することができる。
 基準点情報は、基準点RPが関連付けられた造形情報に加えて又は代えて、計測装置8による3次元構造物STの計測結果に関する計測情報(特に、基準点RPと関連付けられた計測情報)を含んでいてもよい。つまり、出力装置93aは、3次元構造物STの計測結果に関する計測情報(特に、基準点RPと関連付けられた計測情報)を、基準点情報として加工ユニットUNTa2に対して出力してもよい。なぜならば、3次元構造物STの計測結果に関する計測情報は、造形情報と同様に、3次元構造物STの形状に関する情報及び3次元構造物STの位置に関する情報を含んでいるからである。尚、「基準点RPと関連付けられた3次元構造物STの計測情報」は、基準点RPに関する情報を含む計測情報(例えば、基準点RPに対する3次元構造物STの位置を特定可能な計測情報)を意味していてもよい。計測装置8は、造形ユニットUNTa1が3次元構造物STを形成している期間中の所望のタイミングで3次元構造物STを計測してもよい。この場合、基準点情報は、造形ユニットUNTa1が3次元構造物STを形成している期間中の所望のタイミングにおける3次元構造物STの計測結果に関する計測情報を含んでいてもよい。計測装置8は、造形ユニットUNTa1が3次元構造物STを形成した後に(つまり、造形動作を完了した後に)、3次元構造物STを計測してもよい。この場合、基準点情報は、造形ユニットUNTa1が3次元構造物STを形成した後における3次元構造物STの計測結果に関する計測情報を含んでいてもよい。
 (4-2-2)加工ユニットUNTa2が行う動作
 加工ユニットUNTa2は、造形ユニットUNTa1が形成した3次元構造物STを加工する(例えば、除去加工)する。例えば、上述したように、加工ユニットUNTa2は、3次元構造物STの寸法を、設計上の寸法(つまり、理想的な寸法)に近づけるための仕上げ加工を行う。その結果、造形ユニットUNTa1が形成した3次元構造物STの寸法精度が相対的に低い場合であっても、加工ユニットUNTa2の加工によって3次元構造物STの寸法精度が向上する。以下、このような加工ユニットUNTa2が行う動作(つまり、加工動作)について、図47を参照しながら説明する。図47は、加工ユニットUNTa2が行う加工動作の流れを示すフローチャートである。
 図47に示すように、まずは、加工ユニットUNTa2のステージ1031aに3次元構造物STが載置される(ステップS21)。具体的には、加工ユニットUNTa2には、搬送装置10aによって、造形ユニットUNTa1から3次元構造物STが搬送される。具体的には、3次元構造物STがワークWと一体化しているため、加工ユニットUNTa2には、搬送装置10aによって、造形ユニットUNTa1から、ワークWと一体化した3次元構造物STが搬送される。搬送装置10aによって搬送された3次元構造物ST(つまり、ワークWと一体化した3次元構造物ST)は、ステージ1031aに載置される。この際、ステージ1031aは、3次元構造物STを保持してもよい。例えば、加工ヘッド1021aが切削工具10211aを備えている場合には、切削工具10211aから3次元構造物STに加わる力によって、加工動作が行われている期間中にステージ1031a上で3次元構造物STの位置がずれてしまう(つまり、変わってしまう)可能性がある。従って、3次元構造物STの位置ずれを防ぐために、ステージ1031aは、3次元構造物STを保持してもよい。
 更に、加工ユニットUNTa2の入力装置101aには、造形ユニットUNTa1の出力装置93aが出力した基準点情報が入力される(ステップS22)。つまり、入力装置101aは、基準点情報を取得する。その後、加工ユニットUNTa2は、基準点情報に基づいて、3次元構造物STを加工する(ステップS23からステップS24)。つまり、加工ユニットUNTa2の制御装置104aは、基準点情報に基づいて、3次元構造物STを加工するように加工装置102aを制御する。例えば、制御装置104aは、ワークWの基準点RPを基準に3次元構造物STを加工するように、加工装置102aを制御してもよい。例えば、制御装置104aは、基準点RPを基準に定まる位置において加工(例えば、上述した除去加工であり、実質的には、仕上げ加工)が行われるように、加工装置102aを制御してもよい。例えば、制御装置104aは、ワークWの基準点RPを基準に加工ヘッド1021aが移動するようにヘッド駆動系1022aを制御してもよい。その結果、ワークWの基準点RPに対して所定の位置関係を有する位置に形成された3次元構造物ST対する加工が行われる。つまり、第2実施形態では、加工ユニットUNTa2は、造形ユニットUNTa1が造形動作を行う際に基準にした基準点RPを基準に、3次元構造物STを加工する。言い換えれば、加工ユニットUNTa2が加工動作を行う際に基準位置として用いる基準点は、造形ユニットUNTa1が造形動作を行う際に基準位置として用いる基準点と一致する。
 基準点情報に基づいて3次元構造物STを加工するために、まず、制御装置104aは、ワークWと加工装置102a(特に、加工ヘッド1021a)との位置合わせを行う(ステップS23)。つまり、制御装置104aは、加工ヘッド1021aの位置出しを行う(ステップS23)。第2実施形態では特に、制御装置104aは、基準点RPと加工装置102a(特に、加工ヘッド1021a)との位置合わせを行うことで、ワークWと加工装置102a(特に、加工ヘッド1021a)との位置合わせを行うものとする。
 具体的には、制御装置104aは、加工ユニットUNTa2の基準座標系内において、基準点RPと加工ヘッド1021aとの位置合わせを行う。第2実施形態では、加工座標系が加工ユニットUNTa2の基準座標系として用いられるものとする。加工座標系は、加工ヘッド1021aの位置を特定するために用いられる3次元座標系である。例えば、ヘッド駆動系1022aは、加工座標系内において特定される加工ヘッド1021aの位置に関する情報に基づいて、加工ヘッド1021aを移動させる。例えば、位置計測装置1023aは、加工座標系内における加工ヘッド1021aの位置を計測する。尚、第2実施形態では、造形ユニットUNTa1の基準座標系(つまり、第1実施形態の加工システムSYSの基準座標系)を“造形基準座標系”と称し、且つ、加工ユニットUNTa2の基準座標系を“加工基準座標系”と称することで、両者を区別する。
 尚、基準点RPと加工装置102aとの位置合わせに先立って、上述したプローブ10213a等を用いてワークWが計測されてもよい。つまり、加工基準座標系におけるワークWの位置が計測されてもよい。その上で、加工基準座標系における位置が判明したワークWの基準点RPと加工装置102aとの位置合わせが行われてもよい。
 基準点RPと加工装置102a(特に、加工ヘッド1021a)との位置合わせを行うために、制御装置104aは、基準点情報に基づいて、ワークW上に設定されている基準点RPと加工装置102a(特に、加工ヘッド1021a)とが所定の位置関係を有するという位置合わせ条件が満たされるように、加工ヘッド1021aを移動させる。
 例えば、加工ヘッド1021aが切削工具10211aを備えている場合(図36参照)には、位置合わせ条件は、切削工具10211aが基準点RPに位置する(例えば、切削工具10211aの先端が基準点RPに接触する)という第1条件を含んでいてもよい。但し、第1条件が用いられる場合には、基準点RPと加工装置102aとの位置合わせを行う過程で3次元構造物STが誤って加工されることを防止するために、切削工具10211aは停止していることが好ましい。例えば、加工ヘッド1021aが照射光学系10212aを備えている場合(図37参照)には、位置合わせ条件は、照射光学系10212aからのエネルギビームEBが基準点RPに照射されるという第2条件を含んでいてもよい。位置合わせ条件は、照射光学系10212aからのエネルギビームEBの収斂位置が基準点RPに位置するという第2条件を含んでいてもよい。但し、第2条件が用いられる場合には、基準点RPと加工装置102aとの位置合わせを行う過程で3次元構造物STが誤って加工されることを防止するために、エネルギビームEBの強度は、3次元構造物STを加工できないほどに低くなっていることが好ましい。例えば、加工ヘッド1021aに位置合わせ用のプローブ10213a(図38参照)が取り付け可能である場合には、位置合わせ条件は、プローブ10213aが基準点RPに位置する(例えば、プローブ10213aの先端が基準点RPに接触する)という第3条件を含んでいてもよい。例えば、加工ヘッド1021aが位置合わせ用のビームを照射可能な照射装置を備えている場合には、位置合わせ条件は、照射装置からのビームが基準点RPに照射されるという第4条件を含んでいてもよい。位置合わせ条件は、照射装置からのビームの収斂位置が基準点RPに位置するという第4条件を含んでいてもよい。
 制御装置104aは、基準点情報に基づいて、位置合わせ条件が満たされるように、加工ヘッド1021aを移動させてもよい。具体的には、基準点情報は、上述したように、基準点RPが設定されたワークW上の位置を示している。従って、制御装置104aは、基準点情報に基づいてワークW上に設定された基準点RPを特定し、特定した基準点RPと加工装置102aとが所定の位置関係を有するという位置合わせ条件が満たされるように、加工ヘッド1021aを移動させてもよい。或いは、ワークW上に設定された基準点RPが加工ユニットUNTa2のユーザにとって既知の情報である場合には、制御装置104aは、入力装置101aを介して加工ユニットUNTa2に入力されるユーザの指示に基づいて、基準点RPと加工装置102aとが所定の位置関係を有するという位置合わせ条件が満たされるように、加工ヘッド1021aを移動させてもよい。つまり、ユーザが、位置合わせ条件が満たされるように加工ヘッド1021aを移動させてもよい。
 その後、制御装置104aは、基準点RPと加工ヘッド1021aとの位置合わせの結果に基づいて、3次元構造物STを加工するように、加工装置102aを制御する(ステップS24)。具体的には、制御装置104aは、位置計測装置1023aの計測結果に基づいて、位置合わせ条件が満たされたときの加工ヘッド1021aの位置を特定する。つまり、制御装置104aは、位置合わせ条件が満たされるように基準点RPと加工ヘッド1021aとが位置合わせされた場合の加工ヘッド1021aの位置を特定する。その後、制御装置104aは、位置合わせ条件が満たされた場合における加工基準座標系内での加工ヘッド1021aの位置に基づいて、加工基準座標系内での基準点RPの位置を特定する。
 例えば、切削工具10211aが基準点RPに位置する(例えば、切削工具10211aの先端が基準点RPに接触する)という第1条件が位置合わせ条件として用いられる場合には、制御装置104aは、位置合わせ条件が満たされたときの加工ヘッド1021aの位置に基づいて、位置合わせ条件が満たされたときの切削工具10211aの位置(例えば、切削工具10211aの位置)を特定することができる。なぜならば、切削工具10211aが加工ヘッド1021aに取り付けられているがゆえに、通常、切削工具10211aと加工ヘッド1021aとは、制御装置104aにとって既知な特定の位置関係を有しているからである。また、位置合わせ条件が満たされたときの切削工具10211aの位置は、加工基準座標系内での基準点RPの位置と等価であるとみなせる。なぜならば、位置合わせ条件が満たされた時点で切削工具10211aが基準点RPに位置しているからである。従って、制御装置104aは、位置合わせ条件が満たされたときの加工ヘッド1021aの位置に基づいて、位置合わせ条件が満たされたときの切削工具10211aの位置を、加工基準座標系内での基準点RPの位置として特定してもよい。このとき、切削工具1021aの工具径補正を行ってもよい。尚、プローブ10213aが基準点RPに位置する(例えば、プローブ10213aの先端が基準点RPに接触する)という第3条件が位置合わせ条件として用いられる場合も同様に、制御装置104aは、位置合わせ条件が満たされたときの加工ヘッド1021aの位置に基づいて、位置合わせ条件が満たされたときのプローブ10213aの位置を、加工基準座標系内での基準点RPの位置として特定してもよい。
 例えば、照射光学系10212aからのエネルギビームEBが基準点RPに照射されるという第3条件が位置合わせ条件として用いられる場合には、制御装置104aは、位置合わせ条件が満たされたときの加工ヘッド1021aの位置に基づいて、位置合わせ条件が満たされたときのエネルギビームEBの照射位置を特定することができる。なぜならば、照射光学系10212aが加工ヘッド1021aに取り付けられているがゆえに、通常、エネルギビームEBの照射位置と加工ヘッド1021aとは、制御装置104aにとって既知な特定の位置関係を有しているからである。また、位置合わせ条件が満たされたときのエネルギビームEBの照射位置は、加工基準座標系内での基準点RPの位置と等価であるとみなせる。なぜならば、位置合わせ条件が満たされた時点でエネルギビームEBが基準点RPに照射されているからである。従って、制御装置104aは、位置合わせ条件が満たされたときの加工ヘッド1021aの位置に基づいて、位置合わせ条件が満たされたときのエネルギビームEBの照射位置を、加工準座標系内での基準点RPの位置として特定してもよい。尚、照射装置からのビームが基準点RPに照射されるという第4条件が位置合わせ条件として用いられる場合も同様に、制御装置104aは、位置合わせ条件が満たされたときの加工ヘッド1021aの位置に基づいて、位置合わせ条件が満たされたときのビームの照射位置を、加工基準座標系内での基準点RPの位置として特定してもよい。
 或いは、制御装置104aは、加工基準座標系内での基準点RPの位置を特定することに代えて、位置合わせ条件が満たされた場合における加工基準座標系内での加工ヘッド1021aの位置を基準に、3次元構造物STを加工するように、加工装置102aを制御してもよい(ステップS24)。なぜならば、位置合わせ条件が満たされた場合における加工基準座標系内での加工ヘッド1021aの位置は、典型的には、加工基準座標系内での基準点RPの位置に対応するからである。このため、位置合わせ条件が満たされた場合における加工基準座標系内での加工ヘッド1021aの位置を基準に3次元構造物STを加工する動作は、実質的には、加工基準座標系内での基準点RPの位置を基準に3次元構造物STを加工する動作と等価であるとみなしてもよい。
 その後、制御装置104aは、基準点情報に基づいて、加工基準座標系内での基準点RPの位置を基準に、3次元構造物STを加工するように、加工装置102aを制御する(ステップS24)。具体的には、上述したように、基準点情報は、基準点RPを起点とする3次元構造物STの形成位置を示している。このため、制御装置104aは、加工基準座標系内での基準点RPの位置と、基準点情報とに基づいて、加工基準座標系内での基準点RPと3次元構造物STとの相対位置を特定することができる。つまり、制御装置104aは、加工基準座標系内での3次元構造物STの位置を特定することができる。
 例えば、図48(a)及び図48(b)は、それぞれ、ステージ1031aが支持しているワークW及び3次元構造物STの一例を示す斜視図及び平面図である。図48(a)及び図48(b)示すように、制御装置104aは、基準点情報に基づいて、角柱形状の3次元構造物STの各側面(例えば、+X側の側面、-X側の側面、+Y側の側面及び-Y側の側面)が、ワークWの角に設定された基準点RPからどの程度離れた位置に位置しているのかを特定することができる。図48(b)に示す例では、制御装置104aは、基準点情報に基づいて、3次元構造物STの+X側の側面が基準点RPから距離d11だけ離れた位置に位置しており、3次元構造物STの-X側の側面が基準点RPから距離d12だけ離れた位置に位置しており、3次元構造物STの+Y側の側面が基準点RPから距離d13だけ離れた位置に位置しており、3次元構造物STの-Y側の側面が基準点RPから距離d14だけ離れた位置に位置していると特定することができる。或いは、上述したようにプローブ10213a等を用いてワークWが計測された場合には、図48(c)に示すように、制御装置104aは、基準点情報とワークWの計測結果とに基づいて、角柱形状の3次元構造物STの各側面がワークWの各側面からどの程度離れた位置に位置しているのかを特定することができる。図48(b)に示す例では、制御装置104aは、基準点情報に基づいて、3次元構造物STの+X側の側面がワークWの+X側の側面から距離d21だけ離れた位置に位置しており、3次元構造物STの-X側の側面がワークWの-X側の側面から距離d22だけ離れた位置に位置しており、3次元構造物STの+Y側の側面がワークWの+Y側の側面から距離d23だけ離れた位置に位置しており、3次元構造物STの-Y側の側面がワークWの-Y側の側面から距離d24だけ離れた位置に位置していると特定することができる。
 例えば、図49(a)及び図49(b)は、それぞれ、ステージ1031aが支持しているワークWの3次元構造物STの他の一例を示す斜視図及び平面図である。図49(a)及び図49(b)示すように、基準点RPが3次元構造物STによって隠されている場合であっても、制御装置104aは、基準点情報に基づいて、角柱形状の3次元構造物STの各側面が、ワークWの中心付近に設定された基準点RPからどの程度離れた位置に位置しているのかを特定することができる。図49(b)に示す例では、制御装置104aは、基準点情報に基づいて、3次元構造物STの+X側の側面が基準点RPから距離d31だけ離れた位置に位置しており、3次元構造物STの-X側の側面が基準点RPから距離d32だけ離れた位置に位置しており、3次元構造物STの+Y側の側面が基準点RPから距離d33だけ離れた位置に位置しており、3次元構造物STの-Y側の側面が基準点RPから距離d34だけ離れた位置に位置していると特定することができる。
 その結果、制御装置104aは、加工基準座標系内において基準点RPを基準に加工ヘッド1021aをどの方向にどの程度移動させれば、3次元構造物STを適切に加工することができるかを特定することができる。制御装置104aは、加工基準座標系内において基準点RPを基準とする加工ヘッド1021aの移動軌跡(いわゆる、ツールパス)を特定することができる。従って、加工装置2は、3次元構造物STを適切に加工することができる。
 但し、制御装置104aは、加工基準座標系内での基準点RPの位置と基準点情報とを参照するだけでは、ワークW及び3次元構造物STのそれぞれの形状を高精度に特定することができない可能性がある。このため、第2実施形態では、ワークWの形状に関するワーク形状情報及び3次元構造物STの形状に関する造形形状情報が、基準点情報と関連付けられた状態で、造形ユニットUNTa1の出力装置93aから加工ユニットUNTa2の入力装置101aに入力されてもよい。この場合、制御装置104aは、加工基準座標系内において、ワーク形状情報に基づいて形状が相対的に高精度に特定可能なワークWに対して(特に、ワークW上の基準点RPに対して)、造形形状情報に基づいてその形状が相対的に高精度に特定可能な3次元構造物STがどこに位置しているかを、加工基準座標系内での基準点RPの位置と基準点情報とに基づいて特定することができる。この場合、ワーク形状情報及び造形形状データは、互いに関連付けられた状態で造形ユニットUNTa1から加工ユニットUNTa2に入力されてもよい。「互いに関連付けられた状態にあるワーク情報及び造形情報」とは、ワークモデルWM(ワークW)と造形モデルPM(3次元構造物ST)との位置関係を特定可能な状態にあるワーク情報及び造形情報を意味していてもよい。
 或いは、ワーク形状情報及び造形形状情報に加えて又は代えて、造形ユニットUNTa1が備える計測装置8の計測結果に関する計測情報が、基準点情報と関連付けられた状態で、造形ユニットUNTa1の出力装置93aから加工ユニットUNTa2の入力装置101aに入力されてもよい。具体的には、例えば、計測装置8を用いたワークWの計測結果に関する計測情報(特に、ワークWの形状に関する計測形状情報)が加工ユニットUNTa2に入力されてもよい。例えば、計測装置8を用いた3次元構造物STの計測結果に関する計測情報(特に、3次元構造物STの形状に関する計測形状情報)が加工ユニットUNTa2に入力されてもよい。この場合、制御装置104aは、加工基準座標系内において、計測形状情報に基づいて形状が相対的に高精度に特定可能なワークWに対して(特に、ワークW上の基準点RPに対して)、計測形状情報に基づいてその形状が相対的に高精度に特定可能な3次元構造物STがどこに位置しているかを、加工基準座標系内での基準点RPの位置と基準点情報とに基づいて特定することができる。この場合、計測情報は、ワークWの計測結果と3次元構造物STの計測結果とが互いに関連付けられた状態で造形ユニットUNTa1から加工ユニットUNTa2に入力されてもよい。尚、「ワークWの計測結果と3次元構造物STの計測結果とが互いに関連付けられた状態にある計測情報」とは、ワークWと3次元構造物STとの位置関係を特定可能な状態にある計測情報を意味していてもよい。尚、計測装置8は、造形ユニットUNTa1が3次元構造物STを形成する前に(つまり、造形動作を開始する前に)、ワークWを計測してもよい。計測装置8は、造形ユニットUNTa1が3次元構造物STを形成している期間中の所望のタイミングでワークW及び3次元構造物STの少なくとも一方を計測してもよい。計測装置8は、造形ユニットUNTa1が3次元構造物STを形成した後に(つまり、造形動作を完了した後に)、ワークW及び3次元構造物STを計測してもよい。
 (4-3)第2実施形態の加工システムSYSaの技術的効果
 第2実施形態の加工システムSYSaは、出力装置93aを更に備えているという点で上述した第1実施形態の加工システムSYSとは異なる造形ユニットUNTa1を備えている。従って、第2実施形態の加工システムSYSaは、上述した第1実施形態の加工システムSYSが享受可能な効果と同様の効果を享受することができる。
 また、第2実施形態の加工システムSYSaでは、加工ユニットUNTa2は、造形ユニットUNTa1が造形動作を行う際に基準にした基準点RPに関する基準点情報に基づいて、3次元構造物STを加工することができる。具体的には、加工ユニットUNTa2は、造形ユニットUNTa1が造形動作を行う際に基準にした基準点RPを基準に、3次元構造物STを加工することができる。その結果、基準点情報が用いられない場合(つまり、造形ユニットUNTa1が造形動作を行う際に基準にした基準点RPとは関係ない点を基準に3次元構造物STを加工する場合)と比較して、加工ヘッド1021aの位置出しが容易になる。
 具体的には、造形ユニットUNTa1と加工ユニットUNTa2とが別々の装置であるがゆえに、造形基準座標系と加工基準座標系とが一致するとは限らない。このため、造形基準座標系内における3次元構造物STの位置が既知の情報であったとしても、加工基準座標系内における3次元構造物STの位置も既知の情報になるとは限らない。このため、加工ユニットUNTa2が3次元構造物STを加工するためには、上述した加工ヘッド1021aの位置出し(より具体的には、加工対象物である3次元構造物STと加工ヘッド1021aとの位置合わせ)が必要になる。ここで、仮に基準点情報が用いられない場合には、加工ユニットUNTa2は、加工ヘッド1021aの位置出しを行うために、例えば、3次元構造物STの複数の特徴点と加工ヘッド1021aとの位置合わせを行う必要がある可能性がある。例えば、加工ユニットUNTa2は、3次元構造物STの+X側の端部と加工ヘッド1021aとの位置合わせを行い、3次元構造物STの-X側の端部と加工ヘッド1021aとの位置合わせを行い、その後、X軸方向における3次元構造物STの中心位置を特定する必要がある可能性がある。例えば、加工ユニットUNTa2は、3次元構造物STの+Y側の端部と加工ヘッド1021aとの位置合わせを行い、3次元構造物STの-Y側の端部と加工ヘッド1021aとの位置合わせを行い、その後、Y軸方向における3次元構造物STの中心位置を特定する必要がある可能性がある。例えば、加工ユニットUNTa2は、その他にも必要な動作を行う必要がある可能性がある。従って、3次元構造物STの加工コスト(例えば、時間的なコスト及び費用的なコストの少なくとも一方)が相対的に大きくなる可能性がある。
 しかるに、第2実施形態では、加工ユニットUNTa2は、加工ヘッド1021aの位置出しを行うために、ワークW(特に、ワークW上の基準点RP)と加工ヘッド1021aとの位置合わせを行えば十分である。加工ユニットUNTa2は、加工ヘッド1021aの位置出しを行うために、3次元構造物STと加工ヘッド1021aとの位置合わせを行わなくてもよくなる。なぜならば、造形ユニットUNTa1が基準点RPを基準に3次元構造物STを形成しているがゆえに、加工ユニットUNTa2は、基準点RPに関する基準点情報を参照すれば、ワークWの基準点RPに対して加工対象物たる3次元構造物STがどこに位置しているかを容易に特定することができるからである。従って、基準点情報を用いる第2実施形態では、基準点情報を用いない場合と比較して、3次元構造物STの加工コストが低減可能になる。
 また、3次元構造物STと一体化したワークW上に基準点RPが設定されているがゆえに、3次元構造物STが造形ユニットUNTa1から加工ユニットUNTa2に搬送されたとしても、基準点RPと3次元構造物STとの相対位置が変わることはない。つまり、造形ユニットUNTa1のステージ31にワークWが載置されているときの基準点RPと3次元構造物STとの相対位置と、加工ユニットUNTa2のステージ1031aにワークWが載置されているときの基準点RPと3次元構造物STとの相対位置とは同一である。このため、3次元構造物STが造形ユニットUNTa1から加工ユニットUNTa2に搬送されたとしても、加工ユニットUNTa2は、造形ユニットUNTa1が造形動作を行う際に基準にした基準点RPを基準に、3次元構造物STを適切に加工することができる。
 (4-4)第2実施形態で採用可能な変形例
 続いて、第2実施形態で採用可能な変形例について説明する。
 (4-4-1)第1変形例
 造形ユニットUNTa1の造形精度が相対的に悪い場合には、造形情報が示す理想的な位置からずれた(つまり、離れた)位置に3次元構造物STが形成される可能性がある。つまり、3次元構造物STの造形誤差(典型的には、設計値に対する位置ずれ又は形状ずれ)が発生する可能性がある。具体的には、図50は、図45に示す基準点RPが設定された場合において造形精度が相対的に悪い造形ユニットUNTa1によってワークW上に形成された3次元構造物STを示す平面図である。図50に示すように、造形ユニットUNTa1の造形精度が相対的に悪い場合には、本来はワークWの基準点RPからX軸方向に沿ってxx[mm]だけ離れており且つY軸方向に沿ってyy[mm]だけ離れた位置に3次元構造物STが形成されるべき状況であるにも関わらず、実際には、ワークWの基準点RPからX軸方向に沿ってxx[mm]とは異なるxx’[mm]だけ離れており且つY軸方向に沿ってyy[mm]とは異なるyy’[mm]だけ離れた位置に3次元構造物STが形成される可能性がある。或いは、説明の便宜上図示しないものの、本来はある方向(例えば、X軸方向、Y軸方向及びZ軸方向の少なくとも一つ)に沿ったサイズがs[mm]となる3次元構造物STが形成されるべき状況であるにも関わらず、実際には、その方向に沿ったサイズがs[mm]とは異なるs’[mm]となる3次元構造物STが形成される可能性がある。
 一方で、造形ユニットUNTa1から加工ユニットUNTa2に対して出力される基準点情報には、このような3次元構造物STの造形誤差に関する情報が含まれていない。このため、加工ユニットUNTa2は、3次元構造物STの造形誤差が発生しているか否かを判定することができない。このため、加工ユニットUNTa2は、3次元構造物STを適切に加工することができなくなる可能性がある。
 そこで、第1変形例では、造形ユニットUNTa1は、3次元構造物STの造形誤差に起因した影響を低減するための動作を行ってもよい。具体的には、造形ユニットUNTa1は、3次元構造物STを形成した後に、計測装置8を用いて、実際に形成した3次元構造物STを計測してもよい。計測装置8の計測結果が、造形情報が示す理想的な位置に3次元構造物STが計測されていることを示している場合には、3次元構造物STの造形誤差が発生していないと推定される。一方で、計測装置8の計測結果が、造形情報が示す理想的な位置からずれた位置に3次元構造物STが計測されていることを示している場合には、3次元構造物STの造形誤差が発生していると推定される。この場合には、加工ユニットUNTa2は、3次元構造物STの造形誤差に起因した影響を低減するように、3次元構造物STを加工してもよい。
 一例として、造形ユニットUNTa1の出力装置93aは、計測装置8の計測結果を、加工ユニットUNTa2に対して出力してもよい。加工ユニットUNTa2は、計測装置8の計測結果に基づいて、3次元構造物STの造形誤差に起因した影響を低減するように、3次元構造物STを加工してもよい。例えば、加工ユニットUNTa2の制御装置104aは、計測装置8の計測結果に基づいて、造形誤差が反映されていない基準点情報を修正して、造形誤差が反映された基準点情報を生成してもよい。造形誤差が反映された基準点情報は、基準点RPと実際の3次元構造物ST(例えば、造形情報が示す理想的な位置からずれた位置に形成された3次元構造物ST)との相対位置を示していてもよい。その後、制御装置104aは、造形誤差が反映された基準点情報に基づいて、3次元構造物STを加工するように加工装置102aを制御してもよい。或いは、例えば、制御装置104aは、計測装置8の計測結果と、造形誤差が反映されていない基準点情報とに基づいて、造形誤差の影響が低減されるよう(例えば、造形誤差に起因した加工精度の悪化を抑制するように)、加工装置102aを制御してもよい。具体的には、例えば、制御装置104aは、計測装置8の計測結果と、造形誤差が反映されていない基準点情報とに基づいて、基準座標系内での実際の3次元構造物STの位置を特定し、実際の位置(つまり、造形誤差が反映された位置)を特定した3次元構造物STを加工するように加工装置102aを制御してもよい。
 他の一例として、造形ユニットUNTa1の制御装置7は、計測装置8の計測結果に基づいて、造形誤差が反映されていない基準点情報を修正して、造形誤差が反映された基準点情報を生成してもよい。その後、造形ユニットUNTa1の出力装置93aは、造形誤差が反映された基準点情報を加工ユニットUNTa2に対して出力してもよい。この場合、加工ユニットUNTa2は、造形ユニットUNTa1から出力された基準点情報に基づいて、3次元構造物STを加工してもよい。
 (4-4-2)第2変形例
 上述した説明では、基準点情報が造形ユニットUNTa1から加工ユニットUNTa2に対して出力されている。しかしながら、造形ユニットUNTa1及び/又は加工ユニットUNTa2のユーザが、手動で基準点情報を加工ユニットUNTa2に入力してもよい。つまり、造形ユニットUNTa1及び/又は加工ユニットUNTa2のユーザは、キーボード等の入力装置101aを用いて、基準点情報を加工ユニットUNTa2に入力してもよい。つまり、加工ユニットUNTa2による基準点情報の取得経路として、造形ユニットUNTa1から基準点情報を取得する経路に加えて又は代えて、ユーザから基準点情報を取得する経路が存在していてもよい。この場合、造形ユニットUNTa1の出力装置93aは、加工ユニットUNTa2に対して基準点情報を出力しなくてもよい。造形ユニットUNTa1は、出力装置93aを備えていなくてもよい。
 (4-4-3)第3変形例
 上述した説明では、造形ユニットUNTa1及び/又はユーザから加工ユニットUNTa2に対して基準点情報が入力されている。しかしながら、基準点情報に加えて又は代えて、基準点情報とは異なる情報が入力装置101aを介して加工ユニットUNTa2に入力されてもよく、加工ユニットUNTa2は、入力された情報に基づいて3次元構造物STを加工してもよい。つまり、加工ユニットUNTa2の制御装置104aは、基準点情報とは異なる情報に基づいて、3次元構造物STを加工するように加工装置102aを制御してもよい。
 例えば、制御装置104aは、基準点情報とは異なる情報に基づいて基準点情報を生成し、生成した基準点情報に基づいて、3次元構造物STを加工するように加工装置102aを制御してもよい。例えば、制御装置104aは、基準点情報とは異なる情報に基づいて、基準点情報を生成することなく、3次元構造物STを加工するように加工装置102aを制御してもよい。この場合、制御装置104aは、基準点情報とは異なる情報に基づいて加工基準座標系における3次元構造物STの位置(更には、必要に応じて形状等の他の特性)を特定し、特定した位置に関する情報に基づいて、3次元構造物STを加工するように加工装置102aを制御してもよい。
 基準点情報とは異なる情報の一例として、ワーク情報及び造形情報があげられる。つまり、ワーク情報及び造形情報が、造形ユニットUNTa1の出力装置93aから加工ユニットUNTa2の入力装置101aに入力されてもよい。この際、ワーク情報及び造形情報は、互いに関連付けられた状態で造形ユニットUNTa1から加工ユニットUNTa2に入力されてもよい。例えば、ワーク情報及び造形情報は、ワーク情報に含まれるワーク形状情報(つまり、ワークモデルWMの3次元形状に関する情報であり、実質的には、ワークWの3次元形状に関する情報)と造形情報に含まれる造形形状情報(つまり、造形モデルPMの3次元形状に関する情報であり、実質的には、3次元構造物STの3次元形状に関する情報)とが関連付けられた状態で造形ユニットUNTa1から加工ユニットUNTa2に入力されてもよい。例えば、ワーク情報及び造形情報は、ワーク情報に含まれるワーク位置情報(つまり、ワークモデルWMの位置に関する情報であり、実質的には、ワークWの位置に関する情報)と造形情報に含まれる造形位置情報(つまり、造形モデルPMの位置に関する情報であり、実質的には、3次元構造物STの位置に関する情報)とが関連付けられた状態で造形ユニットUNTa1から加工ユニットUNTa2に入力されてもよい。尚、「互いに関連付けられた状態にあるワーク情報及び造形情報」とは、ワークモデルWM(ワークW)と造形モデルPM(3次元構造物ST)との位置関係を特定可能な状態にあるワーク情報及び造形情報を意味していてもよい。
 基準点情報とは異なる情報の他の一例として、造形ユニットUNTa1が備える計測装置8の計測結果に関する計測情報があげられる。つまり、計測情報が、造形ユニットUNTa1の出力装置93aから加工ユニットUNTa2の入力装置101aに入力されてもよい。例えば、造形ユニットUNTa1は、3次元構造物STを形成する前に計測装置8を用いてワークWを計測してもよく、3次元構造物STを形成する前の計測装置8の計測結果に関する計測情報が入力装置101aを介して加工ユニットUNTa2に入力されてもよい。例えば、造形ユニットUNTa1は、3次元構造物STを形成している期間中の所望のタイミングで計測装置8を用いてワークW及び3次元構造物STの少なくとも一方を計測してもよく、3次元構造物STを形成している期間中の所望のタイミングでの計測装置8の計測結果に関する計測情報が入力装置101aを介して加工ユニットUNTa2に入力されてもよい。例えば、造形ユニットUNTa1は、3次元構造物STを形成した後に計測装置8を用いてワークW及び3次元構造物STを計測してもよく、3次元構造物STを形成した後の計測装置8の計測結果に関する計測情報が入力装置101aを介して加工ユニットUNTa2に入力されてもよい。この際、計測情報は、計測情報に含まれるワークWの計測結果と計測情報に含まれる3次元構造物STの計測結果とが関連付けられた状態で造形ユニットUNTa1から加工ユニットUNTa2に入力されてもよい。尚、「ワークWの計測結果と3次元構造物STの計測結果とが関連付けられた状態にある計測情報」とは、ワークモデルWM(ワークW)と造形モデルPM(3次元構造物ST)との位置関係を特定可能な状態にある計測情報を意味していてもよい。
 或いは、加工ユニットUNTa2は、3次元構造物STを計測するための計測装置を備えていてもよく、加工ユニットUNTa2が備える計測装置の計測結果(つまり、3次元構造物STの計測結果)に基づいて基準点情報を生成してもよい。加工ユニットUNTa2は、加工ユニットUNTa2が備える計測装置の計測結果(つまり、3次元構造物STの計測結果)に基づいて、3次元構造物STを加工してもよい。尚、加工ユニットUNTa2が備える計測装置は、造形ユニットUNTa1が備える計測装置8と同様の構造を有していてもよい。
 (4-4-4)第4変形例
 上述した説明では、造形ユニットUNTa1及び加工ユニットUNTa2が、それぞれ、制御装置7及び制御装置104aを備えている。つまり、加工システムSYSaは、造形ユニットUNTa1及び加工ユニットUNTa2をそれぞれ制御する制御装置7及び制御装置104aを備えている。しかしながら、加工システムSYSaは、制御装置7及び制御装置104aに加えて又は代えて、造形ユニットUNTa1及び加工ユニットUNTa2を制御する共通の制御装置7aを備えていてもよい。つまり、加工システムSYSaは、制御装置7を備えていなくてもよい造形ユニットUNTa1と、制御装置104aを備えていなくてもよい加工ユニットUNTa2と、搬送装置10aと、制御装置7aとを備えていてもよい。尚、図51は、造形ユニットUNTa1及び加工ユニットUNTa2を制御する共通の制御装置7aを備える加工システムSYSaのシステム構成を示すシステム構成図である。図51は、造形ユニットUNTa1が制御装置7を備えていない例を示しているが、造形ユニットUNTa1が制御装置7を備えていてもよい。図51は、加工ユニットUNTa2が制御装置104aを備えていない例を示しているが、加工ユニットUNTa2が制御装置104aを備えていてもよい。以降、制御装置7aを備える加工システムSYSaを、“加工システムSYSa1”と称する。
 この場合、制御装置7aは、制御装置7が行う動作及び制御装置104aが行う動作の少なくとも一部を行ってもよい。また、加工システムSYSa1が制御装置7aを備える場合には、基準点情報は、必ずしも造形ユニットUNTa1の出力装置93aから加工ユニットUNTa2の入力装置101aに入力されなくてもよい。例えば、制御装置7aは、造形動作において基準点RPを設定し、加工動作において、設定した基準点RPに関する基準点情報に基づいて加工装置102aを制御してもよい。例えば、制御装置7aは、ワーク情報及び造形情報に基づいて3次元構造物STを形成するように造形装置2を制御し、ワーク情報及び造形情報に基づいて基準点情報を生成し、基準点情報に基づいて3次元構造物STを加工するように加工装置102aを制御してもよい。例えば、制御装置7aは、造形動作において造形ユニットUNTa1の制御装置7が生成した基準点RPに関する基準点情報を取得し、取得した基準点情報を加工ユニットUNTa2の入力装置101aに入力してもよい。例えば、制御装置7aは、造形動作において造形ユニットUNTa1の制御装置7が用いたワーク情報及び造形情報を取得し、取得したワーク情報及び造形情報を加工ユニットUNTa2の入力装置101aに入力してもよい。例えば、制御装置7aは、造形動作において造形ユニットUNTa1の制御装置7が生成した基準点RPに関する基準点情報を取得し、取得した基準点情報に基づいて3次元構造物STを加工するように加工装置102aを制御してもよい。例えば、制御装置7aは、造形動作において造形ユニットUNTa1の制御装置7が用いたワーク情報及び造形情報を取得し、取得したワーク情報及び造形情報に基づいて基準点情報を生成し、生成した基準点情報に基づいて3次元構造物STを加工するように加工装置102aを制御してもよい。尚、加工システムSYSa1は搬送装置10aを備えていなくてもよい。また、制御装置7は、加工システムSYSa1の外部に設けられていてもよい。
 (4-4-5)第5変形例
 上述した説明では、造形ユニットUNTa1のステージ31は、ワークW単体を支持している。しかしながら、ステージ31は、ワークWとは異なる物体を介してワークWを支持してもよい。この場合、造形ユニットUNTa1の計測装置8は、ワークWとは異なる物体と共にワークWを計測してもよい。
 例えば、図52は、ワークWとは異なる物体を介してワークWを支持するステージ31の一例を示す斜視図である。図52に示すように、ステージ31は、例えば、ワークWを固定するための固定治具(例えば、バイス)36aを介してワークWを支持してもよい。つまり、ステージ31は、固定治具36aを支持し、ステージ31に支持されている固定治具36aにワークWが固定されていてもよい。尚、固定治具36aは、例えば、加工ユニットUNTa2による3次元構造物STの加工中にステージ1031aに対して3次元構造物STが位置ずれしないようにワークWを固定するための装置であってもよい。この場合、座標マッチング動作及びワークモデルアライメント動作において、計測装置8は、固定治具36aに固定されたワークWを計測してもよい。つまり、計測装置8は、固定治具36aと共にワークWを計測してもよい。また、固定治具36aがワークWを固定している限りは固定治具36aと3次元構造物STとの相対位置が変わることは殆どないがゆえに、制御装置104aは、固定治具36a上に基準点RPを設定してもよい。また、造形動作において、加工装置2は、固定治具36aに固定されたワークW上に3次元構造物STを形成してもよい。尚、図53は、固定治具36aに固定されたワークW上に形成された3次元構造物STを示す斜視図である。
 更に、ワークWが固定治具36aに固定されている場合には、搬送装置10aは、固定治具36aに固定されたワークWを搬送してもよい。搬送装置10aは、固定治具36aと共に固定治具36aに固定されたワークWを搬送してもよい。つまり、ワークWとは異なる物体を介してステージ31がワークWを支持している場合には、搬送装置10aは、ワークWとは異なる物体と共にワークWを搬送してもよい。
 更に、加工ユニットUNTa2のステージ1031aもまた、ワークWを固定するための固定治具36aを介してワークWを支持してもよい。つまり、ステージ1031aは、固定治具36aを支持し、ステージ1031aに支持されている固定治具36aにワークWが固定されていてもよい。尚、図54は、固定治具36aに固定されたワークWを支持するステージ1031aを示す斜視図である。つまり、ワークWとは異なる物体を介してステージ31がワークWを支持している場合には、ステージ1031aは、ワークWとは異なる物体を介してワークWを支持してもよい。
 固定治具36aは、ステージ1031aに固定されてもよい。その結果、加工ユニットUNTa2による3次元構造物STの加工中におけるステージ1031aに対する3次元構造物STの位置ずれが抑制される。例えば、図54に示すように、固定治具36aに形成されたネジ穴361a及びステージ1031aに形成された溝(例えば、T溝)を介して、固定治具36aがステージ1031aにネジ留めされてもよい。
 尚、ステージ31は、複数の固定治具36aにそれぞれ固定された複数のワークWを支持してもよい。つまり、ステージ31は、複数の固定治具36aをそれぞれ介して複数のワークWを支持してもよい。この場合、上述したワークモデルアライメント動作は、複数のワークWのそれぞれを対象に行われる。例えば、ステージ31がN(但し、Nは2以上の整数)個のワークWを支持している場合には、第1のワークWに対してワークモデルアライメント動作が行われることで、第1のワークWに関するワーク情報が生成され、第2のワークWに対してワークモデルアライメント動作が行われることで、第2のワークWに関するワーク情報が生成され、・・・、第NのワークWに対してワークモデルアライメント動作が行われることで、第NのワークWに関するワーク情報が生成される。但し、計測装置8の計測範囲に2つ以上のワークWが含まれる場合には、ワークモデルアライメント動作のための計測装置8による計測は、2つ以上のワークWを対象にまとめて行われてもよい。また、3次元構造物STが形成された後に計測装置8が3次元構造物STを形成する場合には、計測装置8は、複数のワークWにそれぞれ形成された複数の3次元構造物STを複数のワークWと共にまとめて又は順に計測してもよい。
 尚、ステージ31は、固定治具36aを介することなく複数のワークWを支持してもよい。この場合においても同様に、上述したワークモデルアライメント動作は、複数のワークWのそれぞれを対象に行われてもよい。
 (5)変形例
 続いて、第1及び第2実施形態のそれぞれで採用可能な変形例について説明する。
 (5-1)ステージ駆動系32に関する変形例
 第1実施形態の加工システムSYSのシステム構成の他の例(つまり、第2実施形態の造形ユニットUNTa1のシステム構成の他の例)を示す図55に示すように、ステージ装置3は、ステージ31を移動させるためステージ駆動系32を備えていてもよい。ステージ駆動系32は、例えば、チャンバ空間63IN内でステージ31を移動させてもよい。ステージ駆動系32は、X軸、Y軸及びZ軸の少なくとも一つに沿ってステージ31を移動させてもよい。ステージ31がX軸及びY軸の少なくとも一方に沿って移動すると、照射領域EA及び供給領域MAのそれぞれは、ワークW上をX軸及びY軸の少なくとも一方に沿って移動する。更に、ステージ駆動系32は、X軸、Y軸及びZ軸の少なくとも一つに加えて、θX方向、θY方向及びθZ方向の少なくとも一つに沿ってステージ31を移動させてもよい。ステージ駆動系32は、例えば、モータ等を含む。
 加工システムSYSがステージ駆動系32を備える場合には、ステージ装置3は更に、位置計測装置33を備えていてもよい。位置計測装置33は、ステージ31の位置を計測可能である。位置計測装置33は、例えば、エンコーダ及びレーザ干渉計のうちの少なくとも一方を含んでいてもよい。
 加工システムSYSがステージ駆動系32を備える場合には、造形装置2は、ヘッド駆動系22を備えてなくてもよい。但し、加工システムSYSがステージ駆動系32を備える場合であっても、造形装置2は、ヘッド駆動系22を備えていてもよい。造形装置2がヘッド駆動系22を備えていない場合には、造形装置2は、位置計測装置23を備えていなくてもよい。
 加工システムSYSがステージ駆動系32を備えている場合には、上述した造形座標系とステージ座標系とを関連付けるための座標マッチング動作の流れを示す上述した図4のステップS112において、ステージ駆動系32は、ビーム検出器325に向けて加工光ELが照射されるようにステージ31を移動させてもよい。更に、図4のステップS113において、制御装置7は、制御装置7にとって既知の情報であるステージ座標系内でのピン312の位置を、ステージ31の移動量に応じて補正した上で、ピン312に加工光ELを照射可能な状態にある造形ヘッド21の造形座標系内での位置と、ステージ座標系内でのピン312が形成されている位置とが互いに関連付けられるべき位置であると特定してもよい。但し、加工システムSYSがヘッド駆動系22を備えていない(つまり、造形ヘッド21が移動しない)場合には、造形座標系が用いられなくてもよく、この場合には、造形座標系とステージ座標系とを関連付けるための座標マッチング動作の流れを示す上述した図4のステップS111からステップS113の処理が行われなくてもよい。
 加工システムSYSがステージ駆動系32を備えている場合には、上述した計測座標系とステージ座標系とを関連付けるための座標マッチング動作の流れを示す上述した図4のステップS115において、位置計測装置33は、計測装置8が基準部材34を計測しているときのステージ31の位置を計測してもよい。更に、図4のステップS116において、制御装置7は、ステップS115における計測装置8の計測結果と、ステップS115で計測装置8が基準部材34を計測しているときのステージ31の位置の計測結果とに基づいて、計測座標系とステージ座標系とを関連付けてもよい。具体的には、制御装置7は、計測装置8の計測結果から、計測座標系における基準マーク343の位置を特定することができる。更に、上述したように、基準マーク343と貫通孔322との間の位置関係(つまり、基準マーク343とピン312との間の位置関係)に関する情報は、制御装置7にとって既知の情報である。このため、制御装置7は、計測座標系における基準マーク343の位置に関する情報と、基準マーク343と貫通孔322との間の位置関係に関する情報とに基づいて、計測座標系内における貫通孔322及びピン312の位置を特定可能である。更に、上述したように、ステージ座標系内でのピン312の位置に関する情報は、制御装置7にとって既知の情報である。その結果、制御装置7は、計測座標系内におけるピン312の位置と、ステージ座標系内でのピン312の位置とが互いに関連付けられるべき位置であると特定することができる。但し、ステージ31がステージ駆動系32によって移動した場合には、ステージ座標系内でのピン312の位置は、ステージ駆動系32によるステージ31の移動量だけ補正される。この場合、制御装置7は、計測座標系内におけるピン312の位置と、ステージ座標系内でのピン312の補正後の位置とが互いに関連付けられるべき位置であると特定することができる。その結果、制御装置7は、計測座標系内でのある特定の位置とステージ座標系内でのある特定の位置とが互いに関連付けられるべき位置であるという特定結果に基づいて、計測座標系とステージ座標系とを関連付けることができる。
 加工システムSYSがステージ駆動系32を備えている場合には、上述した第3のワークモデルアライメント動作の流れを示す上述した図17のステップS144において、ステージ駆動系32は、図17のステップS143で指定されたユーザ指定点と造形装置2とが所望の第3位置関係を有するという位置条件が満たされるように、ステージ31を移動させてもよい。更に、図17のステップS145において、ユーザ指定点と造形装置2とが所望の第3位置関係を有するという位置条件が満たされるようにステージ31が移動した後、位置計測装置33は、位置条件が満たされた時点でのステージ31の位置を計測してもよい。更に、図17のステップS148において、制御装置7は、図17のステップS145における位置計測装置23及び/又は33の計測結果と、ステップS142で取得されたワークモデルデータとに基づいて、ワーク情報を生成してもよい。具体的には、ステップS145における位置計測装置23及び/又は33の計測結果は、ユーザ指定点と造形装置2とが所望の第3位置関係を有するときの造形ヘッド21及び/又はステージ31の位置を示している。このため、制御装置7は、位置計測装置23及び/又は33の計測結果から、造形座標系におけるユーザ指定点の位置及び/又はステージ座標系におけるユーザ指定点の位置を特定することができる。なぜならば、ユーザ指定点と造形装置2とが所望の第3位置関係を有しているがゆえに、ユーザ指定点と造形ヘッド21及び/又はワークWが載置されているステージ31も当然に、制御装置7にとって既知の情報である第3位置関係に関する情報から特定可能な一定の位置関係を有しているからである。その後、制御装置7は、ワークモデルWMのうちのユーザ指定点に対応する点であるワークモデル指定点を、位置計測装置23及び/又は33の計測結果から特定したユーザ指定点の位置に配置するための位置合わせ処理を行ってもよい。その後、制御装置7は、位置合わせ処理の結果に基づいて、ワーク情報を生成してもよい。
 (5-2)座標マッチング動作に関する変形例
 上述した説明では、座標マッチング動作を行うために、ビーム検出部材32が載置面311に載置される。しかしながら、ビーム検出部材32(特に、遮光部材323及びビーム検出器325)がステージ31(例えば、載置面311)に形成されていてもよい。同様に、上述した説明では、座標マッチング動作を行うために、基準部材34が載置面311に載置される。しかしながら、基準部材34(特に、基準マーク343)がステージ31(例えば、載置面311)に形成されていてもよい。
 上述した説明では、ビーム検出部材32を載置面311に載置する際の位置合わせ用の目印として、ピン312及び貫通孔322が用いられている。しかしながら、ピン312及び貫通孔322は位置合わせ用の目印の一例に過ぎず、ピン312及び貫通孔322とは異なる目印が用いられてもよい。例えば、目印の一例である凸状の構造物が載置面311に形成されており、目印の一例である凹状の構造物がビーム検出部材32に形成されており、凸状の構造物が凹状の構造物にはめ込まれるようにビーム検出部材32が載置面311に載置されることで、ビーム検出部材32と載置面311とが位置合わせされてもよい。例えば、目印の一例である凹状の構造物が載置面311に形成されており、目印の一例である凸状の構造物がビーム検出部材32に形成されており、凸状の構造物が凹状の構造物にはめ込まれるようにビーム検出部材32が載置面311に載置されることで、ビーム検出部材32と載置面311とが位置合わせされてもよい。例えば、ビーム検出部材32の外縁の少なくとも一部に沿った形状を有するガイド部材が目印として載置面311に形成されており、当該ガイド部材にビーム検出部材32の外縁が接触するようにビーム検出部材32が載置面311に載置されることで、ビーム検出部材32と載置面311とが位置合わせされてもよい。基準部材34を載置面311に載置する際の位置合わせ用の目印についても同様である。
 上述した説明では、計測座標系とステージ座標系とを関連付けるために、造形座標系とステージ座標系とを関連付けるためのビーム検出部材32とは異なる基準部材34が用いられている。しかしながら、ビーム検出部材32が、計測座標系とステージ座標系とを関連付けるための基準部材34として用いられてもよい。この場合、例えば、ビーム検出部材32に形成された遮光部材323、開口324及びビーム検出器325の少なくとも一つが基準マーク343として用いられてもよい。或いは、ビーム検出部材32のベース部材321に、基準マーク343が形成されていてもよい。
 上述した説明では、基準部材34には、計測装置8によって計測可能なマークが、基準マーク343として形成されている。しかしながら、計測装置8が計測対象物の形状(特に、3次元形状)を計測可能であることを考慮すれば、基準部材34には、基準部材34の他の例を示す断面図である図52(a)及び図52(a)におけるA-A’断面図である図52(b)に示すように、3次元構造を有する立体部材344が、基準マーク343の代替物として形成されていてもよい。例えば、図52(a)及び図52(b)は、球体の少なくとも一部(具体的には、半球)が立体部材344として基準部材34に形成されている例を示している。立体部材344は、3次元構造を有するという点を除いて、基準マーク343と同様の特徴を有していてもよい。その結果、立体部材344が形成されている場合であっても、計測座標系とステージ座標系とが適切に関連付けられる。
 上述した説明では、座標マッチング動作を行うために、ビーム検出部材32が載置面311に載置される。また、上述した説明では、座標マッチング動作を行うために、基準部材34が載置面311に載置される。しかしながら、ビーム検出部材32又は基準部材34を用いずに、座標マッチング動作を行ってもよい。例えば、ステージ31(例えば、載置面311)に、感光性材料或いは感熱性材料が表面に設けられた感光/感熱部材(一例として感熱紙)を配置し、加工座標系(ヘッド座標系)の原点位置に加工ヘッド21を位置させた状態で加工装置2によって感光/感熱部材に向けて加工光ELを照射する。これにより、感光/感熱部材上には目印が露光され、この目印が加工光基準原点となる。次に、複数のガイド光射出装置24から射出される複数のガイド光GLの交差位置を、感光/感熱部材上の露光された目印の位置に一致させる。これにより、加工座標系と計測座標系とを互いに関連付けることができる。尚、複数のガイド光GLを用いることの代わりに/に加えて、計測装置8を用いて露光された目印の位置を計測してもよい。
 (5-3)その他の変形例
 上述した説明では、造形装置2は、造形材料Mに加工光ELを照射することで、造形材料Mを溶融させている。しかしながら、造形装置2は、任意のエネルギビームを造形材料Mに照射することで、造形材料Mを溶融させてもよい。この場合、造形装置2は、照射光学系211に加えて又は代えて、任意のエネルギビームを照射可能なビーム照射装置を備えていてもよい。任意のエネルギビームは、限定されないが、電子ビーム、イオンビーム等の荷電粒子ビーム又は電磁波を含む。
 上述した説明では、加工システムSYSは、レーザ肉盛溶接法により3次元構造物STを形成可能である。しかしながら、加工システムSYSは、造形材料Mに加工光EL(或いは、任意のエネルギビーム)を照射することで3次元構造物STを形成可能なその他の方式により造形材料Mから3次元構造物STを形成してもよい。その他の方式として、例えば、粉末焼結積層造形法(SLS:Selective Laser Sintering)等の粉末床溶融結合法(Powder Bed Fusion)、結合材噴射法(Binder Jetting)又は、レーザメタルフュージョン法(LMF:Laser Metal Fusion)があげられる。或いは、加工システムSYSは、造形材料Mに加工光EL(或いは、任意のエネルギビーム)を照射することで3次元構造物STを形成可能な方式とは異なる、付加加工のための任意の方式により3次元構造物STを形成してもよい。
 上述した説明では、加工システムSYSは、照射光学系211が加工光ELを照射する照射領域EAに向けて材料ノズル212から造形材料Mを供給することで、3次元構造物STを形成している。しかしながら、加工システムSYSは、照射光学系211から加工光ELを照射することなく、材料ノズル212から造形材料Mを供給することで3次元構造物STを形成してもよい。例えば、加工システムSYSは、材料ノズル212から、造形面MSに対して造形材料Mを吹き付けることで、造形面MSにおいて造形材料Mを溶融させると共に、溶融した造形材料Mを固化させることで、3次元構造物STを形成してもよい。例えば、加工システムSYSは、材料ノズル212から造形面MSに対して造形材料Mを含む気体を超高速で吹き付けることで、造形面MSにおいて造形材料Mを溶融させると共に、溶融した造形材料Mを固化させることで、3次元構造物STを形成してもよい。例えば、加工システムSYSは、材料ノズル212から造形面MSに対して加熱した造形材料Mを吹き付けることで、造形面MSにおいて造形材料Mを溶融させると共に、溶融した造形材料Mを固化させることで、3次元構造物STを形成してもよい。このように照射光学系211から加工光ELを照射することなく3次元構造物STを形成する場合には、加工システムSYS(特に、造形ヘッド21)は、照射光学系211を備えていなくてもよい。
 或いは、加工システムSYSは、付加加工に加えて又は代えて、ワークW等の物体に加工光EL(或いは、任意のエネルギビーム)を照射して物体の少なくとも一部を除去可能な除去加工を行ってもよい。或いは、加工システムSYSは、付加加工及び除去加工の少なくとも一方に加えて又は代えて、ワークW等の物体に加工光EL(或いは、任意のエネルギビーム)を照射して物体の少なくとも一部にマーク(例えば、文字、数字又は図形)を形成可能なマーキング加工を行ってもよい。この場合であっても、上述した効果が享受可能である。
 (6)付記
 以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、
 前記設定位置に関する位置情報を出力する出力装置と
 を備える造形ユニット。
[付記2]
 前記出力装置は、前記位置情報を、前記造形物に対して加工動作を行う加工ユニットに出力する
 付記1に記載の造形ユニット。
[付記3]
 前記加工ユニットは、前記出力装置から出力された前記位置情報に基づいて、前記加工動作を行う
 付記2に記載の造形ユニット。
[付記4]
 前記加工ユニットは、前記出力装置から出力された前記位置情報に基づいて、前記造形物と前記加工ユニットとの位置合わせを行い、前記位置合わせの結果に基づいて前記加工動作を行う
 付記2又は3に記載の造形ユニット。
[付記5]
 前記造形装置は、前記ベース部材に対する相対位置が固定された前記造形物を造形する
 付記1から4のいずれか一項に記載の造形ユニット。
[付記6]
 前記造形装置は、前記ベース部材と結合した前記造形物を造形する
 付記1から5のいずれか一項に記載の造形ユニット。
[付記7]
 前記位置情報は、前記設定位置と前記ベース部材との相対位置に関する情報を含む
 付記1から6のいずれか一項に記載の造形ユニット。
[付記8]
 前記位置情報は、前記設定位置と前記造形物との相対位置に関する情報を含む
 付記1から7のいずれか一項に記載の造形ユニット。
[付記9]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、
 前記設定位置と前記造形物との相対位置に関する位置情報を出力する出力装置と
 を備える造形ユニット。
[付記10]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、
 前記設定位置と前記造形物の位置との関係に関する位置情報を出力する出力装置と
 を備える造形ユニット。
[付記11]
 前記造形装置は、造形データに基づいて、前記ベース部材上に前記造形物を造形し、
 前記出力装置は、前記位置情報として、前記設定位置と関連付けられた前記造形データを出力する
 付記8から10のいずれか一項に記載の造形ユニット。
[付記12]
 前記造形データは、前記造形物を造形するための造形動作の内容を定めるデータを含む
 付記11に記載の造形ユニット。
[付記13]
 前記造形データは、前記造形物の3次元形状データを含む
 付記11又は12に記載の造形ユニット。
[付記14]
 造形された造形物を計測して計測結果を得る計測装置をさらに備え、
 前記出力装置は、前記位置情報として、前記設定位置と関連付けられた前記計測結果を出力する、付記8から13のいずれか一項に記載の造形ユニット。
[付記15]
 前記計測装置は、前記造形ユニットの基準座標系における前記ベース部材の位置を計測し、
 前記出力装置は、前記基準座標系における前記設定位置に関する前記位置情報を出力する
 付記14に記載の造形ユニット。
[付記16]
 前記ベース部材を支持する支持装置をさらに備え、
 前記基準座標系は、前記支持装置の支持面上での位置を示すための支持位置座標系を含む
 付記15に記載の造形ユニット。
[付記17]
 前記計測装置は、前記造形ユニットの基準座標系における前記ベース部材の部位の位置を計測し、
 前記出力装置は、前記設定位置と関連付けられた前記ベース部材の前記部位の位置を出力する。
 付記14から16のいずれか一項に記載の造形ユニット。
[付記18]
 前記出力装置は、前記設定位置に関する情報を出力する
 付記9から17に記載の造形ユニット。
[付記19]
 前記計測装置は、前記造形物を非接触計測する
 付記14から18のいずれか一項に記載の造形ユニット。
[付記20]
 前記設定位置を設定する制御装置を更に備える
 付記1から19のいずれか一項に記載の造形ユニット。
[付記21]
 前記制御装置は、前記ベース部材上に前記設定位置を設定する
 付記19に記載の造形ユニット。
[付記22]
 ベース部材上に設定位置を設定する制御装置と、
 前記設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と
 を備える造形ユニット。
[付記23]
 前記設定位置を設定するための情報が入力される入力装置を備え、
 前記制御装置は、前記入力装置に入力された情報に基づいて、前記設定位置を設定する
 付記20から22のいずれか一項に記載の造形ユニット。
[付記24]
 前記制御装置は、前記ベース部材に関する情報に基づいて、前記設定位置を設定する
 付記20から23のいずれか一項に記載の造形ユニット。
[付記25]
 ベース部材に造形物を造形する造形装置と、
 前記ベース部材及び前記造形物のうち少なくとも一方の上に設定位置を設定し、前記設定位置に基づいて前記造形装置を制御する制御装置と、
 前記設定位置に関する第1位置情報と、前記設定位置と前記造形物の位置との位置関係に関する第2位置情報とを出力する出力装置と
 を備える造形ユニット。
[付記26]
 ベース部材に造形物を造形する造形装置と、
 前記ベース部材及び前記造形物のうち少なくとも一方の上に設定された設定位置と前記造形物の位置との関係に関する位置情報を出力する出力装置と
 を備える造形ユニット。
[付記27]
 ベース部材に造形物を造形する造形装置と、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを出力する出力装置と
 を備える造形ユニット。
[付記28]
 前記出力装置は、前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを関連付けて出力する
 付記27に記載の造形ユニット。
[付記29]
 前記出力装置は、前記ベース部材上に設定された設定位置に関する位置情報を出力する
 付記27又は28に記載の造形ユニット。
[付記30]
 前記出力装置は、前記設定位置と、前記ベース部材の前記3次元形状データとを関連付けて出力する
 付記29に記載の造形ユニット。
[付記31]
 前記出力装置は、前記設定位置と、前記造形物の前記3次元形状データとを関連付けて出力する
 付記29又は30に記載の造形ユニット。
[付記32]
 ベース部材に造形物を造形する造形装置と、
 前記ベース部材及び前記造形物の三次元情報を取得する計測装置と、
 前記計測装置による計測結果を出力する出力装置と
 を備える造形ユニット。
[付記33]
 前記計測装置は、前記造形物が造形される前及び前記造形物が造形されている間の少なくとも一方の期間において前記ベース部材を計測して第1計測結果を取得し、前記造形物が造形されている間及び前記造形物が造形された後の少なくとも一方の期間において前記造形物を計測して第2計測結果を取得する
 付記32に記載の造形ユニット。
[付記34]
 前記出力装置は、前記第1計測結果と前記第2計測結果とを関連付けて出力する
 付記33に記載の造形ユニット。
[付記35]
 ベース部材に造形物を造形する造形装置と、
 前記ベース部材及び前記造形物を計測する計測装置と、
 前記計測装置による計測結果を出力する出力装置と
 を備え、
 前記計測装置は、前記造形物が造形される前及び前記造形物が造形されている間の少なくとも一方の期間において前記ベース部材を計測して第1計測結果を取得し、前記造形物が造形されている間及び前記造形物が造形された後の少なくとも一方の期間において前記造形物を計測して第2計測結果を取得する
 造形ユニット。
[付記36]
 前記出力装置は、前記第1計測結果と前記第2計測結果とを関連付けて出力する
 付記35に記載の造形ユニット。
[付記37]
 前記造形物を計測する計測装置を更に備える
 付記1から31のいずれか一項に記載の造形ユニット。
[付記38]
 前記出力装置は、前記ベース部材上に設定された設定位置に関する位置情報と前記計測装置の計測結果とを出力する
 付記37に記載の造形ユニット。
[付記39]
 前記計測装置の計測結果に基づいて、前記ベース部材上に設定された設定位置に関する位置情報を修正する制御装置を更に備え、
 前記出力装置は、修正された前記位置情報を出力する
 付記37又は38に記載の造形ユニット。
[付記40]
 前記計測装置は、前記造形物を非接触計測する
 付記32から39のいずれか一項に記載の造形ユニット。
[付記41]
 前記造形装置は、造形位置に材料を供給する供給装置を備え、
 前記ベース部材上に設定された設定位置と前記造形位置との位置関係は所定の関係である
 付記1から40のいずれか一項に記載の造形ユニット。
[付記42]
 前記造形装置は、前記造形位置にエネルギビームを照射するビーム照射装置を備える
 付記41に記載の造形ユニット。
[付記43]
 前記造形装置は、前記ベース部材に付加加工を行うことで前記造形物を造形する
 付記1から42のいずれか一項に記載の造形ユニット。
[付記44]
 前記ベース部材には、目印が設けられている
 付記1から43のいずれか一項に記載の造形ユニット。
[付記45]
 前記目印の位置又は前記目印と所定の関係にある位置を前記ベース部材上の設定位置とする
 付記44に記載の造形ユニット。
[付記46]
 前記ベース部材の特徴点を前記ベース部材上の設定位置とする
 付記1から45のいずれか一項に記載の造形ユニット。
[付記47]
 前記特徴点は、前記ベース部材の境界又は前記ベース部材上の構造の境界を含む
 付記46に記載の造形ユニット。
[付記48]
 前記特徴点は、前記ベース部材の角又は前記ベース部材上の構造の角を含む
 付記43又は44に記載の造形ユニット。
[付記49]
 平面状の側面を有するベース部材の上面に、平面状の面を含む造形物を造形する造形装置と、
 前記ベース部材の前記側面と前記造形物の前記平面状の面とが平行となるように前記造形装置を制御する制御装置と
 を備える造形ユニット。
[付記50]
 ベース部材上に設定された設定位置に基づいて前記ベース部材に造形された造形物に対して、加工動作を行う加工装置と、
 前記設定位置に関する位置情報に基づいて前記加工装置を制御する制御装置と
 を備える加工ユニット。
[付記51]
 前記位置情報が入力される入力装置を更に備える
 付記50に記載の加工ユニット。
[付記52]
 前記入力装置には、前記造形物を造形する造形ユニットからの前記位置情報が入力される
 付記51に記載の加工ユニット。
[付記53]
 前記入力装置には、前記造形物を造形する造形ユニットのユーザ及び前記加工ユニットのユーザのうち少なくとも一方からの前記位置情報が入力される
 付記52に記載の加工ユニット。
[付記54]
 前記制御装置は、前記造形物を造形するための造形動作の内容を定める造形データに基づいて前記位置情報を生成する
 付記50から53のいずれか一項に記載の加工ユニット。
[付記55]
 前記制御装置は、前記造形物の3次元形状データを含む造形データに基づいて前記位置情報を生成する
 付記50から54のいずれか一項に記載の加工ユニット。
[付記56]
 前記造形データが入力される入力装置を更に備える
 付記54又は55に記載の加工ユニット。
[付記57]
 前記入力装置には、前記造形物を造形する造形ユニットから前記造形データが入力される
 付記56に記載の加工ユニット。
[付記58]
 前記制御装置は、前記位置情報に基づいて、前記設定位置と前記加工装置との位置合わせを行い、前記位置合わせの結果に基づいて前記加工動作を行うように前記加工装置を制御する
 付記50から57のいずれか一項に記載の加工ユニット。
[付記59]
 前記造形物を造形する造形ユニットが前記造形物を造形した後に、前記造形物が前記造形ユニットから前記加工ユニットに搬送される
 付記50から58のいずれか一項に記載の加工ユニット。
[付記60]
 前記ベース部材と共に前記造形物が前記造形ユニットから前記加工ユニットに搬送される
 付記59に記載の加工ユニット。
[付記61]
 前記ベース部材と前記造形物との相対位置を維持したまま、前記ベース部材と共に前記造形物が前記造形ユニットから前記加工ユニットに搬送される
 付記60に記載の加工ユニット。
[付記62]
 前記ベース部材と結合した前記造形物が前記造形ユニットから前記加工ユニットに搬送される
 付記60又は61に記載の加工ユニット。
[付記63]
 前記加工装置は、前記造形ユニットから搬送された前記造形物に対して前記加工動作を行う
 付記59から62のいずれか一項に記載の加工ユニット。
[付記64]
 前記加工装置は、前記ベース部材と前記造形物との相対位置を維持したまま、前記造形物に対して前記加工動作を行う
 付記50から63のいずれか一項に記載の加工ユニット。
[付記65]
 前記加工装置は、前記ベース部材と結合した前記造形物に対して前記加工動作を行う
 付記50から64のいずれか一項に記載の加工ユニット。
[付記66]
 前記加工装置は、前記加工動作として、前記造形物の一部を除去する除去加工動作を行う
 付記50から65のいずれか一項に記載の加工ユニット。
[付記67]
 ベース部材に造形された造形物に対して加工動作を行う加工装置と、
 前記ベース部材に設定された設定位置と前記造形物の位置との関係に関する情報を用いて、前記加工装置を制御する制御装置と
 を備える加工ユニット。
[付記68]
 ベース部材に造形された造形物に対して加工動作を行う加工装置と、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを用いて、前記加工装置を制御する制御装置と
 を備える加工ユニット。
[付記69]
 前記制御装置は、前記ベース部材の3次元形状データと、前記造形物の3次元形状データとが関連付けられた情報を用いて、前記加工装置を制御する
 付記68に記載の加工ユニット。
[付記70]
 前記制御装置は、前記ベース部材上に設定された設定位置に関する情報を用いて、前記加工装置を制御する
 付記68又は69に記載の加工ユニット。
[付記71]
 前記制御装置は、前記設定位置と、前記ベース部材の前記3次元形状データとが関連付けられた情報を用いて、前記加工装置を制御する
 付記70に記載の加工ユニット。
[付記72]
 前記制御装置は、前記設定位置と、前記造形物の前記3次元形状データとが関連付けられた情報を用いて、前記加工装置を制御する
 付記70又は71に記載の加工ユニット。
[付記73]
 ベース部材に造形された造形物に対して加工動作を行う加工装置と、
 前記ベース部材の第1計測結果と、前記ベース部材及び前記造形物の第2計測結果とを用いて、前記加工装置を制御する制御装置と
 を備える加工ユニット。
[付記74]
 前記第1計測結果と前記第2計測結果とは関連付けられている
 付記73に記載の加工ユニット。
[付記75]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形ユニットと、
 前記設定位置に関する位置情報に基づいて、前記造形物に対して加工動作を行う加工ユニットと
 を備える加工システム。
[付記76]
 前記造形ユニットは、前記位置情報を前記加工ユニットに出力する
 付記75に記載の加工システム。
[付記77]
 前記加工ユニットは、前記造形ユニットから出力された前記位置情報に基づいて、前記加工動作を行う
 付記76に記載の加工システム。
[付記78]
 前記造形ユニットは、造形データに基づいて、前記造形物を造形し、且つ、前記造形データを前記加工ユニットに出力し、
 前記加工ユニットは、前記造形データに基づいて前記位置情報を生成し、生成した前記位置情報に基づいて、前記造形物に対して前記加工動作を行う
 付記75から77のいずれか一項に記載の加工システム。
[付記79]
 前記造形ユニット及び前記加工ユニットの少なくとも一方を制御する制御装置を更に備える
 付記75から78のいずれか一項に記載の加工システム。
[付記80]
 前記制御装置は、前記造形ユニットから、前記設定位置に関する位置情報を取得し、取得した前記位置情報を前記加工ユニットに出力する
 付記79に記載の加工システム。
[付記81]
 前記制御装置は、前記造形ユニットから、造形データを取得し、取得した前記造形データを前記加工ユニットに出力する
 付記79又は80に記載の加工システム。
[付記82]
 前記制御装置は、前記造形ユニットから、前記設定位置に関する位置情報を取得し、取得した前記位置情報に基づいて前記加工動作を行うように前記加工ユニットを制御する
 付記79から81のいずれか一項に記載の加工システム。
[付記83]
 前記制御装置は、前記造形ユニットから、造形データを取得し、取得した前記造形データに基づいて前記設定位置に関する位置情報を生成し、生成した前記位置情報に基づいて前記加工動作を行うように前記加工ユニットを制御する
 付記79から82のいずれか一項に記載の加工システム。
[付記84]
 前記制御装置は、前記設定位置に関する位置情報に基づいて前記造形物を造形するように前記造形ユニットを制御すると共に、前記位置情報に基づいて前記加工動作を行うように前記加工ユニットを制御する
 付記79から83のいずれか一項に記載の加工システム。
[付記85]
 前記制御装置は、造形データに基づいて前記造形物を造形するように前記造形ユニットを制御すると共に、前記造形データに基づいて前記設定位置に関する位置情報を生成し、生成した前記位置情報に基づいて前記加工動作を行うように前記加工ユニットを制御する
 付記79から84のいずれか一項に記載の加工システム。
[付記86]
 前記造形データは、前記造形物を造形するための造形動作の内容を定めるデータを含む
 付記78、81、83又は85に記載の加工システム。
[付記87]
 前記造形データは、前記造形物の3次元形状データを含む
 付記78、81、83、85又は86に記載の加工システム。
[付記88]
 前記造形ユニットから前記加工ユニットに前記造形物を搬送する搬送装置を更に備える
 付記75から87のいずれか一項に記載の加工システム。
[付記89]
 前記搬送装置は、前記造形ユニットが前記造形物を造形した後に、前記造形ユニットから前記加工ユニットに前記造形物を搬送する
 付記88に記載の加工システム。
[付記90]
 前記搬送装置は、前記ベース部材と共に前記造形物を前記造形ユニットから前記加工ユニットに搬送する
 付記88又は89に記載の加工システム。
[付記91]
 前記搬送装置は、前記ベース部材と前記造形物との相対位置を維持したまま、前記ベース部材と共に前記造形物を前記造形ユニットから前記加工ユニットに搬送する
 付記90に記載の加工システム。
[付記92]
 前記搬送装置は、前記ベース部材と結合した前記造形物を前記造形ユニットから前記加工ユニットに搬送する
 付記90又は91に記載の加工システム。
[付記93]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形ユニットと、
 前記設定位置と前記造形物との相対位置に関する位置情報に基づいて、前記造形物に対して加工動作を行う加工ユニットと
 を備える加工システム。
[付記94]
 前記造形装置は、造形データに基づいて、前記ベース部材上に前記造形物を造形し、
 前記位置情報は、前記設定位置と関連付けられた前記造形データを含む
 付記93に記載の加工システム。
[付記95]
 前記造形データは、前記造形物を造形するための造形動作の内容を定めるデータを含む
 付記94に記載の加工システム。
[付記96]
 前記造形データは、前記造形物の3次元形状データを含む
 付記94又は95に記載の加工システム。
[付記97]
 造形された造形物を計測する計測ユニットを更に備え、
 前記位置情報は、前記設定位置と関連付けられた前記計測ユニットによる計測結果を含む
 付記93から96のいずれか一項に記載の加工システム。
[付記98]
 前記計測ユニットは、前記造形ユニットの基準座標系における前記ベース部材の位置を計測し、
 前記位置情報は、前記基準座標系における前記設定位置に関する情報を含む
 付記97に記載の加工システム。
[付記99]
 前記ベース部材を支持する支持装置をさらに備え、
 前記基準座標系は、前記支持装置の支持面上での位置を示すための支持位置座標系を含む
 付記98に記載の加工システム。
[付記100]
 前記計測ユニットは、前記造形ユニットの基準座標系における前記ベース部材の部位の位置を計測し、
 前記位置情報は、前記設定位置と関連付けられた前記ベース部材の前記部位の位置に関する情報を含む
 付記97から99のいずれか一項に記載の加工システム。
[付記101]
 ベース部材に造形物を造形する造形ユニットと、
 前記ベース部材に設定された設定位置と前記造形物の位置との関係に関する情報を用いて、前記ベース部材に造形された造形物に対して加工動作を行う加工ユニットと
 を備える加工システム。
[付記102]
 ベース部材に造形物を造形する造形ユニットと、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを用いて、前記ベース部材に造形された造形物に対して加工動作を行う加工ユニットと
 を備える加工ユニット。
[付記103]
 前記加工ユニットは、前記ベース部材の3次元形状データと、前記造形物の3次元形状データとが関連付けられた情報を用いて、前記加工動作を行う
 付記102に記載の加工システム。
[付記104]
 前記加工ユニットは、前記ベース部材上に設定された設定位置に関する情報を用いて、前記加工動作を行う
 付記102又は103に記載の加工システム。
[付記105]
 前記加工ユニットは、前記設定位置と、前記ベース部材の前記3次元形状データとが関連付けられた情報を用いて、前記加工動作を行う
 付記104に記載の加工システム。
[付記106]
 前記加工ユニットは、前記設定位置と、前記造形物の前記3次元形状データとが関連付けられた情報を用いて、前記加工動作を行う
 付記104又は105に記載の加工システム。
[付記107]
 ベース部材に造形物を造形する造形ユニットと、
 前記ベース部材に造形された造形物に対して加工動作を行う加工ユニットと
 を備え、
 前記加工ユニットは、前記ベース部材の第1計測結果と、前記ベース部材及び前記造形物の第2計測結果とを用いて、前記加工動作を行う
 加工システム。
[付記108]
 前記第1計測結果と前記第2計測結果とは関連付けられている
 付記107に記載の加工システム。
[付記109]
 前記造形ユニットは、付記1から49のいずれか一項に記載の造形ユニットである
 付記75から108のいずれか一項に記載の加工システム。
[付記110]
 前記加工ユニットは、付記50から74のいずれか一項に記載の加工ユニットである
 付記75から109のいずれか一項に記載の加工システム。
[付記111]
 造形装置と出力装置とを備える造形ユニットを制御する制御装置であって、
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形するように前記造形装置を制御し、
 前記設定位置に関する位置情報を出力するように前記出力装置を制御する
 制御装置。
[付記112]
 造形装置と出力装置とを備える造形ユニットを制御する制御装置であって、
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形するように前記造形装置を制御し、
 前記設定位置と前記造形物との相対位置に関する位置情報を出力するように前記出力装置を制御する
 制御装置。
[付記113]
 造形装置と出力装置とを備える造形ユニットを制御する制御装置であって、
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形するように、前記造形装置を制御し、
 前記設定位置と前記造形物の位置との関係に関する位置情報を出力するように前記出力装置を制御する
 制御装置。
[付記114]
 前記物体に造形物を造形する造形装置を制御する制御装置であって、
 ベース部材上に設定位置を設定し、
 前記設定位置に基づいて前記ベース部材に前記造形物を造形するように前記造形装置を制御する
 制御装置。
[付記115]
 造形装置と出力装置とを備える造形ユニットを制御する制御装置であって、
 ベース部材及び造形物のうち少なくとも一方の上に設定位置を設定し、前記設定位置に基づいて、前記ベース部材に前記造形物を造形するように前記造形装置を制御し、
 前記設定位置に関する第1位置情報と、前記設定位置と前記造形物の位置との位置関係に関する第2位置情報とを出力するように前記出力装置を制御する
 制御装置。
[付記116]
 造形装置と出力装置とを備える造形ユニットを制御する制御装置であって、
 ベース部材に造形物を造形するように前記造形装置を制御し、
 前記ベース部材及び前記造形物のうち少なくとも一方の上に設定された設定位置と前記造形物の位置との関係に関する位置情報を出力するように前記出力装置を制御する
 制御装置。
[付記117]
 造形装置と出力装置とを備える造形ユニットを制御する制御装置であって、
 ベース部材に造形物を造形するように前記造形装置を制御し、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを出力するように前記出力装置を制御する
 制御装置。
[付記118]
 造形装置と計測装置と出力装置とを備える造形ユニットを制御する制御装置であって、
 ベース部材に造形物を造形するように前記造形装置を制御し、
 前記ベース部材及び前記造形物を計測するように前記計測装置を制御し、
 前記計測装置による計測結果を出力するように前記出力装置を制御し、
 前記造形物が造形される前及び前記造形物が造形されている間の少なくとも一方の期間において前記ベース部材を計測して第1計測結果を取得し、前記造形物が造形されている間及び前記造形物が造形された後の少なくとも一方の期間において前記造形物を計測して第2計測結果を取得するように、前記計測装置を制御する
 制御装置。
[付記119]
 造形装置を備える造形ユニットを制御する制御装置であって、
 平面状の側面を有するベース部材の上面に、平面状の面を含む造形物を造形するように前記造形装置を制御し、
 前記ベース部材の前記側面と前記造形物の前記平面状の面とが平行となるように前記造形装置を制御する
 制御装置。
[付記120]
 ベース部材上に設定された設定位置に基づいて前記ベース部材に造形された造形物に対して加工動作を行う加工装置を、前記設定位置に関する位置情報に基づいて制御する制御装置。
[付記121]
 ベース部材に造形された造形物に対して加工動作を行う加工装置を、前記ベース部材に設定された設定位置と前記造形物の位置との関係に関する情報を用いて制御する制御装置。
[付記122]
 ベース部材に造形された造形物に対して加工動作を行う加工装置を、前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを用いて、制御する制御装置。
[付記123]
 ベース部材に造形された造形物に対して加工動作を行う加工装置を、前記ベース部材の第1計測結果と、前記ベース部材及び前記造形物の第2計測結果とを用いて、制御する制御装置。
[付記124]
 造形ユニットと加工ユニットとを備える加工システムに用いられる制御装置であって、
 ベース部材上に設定された設定位置に基づいて前記ベース部材に造形物を造形するように前記造形ユニットを制御し、
 前記設定位置に関する位置情報に基づいて前記造形物に対して加工動作を行うように前記加工ユニットを制御する
 制御装置。
[付記125]
 造形ユニットと加工ユニットとを備える加工システムに用いられる制御装置であって、
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形するように前記造形ユニットを制御し、
 前記設定位置と前記造形物との相対位置に関する位置情報に基づいて、前記造形物に対して加工動作を行うように前記加工ユニットを制御する
 制御装置。
[付記126]
 造形ユニットと加工ユニットとを備える加工システムに用いられる制御装置であって、
 ベース部材に造形物を造形するように前記造形ユニットを制御し、
 前記ベース部材に設定された設定位置と前記造形物の位置との関係に関する情報を用いて、前記ベース部材に造形された造形物に対して加工動作を行うように前記加工ユニットを制御する
 制御装置。
[付記127]
 造形ユニットと加工ユニットとを備える加工システムに用いられる制御装置であって、
 ベース部材に造形物を造形するように前記造形ユニットを制御し、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを用いて、前記ベース部材に造形された造形物に対して加工動作を行うように前記加工ユニットを制御する
 制御装置。
[付記128]
 造形ユニットと加工ユニットとを備える加工システムに用いられる制御装置であって、
 ベース部材に造形物を造形するように前記造形ユニットを制御し、
 前記ベース部材に造形された造形物に対して加工動作を行う前記加工ユニットを、前記ベース部材の第1計測結果と、前記ベース部材及び前記造形物の第2計測結果とを用いて制御する
 制御装置。
[付記129]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形することと、
 前記設定位置に関する位置情報を出力することと
 を含む造形方法。
[付記130]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形することと、
 前記設定位置と前記造形物との相対位置に関する位置情報を出力することと
 を含む造形方法。
[付記131]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形することと、
 前記設定位置と前記造形物の位置との関係に関する位置情報を出力することと
 を含む造形方法。
[付記132]
 ベース部材上に設定位置を設定することと、
 前記設定位置に基づいて、前記ベース部材に造形物を造形することと
 を含む造形方法。
[付記133]
 ベース部材に造形物を造形することと、
 前記ベース部材及び前記造形物のうち少なくとも一方の上に設定位置を設定することと、
 前記設定位置に関する第1位置情報と、前記設定位置と前記造形物の位置との位置関係に関する第2位置情報とを出力することと
 を含み、
 前記造形することは、前記設定位置に基づいて前記造形物を造形する
 造形方法。
[付記134]
 ベース部材に造形物を造形することと、
 前記ベース部材及び前記造形物のうち少なくとも一方の上に設定された設定位置と前記造形物の位置との関係に関する位置情報を出力することと
 を含む造形方法。
[付記135]
 ベース部材に造形物を造形することと、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを出力することと
 を含む造形方法。
[付記136]
 ベース部材に造形物を造形することと、
 前記ベース部材及び前記造形物を計測することと、
 前記計測装置による計測結果を出力することと
 を含み、
 前記計測することは、前記造形物が造形される前及び前記造形物が造形されている間の少なくとも一方の期間において前記ベース部材を計測して第1計測結果を取得し、前記造形物が造形されている間及び前記造形物が造形された後の少なくとも一方の期間において前記造形物を計測して第2計測結果を取得する
 造形方法。
[付記137]
 造形物の基準位置としてベース部材上に設定された設定位置に関する位置情報を取得することと、
 前記設定位置に基づいて前記ベース部材に造形された前記造形物に対して、前記位置情報に基づいて加工動作を行うことと
 を含む加工方法。
[付記138]
 ベース部材に造形された造形物に対して加工動作を行うことと、
 前記ベース部材に設定された設定位置と前記造形物の位置との関係に関する情報を取得することと
 を含み、
 前記加工動作を行うことは、前記情報を用いて前記加工動作を行うことを含む
 加工方法。
[付記139]
 ベース部材に造形された造形物に対して加工動作を行うことと、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを取得することと
 を含み、
 前記加工動作を行うことは、前記ベース部材の前記3次元形状データと、前記造形物の前記3次元形状データと用いて、前記加工動作を行うことを含む
 加工方法。
[付記140]
 ベース部材に造形された造形物に対して加工動作を行うことと、
 前記ベース部材の第1計測結果と、前記ベース部材及び前記造形物の第2計測結果とを取得することと
 を含み、
 前記加工動作を行うことは、前記第1計測結果と前記第2計測結果とを用いて、前記加工動作を行うことを含む
 加工方法。
[付記141]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形することと、
 前記位置情報に基づいて前記造形物に対して加工動作を行うことと
 を含む加工方法。
[付記142]
 ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形することと、
 前記設定位置と前記造形物との相対位置に関する位置情報に基づいて、前記造形物に対して加工動作を行うことと
 を含む加工方法。
[付記143]
 ベース部材に造形物を造形することと、
 前記ベース部材に設定された設定位置と前記造形物の位置との関係に関する情報を用いて、前記ベース部材に造形された造形物に対して加工動作を行うことと
 を含む加工方法。
[付記144]
 ベース部材に造形物を造形することと、
 前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを用いて、前記ベース部材に造形された造形物に対して加工動作を行うことと
 を含む加工方法。
[付記145]
 ベース部材に造形物を造形することと、
 前記ベース部材に造形された造形物に対して加工動作を行うことと
 を含み、
 前記加工動作を行うことは、前記ベース部材の第1計測結果と、前記ベース部材及び前記造形物の第2計測結果とを用いて、前記加工動作を行うことを含む
 加工方法。
 上述の各実施形態の構成要件の少なくとも一部は、上述の各実施形態の構成要件の少なくとも他の一部と適宜組み合わせることができる。上述の各実施形態の構成要件のうちの一部が用いられなくてもよい。また、法令で許容される限りにおいて、上述の各実施形態で引用した全ての公開公報及び米国特許の開示を援用して本文の記載の一部とする。
 本発明は、上述した実施例に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う造形ユニット、加工ユニット、加工システム、制御装置、造形方法及び加工方法もまた本発明の技術的範囲に含まれるものである。
 SYS、SYSa 加工システム
 UNTa1 造形ユニット
 UNTa2 加工ユニット
 1 材料供給装置
 2 造形装置
 21 造形ヘッド
 22 ヘッド駆動系
 24 ガイド光射出装置
 3 ステージ装置
 31 ステージ
 311 載置面
 7 制御装置
 8 計測装置
 81 投影装置
 82 撮像装置
 91 ディスプレイ
 92 入力装置
 93a 出力装置
 101a 入力装置
 102a 加工装置
 1021a 加工ヘッド
 1022a ヘッド駆動系
 1023a 位置計測装置
 103a ステージ装置
 W ワーク
 M 造形材料
 SL 構造層
 MS 造形面
 EA 照射領域
 MA 供給領域
 MP 溶融池
 EL 加工光
 DL 計測光
 GL ガイド光
 WM ワークモデル
 PM 造形モデル

Claims (49)

  1.  ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、
     前記設定位置に関する位置情報を出力する出力装置と
     を備える造形ユニット。
  2.  前記出力装置は、前記位置情報を、前記造形物に対して加工動作を行う加工ユニットに出力する
     請求項1に記載の造形ユニット。
  3.  前記加工ユニットは、前記出力装置から出力された前記位置情報に基づいて、前記加工動作を行う
     請求項2に記載の造形ユニット。
  4.  前記加工ユニットは、前記出力装置から出力された前記位置情報に基づいて、前記造形物と前記加工ユニットとの位置合わせを行い、前記位置合わせの結果に基づいて前記加工動作を行う
     請求項2又は3に記載の造形ユニット。
  5.  前記造形装置は、前記ベース部材に対する相対位置が固定された前記造形物を造形する
     請求項1から4のいずれか一項に記載の造形ユニット。
  6.  前記造形装置は、前記ベース部材と結合した前記造形物を造形する
     請求項1から5のいずれか一項に記載の造形ユニット。
  7.  前記位置情報は、前記設定位置と前記ベース部材との相対位置に関する情報を含む
     請求項1から6のいずれか一項に記載の造形ユニット。
  8.  前記位置情報は、前記設定位置と前記造形物との相対位置に関する情報を含む
     請求項1から7のいずれか一項に記載の造形ユニット。
  9.  ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、
     前記設定位置と前記造形物との相対位置に関する位置情報を出力する出力装置と
     を備える造形ユニット。
  10.  ベース部材上に設定された設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と、
     前記設定位置と前記造形物の位置との関係に関する位置情報を出力する出力装置と
     を備える造形ユニット。
  11.  前記造形装置は、造形データに基づいて、前記ベース部材上に前記造形物を造形し、
     前記出力装置は、前記位置情報として、前記設定位置と関連付けられた前記造形データを出力する
     請求項8から10のいずれか一項に記載の造形ユニット。
  12.  前記造形データは、前記造形物を造形するための造形動作の内容を定めるデータを含む
     請求項11に記載の造形ユニット。
  13.  前記造形データは、前記造形物の3次元形状データを含む
     請求項11又は12に記載の造形ユニット。
  14.  造形された造形物を計測して計測結果を得る計測装置をさらに備え、
     前記出力装置は、前記位置情報として、前記設定位置と関連付けられた前記計測結果を出力する、請求項8から13のいずれか一項に記載の造形ユニット。
  15.  前記計測装置は、前記造形ユニットの基準座標系における前記ベース部材の位置を計測し、
     前記出力装置は、前記基準座標系における前記設定位置に関する前記位置情報を出力する
     請求項14に記載の造形ユニット。
  16.  前記ベース部材を支持する支持装置をさらに備え、
     前記基準座標系は、前記支持装置の支持面上での位置を示すための支持位置座標系を含む
     請求項15に記載の造形ユニット。
  17.  前記計測装置は、前記造形ユニットの基準座標系における前記ベース部材の部位の位置を計測し、
     前記出力装置は、前記設定位置と関連付けられた前記ベース部材の前記部位の位置を出力する
     請求項14から16のいずれか一項に記載の造形ユニット。
  18.  前記出力装置は、前記設定位置に関する情報を出力する
     請求項9から17に記載の造形ユニット。
  19.  前記計測装置は、前記造形物を非接触計測する
     請求項14から18のいずれか一項に記載の造形ユニット。
  20.  前記設定位置を設定する制御装置を更に備える
     請求項1から19のいずれか一項に記載の造形ユニット。
  21.  前記制御装置は、前記ベース部材上に前記設定位置を設定する
     請求項19に記載の造形ユニット。
  22.  ベース部材上に設定位置を設定する制御装置と、
     前記設定位置に基づいて、前記ベース部材に造形物を造形する造形装置と
     を備える造形ユニット。
  23.  前記設定位置を設定するための情報が入力される入力装置を備え、
     前記制御装置は、前記入力装置に入力された情報に基づいて、前記設定位置を設定する
     請求項20から22のいずれか一項に記載の造形ユニット。
  24.  前記制御装置は、前記ベース部材に関する情報に基づいて、前記設定位置を設定する
     請求項20から23のいずれか一項に記載の造形ユニット。
  25.  ベース部材に造形物を造形する造形装置と、
     前記ベース部材及び前記造形物のうち少なくとも一方の上に設定位置を設定し、前記設定位置に基づいて前記造形装置を制御する制御装置と、
     前記設定位置に関する第1位置情報と、前記設定位置と前記造形物の位置との位置関係に関する第2位置情報とを出力する出力装置と
     を備える造形ユニット。
  26.  ベース部材に造形物を造形する造形装置と、
     前記ベース部材及び前記造形物のうち少なくとも一方の上に設定された設定位置と前記造形物の位置との関係に関する位置情報を出力する出力装置と
     を備える造形ユニット。
  27.  ベース部材に造形物を造形する造形装置と、
     前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを出力する出力装置と
     を備える造形ユニット。
  28.  前記出力装置は、前記ベース部材の3次元形状データと、前記造形物の3次元形状データとを関連付けて出力する
     請求項27に記載の造形ユニット。
  29.  前記出力装置は、前記ベース部材上に設定された設定位置に関する情報を出力する
     請求項27又は28に記載の造形ユニット。
  30.  前記出力装置は、前記設定位置と、前記ベース部材の前記3次元形状データとを関連付けて出力する
     請求項29に記載の造形ユニット。
  31.  前記出力装置は、前記設定位置と、前記造形物の前記3次元形状データとを関連付けて出力する
     請求項29又は30に記載の造形ユニット。
  32.  ベース部材に造形物を造形する造形装置と、
     前記ベース部材及び前記造形物の三次元情報を取得する計測装置と、
     前記計測装置による計測結果を出力する出力装置と
     を備える造形ユニット。
  33.  前記計測装置は、前記造形物が造形される前及び前記造形物が造形されている間の少なくとも一方の期間において前記ベース部材を計測して第1計測結果を取得し、前記造形物が造形されている間及び前記造形物が造形された後の少なくとも一方の期間において前記造形物を計測して第2計測結果を取得する
     請求項32に記載の造形ユニット。
  34.  前記出力装置は、前記第1計測結果と前記第2計測結果とを関連付けて出力する
     請求項33に記載の造形ユニット。
  35.  ベース部材に造形物を造形する造形装置と、
     前記ベース部材及び前記造形物を計測する計測装置と、
     前記計測装置による計測結果を出力する出力装置と
     を備え、
     前記計測装置は、前記造形物が造形される前及び前記造形物が造形されている間の少なくとも一方の期間において前記ベース部材を計測して第1計測結果を取得し、前記造形物が造形されている間及び前記造形物が造形された後の少なくとも一方の期間において前記造形物を計測して第2計測結果を取得する
     造形ユニット。
  36.  前記出力装置は、前記第1計測結果と前記第2計測結果とを関連付けて出力する
     請求項35に記載の造形ユニット。
  37.  前記造形物を計測する計測装置を更に備える
     請求項1から31のいずれか一項に記載の造形ユニット。
  38.  前記出力装置は、前記ベース部材上に設定された設定位置に関する位置情報と前記計測装置の計測結果とを出力する
     請求項37に記載の造形ユニット。
  39.  前記計測装置の計測結果に基づいて、前記ベース部材上に設定された設定位置を修正する制御装置を更に備え、
     前記出力装置は、修正された前記位置情報を出力する
     請求項37又は38に記載の造形ユニット。
  40.  前記計測装置は、前記造形物を非接触計測する
     請求項32から39のいずれか一項に記載の造形ユニット。
  41.  前記造形装置は、造形位置に材料を供給する供給装置を備え、
     前記ベース部材上に設定された設定位置と前記造形位置との位置関係は所定の関係である
     請求項1から40のいずれか一項に記載の造形ユニット。
  42.  前記造形装置は、前記造形位置にエネルギビームを照射するビーム照射装置を備える
     請求項41に記載の造形ユニット。
  43.  前記造形装置は、前記ベース部材に付加加工を行うことで前記造形物を造形する
     請求項1から42のいずれか一項に記載の造形ユニット。
  44.  前記ベース部材には、目印が設けられている
     請求項1から43のいずれか一項に記載の造形ユニット。
  45.  前記目印の位置又は前記目印と所定の関係にある位置を、前記ベース部材上の設定位置とする
     請求項44に記載の造形ユニット。
  46.  前記ベース部材の特徴点を前記ベース部材上の設定位置とする
     請求項1から45のいずれか一項に記載の造形ユニット。
  47.  前記特徴点は、前記ベース部材の境界又は前記ベース部材上の構造の境界を含む
     請求項46に記載の造形ユニット。
  48.  前記特徴点は、前記ベース部材の角又は前記ベース部材上の構造の角を含む
     請求項43又は44に記載の造形ユニット。
  49.  平面状の側面を有するベース部材の上面に、平面状の面を含む造形物を造形する造形装置と、
     前記ベース部材の前記側面と前記造形物の前記平面状の面とが平行となるように前記造形装置を制御する制御装置と
     を備える造形ユニット。
PCT/JP2019/015464 2019-04-09 2019-04-09 造形ユニット WO2020208708A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP19924222.3A EP3954530A4 (en) 2019-04-09 2019-04-09 MOLDING UNIT
CN202311791873.4A CN117601436A (zh) 2019-04-09 2019-04-09 造型单元和造型方法、加工单元和加工方法
CN201980097229.2A CN113939394B (zh) 2019-04-09 2019-04-09 造型单元
PCT/JP2019/015464 WO2020208708A1 (ja) 2019-04-09 2019-04-09 造形ユニット
US17/601,275 US20220274181A1 (en) 2019-04-09 2019-04-09 Build unit
CN202311790462.3A CN117601435A (zh) 2019-04-09 2019-04-09 造型方法和造型单元、加工系统和加工方法
JP2021513062A JP7476886B2 (ja) 2019-04-09 2019-04-09 造形ユニット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/015464 WO2020208708A1 (ja) 2019-04-09 2019-04-09 造形ユニット

Publications (1)

Publication Number Publication Date
WO2020208708A1 true WO2020208708A1 (ja) 2020-10-15

Family

ID=72751943

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015464 WO2020208708A1 (ja) 2019-04-09 2019-04-09 造形ユニット

Country Status (5)

Country Link
US (1) US20220274181A1 (ja)
EP (1) EP3954530A4 (ja)
JP (1) JP7476886B2 (ja)
CN (3) CN113939394B (ja)
WO (1) WO2020208708A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242983A1 (ja) * 2022-06-15 2023-12-21 株式会社ニコン 加工制御情報生成方法、加工方法及びモデル生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009107153A (ja) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd 三次元形状造形物の製造方法
JP2016035430A (ja) * 2014-08-04 2016-03-17 ローランドディー.ジー.株式会社 ステージ機構
WO2016075802A1 (ja) * 2014-11-14 2016-05-19 株式会社ニコン 造形装置及び造形方法
US20170014909A1 (en) 2014-03-31 2017-01-19 Kabushiki Kaisha Toshiba Method for manufacturing additive manufactured object, and mixed material
JP2017035807A (ja) * 2015-08-07 2017-02-16 ローランドディー.ジー.株式会社 光照射装置および光照射方法
JP2018171775A (ja) * 2017-03-31 2018-11-08 キヤノン株式会社 造形装置及び造形方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516860B2 (ja) * 1998-03-18 2004-04-05 株式会社アスペクト 形状設計支援装置及び造形方法
JP3446733B2 (ja) 2000-10-05 2003-09-16 松下電工株式会社 三次元形状造形物の製造方法及びその装置
JP4259123B2 (ja) * 2003-01-28 2009-04-30 パナソニック電工株式会社 三次元形状造形物の製造方法
JP4130813B2 (ja) * 2004-05-26 2008-08-06 松下電工株式会社 三次元形状造形物の製造装置及びその光ビーム照射位置及び加工位置の補正方法
DE102005015870B3 (de) * 2005-04-06 2006-10-26 Eos Gmbh Electro Optical Systems Vorrichtung und Verfahren zum Herstellen eines dreidimensionalen Objekts
DE102013224649A1 (de) * 2013-11-29 2015-06-03 Sauer Gmbh Lasertec Werkzeugmaschine, Messvorrichtung, Verfahren zum Erstellen von Arbeitsdaten, Auftragsschweißverfahren, Werkstücktemperiervorrichtung
WO2016042610A1 (ja) 2014-09-17 2016-03-24 富士機械製造株式会社 立体造形物の識別方法
JP6576655B2 (ja) * 2015-03-10 2019-09-18 ローランドディー.ジー.株式会社 ステージ機構
CN204894524U (zh) * 2015-07-02 2015-12-23 深圳长朗三维科技有限公司 3d打印机
TWI568571B (zh) * 2015-08-28 2017-02-01 東友科技股份有限公司 列印平台調校系統及其調校方法
DE102016200043A1 (de) * 2016-01-05 2017-07-06 Eos Gmbh Electro Optical Systems Verfahren zum Kalibrieren einer Vorrichtung zum Herstellen eines dreidimensionalen Objekts
JP6802994B2 (ja) 2016-06-15 2020-12-23 株式会社リコー 三次元造形装置及び造形物載置板
CN106378452B (zh) * 2016-11-28 2018-02-06 南京农业大学 一种增/减材混合制造平台
TWI655080B (zh) * 2017-01-05 2019-04-01 三緯國際立體列印科技股份有限公司 立體列印裝置以及列印校正方法
CN106738895A (zh) * 2017-04-06 2017-05-31 四川建筑职业技术学院 一种可调平的3d打印机架
WO2018198832A1 (ja) * 2017-04-28 2018-11-01 株式会社ウィルビイ 立体物印刷システムおよび立体物印刷方法
CN109291433A (zh) * 2017-07-24 2019-02-01 三纬国际立体列印科技股份有限公司 立体打印设备以及立体打印方法
JP6886422B2 (ja) 2018-03-30 2021-06-16 株式会社ニコン 造形装置及び造形方法
CN108723373B (zh) * 2018-06-05 2024-03-12 深圳安特医疗股份有限公司 一种齿科修复工件加工设备及工艺

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009107153A (ja) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd 三次元形状造形物の製造方法
US20170014909A1 (en) 2014-03-31 2017-01-19 Kabushiki Kaisha Toshiba Method for manufacturing additive manufactured object, and mixed material
JP2016035430A (ja) * 2014-08-04 2016-03-17 ローランドディー.ジー.株式会社 ステージ機構
WO2016075802A1 (ja) * 2014-11-14 2016-05-19 株式会社ニコン 造形装置及び造形方法
JP2017035807A (ja) * 2015-08-07 2017-02-16 ローランドディー.ジー.株式会社 光照射装置および光照射方法
JP2018171775A (ja) * 2017-03-31 2018-11-08 キヤノン株式会社 造形装置及び造形方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3954530A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242983A1 (ja) * 2022-06-15 2023-12-21 株式会社ニコン 加工制御情報生成方法、加工方法及びモデル生成方法

Also Published As

Publication number Publication date
US20220274181A1 (en) 2022-09-01
CN117601436A (zh) 2024-02-27
JP7476886B2 (ja) 2024-05-01
EP3954530A4 (en) 2022-10-26
EP3954530A1 (en) 2022-02-16
JPWO2020208708A1 (ja) 2020-10-15
CN113939394A (zh) 2022-01-14
CN113939394B (zh) 2024-01-09
CN117601435A (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
JPWO2020090962A1 (ja) 加工システム、及び、加工方法
US20240123508A1 (en) Processing system
JP7380769B2 (ja) 処理装置及び処理方法、加工方法、並びに、造形装置及び造形方法
WO2020208708A1 (ja) 造形ユニット
TW202012149A (zh) 造型系統
WO2019151240A1 (ja) 処理装置、処理方法、コンピュータプログラム、記録媒体及び制御装置
WO2020194448A1 (ja) 造形システム
US20230264266A1 (en) Processing system
JP2024019258A (ja) 加工システム
WO2021171371A1 (ja) 加工システム
JPWO2020090961A1 (ja) 加工システム、及び、加工方法
JP2023080120A (ja) 加工システム、加工方法、コンピュータプログラム、記録媒体及び制御装置
JP2022088386A (ja) 加工システム、及び、加工方法
WO2021019644A1 (ja) 加工システム、加工方法、制御装置、コンピュータプログラム、記録媒体及び加工装置
WO2024057496A1 (ja) 加工システム、データ構造及び加工方法
JP4469436B2 (ja) Yagレーザ加工機のティーチング方法及びその装置
WO2023248458A1 (ja) 造形方法及び造形装置
WO2022003870A1 (ja) 加工システム及び光学装置
Croghan Process planning for iterative, in-envelope hybrid manufacturing in the presence of machining allowances
US20240075557A1 (en) Build system
JP2023038185A (ja) 加工システム、及び、加工方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19924222

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021513062

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019924222

Country of ref document: EP

Effective date: 20211109