WO2018051435A1 - 数値制御装置 - Google Patents

数値制御装置 Download PDF

Info

Publication number
WO2018051435A1
WO2018051435A1 PCT/JP2016/077138 JP2016077138W WO2018051435A1 WO 2018051435 A1 WO2018051435 A1 WO 2018051435A1 JP 2016077138 W JP2016077138 W JP 2016077138W WO 2018051435 A1 WO2018051435 A1 WO 2018051435A1
Authority
WO
WIPO (PCT)
Prior art keywords
command
unit
plane
numerical control
machine tool
Prior art date
Application number
PCT/JP2016/077138
Other languages
English (en)
French (fr)
Inventor
幸弘 井内
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2016/077138 priority Critical patent/WO2018051435A1/ja
Priority to JP2017515989A priority patent/JPWO2018051435A1/ja
Publication of WO2018051435A1 publication Critical patent/WO2018051435A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters

Definitions

  • the present invention relates to a numerical control device for controlling a machine tool.
  • NC numerical Control
  • Machine tools equipped with NC devices are often operated using a handle when operating the machine manually.
  • the operation by the handle requires the operation for each axis and the operability is poor.
  • Patent Document 1 describes a robot operation device that controls a robot by a gesture operation.
  • the invention described in Patent Document 1 can improve the operability and reduce the time required for the operation by controlling the operation of the robot by a drag operation.
  • the operability of the NC device is improved by causing the machine tool to perform a desired operation with a simple gesture operation.
  • the NC device improves the operability by assigning highly relevant gesture operations to the operation of the machine tool, but further improvement in operability is desired.
  • the present invention has been made in view of the above, and an object of the present invention is to provide a numerical control device that can intuitively operate a machine tool and improve the operability of the machine tool.
  • a numerical control device has an operation area for receiving an input by a gesture operation, and the operation area includes a machine tool and a processing object of the machine tool.
  • a touch panel that displays a command plane when a work is viewed from a specific direction, an enlargement / reduction ratio calculation unit that calculates an enlargement / reduction ratio according to the relative operation amount of the pinch operation, and the operation area based on the enlargement / reduction ratio
  • a command unit determining unit that calculates a command unit for converting the operation amount of the drag operation input to the operation amount of the drive unit of the machine tool, and using the operation amount and the command unit of the drag operation.
  • a movement amount generation unit that calculates a movement amount of the drive unit and outputs the movement amount to the machine tool.
  • FIG. 1 is a block diagram showing a configuration of a numerical control device according to a first embodiment.
  • Explanatory drawing which showed the example of a display of the display with a touch panel of the numerical control apparatus which concerns on Embodiment 1.
  • FIG. Explanatory drawing which showed an example of the command plane of the numerical control apparatus which concerns on Embodiment 1.
  • Explanatory drawing which showed the other example of the command plane of the numerical control apparatus which concerns on Embodiment 1.
  • FIG. Explanatory drawing which shows the operation example at the time of inputting pinch operation into the numerical control apparatus which concerns on Embodiment 1.
  • FIG. Explanatory drawing which shows the operation example at the time of inputting drag operation into the numerical control apparatus which concerns on Embodiment 1.
  • Schematic configuration diagram showing a hardware configuration of the numerical control device according to the first embodiment A block diagram showing a configuration of a numerical control device according to a second embodiment.
  • FIG. 1 is a block diagram showing the configuration of the numerical control apparatus 1 according to the first embodiment.
  • FIG. 2 is an explanatory diagram illustrating a display example of the touch panel-equipped display 2 of the numerical control device 1 according to the first embodiment.
  • FIG. 3 is an explanatory diagram showing an example of a command plane of the numerical control device 1 according to the first embodiment.
  • FIG. 4 is an explanatory diagram showing another example of the command plane of the numerical control device 1 according to the first embodiment.
  • FIG. 5 is an explanatory diagram illustrating an operation example when a pinch operation is input to the numerical control device 1 according to the first embodiment.
  • FIG. 6 is an explanatory diagram illustrating an operation example when a drag operation is input to the numerical control device 1 according to the first embodiment.
  • FIG. 1 is a block diagram showing the configuration of the numerical control apparatus 1 according to the first embodiment.
  • FIG. 2 is an explanatory diagram illustrating a display example of the touch panel-equipped display 2 of the numerical control device 1 according to the first embodiment.
  • FIG. 7 is a flowchart illustrating an example of numerical control by the numerical control apparatus 1 according to the first embodiment.
  • FIG. 8 is a schematic configuration diagram illustrating a hardware configuration of the numerical control device 1 according to the first embodiment.
  • the numerical control device 1 includes a touch panel display 2, a gesture operation determination unit 3, an enlargement / reduction rate calculation unit 4, a command unit determination unit 5, and a movement amount generation unit 6.
  • the numerical control device 1 is an NC device that outputs a movement amount that is a movement command value to the machine tool 100 in accordance with an input gesture operation.
  • the movement amount is a command value that represents an operation amount that the drive unit 8 of the machine tool 100 described later operates during a unit cycle.
  • the unit period is exemplified by the control period of the numerical control apparatus 1, but is not limited thereto.
  • the gesture operation is, for example, a pinch operation, a drag operation, and a two-finger drag operation.
  • the pinch operation is an operation of placing two fingers on the screen to narrow the interval between the two fingers (hereinafter referred to as pinch-in) and an operation of increasing the interval between the two fingers (hereinafter referred to as pinch-out). is there.
  • the drag operation is an operation of sliding with one finger placed on the screen and releasing the finger from the screen at an arbitrary position.
  • the two-finger drag operation is an operation of sliding with two fingers placed on the screen and releasing the two fingers from the screen at an arbitrary position.
  • Machine tool 100 in the present embodiment includes control unit 7, drive unit 8, and tool 22.
  • the control unit 7 is a control unit that controls the operation of the drive unit 8 according to the amount of movement.
  • the control unit 7 is, for example, a servo amplifier.
  • the drive unit 8 is a motor that drives the tool 22 in the X-axis, Y-axis, and Z-axis directions, for example.
  • the tool 22 is a processing part of the machine tool 100 that processes the workpiece 23.
  • the tool 22 is, for example, a drill, a milling cutter, or a cutting tool.
  • the workpiece 23 is a processing object to be processed by the machine tool 100.
  • the touch panel display 2 is a touch panel as shown in FIG.
  • a touch panel is a display provided with a position input function.
  • the display 2 with a touch panel outputs a signal corresponding to the gesture operation to the gesture operation determination unit 3 when the operator inputs the gesture operation.
  • the display device 2 with a touch panel includes an operation area 21 as shown in FIGS.
  • the operation area 21 is an input unit that receives a gesture operation.
  • the operation area 21 is an area where command planes 24ZX, 24XY, and 24YZ are displayed, as shown in FIGS.
  • the command planes 24ZX, 24XY, and 24YZ are plan views of the tool 22 and the work 23 viewed from a specific direction.
  • the command plane 24ZX is a plan view of the tool 22 and the work 23 as seen from the Y-axis direction, as shown in FIG.
  • the command plane 24XY is a plan view of the tool 22 and the work 23 as viewed from the Z-axis direction, as shown in FIG.
  • the command plane 24YZ is a plan view of the tool 22 and the work 23 as seen from the X-axis direction, as shown in FIG.
  • the command planes 24ZX, 24XY, and 24YZ are switched and displayed by, for example, pressing a switch (not shown) included in the display 2 with a touch panel.
  • the shape information and position information of the tool 22 and the work 23 displayed on the command planes 24ZX, 24XY, and 24YZ are preset by the operator.
  • the shape information is, for example, CAD data of the tool 22 and the workpiece 23.
  • the position information is, for example, coordinate information in the X-axis, Y-axis, and Z-axis directions of the tool 22 and the work 23 on the command planes 24ZX, 24XY, and 24YZ.
  • the shape information and position information of the tool 22 and the workpiece 23 are set in advance by the operator, the present invention is not limited to this.
  • the shape information and position information of the tool 22 and the workpiece 23 include, for example, an optical device that the numerical control device 1 photographs the tool 22 and the workpiece 23, and an image processing unit that analyzes an image captured by the optical device.
  • the processing unit may be configured to acquire and set the shape information and position information of the tool 22 and the workpiece 23 by analyzing the image of the optical device.
  • the display device with a touch panel 2 displays the command planes 24ZX, 24XY, and 24YZ in a size corresponding to the enlargement / reduction ratio when the enlargement / reduction ratio information is input from the enlargement / reduction ratio calculation unit 4.
  • the enlargement / reduction ratio is a ratio of the size to the reference display size of the command planes 24ZX, 24XY, 24YZ.
  • the display device with a touch panel 2 displays the command planes 24ZX, 24XY, and 24YZ in a size that is twice the reference display size. It is displayed in the operation area 21.
  • the gesture operation determination unit 3 analyzes a signal input from the display 2 with a touch panel and determines the type of gesture operation input to the display 2 with a touch panel. When it is determined that the gesture operation is a pinch operation, the gesture operation determination unit 3 outputs the relative operation amount of the pinch operation to the enlargement / reduction ratio calculation unit 4. When it is determined that the gesture operation is a drag operation, the gesture operation determination unit 3 outputs the operation amount of the drag operation to the movement amount generation unit 6 for each control cycle. For example, when the command plane 24ZX is displayed in the operation area 21, as shown in FIG. 6, the operation amount of the drag operation is a position where the finger is released from the screen on the basis of the position P1 where the finger is placed on the screen.
  • the operation amount of the drag operation is the distance of sliding in the X-axis direction and the Y-axis direction to the position where the finger is released from the screen on the basis of the position where the finger is placed on the screen. It is.
  • the operation amount of the drag operation is the distance of sliding in the Y-axis direction and the Z-axis direction to the position where the finger is released from the screen based on the position where the finger is placed on the screen. It is.
  • the enlargement / reduction ratio calculation unit 4 calculates the enlargement / reduction ratio based on the relative operation amount of the pinch operation input from the gesture operation determination unit 3. As shown in FIG. 1, the enlargement / reduction ratio calculation unit 4 outputs the enlargement / reduction ratio to the display 2 with a touch panel and the command unit determination unit 5.
  • the command unit determination unit 5 calculates a command unit according to the expansion / contraction rate input from the expansion / contraction rate calculation unit 4 as shown in FIG.
  • the command unit is a conversion coefficient for converting the operation amount of the drag operation into the movement amount output to the control unit 7 of the machine tool 100.
  • the command unit is 10. That is, the command unit is, for example, a conversion coefficient for converting the operation amount of the drag operation into a movement amount of 100 cm when the enlargement / reduction ratio is 1 and the operation amount of the drag operation is 10 cm.
  • the command unit determination unit 5 doubles the command unit when the scaling ratio changes from 1 to 0.5.
  • the command unit determination unit 5 converts the command unit to double when the size of the command planes 24ZX, 24XY, and 24YZ is reduced to 1 ⁇ 2 by a pinch-in operation. For example, when the scaling ratio changes from 1 to 2, the command unit determining unit 5 halves the command unit. Specifically, the command unit determination unit 5 converts the command unit to 1 ⁇ 2 when the size of the command planes 24ZX, 24XY, and 24YZ is doubled by a pinch-out operation. The command unit determination unit 5 outputs the command unit to the movement amount generation unit 6.
  • the movement amount generation unit 6 calculates the movement amount for each control period from the product of the operation amount of the drag operation input from the gesture operation determination unit 3 and the command unit input from the command unit determination unit 5. To calculate.
  • the movement amount generation unit 6 outputs the calculated movement amount to the control unit 7.
  • the control unit 7 drives the tool 22 in the X-axis, Y-axis, and Z-axis directions based on the movement amount input from the movement amount generation unit 6.
  • the numerical control device 1 When the functions of the numerical control device 1 are realized by software, the numerical control device 1 includes a processor and a memory.
  • the functions of the gesture operation determination unit 3, the enlargement / reduction ratio calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6 included in the numerical control device 1 are realized by a processor.
  • the processor is also referred to as a CPU (Central Processing Unit), a processing device, an arithmetic device, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor).
  • the functions of the gesture operation determination unit 3, the scaling factor calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6 are realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are described as programs and stored in a memory.
  • the processor implements the functions of the gesture operation determination unit 3, the enlargement / reduction ratio calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6 by reading and executing a program stored in the memory. These programs can be said to cause the computer to execute the procedures executed by the gesture operation determination unit 3, the expansion / contraction rate calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6.
  • Memory is volatile or non-volatile semiconductor memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Read Only Memory), magnetic Discs, flexible discs, optical discs, compact discs, minidiscs, and DVDs (Digital Versatile Discs) are applicable.
  • the functions of the gesture operation determination unit 3, the enlargement / reduction ratio calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6 included in the numerical control device 1 may be realized by a processing circuit.
  • the processing circuit is dedicated hardware for realizing the functions of the gesture operation determination unit 3, the enlargement / reduction ratio calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6.
  • the processing circuit corresponds to a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof. Different functions may be realized for the respective functions of the gesture operation determination unit 3, the enlargement / reduction ratio calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6. It may be realized.
  • Each of the functions of the gesture operation determination unit 3, the enlargement / reduction ratio calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6 is partially realized by dedicated hardware and partially realized by software or firmware. Good.
  • the numerical control device 1 realizes the functions of the gesture operation determination unit 3, the enlargement / reduction rate calculation unit 4, the command unit determination unit 5, and the movement amount generation unit 6 by hardware, software, firmware, or a combination thereof. can do.
  • the worker performs a pinch-in operation when reducing the command plane 24ZX.
  • the numerical controller 1 reduces and displays the command plane 24ZX based on the relative operation amount of the pinch-in operation.
  • the numerical controller 1 calculates the enlargement / reduction ratio based on the relative operation amount of the pinch-in operation.
  • the worker performs a pinch-out operation when enlarging the command plane 24ZX.
  • the numerical controller 1 enlarges and displays the command plane 24ZX based on the relative operation amount of the pinch-out operation.
  • the numerical controller 1 calculates the enlargement / reduction ratio based on the relative operation amount of the pinch-out operation.
  • the worker performs a drag operation when moving the tool 22 of the machine tool 100 as shown in FIG. More specifically, first, the operator touches the position P1 of the tool 22 displayed in the operation area 21 with one finger. Thereby, the worker specifies that the operation target is the tool 22. Next, the operator moves the one finger from the position P1 to the position P2 with one finger touching the operation area 21. The position P2 is a position to which the tool 22 is moved. An arrow 26 shown in FIG. 6 indicates a trajectory in which one finger moves on the operation area 21 from the position P1 to the position P2. Next, the worker releases one finger from the position P2. The numerical control device 1 calculates the movement amount for each control cycle from the product of the operation amount of the drag operation and the command unit.
  • the numerical controller 1 outputs the movement amount to the machine tool 100.
  • Machine tool 100 moves tool 22 from position P1 to position P2 at a speed based on the amount of movement.
  • the tool 22 can be moved in the Z-axis direction and the X-axis direction by a single operation. As a result, it is possible to operate the tool 22 intuitively and easily compared to the case where the tool 22 is operated and moved for each axis.
  • the operation target is specified by the operator touching with one finger, but is not limited thereto.
  • the operator may specify the operation target by single-tapping the operation target.
  • the single tap is an operation of placing one finger on the screen and releasing it.
  • FIG. 7 is a flowchart showing an example of numerical control by the numerical control apparatus 1 according to the first embodiment. Next, processing of the numerical controller 1 according to the first embodiment will be described with reference to FIGS. 1 and 7.
  • the gesture operation determination unit 3 determines the type of gesture operation when a gesture operation is input to the display 2 with a touch panel (step S11).
  • the gesture operation determination unit 3 outputs the relative operation amount of the pinch operation to the enlargement / reduction ratio calculation unit 4 when the type of the gesture operation is a pinch operation.
  • the enlargement / reduction ratio calculation unit 4 calculates the enlargement / reduction ratio according to the relative operation amount of the pinch operation (step S12).
  • the enlargement / reduction ratio calculation unit 4 outputs the enlargement / reduction ratio to the display 2 with a touch panel.
  • the display device with a touch panel 2 enlarges / reduces the screen display based on the enlargement / reduction ratio (step S13).
  • the enlargement / reduction ratio calculation unit 4 outputs the enlargement / reduction ratio to the command unit determination unit 5.
  • the command unit determination unit 5 calculates a command unit according to the enlargement / reduction ratio.
  • the command unit determination unit 5 outputs the calculated command unit to the movement amount generation unit 6 (step S14).
  • the gesture operation determination unit 3 outputs the operation amount of the drag operation to the movement amount generation unit 6 when the type of the gesture operation is a drag operation.
  • the movement amount generator 6 calculates the movement amount based on the operation amount of the drag operation and the command unit (step S15).
  • the movement amount generation unit 6 outputs the calculated movement amount to the control unit 7 of the machine tool 100 (step S16).
  • the display 2 with a touch panel outputs a signal corresponding to the gesture operation to the gesture operation determination unit 3.
  • the gesture operation determination unit 3 moves the operation amount of the drag operation.
  • the gesture operation determination unit 3 outputs the relative operation amount of the pinch operation to the enlargement / reduction rate calculation unit 4, and the enlargement / reduction rate calculation unit 4 performs the relative operation of the pinch operation.
  • the expansion / contraction rate corresponding to the amount is calculated.
  • the command unit determination unit 5 adjusts the command unit based on the enlargement / reduction ratio, and the movement amount generation unit 6 gives the movement amount obtained from the product of the drag operation amount and the command unit to the machine tool 100. Output.
  • the command planes 24ZX, 24XY, and 24YZ displayed in the operation area 21 are reduced and the command unit is increased by performing a pinch-in operation. Can be performed simultaneously.
  • the command planes 24ZX, 24XY, and 24YZ displayed in the operation area 21 can be enlarged and the command unit can be reduced simultaneously by performing a pinch-out operation. .
  • the operation area 21 can be enlarged / reduced and a command unit suitable for the enlargement / reduction ratio of the operation area 21 can be set by a single pinch operation. It can be operated at a moving speed suitable for.
  • the machine tool 100 can be operated with a simple and intuitive operation, and the operability of the machine tool 100 can be improved.
  • the numerical control device 1 can change the command unit based on the enlargement / reduction ratio by the pinch operation, when the tool 22 and the work 23 are separated, the operation area 21 is reduced and moved at a high speed. Can do. Further, the numerical control device 1 can enlarge the operation area 21 and move it at a slow speed when the tool 22 and the work 23 are close to each other. Thus, the numerical control device 1 can change the moving speed of the tool 22 with respect to the operation amount of the drag operation by a simple and intuitive operation according to the situation.
  • FIG. FIG. 9 is a block diagram illustrating a configuration of the numerical control device 1a according to the second embodiment.
  • FIG. 10 is a flowchart illustrating an example of numerical control by the numerical control device 1a according to the second embodiment.
  • the numerical controller 1 a includes a position update unit 41 a and a speed limit determination unit 42 a, and includes a touch panel-equipped display 2 a instead of the touch panel-equipped display 2 and replaces the movement amount generation unit 6.
  • the numerical control device 1 is the same as the numerical control device 1 according to the first embodiment except that the movement amount generation unit 6a is provided.
  • the numerical controller 1a includes a touch panel display 2a, a gesture operation determination unit 3, an enlargement / reduction ratio calculation unit 4, a command unit determination unit 5, a position update unit 41a, and a speed limit determination.
  • Unit 42a and a movement amount generation unit 6a are examples of the numerical controller 1a.
  • the display 2a with a touch panel is the same as the display 2 with a touch panel except that the speed limit area is output to the speed limit determination unit 42a and the limit speed is output to the movement amount generation unit 6a.
  • the speed limit area is position information indicating, for example, a region where an object inside or outside the machine tool may interfere with the tool 22, the vicinity of the stroke limit of the tool 22, and the vicinity of the workpiece 23.
  • the speed limit is a speed limit value of the tool 22 when the tool 22 is located in the speed limit area.
  • the speed limit area and the speed limit are preset by the operator.
  • the touch panel-equipped display 2a outputs the speed limit area to the speed limit determination unit 42a.
  • the touch panel display 2a outputs the speed limit to the movement amount generation unit 6a.
  • the position update unit 41a receives the movement amount for each control cycle calculated by the movement amount generation unit 6a.
  • the position update unit 41a integrates the movement amount input from the movement amount generation unit 6a.
  • the position update unit 41a calculates the current position information of the tool 22 from the integrated value of the movement amount.
  • the current position information of the tool 22 is appropriately referred to as a current position.
  • the position update unit 41a outputs the current position to the speed limit determination unit 42a.
  • the speed limit determination unit 42a compares the current position input from the position update unit 41a with the speed limit area input from the touch panel-equipped display 2a, and determines whether the tool 22 is located in the speed limit area. judge. When it is determined that the tool 22 is located in the speed limit area, the speed limit determination unit 42a outputs a speed limit determination signal to the movement amount generation unit 6a.
  • the movement amount generation unit 6a is the same as the movement amount generation unit 6 except that the movement amount for each control cycle is adjusted when a speed limit determination signal is input.
  • the movement amount generation unit 6a determines whether or not the current movement speed of the tool 22 exceeds the limit speed when a speed limit determination signal is input from the speed limit determination unit 42a. Specifically, the movement amount generation unit 6a calculates the current movement speed of the tool 22 from the movement amount calculated for each control cycle.
  • the movement amount generation unit 6a compares the current movement speed of the tool 22 with the speed limit input from the display 2a with a touch panel, and determines whether or not the current movement speed of the tool 22 exceeds the speed limit. To do.
  • the movement amount generation unit 6a corrects the movement amount so that the movement speed of the tool 22 becomes the limit speed. That is, the upper limit value of the movement amount for each control cycle is calculated from the product of the speed limit and the control cycle, and the current movement amount is adjusted to be equal to or less than the upper limit value of the movement amount for each control cycle.
  • FIG. 10 is a flowchart illustrating an example of numerical control by the numerical control device 1a according to the second embodiment.
  • the numerical control device 1a according to the second embodiment is the same as the numerical control device 1 according to the first embodiment with respect to step S11, step S12, step S13, and step S14. Therefore, the same steps as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the gesture operation determination unit 3 outputs the operation amount of the drag operation to the movement amount generation unit 6a when the type of the gesture operation is a drag operation.
  • the movement amount generation unit 6a calculates the movement amount based on the operation amount of the drag operation and the command unit (step S21).
  • the movement amount generation unit 6a outputs the calculated movement amount to the control unit 7 of the machine tool 100 (step S22).
  • the position update unit 41a integrates the movement amount input from the movement amount generation unit 6a.
  • the position update unit 41a calculates the current position information of the tool 22 from the integrated value of the movement amount (step S23).
  • the speed limit determination unit 42a compares the current position of the tool 22 with the speed limit area, and determines whether or not the tool 22 is located in the speed limit area. When it is determined that the tool 22 is located in the speed limit area, the speed limit determination unit 42a outputs a speed limit determination signal to the movement amount generation unit 6a. The movement amount generation unit 6a determines whether or not the current movement speed of the tool 22 exceeds the limit speed when the speed limit determination signal is input from the speed limit determination unit 42a (step S24).
  • the movement amount generation unit 6a determines that the tool 22 is located in the speed limit area and the movement speed of the tool 22 exceeds the speed limit, the movement speed of the tool 22 becomes the speed limit.
  • the movement amount is corrected to (step S25).
  • the position update unit 41a calculates the current position by integrating the movement amount for each control cycle, the speed limit determination unit 42a compares the current position with the speed limit area, and the current position is the speed limit area. If it is determined that the position is within, a speed limit determination signal is output to the movement amount generation unit 6a, and the movement amount generation unit 6a corrects the movement amount so that the movement speed of the tool 22 is less than or equal to the limit speed. To do.
  • FIG. 11 is a block diagram illustrating a configuration of the numerical control device 1b according to the third embodiment.
  • FIG. 12 is an explanatory diagram illustrating an operation example when a two-finger drag operation is input to the numerical control device 1b according to the third embodiment.
  • FIG. 13 is a flowchart illustrating an example of numerical control by the numerical control device according to the third embodiment.
  • the same reference numerals as those of the numerical control device 1 are used for the same configuration as the numerical control device 1, and the detailed description thereof is omitted.
  • the numerical control device 1b is the same as the numerical control device 1 according to the first embodiment except that the numerical control device 1b includes a movement plane determination unit 51b and a gesture operation determination unit 3b instead of the gesture operation determination unit 3. It is.
  • the numerical control device 1 b includes a touch panel display 2, a gesture operation determination unit 3 b, an enlargement / reduction ratio calculation unit 4, a command unit determination unit 5, a movement amount generation unit 6, and a movement plane. And a determination unit 51b.
  • the gesture operation determination unit 3b determines that the gesture operation is a two-finger drag operation
  • the gesture operation determination unit 3b and the gesture operation determination unit 3 except that information on the direction of the two-finger drag operation is output to the movement plane determination unit 51b.
  • the direction of the two-finger drag operation is a direction from the position where the two fingers are placed on the screen to the position where the two fingers are released in the two-finger drag operation.
  • the gesture operation determination unit 3b determines whether the direction of the two-finger drag operation is the vertical direction or the horizontal direction, and outputs the determination result to the movement plane determination unit 51b.
  • the vertical direction is the vertical direction of the display 2 with a touch panel as shown in FIG.
  • a horizontal direction is the left-right direction of the display 2 with a touch panel, as shown in FIG.
  • the movement plane determination unit 51b displays the command plane 24ZX, the command plane 24XY, and the command plane 24YZ according to the information on the direction of the two-finger drag operation input from the gesture operation determination unit 3b. Switch. Specifically, the movement plane determination unit 51b switches the command plane 24ZX to the command plane 24XY when the command plane 24ZX is displayed in the operation area 21 and a vertical signal is input from the gesture operation determination unit 3b. When the command plane 24ZX is displayed in the operation area 21 and a lateral signal is input from the gesture operation determination unit 3b, the movement plane determination unit 51b switches the command plane 24ZX to the command plane 24YZ.
  • the movement plane determination unit 51b switches the command plane 24XY to the command plane 24ZX when the command plane 24XY is displayed in the operation area 21 and a vertical signal is input from the gesture operation determination unit 3b.
  • the movement plane determination unit 51b switches the command plane 24XY to the command plane 24YZ when the command plane 24XY is displayed in the operation area 21 and a lateral signal is input from the gesture operation determination unit 3b.
  • the movement plane determination unit 51b switches the command plane 24YZ to the command plane 24XY when the command plane 24YZ is displayed in the operation area 21 and a vertical signal is input from the gesture operation determination unit 3b.
  • the movement plane determination unit 51b switches the command plane 24YZ to the command plane 24ZX when the command plane 24YZ is displayed in the operation area 21 and a lateral signal is input from the gesture operation determination unit 3b.
  • FIG. 13 is a flowchart illustrating an example of numerical control by the numerical control device 1b according to the third embodiment.
  • the processing of the numerical control device 1b according to the third embodiment is the same as the numerical control device 1 according to the first embodiment with respect to step S11, step S12, step S13, step S14, step S15, and step S16. is there. Therefore, description of the same steps as those in Embodiment 1 is omitted.
  • a two-finger drag operation is input to the display 2 with a touch panel, and the gesture operation determination unit 3b outputs information on the direction of the two-finger drag operation to the movement plane determination unit 51b. The subsequent processing is shown.
  • the movement plane determination unit 51b determines whether or not the direction of the two-finger drag operation is the horizontal direction as shown in FIG. 13 (step S31). When the direction of the two-finger drag operation is the horizontal direction, the movement plane determination unit 51b determines whether or not the currently displayed command plane is the command plane 24XY (step S32). The movement plane determination unit 51b switches the command plane 24XY to the command plane 24YZ when it is determined that the direction of the two-finger drag operation is the horizontal direction and the currently displayed command plane is the command plane 24XY. (Step S33).
  • the movement plane determination unit 51b determines that the direction of the two-finger drag operation is the horizontal direction and the currently displayed command plane is not the command plane 24XY
  • the currently displayed command plane is the command It is determined whether or not the plane is 24YZ (step S34).
  • the movement plane determination unit 51b switches the command plane from the command plane 24YZ to the command plane 24ZX ( Step S35).
  • the command plane is commanded from the command plane 24ZX. The plane is switched to the plane 24YZ (step S36).
  • the movement plane determination unit 51b determines whether or not the currently displayed command plane is 24XY (step S37).
  • the movement plane determination unit 51b determines that the direction of the two-finger drag operation is not the horizontal direction and determines that the currently displayed command plane is the command plane 24XY
  • the command plane 24XY is changed to the command plane 24ZX. Switching (step S38).
  • the movement plane determination unit 51b determines that the direction of the two-finger drag operation is not the horizontal direction and determines that the currently displayed command plane is not the command plane 24XY
  • the command plane is determined from the command plane 24YZ. Switch to the command plane 24XY (step S40).
  • the movement plane determination unit 51b determines that the travel of the two-finger drag operation is not in the horizontal direction and determines that the currently displayed command plane is not the command plane 24XY or the command plane 24YZ, the movement plane determination unit 51b The command plane 24ZX is switched to the command plane 24XY (step S41).
  • the gesture operation determination unit 3b when a two-finger drag operation is input to the touch panel display 2, the gesture operation determination unit 3b outputs information on the direction of the two-finger drag operation to the movement plane determination unit 51b and moves The plane determining unit 51b switches between the command plane 24ZX, the command plane 24XY, and the command plane 24YZ according to the drag direction information input from the gesture operation determination unit 3b.
  • the plane determining unit 51b switches between the command plane 24ZX, the command plane 24XY, and the command plane 24YZ according to the drag direction information input from the gesture operation determination unit 3b.
  • the gesture operation determination unit 3b when a two-finger drag operation is input to the touch panel-equipped display 2, the gesture operation determination unit 3b outputs information on the direction of the drag operation to the movement plane determination unit 51b.
  • the numerical control device 1b switches the command plane 24ZX to the command plane 24XY when the command plane 24ZX is displayed in the operation area 21 and a vertical signal is input from the gesture operation determination unit 3b to the movement plane determination unit 51b.
  • the numerical control device 1b switches the command plane 24YZ to the command plane 24XY when the command plane 24YZ is displayed in the operation area 21 and a vertical signal is input from the gesture operation determination unit 3b to the movement plane determination unit 51b.
  • the numerical controller 1b switches the command plane 24ZX to the command plane 24YZ when the command plane 24ZX is displayed in the operation area 21 and a lateral signal is input from the gesture operation determination unit 3b to the movement plane determination unit 51b.
  • the numerical control device 1b switches the command plane 24YZ to the command plane 24ZX when the command plane 24YZ is displayed in the operation area 21 and a lateral signal is input from the gesture operation determination unit 3b to the movement plane determination unit 51b.
  • the command plane 24ZX and the command plane 24YZ can be switched by a two-finger drag operation in the horizontal direction.
  • the command plane 24ZX and the command plane 24YZ can be switched by a simple and intuitive operation.
  • the command plane 24ZX and the command plane 24XY can be switched by a two-finger drag operation in the vertical direction.
  • switching between the command plane 24ZX and the command plane 24XY, which is a viewpoint change in the vertical direction can be performed by a two-finger drag operation in the vertical direction.
  • the command plane 24ZX and the command plane 24XY can be switched by a simple and intuitive operation.
  • the numerical controller 1b can switch the command planes 24ZX, 24YZ, and 24XY with a simple and intuitive operation.
  • the configuration described in the above embodiment shows an example of the contents of the present invention, and can be combined with another known technique, and can be combined with other configurations without departing from the gist of the present invention. It is also possible to omit, replace, and change the part.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ジェスチャ操作による入力を受け付ける操作エリアを有し、操作エリアに工作機械及び工作機械の加工対象物であるワークを特定の方向から見た場合の指令平面を表示するタッチパネルと、ピンチ操作の相対的な操作量に応じた拡縮率を算出する拡縮率算出部と、拡縮率に基づいて操作エリアに入力されたドラッグ操作の操作量を工作機械の駆動部の動作量に変換するための指令単位を算出する指令単位決定部と、ドラッグ操作の操作量及び指令単位を用いて駆動部の移動量を算出して工作機械に出力する移動量生成部と、を備えることを特徴とする。

Description

数値制御装置
 本発明は、工作機械を制御する数値制御装置に関する。
 従来、数値制御装置(以下、適宜NC(Numerical Control)装置と称する)は、加工プログラムに記載された加工位置及び加工速度の命令を示す加工指令に対して補正処理を行い、駆動指令を生成して工作機械を制御することで、高速かつ高精度な加工を実現している。NC装置は、タッチパネルを搭載し、ジェスチャ操作によって工作機械を制御するものが知られている。
 NC装置が搭載された工作機械は、手動操作により機械を操作させる場合、ハンドルを使用して操作することが多い。しかし、ハンドルによる操作では、1軸毎に操作する必要があり、操作性が悪いという問題があった。
 近年、タッチパネルによるインターフェースが普及し、ジェスチャ操作を利用して対象物を操作させることが可能になった。ジェスチャ操作は、例えば、タッチパネルに表示された対象物に対してドラッグ操作を入力することで、対象物を操作することができる。ジェスチャ操作は、ハンドルによる操作と比較して、直感的で簡単に操作をすることができる。特許文献1には、ジェスチャ操作によって、ロボットを制御するロボット操作装置が記載されている。特許文献1に記載の発明は、ドラッグ操作によりロボットの動作を制御することで、操作性を向上させ、操作に要する時間を短縮することができる。
特開2015-83331号公報
 ここで、NC装置は、より簡単なジェスチャ操作で工作機械に所望の動作を行わせることで操作性が向上する。NC装置は、関連性の高いジェスチャ操作を工作機械の動作に割り当てることで、操作性を向上させているが、さらなる操作性の向上が望まれている。
 本発明は、上記に鑑みてなされたものであって、工作機械を直感的に操作することができ、工作機械の操作性を向上させることができる数値制御装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る数値制御装置は、ジェスチャ操作による入力を受け付ける操作エリアを有し、前記操作エリアに工作機械及び前記工作機械の加工対象物であるワークを特定の方向から見た場合の指令平面を表示するタッチパネルと、ピンチ操作の相対的な操作量に応じた拡縮率を算出する拡縮率算出部と、前記拡縮率に基づいて前記操作エリアに入力されたドラッグ操作の操作量を前記工作機械の駆動部の動作量に変換するための指令単位を算出する指令単位決定部と、前記ドラッグ操作の前記操作量及び前記指令単位を用いて前記駆動部の移動量を算出して前記工作機械に出力する移動量生成部と、を備える。
 本発明によれば、工作機械を直感的に操作することができ、工作機械の操作性を向上させることができる数値制御装置を提供できるという効果を奏する。
実施の形態1に係る数値制御装置の構成を示すブロック図 実施の形態1に係る数値制御装置のタッチパネル付表示器の表示例を示した説明図 実施の形態1に係る数値制御装置の指令平面の一例を示した説明図 実施の形態1に係る数値制御装置の指令平面の他の例を示した説明図 実施の形態1に係る数値制御装置にピンチ操作を入力した場合の動作例を示す説明図 実施の形態1に係る数値制御装置にドラッグ操作を入力した場合の動作例を示す説明図 実施の形態1に係る数値制御装置による数値制御の一例を示すフローチャート 実施の形態1に係る数値制御装置のハードウェア構成を示す概略構成図 実施の形態2に係る数値制御装置の構成を示すブロック図 実施の形態2に係る数値制御装置による数値制御の一例を示すフローチャート 実施の形態3に係る数値制御装置の構成を示すブロック図 実施の形態3に係る数値制御装置に2本指ドラッグ操作を入力した場合の動作例を示す説明図 実施の形態3に係る数値制御装置による数値制御の一例を示すフローチャート
 以下に、本発明の実施の形態に係る数値制御装置を図面に基づいて詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。
実施の形態1.
 図1は、実施の形態1に係る数値制御装置1の構成を示すブロック図である。図2は、実施の形態1に係る数値制御装置1のタッチパネル付表示器2の表示例を示した説明図である。図3は、実施の形態1に係る数値制御装置1の指令平面の一例を示した説明図である。図4は、実施の形態1に係る数値制御装置1の指令平面の他の例を示した説明図である。図5は、実施の形態1に係る数値制御装置1にピンチ操作を入力した場合の動作例を示す説明図である。図6は、実施の形態1に係る数値制御装置1にドラッグ操作を入力した場合の動作例を示す説明図である。図7は、実施の形態1に係る数値制御装置1による数値制御の一例を示すフローチャートである。図8は、実施の形態1に係る数値制御装置1のハードウェア構成を示す概略構成図である。数値制御装置1は、図1に示すように、タッチパネル付表示器2と、ジェスチャ操作判定部3と、拡縮率算出部4と、指令単位決定部5と、移動量生成部6と、を備える。数値制御装置1は、入力されたジェスチャ操作に応じて工作機械100に移動指令値である移動量を出力するNC装置である。移動量とは、後述する工作機械100の駆動部8が単位周期の間に動作する動作量を表した指令値である。単位周期は、数値制御装置1の制御周期が例示されるが、これに限定されない。ジェスチャ操作とは、例えば、ピンチ操作、ドラッグ操作及び2本指ドラッグ操作である。ピンチ操作とは、2本の指を画面上に載せ、2本の指の間隔を狭める操作(以下、ピンチインと称する)及び2本の指の間隔を広げる操作(以下、ピンチアウトと称する)である。ドラッグ操作とは、1本の指を画面上に載せた状態でスライドさせ、任意の位置で画面から指を離す操作である。2本指ドラッグ操作とは、2本の指を画面上に載せた状態でスライドさせ、任意の位置で画面から2本の指を離す操作である。本実施の形態における工作機械100は、制御部7と、駆動部8と、工具22とを備える。制御部7は、移動量に応じて駆動部8の動作を制御する制御部である。制御部7は、例えば、サーボアンプである。駆動部8は、例えば、工具22をX軸、Y軸及びZ軸方向に駆動させるモータである。工具22は、図1及び図2に示すように、ワーク23の加工を行う工作機械100の加工部である。工具22は、例えば、ドリル、フライス及びバイトである。ワーク23は、工作機械100によって加工される加工対象物である。
 タッチパネル付表示器2は、図2に示すように、タッチパネルである。タッチパネルとは、位置入力機能を備えるディスプレイである。タッチパネル付表示器2は、作業者がジェスチャ操作を入力した場合に、ジェスチャ操作に応じた信号をジェスチャ操作判定部3へ出力する。タッチパネル付表示器2は、図2から図4に示すように、操作エリア21を備える。操作エリア21は、ジェスチャ操作を受け付ける入力部である。操作エリア21は、図2、図3、及び図4に示すように、指令平面24ZX,24XY,24YZが表示される領域である。指令平面24ZX,24XY,24YZは、工具22及びワーク23を特定の方向から見た平面図である。指令平面24ZXは、図2に示すように、工具22及びワーク23をY軸方向から見た平面図である。指令平面24XYは、図3に示すように、工具22及びワーク23をZ軸方向から見た平面図である。指令平面24YZは、図4に示すように、工具22及びワーク23をX軸方向から見た平面図である。指令平面24ZX,24XY,24YZは、例えば、タッチパネル付表示器2が備えるスイッチ(不図示)を押すことで切り替えて表示される。指令平面24ZX,24XY,24YZに表示される工具22及びワーク23の形状情報及び位置情報は、作業者によって予め設定される。形状情報とは、例えば、工具22及びワーク23のCADデータである。位置情報とは、例えば、指令平面24ZX,24XY,24YZにおける工具22及びワーク23のX軸、Y軸、及びZ軸方向の座標情報である。
 なお、工具22及びワーク23の形状情報及び位置情報は、作業者によって予め設定されるとしたが、これに限定されない。工具22及びワーク23の形状情報及び位置情報は、例えば、数値制御装置1が工具22及びワーク23を撮影する光学機器と、光学機器が撮影した映像を解析する画像処理部と、を備え、画像処理部が光学機器の映像を解析することで、工具22及びワーク23の形状情報及び位置情報を取得し、設定する構成としてもよい。
 タッチパネル付表示器2は、拡縮率算出部4から拡縮率の情報が入力された場合に、指令平面24ZX,24XY,24YZを拡縮率に応じた大きさで表示する。ここで、拡縮率とは、指令平面24ZX,24XY,24YZの基準となる表示サイズに対する大きさの比である。タッチパネル付表示器2は、例えば、拡縮率算出部4から入力される拡縮率が2であった場合に、基準となる表示サイズの2倍に拡大した大きさで指令平面24ZX,24XY,24YZを操作エリア21に表示する。
 ジェスチャ操作判定部3は、図1に示すように、タッチパネル付表示器2から入力された信号を解析し、タッチパネル付表示器2に入力されたジェスチャ操作の種類を判定する。ジェスチャ操作判定部3は、ジェスチャ操作がピンチ操作であると判定した場合に、ピンチ操作の相対的操作量を拡縮率算出部4に出力する。ジェスチャ操作判定部3は、ジェスチャ操作がドラッグ操作であると判定した場合に、移動量生成部6にドラッグ操作の操作量を制御周期毎に出力する。ドラッグ操作の操作量とは、例えば、図6に示すように、操作エリア21に指令平面24ZXを表示する場合には、指を画面上に載せた位置P1を基準として画面から指を離した位置P2までZ軸方向及びX軸方向にそれぞれスライドした距離である。操作エリア21に指令平面24XYを表示する場合、ドラッグ操作の操作量は、指を画面上に載せた位置を基準として画面から指を離した位置までX軸方向及びY軸方向にそれぞれスライドした距離である。操作エリア21に指令平面24YZを表示する場合、ドラッグ操作の操作量は、指を画面上に載せた位置を基準として画面から指を離した位置までY軸方向及びZ軸方向にそれぞれスライドした距離である。
 拡縮率算出部4は、図5に示すように、ジェスチャ操作判定部3から入力されるピンチ操作の相対的操作量に基づいて拡縮率を算出する。拡縮率算出部4は、図1に示すように、タッチパネル付表示器2及び指令単位決定部5に拡縮率を出力する。
 指令単位決定部5は、図1に示すように、拡縮率算出部4から入力される拡縮率に応じて指令単位を算出する。ここで、指令単位とは、ドラッグ操作の操作量を工作機械100の制御部7に出力する移動量に変換する変換係数である。指令単位は、例えば、拡縮率が1の場合に、10である。つまり、指令単位は、例えば、拡縮率が1であり、かつドラッグ操作の操作量が10cmであった場合に、ドラッグ操作の操作量を100cmの移動量に変換する変換係数である。指令単位決定部5は、例えば、拡縮率が1から0.5に変化した場合に、指令単位を2倍にする。具体的には、指令単位決定部5は、ピンチイン操作によって指令平面24ZX,24XY,24YZの大きさが1/2に縮小した場合に、指令単位を2倍に変換する。指令単位決定部5は、例えば、拡縮率が1から2に変化した場合に、指令単位を1/2倍にする。具体的には、指令単位決定部5は、ピンチアウト操作によって指令平面24ZX,24XY,24YZの大きさが2倍に拡大した場合に、指令単位を1/2倍に変換する。指令単位決定部5は、指令単位を移動量生成部6に出力する。
 移動量生成部6は、図1に示すように、ジェスチャ操作判定部3から入力されるドラッグ操作の操作量と指令単位決定部5から入力される指令単位との積から移動量を制御周期毎に算出する。移動量生成部6は、算出した移動量を制御部7に出力する。制御部7は、例えば、移動量生成部6から入力される移動量に基づいて、工具22をX軸、Y軸及びZ軸方向に駆動させる。
 数値制御装置1の機能がソフトウェアで実現される場合、数値制御装置1は、プロセッサ及びメモリを含む。数値制御装置1が有するジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6の機能は、プロセッサによって実現される。プロセッサは、CPU(Central Processing Unit:中央処理装置)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)ともいう。
 この場合、ジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組合せにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリに記憶される。プロセッサは、メモリに記憶されたプログラムを読み出して実行することにより、ジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6の機能を実現する。これらのプログラムは、ジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6が実行する手順をコンピュータに実行させるものであるともいえる。
 メモリは、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、及びEEPROM(Electrically Erasable Programmable Read Only Memory)といった揮発性又は不揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、及びDVD(Digital Versatile Disc)が該当する。
 数値制御装置1が有するジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6の機能は、処理回路によって実現されてもよい。処理回路は、ジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6の機能を実現するための専用のハードウェアである。処理回路は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。ジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6のそれぞれの機能を異なる処理回路が実現してもよいし、それぞれの機能をまとめて1つの処理回路が実現してもよい。
 ジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6の各機能は、一部が専用のハードウェアで実現され、一部がソフトウェア又はファームウェアで実現されてもよい。このように、数値制御装置1は、ハードウェア、ソフトウェア、ファームウェア又はこれらの組合せによって、ジェスチャ操作判定部3、拡縮率算出部4、指令単位決定部5及び移動量生成部6の各機能を実現することができる。
 次に、図5及び図6を参照して、実施の形態1に係る数値制御装置1を用いて工作機械100を操作する方法の一例を説明する。以下の説明においては、操作エリア21に指令平面24ZXが表示されている場合の操作方法について説明する。なお、操作エリア21に指令平面24XY、又は指令平面24YZが表示されている場合の操作方法は、操作エリア21に指令平面24ZXが表示されている場合と同様であるため、説明を省略する。
 作業者は、図5に示すように、指令平面24ZXを縮小させる場合、ピンチイン操作を行う。数値制御装置1は、ピンチイン操作の相対的操作量に基づいて、指令平面24ZXを縮小して表示する。数値制御装置1は、ピンチイン操作の相対的操作量に基づいて、拡縮率を算出する。このような操作方法により、2本の指の間隔を狭めることで、指令平面24ZXを縮小することができる。その結果、直感的な操作で、指令平面24ZXを縮小して表示することができる。
 作業者は、指令平面24ZXを拡大させる場合、ピンチアウト操作を行う。数値制御装置1は、ピンチアウト操作の相対的操作量に基づいて、指令平面24ZXを拡大して表示する。数値制御装置1は、ピンチアウト操作の相対的操作量に基づいて、拡縮率を算出する。このような操作方法により、2本の指の間隔を広げることで、指令平面24ZXを拡大することができる。その結果、直感的な操作で、指令平面24ZXを拡大して表示することができる。
 作業者は、図6に示すように、工作機械100の工具22を移動させる場合、ドラッグ操作を行う。より詳細には、まず、作業者は、操作エリア21に表示された工具22の位置P1を1本指でタッチする。これにより、作業者は、操作対象物が工具22であることを指定する。次に、作業者は、1本指が操作エリア21に触れた状態で、位置P1から位置P2まで1本指を移動する。位置P2は、工具22の移動先の位置である。図6に示す矢印26は、1本指が操作エリア21上を位置P1から位置P2まで移動した軌跡を示す。次に、作業者は、位置P2から1本指を離す。数値制御装置1は、ドラッグ操作の操作量と指令単位との積から制御周期毎の移動量を算出する。数値制御装置1は、移動量を工作機械100に出力する。工作機械100は、移動量に基づいた速度で工具22を位置P1から位置P2まで移動させる。このような操作方法により、1回の操作で工具22をZ軸方向及びX軸方向に移動させることができる。その結果、1軸ごとに工具22を操作して移動させる場合と比較して、直感的かつ簡単に工具22を操作することができる。
 なお、操作対象物は、作業者が1本指でタッチすることで指定するとしたがこれに限定されない。操作対象物の指定方法は、例えば、作業者が操作対象物をシングルタップすることで指定する構成としてもよい。ここで、シングルタップとは、1本の指を画面上に載せて離す操作である。
 図7は、実施の形態1に係る数値制御装置1による数値制御の一例を示すフローチャートである。次に、図1及び図7を参照して、実施の形態1に係る数値制御装置1の処理について説明する。
 ジェスチャ操作判定部3は、図1及び図7に示すように、タッチパネル付表示器2にジェスチャ操作が入力された場合に、ジェスチャ操作の種類を判定する(ステップS11)。
 ジェスチャ操作判定部3は、ジェスチャ操作の種類がピンチ操作であった場合に、ピンチ操作の相対的操作量を拡縮率算出部4に出力する。拡縮率算出部4は、ピンチ操作の相対的操作量に応じて拡縮率を算出する(ステップS12)。
 拡縮率算出部4は、拡縮率をタッチパネル付表示器2に出力する。タッチパネル付表示器2は、拡縮率に基づいて画面の表示を拡縮させる(ステップS13)。
 拡縮率算出部4は、拡縮率を指令単位決定部5に出力する。指令単位決定部5は、拡縮率に応じて指令単位を算出する。指令単位決定部5は、算出した指令単位を移動量生成部6に出力する(ステップS14)。
 ジェスチャ操作判定部3は、ジェスチャ操作の種類がドラッグ操作であった場合に、ドラッグ操作の操作量を移動量生成部6に出力する。移動量生成部6は、ドラッグ操作の操作量及び指令単位に基づいて移動量を算出する(ステップS15)。
 移動量生成部6は、算出した移動量を工作機械100の制御部7に出力する(ステップS16)。
 数値制御装置1は、タッチパネル付表示器2がジェスチャ操作に応じた信号をジェスチャ操作判定部3へ出力し、ジェスチャ操作がドラッグ操作である場合にジェスチャ操作判定部3がドラッグ操作の操作量を移動量生成部6に出力する。数値制御装置1は、ジェスチャ操作がピンチ操作である場合にジェスチャ操作判定部3がピンチ操作の相対的操作量を拡縮率算出部4に出力し、拡縮率算出部4がピンチ操作の相対的操作量に応じた拡縮率を算出する。数値制御装置1は、指令単位決定部5が拡縮率に基づいて指令単位を調整し、移動量生成部6がドラッグ操作の操作量と指令単位との積から求めた移動量を工作機械100に出力する。このような処理により、工具22とワーク23との距離が離れている場合には、ピンチイン操作を行うことで操作エリア21に表示される指令平面24ZX,24XY,24YZの縮小と指令単位の増加とを同時に行うことができる。また、工具22とワーク23との距離が近い場合に、ピンチアウト操作を行うことで操作エリア21に表示される指令平面24ZX,24XY,24YZの拡大と指令単位の減少とを同時に行うことができる。これにより、1回のピンチ操作で操作エリア21の拡縮と操作エリア21の拡縮率に適した指令単位の設定とを行うことができるので、工作機械100を指令平面24ZX,24XY,24YZの拡縮率に適した移動速度で操作することができる。その結果、簡単かつ直感的な操作で工作機械100を操作することができ、工作機械100の操作性を向上させることができる。
 また、数値制御装置1は、ピンチ操作による拡縮率に基づいて指令単位を変更することができるため、工具22とワーク23が離れている場合には操作エリア21を縮小し速い速度で移動させることができる。また、数値制御装置1は、工具22とワーク23が近い場合には操作エリア21を拡大し遅い速度で移動させることができる。このように、数値制御装置1は、状況に応じて簡単かつ直感的な操作でドラッグ操作の操作量に対する工具22の移動速度を変更することが可能となる。
実施の形態2.
 図9は、実施の形態2に係る数値制御装置1aの構成を示すブロック図である。図10は、実施の形態2に係る数値制御装置1aによる数値制御の一例を示すフローチャートである。数値制御装置1aの説明において、数値制御装置1と同様の構成には数値制御装置1と同一の符号群を用い、その詳細な説明を省略する。数値制御装置1aは、位置更新部41a及び速度制限判定部42aを備えていること、並びにタッチパネル付表示器2に代えてタッチパネル付表示器2aを備えていること及び移動量生成部6に代えて移動量生成部6aを備えていること以外は、実施の形態1に係る数値制御装置1と同じである。
 数値制御装置1aは、図9に示すように、タッチパネル付表示器2aと、ジェスチャ操作判定部3と、拡縮率算出部4と、指令単位決定部5と、位置更新部41aと、速度制限判定部42aと、移動量生成部6aとを備える。
 タッチパネル付表示器2aは、速度制限区域を速度制限判定部42aに出力すること及び制限速度を移動量生成部6aに出力すること以外は、タッチパネル付表示器2と同じである。ここで、速度制限区域とは、例えば、工作機械内外の物体と工具22とが干渉する可能性がある領域、工具22のストロークリミットの近傍及びワーク23の近傍を示す位置情報である。ここで、制限速度は、工具22が速度制限区域に位置する場合の工具22の速度の制限値である。速度制限区域及び制限速度は、作業者によって予め設定される。タッチパネル付表示器2aは、速度制限区域を速度制限判定部42aに出力する。タッチパネル付表示器2aは、制限速度を移動量生成部6aに出力する。
 位置更新部41aは、移動量生成部6aが算出した制御周期毎の移動量が入力される。位置更新部41aは、移動量生成部6aから入力される移動量を積算する。位置更新部41aは、移動量の積算値から工具22の現在の位置情報を算出する。以下において、工具22の現在の位置情報を適宜、現在位置と称する。位置更新部41aは、速度制限判定部42aに現在位置を出力する。
 速度制限判定部42aは、位置更新部41aから入力された現在位置と、タッチパネル付表示器2aから入力された速度制限区域とを比較し、工具22が速度制限区域に位置しているか否かを判定する。速度制限判定部42aは、工具22が速度制限区域に位置していると判定した場合に、移動量生成部6aに速度制限判定信号を出力する。
 移動量生成部6aは、速度制限判定信号が入力された場合に制御周期毎の移動量を調整すること以外は移動量生成部6と同じである。移動量生成部6aは、速度制限判定部42aから速度制限判定信号が入力された場合に、工具22の現在の移動速度が制限速度を超えているか否かを判定する。具体的には、移動量生成部6aは、制御周期毎に算出する移動量から工具22の現在の移動速度を算出する。移動量生成部6aは、工具22の現在の移動速度とタッチパネル付表示器2aから入力される制限速度とを比較し、工具22の現在の移動速度が制限速度を超過しているか否かを判定する。移動量生成部6aは、工具22の現在の移動速度が制限速度を超過していると判定した場合に、工具22の移動速度が制限速度になるように移動量を補正する。つまり、制限速度と制御周期との積から制御周期毎の移動量の上限値を算出し、現在の移動量が制御周期毎の移動量の上限値以下となるように調整する。
 次に、実施の形態2に係る数値制御装置1aの処理について説明する。図10は、実施の形態2に係る数値制御装置1aによる数値制御の一例を示すフローチャートである。なお、実施の形態2に係る数値制御装置1aは、ステップS11、ステップS12、ステップS13、及びステップS14については、実施の形態1に係る数値制御装置1と同じである。よって、実施の形態1と同様のステップについては、同様の符号を付して、説明を省略する。
 ジェスチャ操作判定部3は、図9及び図10に示すように、ジェスチャ操作の種類がドラッグ操作であった場合に、ドラッグ操作の操作量を移動量生成部6aに出力する。移動量生成部6aは、ドラッグ操作の操作量及び指令単位に基づいて移動量を算出する(ステップS21)。
 移動量生成部6aは、算出した移動量を工作機械100の制御部7に出力する(ステップS22)。
 位置更新部41aは、移動量生成部6aから入力される移動量を積算する。位置更新部41aは、移動量の積算値から工具22の現在の位置情報を算出する(ステップS23)。
 速度制限判定部42aは、工具22の現在位置と速度制限区域とを比較し、工具22が速度制限区域に位置しているか否かを判定する。速度制限判定部42aは、工具22が速度制限区域に位置していると判定した場合に、移動量生成部6aに速度制限判定信号を出力する。移動量生成部6aは、速度制限判定部42aから速度制限判定信号が入力された場合に、工具22の現在の移動速度が制限速度を超えているか否かを判定する(ステップS24)。
 移動量生成部6aは、工具22が制限速度区域内に位置し、かつ、工具22の移動速度が制限速度を超過していると判定した場合に、工具22の移動速度が制限速度になるように移動量を補正する(ステップS25)。
 数値制御装置1aは、位置更新部41aが制御周期毎の移動量を積算して現在位置を算出し、速度制限判定部42aが現在位置と速度制限区域とを比較し、現在位置が速度制限区域内に位置していると判定した場合に、移動量生成部6aに速度制限判定の信号を出力し、移動量生成部6aが工具22の移動速度を制限速度以下になるように移動量を補正する。このような処理により、工具22が工作機械内外の物体と干渉する可能性がある領域に位置することを自動で検出して工具22の移動速度を制限速度以下に自動で減速することができ、工具22と工作機械内外の物体との接触が発生することを抑制できる。また、工具22がワーク23の近傍に位置することを自動で検出して工具22の移動速度を制限速度以下に自動で減速することができる。その結果、作業者が間違った操作を数値制御装置1aに入力した場合でもワーク23が損傷することを抑制することができる。
実施の形態3.
 図11は、実施の形態3に係る数値制御装置1bの構成を示すブロック図である。図12は、実施の形態3に係る数値制御装置1bに2本指ドラッグ操作を入力した場合の動作例を示す説明図である。図13は、実施の形態3に係る数値制御装置による数値制御の一例を示すフローチャートである。数値制御装置1bの説明において、数値制御装置1と同様の構成には数値制御装置1と同一の符号群を用い、その詳細な説明を省略する。数値制御装置1bは、移動平面決定部51bを備えていること及びジェスチャ操作判定部3に代えてジェスチャ操作判定部3bを備えていること以外は、実施の形態1に係る数値制御装置1と同じである。
 数値制御装置1bは、図11に示すように、タッチパネル付表示器2と、ジェスチャ操作判定部3bと、拡縮率算出部4と、指令単位決定部5と、移動量生成部6と、移動平面決定部51bとを備える。
 ジェスチャ操作判定部3bは、ジェスチャ操作が2本指ドラッグ操作であると判定した場合に、2本指ドラッグ操作の方向の情報を移動平面決定部51bに出力すること以外はジェスチャ操作判定部3と同じである。ここで、2本指ドラッグ操作の方向とは、2本指ドラッグ操作において2本の指を画面上に載せた位置から2本の指を離した位置へ向かう方向である。ジェスチャ操作判定部3bは、2本指ドラッグ操作の方向が、縦方向及び横方向の内どちらであるかを判定し、移動平面決定部51bに出力する。縦方向とは、図12に示すように、タッチパネル付表示器2の上下方向である。横方向とは、図12に示すように、タッチパネル付表示器2の左右方向である。
 移動平面決定部51bは、図12に示すように、ジェスチャ操作判定部3bから入力された2本指ドラッグ操作の方向の情報に応じて指令平面24ZXと、指令平面24XYと、指令平面24YZとを切り替える。詳細には、移動平面決定部51bは、操作エリア21に指令平面24ZXが表示されかつジェスチャ操作判定部3bから縦方向の信号が入力された場合に、指令平面24ZXを指令平面24XYへ切り替える。移動平面決定部51bは、操作エリア21に指令平面24ZXが表示されかつジェスチャ操作判定部3bから横方向の信号が入力された場合に、指令平面24ZXを指令平面24YZへ切り替える。移動平面決定部51bは、操作エリア21に指令平面24XYが表示されかつジェスチャ操作判定部3bから縦方向の信号が入力された場合に、指令平面24XYを指令平面24ZXへ切り替える。移動平面決定部51bは、操作エリア21に指令平面24XYが表示されかつジェスチャ操作判定部3bから横方向の信号が入力された場合に、指令平面24XYを指令平面24YZへ切り替える。移動平面決定部51bは、操作エリア21に指令平面24YZが表示されかつジェスチャ操作判定部3bから縦方向の信号が入力された場合に、指令平面24YZを指令平面24XYへ切り替える。移動平面決定部51bは、操作エリア21に指令平面24YZが表示されかつジェスチャ操作判定部3bから横方向の信号が入力された場合に、指令平面24YZを指令平面24ZXへ切り替える。
 次に、実施の形態3に係る数値制御装置1bの処理について説明する。図13は、実施の形態3に係る数値制御装置1bによる数値制御の一例を示すフローチャートである。なお、実施の形態3に係る数値制御装置1bの処理は、ステップS11、ステップS12、ステップS13、ステップS14、ステップS15、及びステップS16については、実施の形態1に係る数値制御装置1と同じである。よって、実施の形態1と同様のステップについては、説明を省略する。ここで、図13に示したフローチャートは、タッチパネル付表示器2に2本指ドラッグ操作が入力され、ジェスチャ操作判定部3bが2本指ドラッグ操作の方向の情報を移動平面決定部51bに出力した後の処理を示す。
 移動平面決定部51bは、図13に示すように、2本指ドラッグ操作の方向が、横方向であるか否かを判定する(ステップS31)。移動平面決定部51bは、2本指ドラッグ操作の方向が横方向である場合に、現在表示されている指令平面が指令平面24XYであるか否かを判定する(ステップS32)。移動平面決定部51bは、2本指ドラッグ操作の方向が横方向であり、かつ、現在表示されている指令平面が指令平面24XYであると判定した場合に、指令平面24XYを指令平面24YZに切り替える(ステップS33)。
 移動平面決定部51bは、2本指ドラッグ操作の方向が横方向であり、かつ、現在表示されている指令平面が指令平面24XYではないと判定した場合に、現在表示されている指令平面が指令平面24YZであるか否かを判定する(ステップS34)。移動平面決定部51bは、2本指ドラッグが横方向であり、かつ、現在表示されている指令平面が指令平面24YZであると判定した場合、指令平面を指令平面24YZから指令平面24ZXに切り替える(ステップS35)。移動平面決定部51bは、2本指ドラッグ操作の方向が横方向であり、現在表示されている指令平面が指令平面24XY及び指令平面24YZではないと判定した場合、指令平面を指令平面24ZXから指令平面24YZに切り替える(ステップS36)。
 移動平面決定部51bは、2本指ドラッグ操作の方向が横方向ではないと判定した場合に、現在表示されている指令平面が24XYであるか否かを判定する(ステップS37)。移動平面決定部51bは、2本指ドラッグ操作の方向が横方向ではないと判定し、現在表示されている指令平面が指令平面24XYであると判定した場合に、指令平面24XYを指令平面24ZXに切り替える(ステップS38)。
 移動平面決定部51bは、2本指ドラッグ操作の方向が横方向ではないと判定し、かつ、現在表示されている指令平面が指令平面24XYではないと判定した場合、現在表示されている指令平面が指令平面24YZであるか否かを判定する(ステップS39)。移動平面決定部51bは、2本指ドラッグ操作の方向が横方向ではないと判定し、かつ、現在表示されている指令平面が指令平面24YZであると判定した場合、指令平面を指令平面24YZから指令平面24XYに切り替える(ステップS40)。移動平面決定部51bは、2本指ドラッグ操作の走行が横方向ではないと判定し、かつ、現在表示されている指令平面が指令平面24XY及び指令平面24YZではないと判定した場合、指令平面を指令平面24ZXから指令平面24XYに切り替える(ステップS41)。
 数値制御装置1bは、タッチパネル付表示器2に2本指ドラッグ操作が入力された場合に、ジェスチャ操作判定部3bが移動平面決定部51bに2本指ドラッグ操作の方向の情報を出力し、移動平面決定部51bがジェスチャ操作判定部3bから入力されたドラッグ方向の情報に応じて指令平面24ZXと、指令平面24XYと、指令平面24YZとを切り替える。このような処理により、1回のジェスチャ操作で所望の指令平面24ZX,24XY,24YZに切り替えることができる。その結果、簡単かつ直感的な操作で所望の指令平面24ZX,24XY,24YZに切り替えることができる。
 数値制御装置1bは、タッチパネル付表示器2に2本指ドラッグ操作が入力された場合に、ジェスチャ操作判定部3bが移動平面決定部51bにドラッグ操作の方向の情報を出力する。数値制御装置1bは、操作エリア21に指令平面24ZXが表示されかつジェスチャ操作判定部3bから移動平面決定部51bに縦方向の信号が入力された場合に、指令平面24ZXを指令平面24XYへ切り替える。数値制御装置1bは、操作エリア21に指令平面24YZが表示されかつジェスチャ操作判定部3bから移動平面決定部51bに縦方向の信号が入力された場合に、指令平面24YZを指令平面24XYへ切り替える。数値制御装置1bは、操作エリア21に指令平面24ZXが表示されかつジェスチャ操作判定部3bから移動平面決定部51bに横方向の信号が入力された場合に、指令平面24ZXを指令平面24YZへ切り替える。数値制御装置1bは、操作エリア21に指令平面24YZが表示されかつジェスチャ操作判定部3bから移動平面決定部51bに横方向の信号が入力された場合に、指令平面24YZを指令平面24ZXへ切り替える。このような処理により、横方向の2本指ドラッグ操作によって指令平面24ZXと指令平面24YZとを切り替えることができる。これにより、横方向の視点変化である指令平面24ZXと指令平面24YZとの切替を横方向の2本指ドラッグ操作によって行うことができる。その結果、簡単かつ直感的な操作で指令平面24ZXと指令平面24YZとを切り替えることができる。また、縦方向の2本指ドラッグ操作によって指令平面24ZXと指令平面24XYとを切り替えることができる。これにより、縦方向の視点変化である指令平面24ZXと指令平面24XYとの切替を縦方向の2本指ドラッグ操作によって行うことができる。その結果、簡単かつ直感的な操作で指令平面24ZXと指令平面24XYとを切り替えることができる。以上より、数値制御装置1bは、簡単かつ直感的な操作で指令平面24ZX、24YZ、24XYの切り替えを行うことができる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、置換及び変更することも可能である。
 1,1a,1b 数値制御装置、2,2a タッチパネル付表示器、3,3b ジェスチャ操作判定部、4 拡縮率算出部、5 指令単位決定部、6,6a 移動量生成部、7 制御部、8 駆動部、21 操作エリア、22 工具、23 ワーク、24ZX,24XY,24YZ 指令平面、41a 位置更新部、42a 速度制限判定部、51b 移動平面決定部、100 工作機械。

Claims (4)

  1.  ジェスチャ操作による入力を受け付ける操作エリアを有し、前記操作エリアに工作機械及び前記工作機械の加工対象物であるワークを特定の方向から見た場合の指令平面を表示するタッチパネルと、
     ピンチ操作の相対的な操作量に応じた拡縮率を算出する拡縮率算出部と、
     前記拡縮率に基づいて前記操作エリアに入力されたドラッグ操作の操作量を前記工作機械の駆動部の動作量に変換するための指令単位を算出する指令単位決定部と、
     前記ドラッグ操作の前記操作量及び前記指令単位を用いて前記駆動部の移動量を算出して前記工作機械に出力する移動量生成部と、を備えることを特徴とする数値制御装置。
  2.  前記移動量生成部が算出する前記移動量を積算し、前記工作機械の現在位置を算出する位置更新部と、
     前記現在位置が予め設定された速度制限区域の中に位置するか否かを判定し、前記現在位置が前記速度制限区域の中に位置する場合に前記移動量生成部に速度制限判定の信号を出力する速度制限判定部と、を備え、
     前記移動量生成部は、前記速度制限判定が入力された場合に前記工作機械の移動速度が予め定められた制限速度以下になるように前記移動量を調整することを特徴とする請求項1に記載の数値制御装置。
  3.  前記操作エリアに2本指ドラッグ操作が入力された場合に、前記操作エリアに表示された前記指令平面を前記ワーク及び前記工作機械を異なる方向から見た平面に切り替える移動平面決定部を備えることを特徴とする請求項1または請求項2に記載の数値制御装置。
  4.  ジェスチャ操作による入力を受け付ける操作エリアと前記操作エリアに工作機械及び前記工作機械の加工対象物であるワークを特定の方向から見た場合の指令平面を表示するタッチパネルとを備え、前記操作エリアにドラッグ操作が入力された場合に前記ドラッグ操作の操作量に応じた動作量で前記工作機械の駆動部を駆動させる数値制御装置であって、
     前記数値制御装置は、前記操作エリアにピンチイン操作が入力された場合に、前記指令平面を縮小させ、かつ、前記ドラッグ操作の前記操作量に応じた前記動作量を増加させ、前記操作エリアにピンチアウト操作が入力された場合に、前記指令平面を拡大させ、かつ、前記ドラッグ操作の前記操作量に応じた前記動作量を減少させることを特徴とする数値制御装置。
PCT/JP2016/077138 2016-09-14 2016-09-14 数値制御装置 WO2018051435A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2016/077138 WO2018051435A1 (ja) 2016-09-14 2016-09-14 数値制御装置
JP2017515989A JPWO2018051435A1 (ja) 2016-09-14 2016-09-14 数値制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/077138 WO2018051435A1 (ja) 2016-09-14 2016-09-14 数値制御装置

Publications (1)

Publication Number Publication Date
WO2018051435A1 true WO2018051435A1 (ja) 2018-03-22

Family

ID=61620083

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077138 WO2018051435A1 (ja) 2016-09-14 2016-09-14 数値制御装置

Country Status (2)

Country Link
JP (1) JPWO2018051435A1 (ja)
WO (1) WO2018051435A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013432A (ja) * 2018-07-20 2020-01-23 ファナック株式会社 数値制御装置及びデータ編集方法
WO2020067256A1 (ja) * 2018-09-28 2020-04-02 日本電産株式会社 制御装置
US20230244207A1 (en) * 2021-01-27 2023-08-03 Fronius International Gmbh Method and device for the automatic determination of machining parameters for a machining process

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998003314A1 (fr) * 1996-07-24 1998-01-29 Fanuc Ltd Procede de commande de deplacement graduel de robots
JPH11262883A (ja) * 1998-03-19 1999-09-28 Denso Corp ロボットのマニュアル操作装置
WO2004009303A1 (ja) * 2002-07-18 2004-01-29 Kabushiki Kaisha Yaskawa Denki ロボット制御装置およびロボットシステム
JP2011189431A (ja) * 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム
JP2011242600A (ja) * 2010-05-18 2011-12-01 Olympus Corp 顕微鏡コントローラ及び該顕微鏡コントローラを有する顕微鏡システム
JP2014184494A (ja) * 2013-03-21 2014-10-02 Tsubakimoto Chain Co マニピュレータ装置
JP2015083331A (ja) * 2013-09-20 2015-04-30 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3675004B2 (ja) * 1995-10-04 2005-07-27 株式会社安川電機 ロボットの制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998003314A1 (fr) * 1996-07-24 1998-01-29 Fanuc Ltd Procede de commande de deplacement graduel de robots
JPH11262883A (ja) * 1998-03-19 1999-09-28 Denso Corp ロボットのマニュアル操作装置
WO2004009303A1 (ja) * 2002-07-18 2004-01-29 Kabushiki Kaisha Yaskawa Denki ロボット制御装置およびロボットシステム
JP2011189431A (ja) * 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム
JP2011242600A (ja) * 2010-05-18 2011-12-01 Olympus Corp 顕微鏡コントローラ及び該顕微鏡コントローラを有する顕微鏡システム
JP2014184494A (ja) * 2013-03-21 2014-10-02 Tsubakimoto Chain Co マニピュレータ装置
JP2015083331A (ja) * 2013-09-20 2015-04-30 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013432A (ja) * 2018-07-20 2020-01-23 ファナック株式会社 数値制御装置及びデータ編集方法
US11009852B2 (en) 2018-07-20 2021-05-18 Fanuc Corporation Numerical controller and data editing method
WO2020067256A1 (ja) * 2018-09-28 2020-04-02 日本電産株式会社 制御装置
US20230244207A1 (en) * 2021-01-27 2023-08-03 Fronius International Gmbh Method and device for the automatic determination of machining parameters for a machining process

Also Published As

Publication number Publication date
JPWO2018051435A1 (ja) 2018-09-13

Similar Documents

Publication Publication Date Title
US9919421B2 (en) Method and apparatus for robot path teaching
CN108687747B (zh) 机器人的示教装置
JP2019018257A (ja) ロボットシステムおよびロボットの教示方法
CN105988710B (zh) 用于利用触摸显示来协助用户输入的方法、设备和装置
CN106462141B (zh) 机床的控制装置
WO2018051435A1 (ja) 数値制御装置
JP6367857B2 (ja) 工作機械システム
CN108139730B (zh) 机器人离线编程方法以及使用其的装置
US20150134105A1 (en) Numerical control apparatus
US11009852B2 (en) Numerical controller and data editing method
US20160364367A1 (en) Information processing device for editing electronic data by touch operations
JP2000305614A (ja) タッチパネルによる機械制御装置
TWI570530B (zh) Numerical control system and numerical control data generation method
JP5601949B2 (ja) ロボット制御システム
US10303155B2 (en) Numerical controller having manual handle feed function
WO2022170572A1 (en) Method and apparatus for tuning robot path for processing workpiece
JP6002420B2 (ja) 加工機および加工機における曲げ加工動作入力設定方法
US10838395B2 (en) Information processing device
JP5382419B2 (ja) 原点サーチ支援装置及びプログラム
JP5972027B2 (ja) ロボット制御装置
KR101610386B1 (ko) 컴퓨터 수치 제어 공작기계에서 가공 대화형 프로그램을 이용한 가공 형상 입력 장치 및 방법
JP2010179388A (ja) ロボット教示システム
US10921978B2 (en) Shaft feeder
JP6573750B1 (ja) 制御データ作成装置、制御データ作成方法、および制御データ作成プログラム
JP5912054B2 (ja) ロボット制御装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017515989

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16916219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16916219

Country of ref document: EP

Kind code of ref document: A1