WO2012073368A1 - 数値制御装置 - Google Patents

数値制御装置 Download PDF

Info

Publication number
WO2012073368A1
WO2012073368A1 PCT/JP2010/071586 JP2010071586W WO2012073368A1 WO 2012073368 A1 WO2012073368 A1 WO 2012073368A1 JP 2010071586 W JP2010071586 W JP 2010071586W WO 2012073368 A1 WO2012073368 A1 WO 2012073368A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
control unit
display screen
screen
main
Prior art date
Application number
PCT/JP2010/071586
Other languages
English (en)
French (fr)
Inventor
貴久 田中
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN2010800704669A priority Critical patent/CN103238124A/zh
Priority to DE112010006050.9T priority patent/DE112010006050C5/de
Priority to JP2012546636A priority patent/JP5289624B2/ja
Priority to US13/990,999 priority patent/US20130257738A1/en
Priority to PCT/JP2010/071586 priority patent/WO2012073368A1/ja
Priority to TW100108874A priority patent/TWI448851B/zh
Publication of WO2012073368A1 publication Critical patent/WO2012073368A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36168Touchscreen

Definitions

  • the present invention relates to a numerical control device.
  • Patent Document 1 describes that in a notebook personal computer, a liquid crystal display is attached to the inner surface of the lid, and a keyboard and an auxiliary liquid crystal display smaller than the liquid crystal display are mounted on the upper surface of the housing. ing.
  • a keyboard and an auxiliary liquid crystal display smaller than the liquid crystal display are mounted on the upper surface of the housing.
  • Patent Document 2 in a word processor, an auxiliary display with a touch panel provided on the front surface is rotatably attached below the main display housing to which the main display is fixed, and auxiliary display is provided on the front and back surfaces of the auxiliary display. It is described that the tilt dial for rotating the device protrudes. Thus, according to Patent Document 2, it is said that even when the main display housing is closed, the tilt dial is rotated to bring out the surface of the auxiliary display and press the touch panel to execute the printing function.
  • a numerical control (NC) device is provided with a display unit and a keyboard unit, the display unit displays a screen that conveys the status of the NC device, and the keyboard unit performs screen operations by key input.
  • the input keys of the keyboard unit are uniquely determined by hardware (for example, alphanumeric keys), and the screen operation is performed with the determined input keys. Tend to be low.
  • NC devices include a keyboard object on the display unit as a touch panel, and screen display and screen operation are performed on the same unit (display unit) so that they can be operated intuitively. .
  • a keyboard object on the display unit as a touch panel
  • screen display and screen operation are performed on the same unit (display unit) so that they can be operated intuitively.
  • the amount of information that can be displayed on the screen is limited, and thus operability tends to be low.
  • Patent Literature 1 and Patent Literature 2 assume devices such as a notebook personal computer and a word processor for inputting texts. What is the operability when a machine tool is controlled by an NC device (numerical control device)? There is no description on how to improve.
  • the present invention has been made in view of the above, and an object thereof is to obtain a numerical control device capable of improving operability when controlling a machine tool.
  • a numerical control device that controls a machine tool, and includes a display unit having a main display screen, and a plurality of display units.
  • a keyboard unit having an input key and an auxiliary display screen on the operation surface; first machine related information related to the machine tool is displayed on the main display screen; and the machine tool is displayed on the auxiliary display screen.
  • a display control unit that displays second machine related information related to the machine, and the keyboard unit includes a display input unit that receives an input instruction using the auxiliary display screen as a touch panel.
  • an input instruction corresponding to a plurality of inputs using the input key can be performed with a single input on the touch panel, so that the number of inputs for the input instruction can be reduced. Since no part of the main display screen is occupied by the touch panel object, the amount of information that can be displayed on the screen can be secured, and the number of screen transitions necessary to handle a predetermined amount of information can be reduced. As a result, operability when controlling the machine tool can be improved.
  • FIG. 1 is a diagram illustrating the configuration of the numerical controller according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration of the numerical controller according to the first embodiment.
  • FIG. 3 is a flowchart illustrating the operation of the screen according to the first embodiment.
  • FIG. 4 is a diagram illustrating a screen operation in the first embodiment.
  • FIG. 5 is a diagram illustrating a screen operation according to the first embodiment.
  • FIG. 6 is a flowchart illustrating the operation of the screen according to the second embodiment.
  • FIG. 7 is a diagram illustrating an operation of a screen in the second embodiment.
  • FIG. 8 is a flowchart illustrating the operation of the screen according to the third embodiment.
  • FIG. 9 is a diagram showing the operation of the screen in the third embodiment.
  • FIG. 1 is a diagram illustrating the configuration of the numerical controller according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration of the numerical controller according to the first embodiment.
  • FIG. 3 is
  • FIG. 10 is a flowchart illustrating the operation of the screen according to the fourth embodiment.
  • FIG. 11 is a diagram illustrating a screen operation according to the fourth embodiment.
  • FIG. 12 is a flowchart illustrating the operation of the screen according to the fifth embodiment.
  • FIG. 13 is a diagram illustrating a screen operation in the fifth embodiment.
  • FIG. 14 is a flowchart illustrating the operation of the screen according to the sixth embodiment.
  • FIG. 15 is a diagram illustrating a screen operation according to the sixth embodiment.
  • FIG. 16 is a diagram illustrating a configuration of a screen in the comparative example.
  • FIG. 1 is a diagram illustrating a functional configuration of the NC apparatus 1.
  • FIG. 2 is a diagram illustrating an external configuration of the NC device 1.
  • NC device 1 numerically controls the operation of machine tool M (a tool attached to it). For example, the NC device 1 controls the machining of the workpiece W by the machine tool M.
  • the NC apparatus 1 includes a main control unit 50, a display unit 10, a keyboard unit 20, an input control unit 40, a display control unit 30, a storage unit 70, a screen coordinate calculation unit 60, and a drive unit 80.
  • the main control unit 50 controls the display unit 10, the keyboard unit 20, the input control unit 40, the display control unit 30, the screen coordinate calculation unit 60, the storage unit 70, and the drive unit 80 as a whole.
  • the display unit 10 has a main display screen 11a on a main surface 10a that faces when the NC apparatus 1 is used by a user (see FIG. 2). Specifically, the display unit 10 has a main display unit 11.
  • the main display unit 11 displays an image corresponding to the image signal supplied from the display control unit 30 on the main display screen 11a.
  • the main display unit 11 displays first machine related information related to the machine tool M on the main display screen 11a.
  • the first machine related information includes NC information and basic information related to NC operation.
  • the first machine related information includes a machining program 73 being edited.
  • the keyboard unit 20 has a plurality of input keys 21 and an auxiliary display screen 22a on an operation surface 20a operated when the NC apparatus 1 is used by a user (see FIG. 2).
  • the auxiliary display screen 22a is arranged on the upper right side of the operation surface 20a.
  • the keyboard unit 20 includes a plurality of input keys 21 and an auxiliary display unit 22.
  • the plurality of input keys 21 receive a predetermined instruction from the user depending on which key is pressed.
  • the plurality of input keys 21 include, for example, a plurality of alphanumeric keys and other predetermined keys (see FIG. 2).
  • the user operates the NC apparatus 1 by pressing predetermined alphanumeric keys from the plurality of input keys 21 while confirming the display contents on the main display screen 11a.
  • the auxiliary display unit 22 displays an image corresponding to the image signal supplied from the display control unit 30 on the auxiliary display screen 22a.
  • the auxiliary display unit 22 displays second machine related information related to the machine tool M.
  • the second machine related information includes, for example, a plurality of button objects linked to the first machine related information (see FIG. 4).
  • the auxiliary display unit 22 includes a touch panel sensor (display input unit) 22b.
  • the touch panel sensor 22b receives an input instruction using the auxiliary display screen 22a as a touch panel.
  • the user operates the NC device 1 by pressing a predetermined portion in the auxiliary display screen 22a while confirming the display content on the main display screen 11a.
  • the touch panel sensor 22b receives an input instruction corresponding to a pressed button object among a plurality of button objects (see FIG. 4).
  • the input control unit 40 detects which key is pressed when any one of the plurality of input keys 21 is pressed, and provides key pressing information indicating which key is pressed to the main control unit 50. To supply.
  • the main control unit 50 performs control according to the key press information.
  • the input control unit 40 detects which part of the auxiliary display screen 22a is pressed via the touch panel sensor 22b and determines which part.
  • Touch panel pressing information indicating whether or not is pressed is supplied to the main control unit 50.
  • the main control unit 50 performs control according to the touch panel pressing information.
  • the display control unit 30 controls information to be displayed on the main display screen 11a and information to be displayed on the auxiliary display screen 22a, respectively, according to control by the main control unit 50. That is, the display control unit 30 generates main display data 71 to be displayed on the main display screen 11a, converts the main display data 71 into a display image signal, and converts the converted display image signal into the main display unit 11. To supply. At the same time, the display control unit 30 generates auxiliary display data 72 to be displayed on the auxiliary display screen 22a, converts the auxiliary display data 72 into a display image signal, and converts the converted display image signal into the auxiliary display unit. 22 is supplied. Thereby, the display control unit 30 displays the first machine related information related to the machine tool M on the main display screen 11a, and the second machine related to the machine tool M on the auxiliary display screen 22a. Display related information.
  • the storage unit 70 stores a machining program 73 used when the NC apparatus 1 controls machining of the workpiece W by the machine tool M.
  • a machining program 73 used when the NC apparatus 1 controls machining of the workpiece W by the machine tool M.
  • the machining program 73 for example, an operation locus of the machine tool M is programmed.
  • the storage unit 70 is also used as a predetermined work area.
  • the storage unit 70 stores the main display data 71 generated by the display control unit 30 as data to be displayed on the main display screen 11a and is generated by the display control unit 30 as data to be displayed on the auxiliary display screen 22a.
  • the auxiliary display data 72 thus stored is stored.
  • the storage unit 70 stores the input instruction data 74 generated by the main control unit 50 as data indicating the association between a plurality of coordinates and a plurality of input instructions in the auxiliary display screen 22a.
  • the screen coordinate calculation unit 60 receives touch panel press information from the input control unit 40 via the main control unit 50, and calculates and specifies the coordinates in the auxiliary display screen 22a indicated by the touch panel press information. Further, the screen coordinate calculation unit 60 reads the input instruction data 74 from the storage unit 70 via the main control unit 50 and calculates and specifies a plurality of coordinates included in the input instruction data 74. The screen coordinate calculation unit 60 compares the coordinates in the auxiliary display screen 22 a indicated by the touch panel pressing information with a plurality of coordinates included in the input instruction data 74.
  • the screen coordinate calculation unit 60 has coordinates indicated by touch panel pressing information within a predetermined radius centered on one of a plurality of coordinates included in the input instruction data 74 in the entire area of the auxiliary display screen 22a. It is determined whether or not a position is included. When the coordinate position indicated by the touch panel pressing information is included in the predetermined radius centered on the coordinates associated with the predetermined input instruction included in the input instruction data 74, the screen coordinate calculation unit 60 It is determined that an input instruction has been accepted.
  • the screen coordinate calculation unit 60 supplies the input instruction received by the touch panel sensor 22b to the main control unit 50 as touch panel input instruction information.
  • the main control unit 50 recognizes that an input instruction corresponding to the touch panel input instruction information has been received via the touch panel sensor 22b.
  • the drive unit 80 drives the machine tool M so that the workpiece W is processed by the machine tool M in accordance with the control by the main control unit 50.
  • the drive unit 80 includes a drive amplifier 81.
  • the drive unit 80 receives a command for driving the machine tool M from the main control unit 50, amplifies the received command by the drive amplifier 81, generates a drive signal, and supplies the drive signal to the machine tool M. Thereby, the machine tool M is driven.
  • FIG. 3 is a flowchart showing operations of the main display screen 11a and the auxiliary display screen 22a.
  • FIG. 4A and FIG. 5A are diagrams showing the operation of the main display screen 11a.
  • FIGS. 4B and 5B are diagrams illustrating the operation of the auxiliary display screen 22a.
  • step S1 shown in FIG. 3 the input control unit 40 detects that an instruction to activate the editing screen of the machining program 73 has been received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected activation instruction to the main control unit 50.
  • the main control unit 50 accesses the storage unit 70 according to the supplied activation instruction, and determines whether or not the editing program 73 being edited is stored in the storage unit 70.
  • the main control unit 50 supplies information indicating that there is no editing program 73 being edited to the display control unit 30. Thereby, the display control unit 30 generates the edit screen 11a1 of the machining program 73 in the initial state as the main display data 71.
  • the main control unit 50 supplies information on the machining program 73 being edited to the display control unit 30.
  • the display control unit 30 generates the editing screen 11a1 of the machining program 73 as the main display data 71 including the information of the machining program 73 being edited.
  • the display control unit 30 stores the main display data 71 in the storage unit 70 via the main control unit 50, converts the main display data 71 into a display image signal, and supplies the image signal to the main display unit 11. Thereby, the main display part 11 starts and displays the edit screen 11a1 of the process program 73 on the main display screen 11a. At this time, the main display unit 11 places the cursor (for example, a black square object shown in FIG. 4A) 11a2 indicating the editing position at the initial position in the processing program 73 in the initial state or the processing program 73 being edited. Is displayed at the position of the last part in.
  • the cursor for example, a black square object shown in FIG. 4A
  • step S2 the display control unit 30 causes the main control unit 50 to display a plurality of button objects corresponding to a plurality of codes that are candidates to be added next to the machining program 73 on the auxiliary display screen 22a. To control.
  • the main control unit 50 performs machining in the initial state based on the NC parameters set for specifying the machine tool M to be controlled. A plurality of codes that are candidates to be added next to the program 73 are estimated. The main control unit 50 supplies the estimated plurality of codes to the display control unit 30. The display control unit 30 generates a plurality of button objects (not shown) corresponding to a plurality of codes as auxiliary display data 72. The display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 22.
  • the auxiliary display unit 22 displays a plurality of button objects (initially) on the auxiliary display screen 22a as information linked to the description (empty description) of the position of the cursor 11a2 on the editing screen 11a1 of the machining program 73 in the initial state.
  • the candidate code that is expected to be input).
  • the main control unit 50 changes the description of the last part in the machining program 73 being edited to the machining program 73 being edited.
  • a plurality of codes that are candidates to be added next are estimated.
  • the main control unit 50 estimates G codes “G4”, “G40”, “G41”, “G42”, and “G43” as candidates to be added next to the machining program 73 being edited (see FIG. 4 (b)).
  • the main control unit 50 supplies the estimated plurality of codes to the display control unit 30.
  • the display control unit 30 displays a plurality of button objects 22a1 to 22a5 (FIG.
  • auxiliary display data 72 corresponding to a plurality of codes (for example, G codes “G4”, “G40”, “G41”, “G42”, “G43”). Reference) is generated as auxiliary display data 72.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 22. Thereby, the auxiliary display unit 22 displays a plurality of button objects 22a1 to 22a5 on the auxiliary display screen 22a as information linked to the description of the position of the cursor 11a2 on the editing screen 11a1 of the processing program 73 being edited.
  • the main control unit 50 recognizes that the cursor 11a2 in the editing screen 11a1 of the machining program 73 has been moved through the plurality of input keys 21, the description of the portion where the moved cursor 11a2 is located A plurality of codes that are candidates to be added next to the machining program 73 being edited are newly estimated.
  • the main control unit 50 supplies the estimated plurality of codes to the display control unit 30.
  • the display control unit 30 generates a plurality of button objects (not shown) corresponding to a plurality of codes as auxiliary display data 72.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 22.
  • the auxiliary display unit 22 displays a plurality of button objects 22a1 to 22a5 on the auxiliary display screen 22a (dynamically) as information linked to the description of the position of the cursor 11a2 on the editing screen 11a1 of the editing program 73 being edited. Display).
  • step S3 the main control unit 50 controls the display control unit 30 so that a character string expected to be input next to the code corresponding to the selected button object is displayed on the auxiliary display screen 22a.
  • the main control unit 50 when the main control unit 50 recognizes that one button object among the plurality of button objects has been selected via the touch panel sensor 22b, the input is expected after the code corresponding to the selected button object. Estimate the character string. For example, when the main control unit 50 recognizes that the button object 22a5 corresponding to the G code “G43” is selected via the touch panel sensor 22b, the main control unit 50 notifies the display control unit 30 that the button object 22a5 has been selected. Notice. In response to this, the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and displays that the button object 22a5 has been selected (for example, FIG. 4B). The auxiliary display unit 22 is controlled to perform the highlight display of the button object 22a5 as shown in FIG.
  • the main control unit 50 when the main control unit 50 recognizes that the button object 22a5 corresponding to the G code “G43” has been selected, the main control unit 50 sets the G43 program as a character string expected to be input next to the G code “G43”. Estimate the command format “Z ⁇ F ⁇ ;”. The main control unit 50 supplies the estimated character string “Z ⁇ F ⁇ ;” to the display control unit 30. The display control unit 30 generates the button object 22a6 (see FIG. 4B) corresponding to the character string “Z ⁇ F ⁇ ;” as the auxiliary display data 72.
  • the display control unit 30 updates the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the image signal to the auxiliary display unit 22.
  • the auxiliary display unit 22 is linked to the description of the position of the cursor 11a2 on the editing screen 11a1 of the processing program 73 on the main display screen 11a and the plurality of button objects 22a1 to 22a5 on the auxiliary display screen 22a. 22a6 is displayed on the auxiliary display screen 22a.
  • the main control unit 50 when the main control unit 50 recognizes that another button object is newly selected from the plurality of button objects via the touch panel sensor 22b, the main control unit 50 follows the code corresponding to the selected button object. A new character string that is expected to be input is estimated. In response to this, the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and displays that another button object has been newly selected (for example, other The auxiliary display unit 22 is controlled to perform (highlight display of the button object).
  • the main control unit 50 supplies the estimated character string to the display control unit 30.
  • the display control unit 30 generates a button object (not shown) corresponding to the character string as auxiliary display data 72.
  • the display control unit 30 updates the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the image signal to the auxiliary display unit 22.
  • the auxiliary display unit 22 is linked to the description of the position of the cursor 11a2 on the editing screen 11a1 of the processing program 73 on the main display screen 11a and the plurality of button objects 22a1 to 22a5 on the auxiliary display screen 22a. 22a6 is displayed (changed dynamically) on the auxiliary display screen 22a.
  • step S4 the main control unit 50 controls the display control unit 30 to input a value for the character string displayed on the auxiliary display screen 22a in step S3.
  • the main control unit 50 recognizes that the part of “ ⁇ ” after “Z” in the character string “Z ⁇ F ⁇ ;” on the auxiliary display screen 22a is pressed via the touch panel sensor 22b. , “Z” after “Z” is notified to the display control unit 30.
  • the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and enters a state where the pressed “ ⁇ ” portion, that is, the Z command value can be input.
  • the auxiliary display unit 22 is controlled so that the display indicating that it has become (for example, the display of “ ⁇ ” in black squares) is performed.
  • the display control unit 30 displays the Z command value “50.”. To notify. In response to this, the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50, and “50.” is added to the pressed “ ⁇ ” portion, that is, the Z command value.
  • the auxiliary display unit 22 is controlled to display the input (for example, display of “Z50. F ⁇ ;”).
  • the main control unit 50 recognizes that the part of “ ⁇ ” after “F” in the character string “Z50. F ⁇ ;” on the auxiliary display screen 22a is pressed via the touch panel sensor 22b. , “F” after “F” is notified to the display control unit 30 that it has been pressed.
  • the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and enters a state where the pressed “ ⁇ ” portion, that is, the command value of F can be input.
  • the auxiliary display unit 22 is controlled so that the display indicating that it has become (for example, the display of “ ⁇ ” in black squares) is performed.
  • the main control unit 50 When the main control unit 50 recognizes that, for example, “1000” is input as the F command value via the plurality of input keys 21, the main control unit 50 notifies the display control unit 30 of the F command value “1000”. To do. In response to this, the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and inputs “1000” to the pressed “ ⁇ ” portion, that is, the command value of F.
  • the auxiliary display unit 22 is controlled so as to display that it has been performed (for example, display of “Z50. F1000;” as shown in FIG. 5B).
  • the main control unit 50 detects that the button object 22a6 is pressed via the touch panel sensor 22b (for example, a portion other than the Z command value or the F command value in the button object 22a6 is pressed).
  • the display control unit 30 is controlled so that the character string “Z50.F1000;” on the auxiliary display screen 22a is also displayed on the main display screen 11a. That is, the main control unit 50 notifies the display control unit 30 that the button object 22a6 has been pressed.
  • the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and displays that the button object 22a6 has been selected (for example, FIG. 5B).
  • the auxiliary display unit 22 is controlled to perform the highlight display of the button object 22a61 as shown in FIG.
  • the display control unit 30 reads the main display data 71 from the storage unit 70 via the main control unit 50, and the G code “G43” is stored in the main display data 71. And the character string “Z50. F1000;” is newly generated as the main display data 71.
  • the display control unit 30 updates the main display data 71 of the storage unit 70 via the main control unit 50, converts the main display data 71 into an image signal for display, and supplies the image signal to the main display unit 11.
  • the main display unit 11 places the G code “G43” on the main display screen 11a at the position of the cursor (for example, the black square object shown in FIG. 4A) 11a2 on the editing screen 11a1 of the machining program 73. And the character string “Z50.F1000;” is inserted and displayed (see FIG. 5A). Accordingly, the main display unit 11 displays the cursor 11a21 on the main display screen 11a with the last position of the description after insertion.
  • step S5 the main control unit 50 determines whether there is another input.
  • the input control unit 40 when the input control unit 40 detects from at least one of the plurality of input keys 21 and the touch panel sensor 22b that an instruction to end the editing screen 11a1 of the machining program 73 is received from the user, the input control unit 40 mainly outputs the detected end instruction. It supplies to the control part 50.
  • the main control unit 50 determines that there is no other input, ends the processing, and receives the end instruction from the input control unit 40 within the predetermined time. If not supplied, it is determined that there is another input, and the process returns to step S2.
  • the input keys of the keyboard unit 20 are uniquely determined by hardware (for example, alphanumeric keys), and screen operations are performed using the determined input keys.
  • the operability tends to be low.
  • the keyboard unit 20 of the NC apparatus 1 includes the auxiliary display screen 22a and the touch panel sensor 22b.
  • the touch panel sensor 22b receives an input instruction using the auxiliary display screen 22a as a touch panel.
  • the display control unit 30 displays a plurality of button objects 22a1 to 22a5 linked to the first machine related information on the main display screen 11a on the auxiliary display screen 22a as a part of the second machine related information.
  • the touch panel sensor 22b receives an input instruction corresponding to the pressed button object among the plurality of button objects 22a1 to 22a5.
  • an input instruction to the button object corresponding to a plurality of inputs using the input key can be performed with a single input on the touch panel, so that the number of inputs to the input instruction can be reduced and operability can be improved.
  • the display control unit 30 causes the machining program 73 being edited to be displayed as the first machine-related information on the main display screen 11a, and next to the machining program 73 being edited on the auxiliary display screen 22a.
  • a plurality of button objects 22a1 to 22a5 corresponding to a plurality of codes to be added are displayed as a part of the second machine related information.
  • the touch panel sensor 22b receives a code input instruction corresponding to a pressed button object among the plurality of button objects 22a1 to 22a5. Thereby, it is possible to reduce erroneous input (input of erroneous description of machining program command) while reducing the number of times of input in response to the input instruction.
  • the NC device 900 does not include the keyboard unit 20.
  • the display unit 911 of the display unit 910 includes a keyboard object 911a2 as a touch panel on the display screen 911a.
  • the display unit 911a2 As shown in FIG. 16, the display unit 911 of the display unit 910 includes a keyboard object 911a2 as a touch panel on the display screen 911a.
  • the touch panel keyboard object 911a2
  • an operation corresponding to the display content 911a1 is possible. Since part of the keyboard is occupied by the keyboard object 911a2, the amount of information that can be displayed on the screen (the amount of information in the display content 911a1) is limited. Therefore, the number of screen transitions required to handle a predetermined amount of information is large. Therefore, the operability tends to be low.
  • Embodiment 1 since no part of the main display screen 11a is occupied by the touch panel object, the amount of information that can be displayed on the screen can be secured. That is, the display control unit 30 displays the first machine related information related to the machine tool M on the main display screen 11a and the second machine related related to the machine tool M on the auxiliary display screen 22a. Display information. Thereby, the number of screen transitions necessary for handling a predetermined amount of information can be reduced, and operability can be improved. That is, the operability when controlling the machine tool M can be improved.
  • the display control unit 30 displays information linked to the first machine related information as the second machine related information on the auxiliary display screen 22a.
  • the second machine related information can be confirmed without performing the screen transition. It can be reduced and operability can be improved.
  • the display control unit 30 causes the machining program 73 being edited to be displayed as first machine-related information on the main display screen 11a, and the machining program 73 being edited is displayed on the auxiliary display screen 22a.
  • a plurality of linked button objects 22a1 to 22a5 are displayed as a part of the second machine related information.
  • a plurality of button objects 22a1 ⁇ 22a5 can be displayed on the auxiliary display screen 22a.
  • the display control unit 30 displays a character string expected to be input next to the code corresponding to the selected button object on the auxiliary display screen 22a as another part of the second machine related information.
  • the keyboard unit 20 has a plurality of input keys 21 and an auxiliary display screen 22a functioning as a touch panel on the operation surface 20a. Thereby, the operativity at the time of performing input operation via a plurality of input keys 21 and input operation via touch panel sensor 22b continuously can be improved.
  • the auxiliary display screen 22a is arranged on the upper right side of the operation surface 20a, for example.
  • the distance of the main display screen 11a and the auxiliary display screen 22a can be shortened, the operativity at the time of comparing the main display screen 11a and the auxiliary display screen 22a mutually can be improved.
  • step S2 and the process of step S3 may be performed in parallel after the process of step S1 is performed.
  • the process of step S3 may be performed after the process of step S1 and the process of step S2 are performed in parallel.
  • the process of step S1, the process of step S2, and the process of step S3 may be performed in parallel.
  • FIG. 6 is a flowchart showing operations of the main display screen 111a and the auxiliary display screen 122a in the second embodiment.
  • FIG. 7A shows the operation of the main display screen 111a.
  • 7B and 7C are diagrams illustrating the operation of the auxiliary display screen 122a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 7A shows the operation of the main display screen 111a.
  • step S11 shown in FIG. 6 the input control unit 40 detects that an activation instruction for the NC state display screen has been received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected activation instruction to the display control unit 30 via the main control unit 50.
  • the display control unit 30 generates the NC state display screen 111a1 (see FIG. 7A) as main display data 71 in accordance with the supplied activation instruction.
  • the display control unit 30 stores the main display data 71 in the storage unit 70 via the main control unit 50, converts the main display data 71 into a display image signal, and supplies the image signal to the main display unit 111.
  • the main display unit 111 activates and displays the NC state display screen 111a1 on the main display screen 111a.
  • the main display unit 111 displays a cursor (for example, a black square object shown in FIG. 7A) 111a2 indicating the editing position at the initial position on the NC state display screen 111a1.
  • the main display unit 111 displays a screen indicating the state of the drive amplifier 81 in the drive unit 80 on the main display screen 111a as the NC state display screen 111a1.
  • step S12 the input control unit 40 detects that a machine coordinate display instruction has been received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected display instruction to the display control unit 30 via the main control unit 50.
  • the display control unit 30 generates machine coordinate information 122a1 (see FIG. 7B) indicating the machine position as auxiliary display data 72 in accordance with the supplied display instruction.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the display image signal to the auxiliary display unit 122. Accordingly, the auxiliary display unit 122 displays the machine coordinate information 122a1 corresponding to the display instruction on the auxiliary display screen 122a.
  • step S13 the main control unit 50 controls the display control unit 30 so that a plurality of button objects linked to the machine coordinate information 122a1 are displayed on the auxiliary display screen 122a.
  • the main control unit 50 estimates information candidates referred to in relation to the machine coordinate information 122a1. For example, the main control unit 50 estimates “workpiece coordinates”, “program coordinates”, and “machine coordinates” as candidates for information referred to in relation to the machine coordinate information 122a1 (see FIG. 7B).
  • the workpiece coordinates are the coordinates of the workpiece W to be machined by the machine tool M, and are the coordinates of the center of the workpiece W with the origin on the workpiece W as a reference.
  • the program coordinates are coordinates of the machine tool M (a tool attached thereto) when commanded by the machining program 73, and are coordinates in which a tool correction amount is added to the currently commanded position.
  • the machine coordinates are coordinates of the machine tool M (a tool attached to the machine tool M).
  • the main control unit 50 supplies a plurality of estimated information candidates to the display control unit 30.
  • the display control unit 30 includes a plurality of button objects 122a2 to 122a4 (FIG. 7B) corresponding to a plurality of information candidates (“work coordinates”, “program coordinates”, “machine coordinates”). Information) is generated as auxiliary display data 72.
  • the display control unit 30 updates the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into an image signal for display, and supplies the image signal to the auxiliary display unit 122.
  • the auxiliary display unit 122 displays a plurality of button objects 122a2 to 122a4 on the auxiliary display screen 122a as information linked to the machine coordinate information 122a1.
  • step S14 the main control unit 50 controls the display control unit 30 so that the coordinates selected from the “work coordinate”, “program coordinate”, and “machine coordinate” are displayed on the auxiliary display screen 122a.
  • the main control unit 50 when the main control unit 50 recognizes that one button object is selected from the plurality of button objects via the touch panel sensor 22b, the main control unit 50 acquires coordinates corresponding to the selected button object. For example, when the main control unit 50 recognizes that the “work coordinate” has been selected via the touch panel sensor 22b, the main control unit 50 subtracts the work coordinate offset value stored in the storage unit 70 from the machine coordinate value. Calculate coordinate information. The main control unit 50 acquires, for example, “X 0.000 Y 1.000 Z 2.000” as work coordinate information (see FIG. 7C). The main control unit 50 supplies the acquired work coordinates to the display control unit 30.
  • the display control unit 30 updates the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the display image signal to the auxiliary display unit 122.
  • the auxiliary display unit 122 displays the work coordinate information 122a11 on the auxiliary display screen 122a instead of the machine coordinate information 122a1.
  • the main control unit 50 when the main control unit 50 recognizes that “program coordinates” has been selected via the touch panel sensor 22b, the main control unit 50 refers to the currently commanded tool correction amount and calculates information on the program coordinates. .
  • the main control unit 50 supplies the acquired program coordinates to the display control unit 30.
  • the display control unit 30 updates the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the display image signal to the auxiliary display unit 122.
  • the auxiliary display unit 122 displays program coordinate information (not shown) on the auxiliary display screen 122a instead of the machine coordinate information 122a1.
  • step S15 the main control unit 50 determines whether display of other coordinates is requested.
  • the input control unit 40 detects that an end instruction for the NC state display screen 111a1 is received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b, the input control unit 40 outputs the detected end instruction to the main control unit. 50.
  • the main control unit 50 determines that display of other coordinates is not requested, ends the process, and the end instruction is within the predetermined time. If not supplied from the input control unit 40, it is determined that display of another coordinate is requested, and the process returns to step S14.
  • the display control unit 30 displays the first machine related information related to the machine tool M on the main display screen 111a and the second machine related related to the machine tool M on the auxiliary display screen 122a. Display information.
  • the number of screen transitions required to handle a predetermined amount of information can be reduced, and operability can be improved. That is, the operability when controlling the machine tool M can be improved.
  • the display control unit 30 displays the NC state display screen 111a1 indicating the state of the drive amplifier 81 in the drive unit 80 on the main display screen 111a, and also displays the NC of the machine tool M on the auxiliary display screen 122a.
  • Machine coordinate information 122a1 representing the coordinates is displayed.
  • the display control unit 30 displays a plurality of button objects 122a2 to 122a4 linked to a part of the second machine related information (machine coordinate information 122a1) on the auxiliary display screen 122a. It is displayed as another part of machine related information.
  • the touch panel sensor 22b receives an input instruction corresponding to the pressed button object among the plurality of button objects 122a2 to 122a4. Thereby, the coordinate value displayed on the auxiliary display screen 122a can be switched. That is, when it is desired to check other coordinate values following the coordinates of the machine tool M, the NC state display screen 111a1 on the main display screen 111a can be checked without making a transition to the machine coordinate screen. Can be further reduced.
  • step S11 after the process of step S11 is performed, the process of step S12 and the process of step S13 may be performed in parallel.
  • the process of step S13 may be performed after the process of step S11 and the process of step S12 are performed in parallel.
  • the process of step S11, the process of step S12, and the process of step S13 may be performed in parallel.
  • FIG. 8 is a flowchart showing operations of the main display screen 211a and the auxiliary display screen 222a in the third embodiment.
  • FIG. 9A shows the operation of the main display screen 211a.
  • 9B and 9C are diagrams illustrating the operation of the auxiliary display screen 222a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 9A shows the operation of the main display screen 211a.
  • 9B and 9C are diagrams illustrating the operation of the auxiliary display screen 222a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 9A shows the operation of the main display screen 211a.
  • 9B and 9C are diagrams illustrating the operation of the auxiliary display screen 222a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 9A shows the operation of the main display screen 211a.
  • 9B and 9C are diagrams illustrating the operation of the auxiliary display screen 222a
  • step S21 shown in FIG. 8 the input control unit 40 detects that an instruction to start the I / F screen is received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected activation instruction to the display control unit 30 via the main control unit 50.
  • the display control unit 30 generates the I / F screen 211a1 (see FIG. 9A) as the main display data 71 in accordance with the supplied activation instruction.
  • the display control unit 30 stores the main display data 71 in the storage unit 70 via the main control unit 50, converts the main display data 71 into a display image signal, and supplies the image signal to the main display unit 211.
  • the main display unit 211 activates and displays the I / F screen 211a1 on the main display screen 211a.
  • the main display unit 211 displays a cursor (for example, a black square object shown in FIG. 9A) 211a2 indicating the editing position at a predetermined position on the I / F screen 211a1.
  • the main display unit 211 displays an I / F screen 211a1, for example, for displaying various PLC control input / output signals, checking machine sequence operations during PLC development, and checking input / output data between each part of the NC unit and the PLC.
  • the I / F screen 211a1 to be used is displayed on the main display screen 211a.
  • step S22 the main control unit 50 displays both the display contents of the I / F screen 211a1 and the I / F diagnosis information to be displayed (a plurality of I / F diagnosis information 222a1 to 222a3 shown in FIG. 9B).
  • the display control unit 30 is controlled such that a plurality of button objects linked to the button are displayed on the auxiliary display screen 222a.
  • the main control unit 50 estimates operation candidates necessary for the I / F diagnosis (step S23 described later). For example, the main control unit 50 estimates “registration” and “cancellation” as candidate operations required for the I / F diagnosis (see FIG. 9B). The main control unit 50 supplies the estimated multiple candidates “registration” and “cancellation” to the display control unit 30.
  • the display control unit 30 generates, as auxiliary display data 72, a plurality of button objects 222a4 to 222a5 (see FIG. 9B) corresponding to a plurality of operation candidates “register” and “cancel”.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 222.
  • the auxiliary display unit 222 displays both the display content of the I / F screen 211a1 and the I / F diagnosis information to be displayed (the plurality of I / F diagnosis information 222a1 to 222a3 shown in FIG. 9B).
  • a plurality of button objects 222a4 to 222a5 are displayed on the auxiliary display screen 222a.
  • step S23 the main control unit 50 controls the display control unit 30 so that the plurality of I / F diagnosis information 222a1 to 222a3 are displayed on the auxiliary display screen 222a.
  • the main control unit 50 when the main control unit 50 recognizes that the “registered” button object 222a4 of the plurality of button objects 222a4 to 222a5 has been pressed via the touch panel sensor 22b, the main control unit 50 displays the button object in the I / F screen 211a1.
  • the devices X0000 to X0070 and Y0000 to Y0070 the devices X0000, Y0048, and X0018 at the cursor position are specified as devices for which I / F diagnosis, that is, registration / release should be determined.
  • the main control unit 50 supplies information on the specified devices X0000, Y0048, and X0018 to the display control unit 30.
  • the display control unit 30 generates I / F diagnosis information 222a1 to 222a3 (see FIG. 9B) corresponding to the specified device as auxiliary display data 72.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 222.
  • the auxiliary display unit 222 displays a plurality of I / F diagnostic information 222a1 to 222a3 on the auxiliary display screen 222a as information linked to the display content (selected device) of the I / F screen 211a1.
  • the left information is a device identifier
  • the right information is data (eg, “00h”).
  • the main control unit 50 recognizes that one I / F diagnosis information data (for example, “00h”) of the plurality of I / F diagnosis information 222a1 to 222a3 is pressed via the touch panel sensor 22b. In this case, the pressed I / F diagnosis information is notified to the display control unit 30. For example, when the main control unit 50 recognizes that the portion of the I / F diagnosis information 222a3 is pressed via the touch panel sensor 22b, the data portion of the I / F diagnosis information 222a3 is pressed. This is notified to the display control unit 30.
  • one I / F diagnosis information data for example, “00h”
  • the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and enters a state where the data portion of the pressed I / F diagnosis information 222a3 can be input.
  • the auxiliary display unit 222 is controlled so as to perform display (for example, highlight display of the I / F diagnosis information 222a3).
  • the main control unit 50 recognizes that “20h” is input as the data value of the I / F diagnosis information 222a3 (data change is set) via the plurality of input keys 21.
  • the data value “20h” of the I / F diagnosis information 222a3 is notified to the display control unit 30.
  • the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and replaces the data portion “00h” of the pressed I / F diagnosis information 222a3.
  • the auxiliary display unit 422 is controlled to display that “20h” has been input (that is, display of the I / F diagnosis information 222a31 including the new data value “20h”).
  • the main control unit 50 recognizes that the “released” button object 222a5 is pressed among the plurality of button objects 222a4 to 222a5 via the touch panel sensor 22b, the “released” button object 222a5 is pressed. This is notified to the display control unit 30. In response to this, the display control unit 30 releases the device displayed on the auxiliary display screen 222a. That is, the display control unit 30 cancels the display of each I / F diagnosis information 222a1 to 222a3 on the auxiliary display screen 222a.
  • step S24 the main control unit 50 determines whether an I / F diagnosis of another device is requested.
  • the input control unit 40 detects that an end instruction for the I / F screen 211a1 is received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b, the input control unit 40 outputs the detected end instruction to the main control unit. 50.
  • the main control unit 50 determines that display of other coordinates is not requested, ends the process, and the end instruction is within the predetermined time. If not supplied from the input control unit 40, it is determined that display of another coordinate is requested, and the process returns to step S24.
  • the display control unit 30 displays the display content (first machine related information) of the I / F screen 211a1 and the plurality of I / F diagnosis information 222a1 to 222A1 on the auxiliary display screen 222a.
  • a plurality of button objects 222a4 to 222a5 linked to both of 222a3 (a part of the second machine related information) are displayed as another part of the second machine related information.
  • the touch panel sensor 22b receives an input instruction corresponding to the pressed button object among the plurality of button objects 222a4 to 222a5. Thereby, the I / F diagnosis can be performed on the device selected from the plurality of devices displayed on the I / F screen 211a1 and displayed on the auxiliary display screen 222a.
  • step S21 after the process of step S21 is performed, the process of step S22 and the process of step S23 may be performed in parallel.
  • the process of step S23 may be performed after the process of step S21 and the process of step S22 are performed in parallel.
  • the process of step S21, the process of step S22, and the process of step S23 may be performed in parallel.
  • FIG. 10 is a flowchart showing operations of the main display screen 311a and the auxiliary display screen 322a in the fourth embodiment.
  • FIG. 11A shows the operation of the main display screen 311a.
  • FIGS. 11B and 11C are diagrams illustrating the operation of the auxiliary display screen 322a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 11A shows the operation of the main display screen 311a.
  • FIGS. 11B and 11C are diagrams illustrating the operation of the auxiliary display screen 322a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 10 is a flowchart showing operations of the main display screen 311a and the auxiliary display screen 322a in the fourth embodiment.
  • FIG. 11A shows the operation of the main display screen 311a.
  • FIGS. 11B and 11C are diagrams illustrating the operation of the auxiliary display screen 322a. Below, it demonstrates focusing on a different part from Embod
  • step S31 shown in FIG. 10 the input control unit 40 detects that an activation instruction for a waveform display screen has been received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected activation instruction to the display control unit 30 via the main control unit 50.
  • the display control unit 30 generates a waveform display screen 311a1 (see FIG. 11A) as main display data 71 in accordance with the supplied activation instruction.
  • the display control unit 30 stores the main display data 71 in the storage unit 70 via the main control unit 50, converts the main display data 71 into a display image signal, and supplies the image signal to the main display unit 311.
  • the main display unit 311 activates and displays the waveform display screen 311a1 on the main display screen 311a.
  • the main display unit 311 displays a cursor (for example, a square frame shown in FIG. 11A) 311a2 indicating the editing position at a predetermined position on the waveform display screen 311a1.
  • the main display unit 311 displays, for example, a screen including a waveform display object 311a3 indicating the operation of the servo motor on the main display screen 311a as the waveform display screen 311a1.
  • step S32 the main control unit 50 controls the display control unit 30 so that a display object obtained by enlarging a part of the display object 311a3 on the main display screen 311a is displayed on the auxiliary display screen 322a.
  • the main control unit 50 identifies some display objects surrounded by the cursor 311a2 among the display objects 311a3 displayed in the waveform display screen 311a1.
  • the main control unit 50 supplies the specified part of display objects to the display control unit 30.
  • the display control unit 30 generates, as auxiliary display data 72, a display object 322a1 (see FIG. 11B) obtained by enlarging a part of display objects according to an area to be displayed on the auxiliary display screen 322a.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the display image signal to the auxiliary display unit 322.
  • the auxiliary display unit 322 displays the display object 322a1 on the auxiliary display screen 322a as a display object obtained by enlarging a part of the display object 311a1 of the waveform display screen 311a1.
  • the main control unit 50 when the main control unit 50 recognizes that the cursor 311a2 in the waveform display screen 311a1 has been moved via the plurality of input keys 21, the main control unit 50 includes the display object 311a3 displayed in the waveform display screen 311a1. A part of the display object surrounded by the cursor 311a2 after the movement is identified.
  • the main control unit 50 supplies the specified part of display objects to the display control unit 30.
  • the display control unit 30 generates, as auxiliary display data 72, a display object (not shown) obtained by enlarging a part of the display objects in accordance with an area to be displayed on the auxiliary display screen 322a.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the display image signal to the auxiliary display unit 322. Accordingly, the auxiliary display unit 322 displays the display object 322a1 on the auxiliary display screen 322a as a display object obtained by enlarging a part of the display object of the waveform display screen 311a1.
  • step S33 the main control unit 50 displays a plurality of button objects 322a2 to 322a4 linked to both the display object 311a3 on the main display screen 311a and the display object 322a1 on the auxiliary display screen 322a on the auxiliary display screen 322a.
  • the display control unit 30 is controlled.
  • the main control unit 50 estimates operation candidates necessary for waveform display. For example, the main control unit 50 estimates “enlargement”, “reduction”, and “main” as operation candidates necessary for the I / F diagnosis (see FIG. 11B). The main control unit 50 supplies the estimated multiple candidates “enlargement”, “reduction”, and “main” to the display control unit 30.
  • the display control unit 30 generates, as auxiliary display data 72, a plurality of button objects 322a2 to 322a4 (see FIG. 11B) corresponding to a plurality of operation candidates “enlarge”, “reduced”, and “main”.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies the display image signal to the auxiliary display unit 322.
  • the auxiliary display unit 322 displays a plurality of button objects 322a2 to 322a4 on the auxiliary display screen 322a as information linked to both the display object 311a3 of the main display screen 311a and the display object 322a1 of the auxiliary display screen 322a. indicate.
  • step S34 the main control unit 50 controls the display control unit 30 so that a display object obtained by enlarging or reducing the display object 322a1 on the auxiliary display screen 322a is displayed on the auxiliary display screen 322a.
  • the display control unit 30 is controlled so that the original display object 322a1 is displayed on the auxiliary display screen 322a after the display object 322a1 on the auxiliary display screen 322a is enlarged or reduced.
  • the main control unit 50 recognizes that the “enlarged” button object 322a2 among the plurality of button objects 322a2 to 322a4 has been pressed via the touch panel sensor 22b, the “enlarged” button object 322a2 is pressed. This is notified to the display control unit 30. In response to this, the display control unit 30 further enlarges the display object 311a1 around the center of the area surrounded by the cursor 311a2 and displays it on the auxiliary display screen 322a1. At this time, both the cursor 311a2 and the display object 311a3 are maintained in the state shown in FIG. 11A on the main display screen 311a, but the cursor 311a2 is substantially reduced in size in the display object 311a3. An operation corresponding to reducing the area of the portion surrounded by the cursor 311a2 is performed.
  • the main control unit 50 recognizes that the “reduced” button object 322a3 among the plurality of button objects 322a2 to 322a4 has been pressed via the touch panel sensor 22b, the “reduced” button object 322a3 is displayed.
  • the display controller 30 is notified of the pressing.
  • the display control unit 30 reduces the display object 311a1 around the center of the region surrounded by the cursor 311a2 and displays it as the display object 322a11 on the auxiliary display screen 322a1 (see FIG. 11C).
  • both the cursor 311a2 and the display object 311a3 are maintained in the state shown in FIG. 11A on the main display screen 311a, but the size of the cursor 311a2 is substantially increased and the display object 311a3 An operation corresponding to increasing the area of the portion surrounded by the cursor 311a2 is performed.
  • the main control unit 50 recognizes that the “main” button object 322a4 among the plurality of button objects 322a2 to 322a4 is pressed via the touch panel sensor 22b, the “main” button object 322a4 is displayed.
  • the display controller 30 is notified of the pressing.
  • the display control unit 30 displays the original display object 311a1, that is, a part of the display objects surrounded by the cursor 311a2 among the display objects 311a3 on the main display screen 311a on the auxiliary display screen 322a.
  • the display object 322a1 (see FIG. 11B) enlarged in accordance with the power region is again displayed on the auxiliary display screen 322a1.
  • both the cursor 311a2 and the display object 311a3 are maintained in the state shown in FIG. 11A on the main display screen 311a, but the size of the cursor 311a2 is substantially restored to the original size, and the display object 311a3.
  • An operation corresponding to returning the area of the portion surrounded by the cursor 311a2 to the original is performed.
  • step S35 the main control unit 50 determines whether or not further waveform confirmation is requested.
  • the input control unit 40 when the input control unit 40 detects from at least one of the plurality of input keys 21 and the touch panel sensor 22b that an instruction to end the waveform display screen 311a1 is received from the user, the input control unit 40 outputs the detected end instruction to the main control unit 50. To supply.
  • the main control unit 50 determines that display of other coordinates is not requested, ends the process, and the end instruction is within the predetermined time. If not supplied from the input control unit 40, it is determined that display of another coordinate is requested, and the process returns to step S34.
  • the display control unit 30 displays the display object 311a3 as the first machine related information on the main display screen 311a, and displays the display object 311a3 on the auxiliary display screen 322a.
  • a display object 322a1 corresponding to a part is displayed as second machine related information. That is, the display control unit 30 displays a display object (partial waveform) 322a1 obtained by enlarging a part of the display object (overall waveform) 311a3 on the main display screen 311a on the auxiliary display screen 322a. Thereby, the enlarged partial waveform can be confirmed while confirming the entire waveform display.
  • the display control unit 30 displays the display object 311a3 (first machine related information) on the main display screen 311a and the display object 322a1 (first display) on the auxiliary display screen 322a on the auxiliary display screen 322a.
  • a plurality of button objects 322a2 to 322a4 that are linked to both of the second machine related information.
  • the touch panel sensor 22b receives an input instruction corresponding to the pressed button object among the plurality of button objects 322a2 to 322a4.
  • the portion of the display object 322a1 selected from the display objects 311a3 displayed on the waveform display screen 311a1 and displayed on the auxiliary display screen 322a is enlarged or reduced for confirmation (operation on the auxiliary display screen 322a). Or you can go back to the original state.
  • step S31 after the process of step S31 is performed, the process of step S32 and the process of step S33 may be performed in parallel.
  • the process of step S33 may be performed after the process of step S31 and the process of step S32 are performed in parallel.
  • the process of step S31, the process of step S32, and the process of step S33 may be performed in parallel.
  • FIG. 12 is a flowchart showing operations of the main display screen 411a and the auxiliary display screen 422a in the fifth embodiment.
  • FIG. 13A shows the operation of the main display screen 411a.
  • 13B and 13C are diagrams illustrating the operation of the auxiliary display screen 422a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 12 is a flowchart showing operations of the main display screen 411a and the auxiliary display screen 422a in the fifth embodiment.
  • FIG. 13A shows the operation of the main display screen 411a.
  • 13B and 13C are diagrams illustrating the operation of the auxiliary display screen 422a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 12 is a flowchart showing operations of the main display screen 411a and the auxiliary display screen 422a in the fifth embodiment.
  • FIG. 13A shows the operation of the main display screen 411a.
  • 13B and 13C are diagrams illustrating the
  • step S41 shown in FIG. 12 the input control unit 40 detects that a parameter screen activation instruction has been received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected activation instruction to the display control unit 30 via the main control unit 50.
  • the display control unit 30 generates a parameter screen 411a1 (see FIG. 13A) as main display data 71 in accordance with the supplied activation instruction.
  • the display control unit 30 stores the main display data 71 in the storage unit 70 via the main control unit 50, converts the main display data 71 into a display image signal, and supplies the image signal to the main display unit 411.
  • the main display unit 411 activates and displays the parameter screen 411a1 on the main display screen 411a.
  • the main display unit 411 displays a cursor (for example, a black square object shown in FIG. 13A) 411a2 indicating the editing position at a predetermined position on the parameter screen 411a1.
  • the main display unit 411 displays, on the main display screen 411a, a screen for setting parameters (NC parameters) for specifying the machine tool M to be controlled by the NC device 400, for example. indicate.
  • step S42 the main control unit 50 controls the display control unit 30 so that information linked to the display content of the parameter screen 411a1 is displayed on the auxiliary display screen 422a.
  • the NC parameter has a plurality of related parameters, and when a new function is added, a new parameter number is taken. Therefore, the related parameters are often displayed on different screens.
  • the main control unit 50 estimates a parameter related to the parameter displayed at the position where the cursor 411a2 is present in the parameter screen 411a1.
  • the main control unit 50 estimates, for example, “# 1206 G1bF”, “# 1207 G1btL”, and “# 1568 SfiltG1” as parameters related to the “corner deceleration angle” in the parameter screen 411a1.
  • the main control unit 50 acquires “1”, “50”, and “30” as the values of the estimated parameters “# 1206 G1bF”, “# 1207 G1btL”, and “# 1568 SfiltG1”, respectively.
  • the main control unit 50 supplies information on the estimated plurality of parameters and information on the plurality of values to the display control unit 30.
  • the display control unit 30 uses a plurality of related parameter information 422a1 to 422a3 (see FIG. 13B) corresponding to the plurality of parameter information and the plurality of value information and the plurality of value information 422a4 to 422a6 as auxiliary display data. 72 is generated.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into an image signal for display, and supplies the image signal to the auxiliary display unit 422.
  • the auxiliary display unit 422 displays a plurality of related parameter information 422a1 to 422a3 and a plurality of value information 422a4 to 422a6 on the auxiliary display screen 422a as information linked to the display contents (selected parameters) of the parameter screen 411a1. Is displayed.
  • step S43 the display control unit 30 is controlled to edit the plurality of related parameter information 422a1 to 422a3 and the plurality of value information 422a4 to 422a6 displayed on the auxiliary display screen 422a in step S42.
  • the main control unit 50 recognizes that the portion “30” of the value information 422a6 for the related parameter information 422a3 “# 1568 SfiltG1” on the auxiliary display screen 422a is pressed via the touch panel sensor 22b, “Z The display control unit 30 is notified that the part of “ ⁇ ” after “is pressed”. In response to this, the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50, and the state "30" of the pressed value information 422a6 can be input.
  • the auxiliary display unit 422 is controlled so as to perform display (for example, highlight display of “30”).
  • the main control unit 50 recognizes that “0” is input as the value of “# 1568 SfiltG1” via the plurality of input keys 21, for example, the value “0” of “# 1568 SfiltG1” is set. Notify the display control unit 30. In response to this, the display control unit 30 updates the auxiliary display data 72 of the storage unit 70 via the main control unit 50 and “0” is input to the portion “30” of the pressed value information 422a6. The auxiliary display unit 422 is controlled so as to perform display (that is, display of new value information 422a61).
  • step S44 the main control unit 50 determines whether there is a request for further editing.
  • the input control unit 40 when the input control unit 40 detects from at least one of the plurality of input keys 21 and the touch panel sensor 22b that an instruction to end the parameter screen 411a1 is received from the user, the input control unit 40 transmits the detected end instruction to the main control unit 50. Supply.
  • the main control unit 50 determines that there is no request for further editing, ends the process, and the end instruction is within the predetermined time. If not supplied from the input control unit 40, it is determined that there is a request for further editing, and the process returns to step S43.
  • the display control unit 30 uses the information linked to the display content (first machine related information) of the parameter screen 411a1 as the second machine related information on the auxiliary display screen 422a. Display. That is, the display control unit 30 displays the NC parameter (first parameter) selected in the parameter screen 411a1 as the first machine related information, and also displays the NC parameter selected on the auxiliary display screen 422a.
  • the plurality of related parameter information 422a1 to 422a3 (a plurality of second parameters) and the plurality of value information 422a4 to 422a6 are displayed as the second machine related information.
  • the parameters can be confirmed without changing the parameter screen 411a1 on the main display screen 411a to the screen of the related parameters.
  • the number of transitions can be reduced and operability can be improved.
  • FIG. 14 is a flowchart showing operations of the main display screen 511a and the auxiliary display screen 522a in the sixth embodiment.
  • FIG. 15A shows the operation of the main display screen 511a.
  • FIGS. 15B and 15C are diagrams illustrating the operation of the auxiliary display screen 522a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • FIG. 15A shows the operation of the main display screen 511a.
  • FIGS. 15B and 15C are diagrams illustrating the operation of the auxiliary display screen 522a. Below, it demonstrates focusing on a different part from Embodiment 1.
  • step S51 shown in FIG. 14 the input control unit 40 detects that a predetermined screen activation instruction has been received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected activation instruction to the display control unit 30 via the main control unit 50.
  • the display control unit 30 generates a predetermined screen 511a1 (see FIG. 15A) as the main display data 71 in accordance with the supplied start instruction.
  • the display control unit 30 stores the main display data 71 in the storage unit 70 via the main control unit 50, converts the main display data 71 into a display image signal, and supplies the image signal to the main display unit 511. Thereby, the main display unit 511 activates and displays a predetermined screen 511a1 on the main display screen 511a.
  • step S52 the main control unit 50 performs display control so that a display object on the main display screen 511a, that is, a display object obtained by reducing the entire predetermined screen 511a1 is displayed (copied) on the auxiliary display screen 522a.
  • the unit 30 is controlled.
  • the main control unit 50 specifies a display object (the entire predetermined screen 511a1) on the main display screen 511a.
  • the main control unit 50 supplies the specified display object (the entire predetermined screen 511a1) to the display control unit 30.
  • the display control unit 30 generates, as auxiliary display data 72, a display object 522a1 (see FIG. 15B) obtained by reducing a display object (the entire predetermined screen 511a1) according to an area to be displayed on the auxiliary display screen 522a. To do.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 522.
  • the auxiliary display unit 522 displays the display object 522a1 on the auxiliary display screen 522a as a display object obtained by reducing the entire display object (the entire predetermined screen 511a1) on the main display screen 511a.
  • step S53 the main control unit 50 controls the display control unit 30 so that a plurality of button objects 522a3 to 522a5 linked to the display object 522a1 on the auxiliary display screen 522a are displayed on the auxiliary display screen 522a.
  • the main control unit 50 estimates operation candidates necessary for the display object 522a1. For example, the main control unit 50 estimates “enlargement”, “reduction”, and “main” as candidate operations necessary for confirming the predetermined screen 511a1 (see FIG. 15B). The main control unit 50 supplies the estimated multiple candidates “enlargement”, “reduction”, and “main” to the display control unit 30. The display control unit 30 generates a plurality of button objects 522a3 to 522a5 (see FIG. 15B) corresponding to a plurality of operation candidates “enlarge”, “reduced”, and “main” as auxiliary display data 72.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 522. Accordingly, the auxiliary display unit 522 displays a plurality of button objects 522a3 to 522a5 on the auxiliary display screen 522a as information linked to the display object 522a1 of the auxiliary display screen 522a.
  • step S54 and the process of step S55 are performed in parallel.
  • step S54 the main control unit 50 controls the display control unit 30 so that another screen (not shown) is displayed on the main display screen 511a. That is, in step S54, the user confirms another screen on the main display screen 511a.
  • the input control unit 40 detects that a transition instruction to another screen has been received from the user from at least one of the plurality of input keys 21 and the touch panel sensor 22b.
  • the input control unit 40 supplies the detected transition instruction to the display control unit 30 via the main control unit 50.
  • the display control unit 30 generates another screen as the main display data 71 in accordance with the supplied transition instruction. Then, the display control unit 30 updates the main display data 71 in the storage unit 70 via the main control unit 50, converts the main display data 71 into an image signal for display, and supplies the image signal to the main display unit 511. Thereby, the main display unit 511 displays another screen on the main display screen 511a.
  • step S55 the main control unit 50 controls the display control unit 30 so that a display object obtained by enlarging / reducing the display object 522a1 on the auxiliary display screen 522a is displayed on the auxiliary display screen 522a. That is, in step S55, the user checks a predetermined screen on the auxiliary display screen 522a.
  • the main control unit 50 recognizes that the portion 522a2 of the display object 522a1 is pressed and the “enlarge” button object 522a3 is pressed via the touch panel sensor 22b, the position of the portion 522a2 and “ The display control unit 30 is notified that the “enlarge” button object 522a3 has been pressed.
  • the display control unit 30 further enlarges the display object 522a1 around the position of the portion 522a2 and displays it as the display object 522a11 on the auxiliary display screen 522a (see FIG. 15C).
  • the display control unit 30 stores the data of the original display object 522a1 before being enlarged / reduced in the storage unit 70 as backup data (not shown) via the main control unit 50.
  • the display control unit 30 when the main control unit 50 recognizes that the portion 522a2 of the display object 522a1 is pressed and the “reduced” button object 522a4 is pressed via the touch panel sensor 22b, the position of the portion 522a2 , The display control unit 30 is notified that the “reduced” button object 522a4 has been pressed. In response to this, the display control unit 30 further reduces the display object 522a1 around the position of the portion 522a2 and displays it on the auxiliary display screen 522a. At this time, the display control unit 30 stores the data of the original display object 522a1 before being enlarged / reduced in the storage unit 70 as backup data (not shown) via the main control unit 50.
  • the main control unit 50 determines that both the processing in step S54 and the processing in step S55 have been completed.
  • step S56 the main control unit 50 controls the display control unit 30 so that a display object obtained by enlarging the display object 522a1 on the auxiliary display screen 522a is displayed again (reproduced by copying) on the main display screen 511a. To do.
  • the main control unit 50 recognizes that the “main” button object 522a5 is pressed among the plurality of button objects 522a3 to 522a5 via the touch panel sensor 22b, the “main” button object 522a5 is pressed. This is notified to the display control unit 30. In response to this, the display control unit 30 reads the backup data from the storage unit 70 via the main control unit 50, and displays the original display object (the entire predetermined screen 511a1) on the main display screen 511a again.
  • the display control unit 30 again displays a display object (predetermined screen 511a1) in which the display object 522a1 on the auxiliary display screen 522a restored from the backup data is enlarged in accordance with the area to be displayed on the main display screen 511a. It is displayed on the main display screen 511a.
  • the display control unit 30 displays on the auxiliary display screen 522a the display object 522a1 obtained by reducing the entire display object on the main display screen 511a (the entire predetermined screen 511a1). Let That is, the display control unit 30 displays on the auxiliary display screen 522a the display object 522a1 obtained by reducing the entire display object (the entire predetermined screen 511a1) on the main display screen 511a, and then displays the display object 522a1 on the main display screen 511a. Then, the display object (the entire predetermined screen 511a1) obtained by enlarging the display object 522a1 on the auxiliary display screen 522a is displayed again.
  • the content once copied to the auxiliary display screen 522a can be returned to the main display screen 511a. That is, when it is desired to check a frequently referred screen and then return to a frequently referred screen after referring to another screen, the screen on the main display screen 511a is changed to search for a frequently referred screen. Since it is not necessary, the number of necessary screen transitions can be reduced and the operability can be improved.
  • the process of displaying and confirming another screen on the main display screen 511a and the process of confirming the display object 522a1 displayed on the auxiliary display screen 522a by enlarging or reducing are performed in parallel. And do it. This makes it possible to reduce the number of necessary screen transitions and improve operability when it is desired to refer to other screens while always checking the screen to be referred to.
  • step S56 the display control unit 30 displays the first machine related information on the main display screen 511a and the second machine related information on the auxiliary display screen 522a, and then the main display screen 511a. You may make it change to the state which displayed the 2nd machine related information on the top, and displayed the 1st machine related information on the auxiliary
  • the main control unit 50 specifies a display object (the entire other screen) on the main display screen 511a.
  • the main control unit 50 supplies the specified display object (the entire other screen) to the display control unit 30.
  • the display control unit 30 generates, as auxiliary display data 72, a display object (not shown) obtained by reducing the display object (the entire other screen) according to the area to be displayed on the auxiliary display screen 522a.
  • the display control unit 30 stores the auxiliary display data 72 in the storage unit 70 via the main control unit 50, converts the auxiliary display data 72 into a display image signal, and supplies it to the auxiliary display unit 522.
  • the auxiliary display unit 522 displays a display object on the auxiliary display screen 522a by reducing the entire display object (the entire other screen) on the main display screen 511a.
  • the main control unit 50 recognizes that the “main” button object 522a5 is pressed among the plurality of button objects 522a3 to 522a5 via the touch panel sensor 22b, the “main” button object 522a5 is pressed. This is notified to the display control unit 30. In response to this, the display control unit 30 reads the backup data from the storage unit 70 via the main control unit 50, and displays the original display object (the entire predetermined screen 511a1) on the main display screen 511a again.
  • the process of copying the display object on the auxiliary display screen 522a back to the main display screen 511a and the process of copying the display object on the main display screen 511a to the auxiliary display screen 522a are back-copyed. Is performed in parallel, so if you want to refer to other screens again after confirming the frequently referenced screens and then referring to other screens and then returning to the frequently referenced screens, the main display Since there is no need to search for another screen by changing the screen on the screen 511a, the number of necessary screen transitions can be reduced and the operability can be improved.
  • the numerical control device is useful for controlling a machine tool.

Abstract

 数値制御装置は、工作機械を制御する数値制御装置であって、主表示画面を有する表示ユニットと、複数の入力キーと補助表示画面とを操作面上に有するキーボードユニットと、前記主表示画面上に、前記工作機械に関連した第1の機械関連情報を表示させるとともに、前記補助表示画面上に、前記工作機械に関連した第2の機械関連情報を表示させる表示制御部とを備え、前記キーボードユニットは、前記補助表示画面をタッチパネルとして入力指示を受け付ける表示入力部を有する。

Description

数値制御装置
 本発明は、数値制御装置に関する。
 特許文献1には、ノート型パソコンにおいて、蓋部の内面に液晶表示器が取り付けられるとともに、筐体の上面にキーボードと液晶表示器より小形の補助液晶表示器とが実装されることが記載されている。これにより、特許文献1によれば、ワープロの編集作業においてメモリに記憶されている特定の文章を補助液晶表示器に表示できるので、ワープロの編集作業の効率を向上させることができるとされている。
 特許文献2には、ワードプロセッサにおいて、主表示器が固定された主表示器筐体の下方にタッチパネルが表面に設けられた補助表示器を回転可能に取り付けるとともに、補助表示器の表裏面に補助表示器を回転させるためのチルトダイヤルが突出するように構成することが記載されている。これにより、特許文献2によれば、主表示器筐体を閉じたままでもチルトダイヤルを回転して補助表示器の表面を出しタッチパネルを押下することで印刷機能を実行できるとされている。
特開平8-161079号公報 特開平6-35567号公報
 一方、数値制御(Numerical Control;以下NCという)装置には、表示ユニットとキーボードユニットとを備え、表示ユニットがNC装置の状態を伝える画面表示を行い、キーボードユニットがキー入力による画面操作を行うものがある。このようなNC装置では、キーボードユニットの入力キーがハードウェアにより一意に決められおり(例えば、英数字キーなど)、決められた入力キーで画面操作を行うためにキー入力回数が多く、操作性が低い傾向にある。
 また、NC装置には、表示ユニット上にキーボードのオブジェクトをタッチパネルとして備えて、画面表示と画面操作とを同一ユニット(表示ユニット)上で実施し直感的に操作ができるようにしたものも存在する。このようなNC装置では、表示画面の一部がキーボードのオブジェクトにより占有されてしまうため、画面表示できる情報量が制限されるために、操作性が低い傾向にある。
 特許文献1及び特許文献2は、ノート型パソコンやワードプロセッサなどの文章を入力するための装置を想定したものであり、NC装置(数値制御装置)により工作機械を制御する際の操作性をどのように向上するのかに関して一切記載がない。
 本発明は、上記に鑑みてなされたものであって、工作機械を制御する際の操作性を向上できる数値制御装置を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の1つの側面にかかる数値制御装置は、工作機械を制御する数値制御装置であって、主表示画面を有する表示ユニットと、複数の入力キーと補助表示画面とを操作面上に有するキーボードユニットと、前記主表示画面上に、前記工作機械に関連した第1の機械関連情報を表示させるとともに、前記補助表示画面上に、前記工作機械に関連した第2の機械関連情報を表示させる表示制御部とを備え、前記キーボードユニットは、前記補助表示画面をタッチパネルとして入力指示を受け付ける表示入力部を有することを特徴とする。
 本発明によれば、入力キーによる複数回の入力に対応した入力指示をタッチパネルにより1回の入力で行うことができるので、入力指示に対する入力回数を低減できる。主表示画面のどの部分もタッチパネル用のオブジェクトにより占有されないので、画面表示できる情報量を確保でき、所定の情報量を扱うために必要な画面遷移の回数を低減できる。この結果、工作機械を制御する際の操作性を向上できる。
図1は、実施の形態1にかかる数値制御装置の構成を示す図である。 図2は、実施の形態1にかかる数値制御装置の構成を示す図である。 図3は、実施の形態1にかかる画面の動作を示すフローチャートである。 図4は、実施の形態1における画面の動作を示す図である。 図5は、実施の形態1における画面の動作を示す図である。 図6は、実施の形態2にかかる画面の動作を示すフローチャートである。 図7は、実施の形態2における画面の動作を示す図である。 図8は、実施の形態3にかかる画面の動作を示すフローチャートである。 図9は、実施の形態3における画面の動作を示す図である。 図10は、実施の形態4にかかる画面の動作を示すフローチャートである。 図11は、実施の形態4における画面の動作を示す図である。 図12は、実施の形態5にかかる画面の動作を示すフローチャートである。 図13は、実施の形態5における画面の動作を示す図である。 図14は、実施の形態6にかかる画面の動作を示すフローチャートである。 図15は、実施の形態6における画面の動作を示す図である。 図16は、比較例における画面の構成を示す図である。
 以下に、本発明にかかる数値制御装置の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 実施の形態1にかかる数値制御装置1について図1及び図2について説明する。図1は、NC装置1の機能構成を示す図である。図2は、NC装置1の外観構成を示す図である。
 数値制御装置(以下、NC装置とする)1は、工作機械M(に取り付けられた工具)の動作を数値的に制御する。例えば、NC装置1は、工作機械MによるワークWの加工を制御する。
 具体的には、NC装置1は、主制御部50、表示ユニット10、キーボードユニット20、入力制御部40、表示制御部30、記憶部70、画面座標演算部60、及び駆動部80を備える。
 主制御部50は、表示ユニット10、キーボードユニット20、入力制御部40、表示制御部30、画面座標演算部60、記憶部70、及び駆動部80を全体的に制御する。
 表示ユニット10は、NC装置1がユーザにより使用される際に対面する主面10a上に、主表示画面11aを有する(図2参照)。具体的には、表示ユニット10は、主表示部11を有している。主表示部11は、主表示画面11a上に、表示制御部30により供給された画像信号に応じた画像を表示する。例えば、主表示部11は、主表示画面11a上に、工作機械Mに関連した第1の機械関連情報を表示する。例えば、第1の機械関連情報は、NC状態や、NC操作に関わる基本的な情報を含む。あるいは、例えば、第1の機械関連情報は、編集途中の加工プログラム73を含む。
 キーボードユニット20は、NC装置1がユーザにより使用される際に操作される操作面20a上に複数の入力キー21と補助表示画面22aとを有する(図2参照)。補助表示画面22aは、例えば、操作面20aにおける右上に配されている。
 具体的には、キーボードユニット20は、複数の入力キー21と補助表示部22とを有する。複数の入力キー21は、どのキーが押圧されたかに応じて、ユーザから所定の指示を受け付ける。複数の入力キー21は、例えば、複数の英数字キー及び他の所定のキーを含む(図2参照)。例えば、ユーザは、主表示画面11a上の表示内容を確認しながら、複数の入力キー21から所定の英数字キーを押圧してNC装置1の操作を行う。
 補助表示部22は、補助表示画面22a上に、表示制御部30により供給された画像信号に応じた画像を表示する。例えば、補助表示部22は、工作機械Mに関連した第2の機械関連情報を表示する。第2の機械関連情報は、例えば、第1の機械関連情報に連動した複数のボタンオブジェクトを含む(図4参照)。
 また、補助表示部22は、タッチパネルセンサ(表示入力部)22bを有している。タッチパネルセンサ22bは、補助表示画面22aをタッチパネルとして入力指示を受け付ける。例えば、ユーザは、主表示画面11a上の表示内容を確認しながら、補助表示画面22a内の所定の部分を押圧してNC装置1の操作を行う。例えば、タッチパネルセンサ22bは、複数のボタンオブジェクト(図4参照)のうち押下されたボタンオブジェクトに対応する入力指示を受け付ける。
 入力制御部40は、複数の入力キー21のうちいずれかのキーが押圧された場合にどのキーが押圧されたかを検知して、どのキーが押圧されたかを示すキー押圧情報を主制御部50へ供給する。主制御部50は、キー押圧情報に応じた制御を行う。
 また、入力制御部40は、補助表示画面22aにおけるいずれかの部分が押圧された場合に、タッチパネルセンサ22bを介して、補助表示画面22aのどの部分が押圧されたのかを検知して、どの部分が押圧されたのかを示すタッチパネル押圧情報を主制御部50へ供給する。主制御部50は、タッチパネル押圧情報に応じた制御を行う。
 表示制御部30は、主制御部50による制御に応じて、主表示画面11aに表示すべき情報と補助表示画面22aに表示すべき情報とをそれぞれ制御する。すなわち、表示制御部30は、主表示画面11aに表示すべき主表示データ71を生成し、主表示データ71を表示用の画像信号に変換し、変換した表示用の画像信号を主表示部11に供給する。それとともに、表示制御部30は、補助表示画面22aに表示すべき補助表示データ72を生成し、補助表示データ72を表示用の画像信号に変換し、変換した表示用の画像信号を補助表示部22に供給する。これにより、表示制御部30は、主表示画面11a上に、工作機械Mに関連した第1の機械関連情報を表示させるとともに、補助表示画面22a上に、工作機械Mに関連した第2の機械関連情報を表示させる。
 記憶部70は、NC装置1が工作機械MによるワークWの加工を制御する際に使用する加工プログラム73を記憶する。加工プログラム73には、例えば、工作機械Mの動作軌跡がプログラムされている。
 また、記憶部70は、所定の作業領域としても用いられる。例えば、記憶部70は、主表示画面11aに表示すべきデータとして表示制御部30により生成された主表示データ71を記憶するとともに、補助表示画面22aに表示すべきデータとして表示制御部30により生成された補助表示データ72を記憶する。さらに、記憶部70は、補助表示画面22a内における複数の座標と複数の入力指示との関連付けを示すデータとして主制御部50により生成された入力指示データ74を記憶する。
 画面座標演算部60は、タッチパネル押圧情報を主制御部50経由で入力制御部40から受け、タッチパネル押圧情報により示された補助表示画面22a内の座標を演算して特定する。また、画面座標演算部60は、入力指示データ74を主制御部50経由で記憶部70から読み出し、入力指示データ74に含まれた複数の座標を演算して特定する。画面座標演算部60は、タッチパネル押圧情報により示された補助表示画面22a内の座標と、入力指示データ74に含まれた複数の座標とを比較する。画面座標演算部60は、補助表示画面22aの全領域内において、入力指示データ74に含まれた複数の座標のいずれかの座標を中心とする所定半径内に、タッチパネル押圧情報により示された座標位置が含まれるか否かを判断する。画面座標演算部60は、入力指示データ74に含まれた所定の入力指示に関連付けられた座標を中心とする所定半径内に、タッチパネル押圧情報により示された座標位置が含まれる場合、その所定の入力指示が受け付けられたと判断する。
 これにより、画面座標演算部60は、タッチパネルセンサ22bにより受け付けられた入力指示をタッチパネル入力指示情報として主制御部50へ供給する。タッチパネル入力指示情報が供給されることにより、主制御部50は、タッチパネル入力指示情報に応じた入力指示がタッチパネルセンサ22bを介して受け付けられたと認識する。
 駆動部80は、主制御部50による制御に応じて、工作機械MによるワークWの加工が行われるように、工作機械Mを駆動する。具体的には、駆動部80は、ドライブアンプ81を含む。駆動部80は、工作機械Mを駆動するための指令を主制御部50から受け、受けた指令をドライブアンプ81により増幅して駆動信号を生成して工作機械Mへ供給する。これにより、工作機械Mが駆動される。
 次に、NC装置1にて使用頻度が高い加工プログラム73の編集画面について図3~図5を用いて説明する。図3は、主表示画面11a及び補助表示画面22aの動作を示すフローチャートである。図4(a)及び図5(a)は、主表示画面11aの動作を示す図である。図4(b)及び図5(b)は、補助表示画面22aの動作を示す図である。
 図3に示すステップS1では、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、加工プログラム73の編集画面の起動指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した起動指示を主制御部50へ供給する。主制御部50は、供給された起動指示に応じて、記憶部70にアクセスして、編集途中の加工プログラム73が記憶部70に記憶されているか否かを判断する。
 主制御部50は、編集途中の加工プログラム73が記憶部70に記憶されていない場合、編集途中の加工プログラム73がない旨の情報を表示制御部30へ供給する。これにより、表示制御部30は、初期状態の加工プログラム73の編集画面11a1を主表示データ71として生成する。
 あるいは、主制御部50は、編集途中の加工プログラム73が記憶部70に記憶されている場合、編集途中の加工プログラム73の情報を表示制御部30へ供給する。これにより、表示制御部30は、編集途中の加工プログラム73の情報を含めて加工プログラム73の編集画面11a1を主表示データ71として生成する。
 そして、表示制御部30は、主表示データ71を主制御部50経由で記憶部70に記憶させるとともに、主表示データ71を表示用の画像信号に変換して主表示部11へ供給する。これにより、主表示部11は、主表示画面11aに加工プログラム73の編集画面11a1を起動して表示する。このとき、主表示部11は、編集位置を示すカーソル(例えば、図4(a)に示す黒四角のオブジェクト)11a2を、初期状態の加工プログラム73における初期位置に、又は編集途中の加工プログラム73における一番最後の部分の位置に表示させる。
 ステップS2では、主制御部50が、加工プログラム73に対して次に追加される候補となる複数のコードに対応した複数のボタンオブジェクトが補助表示画面22aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、編集途中の加工プログラム73が記憶部70に記憶されていない場合、制御対象である工作機械Mを特定するために設定されたNCパラメータに基づいて、初期状態の加工プログラム73に対して次に追加する候補となる複数のコードを推定する。主制御部50は、推定した複数のコードを表示制御部30へ供給する。表示制御部30は、複数のコードに対応した複数のボタンオブジェクト(図示せず)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部22へ供給する。これにより、補助表示部22は、初期状態の加工プログラム73の編集画面11a1におけるカーソル11a2の位置の記述(空の記述)に連動した情報として、補助表示画面22a上に、複数のボタンオブジェクト(最初に入力することが予想されるコードの候補)を表示する。
 あるいは、例えば、主制御部50は、編集途中の加工プログラム73が記憶部70に記憶されている場合、編集途中の加工プログラム73における一番最後の部分の記述から、編集途中の加工プログラム73に対して次に追加する候補となる複数のコードを推定する。例えば、主制御部50は、編集途中の加工プログラム73に対して次に追加する候補として、Gコード「G4」、「G40」、「G41」、「G42」、「G43」を推定する(図4(b)参照)。主制御部50は、推定した複数のコードを表示制御部30へ供給する。表示制御部30は、複数のコード(例えば、Gコード「G4」、「G40」、「G41」、「G42」、「G43」)に対応した複数のボタンオブジェクト22a1~22a5(図4(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部22へ供給する。これにより、補助表示部22は、編集途中の加工プログラム73の編集画面11a1におけるカーソル11a2の位置の記述に連動した情報として、補助表示画面22a上に、複数のボタンオブジェクト22a1~22a5を表示する。
 あるいは、例えば、主制御部50は、複数の入力キー21を介して加工プログラム73の編集画面11a1におけるカーソル11a2が移動されたことを認識した場合、移動後のカーソル11a2が位置した部分の記述から、編集途中の加工プログラム73に対して次に追加する候補となる複数のコードを新たに推定する。主制御部50は、推定した複数のコードを表示制御部30へ供給する。表示制御部30は、複数のコードに対応した複数のボタンオブジェクト(図示せず)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部22へ供給する。これにより、補助表示部22は、編集途中の加工プログラム73の編集画面11a1におけるカーソル11a2の位置の記述に連動した情報として、補助表示画面22a上に、複数のボタンオブジェクト22a1~22a5を(動的に変更して)表示する。
 ステップS3では、主制御部50が、選択されたボタンオブジェクトに対応したコードの次に入力が予想される文字列が補助表示画面22aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクトのうち1つのボタンオブジェクトが選択されたことを認識した場合、選択されたボタンオブジェクトに対応したコードの次に入力が予想される文字列を推定する。例えば、主制御部50は、タッチパネルセンサ22bを介して、Gコード「G43」に対応したボタンオブジェクト22a5が選択されたことを認識した場合、ボタンオブジェクト22a5が選択されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、ボタンオブジェクト22a5が選択されたことを示す表示(例えば、図4(b)に示すようなボタンオブジェクト22a5のハイライト表示)を行うように補助表示部22を制御する。
 それとともに、主制御部50は、Gコード「G43」に対応したボタンオブジェクト22a5が選択されたことを認識した場合、Gコード「G43」の次に入力が予想される文字列として、G43のプログラム指令フォーマット「Z□ F□;」を推定する。主制御部50は、推定した文字列「Z□ F□;」を表示制御部30へ供給する。表示制御部30は、文字列「Z□ F□;」に対応したボタンオブジェクト22a6(図4(b)参照)を補助表示データ72として生成する。表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、補助表示データ72を表示用の画像信号に変換して補助表示部22へ供給する。これにより、補助表示部22は、主表示画面11a上の加工プログラム73の編集画面11a1におけるカーソル11a2の位置の記述と、補助表示画面22a上の複数のボタンオブジェクト22a1~22a5とに連動したボタンオブジェクト22a6を、補助表示画面22a上に表示する。
 あるいは、例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクトのうち他のボタンオブジェクトが新たに選択されたことを認識した場合、選択されたボタンオブジェクトに対応したコードの次に入力が予想される文字列を新たに推定する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、他のボタンオブジェクトが新たに選択されたことを示す表示(例えば、他のボタンオブジェクトのハイライト表示)を行うように補助表示部22を制御する。
 それとともに、主制御部50は、推定した文字列を表示制御部30へ供給する。表示制御部30は、その文字列に対応したボタンオブジェクト(図示せず)を補助表示データ72として生成する。表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、補助表示データ72を表示用の画像信号に変換して補助表示部22へ供給する。これにより、補助表示部22は、主表示画面11a上の加工プログラム73の編集画面11a1におけるカーソル11a2の位置の記述と、補助表示画面22a上の複数のボタンオブジェクト22a1~22a5とに連動したボタンオブジェクト22a6を、補助表示画面22a上に(動的に変更して)表示する。
 ステップS4では、主制御部50が、ステップS3で補助表示画面22a上に表示された文字列に対して値を入力するように、表示制御部30を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して補助表示画面22a上の文字列「Z□ F□;」における「Z」の後の「□」の部分が押圧されたことを認識した場合、「Z」の後の「□」の部分が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧された「□」の部分すなわちZの指令値が入力可能な状態になったことを示す表示(例えば、「□」の部分を黒四角にする表示)を行うように補助表示部22を制御する。
 そして、主制御部50は、複数の入力キー21を介して、例えばZの指令値として「50.」が入力されたことを認識した場合、Zの指令値「50.」を表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧された「□」の部分すなわちZの指令値に「50.」が入力されたことを示す表示(例えば、「Z50. F□;」の表示)を行うように補助表示部22を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して補助表示画面22a上の文字列「Z50. F□;」における「F」の後の「□」の部分が押圧されたことを認識した場合、「F」の後の「□」の部分が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧された「□」の部分すなわちFの指令値が入力可能な状態になったことを示す表示(例えば、「□」の部分を黒四角にする表示)を行うように補助表示部22を制御する。
 そして、主制御部50は、複数の入力キー21を介して、例えばFの指令値として「1000」が入力されたことを認識した場合、Fの指令値「1000」を表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧された「□」の部分すなわちFの指令値に「1000」が入力されたことを示す表示(例えば、図5(b)に示すような「Z50. F1000;」の表示)を行うように補助表示部22を制御する。
 さらに、主制御部50は、タッチパネルセンサ22bを介してボタンオブジェクト22a6が押圧されたこと(例えば、ボタンオブジェクト22a6におけるZの指令値やFの指令値以外の部分が押圧されたこと)を検知した場合、補助表示画面22a上の文字列「Z50. F1000;」が主表示画面11a上にも表示されるように表示制御部30を制御する。すなわち、主制御部50は、ボタンオブジェクト22a6が押圧されたことを表示制御部30に通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、ボタンオブジェクト22a6が選択されたことを示す表示(例えば、図5(b)に示すようなボタンオブジェクト22a61のハイライト表示)を行うように補助表示部22を制御する。また、表示制御部30は、ボタンオブジェクト22a6が押圧されたことの通知に応じて、主制御部50を介して記憶部70から主表示データ71を読み出し、主表示データ71にGコード「G43」及び文字列「Z50. F1000;」を含めたものを新たに主表示データ71として生成する。表示制御部30は、主制御部50を介して記憶部70の主表示データ71を更新するとともに、主表示データ71を表示用の画像信号に変換して主表示部11へ供給する。これにより、主表示部11は、主表示画面11a上に、加工プログラム73の編集画面11a1におけるカーソル(例えば、図4(a)に示す黒四角のオブジェクト)11a2の位置に、Gコード「G43」及び文字列「Z50. F1000;」を挿入して表示する(図5(a)参照)。それに伴い、主表示部11は、カーソル11a21を挿入後の記述の最後の位置にして主表示画面11a上に表示する。
 ステップS5では、主制御部50が、他の入力があるか否かを判断する。
 例えば、入力制御部40は、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、加工プログラム73の編集画面11a1の終了指示がユーザから受け付けられたことを検知した場合、検知した終了指示を主制御部50へ供給する。
 主制御部50は、終了指示が所定時間内に入力制御部40から供給された場合、他の入力がないと判断して、処理を終了し、終了指示が所定時間内に入力制御部40から供給されなかった場合、他の入力があると判断して、処理をステップS2へ戻す。
 ここで、仮に、NC装置1のキーボードユニット20が補助表示画面22a及びタッチパネルセンサ22bを有しない場合について考える。この場合、キーボードユニット20の入力キーがハードウェアにより一意に決められおり(例えば、英数字キーなど)、決められた入力キーで画面操作を行うため、所定の入力指示に対するキー入力回数が多く、操作性が低い傾向にある。
 それに対して、実施の形態1では、NC装置1のキーボードユニット20が、補助表示画面22a及びタッチパネルセンサ22bを有する。タッチパネルセンサ22bは、補助表示画面22aをタッチパネルとして入力指示を受け付ける。これにより、入力キーによる複数回の入力に対応した入力指示をタッチパネルにより1回の入力で行うことができるので、入力指示に対する入力回数を低減でき、操作性を向上できる。すなわち、工作機械Mを制御する際の操作性を向上できる。
 具体的には、表示制御部30が、補助表示画面22a上に、主表示画面11a上の第1の機械関連情報に連動した複数のボタンオブジェクト22a1~22a5を第2の機械関連情報の一部として表示させる。タッチパネルセンサ22bは、複数のボタンオブジェクト22a1~22a5のうち押下されたボタンオブジェクトに対応する入力指示を受け付ける。これにより、入力キーによる複数回の入力に対応したボタンオブジェクトへの入力指示をタッチパネルにより1回の入力で行うことができるので、入力指示に対する入力回数を低減でき、操作性を向上できる。
 特に、表示制御部30は、主表示画面11a上に、編集途中の加工プログラム73を第1の機械関連情報として表示させ、補助表示画面22a上に、編集途中の加工プログラム73に対して次に追加する候補となる複数のコードに対応した複数のボタンオブジェクト22a1~22a5を第2の機械関連情報の一部として表示させる。タッチパネルセンサ22bは、複数のボタンオブジェクト22a1~22a5のうち押下されたボタンオブジェクトに対応するコードの入力指示を受け付ける。これにより、入力指示に対する入力回数を低減しつつ、誤入力(誤った加工プログラム指令の記述の入力)を低減できる。
 あるいは、仮に、NC装置900がキーボードユニット20を備えない場合について考える。この場合、図16に示すように、表示ユニット910の表示部911は、表示画面911a上にキーボードのオブジェクト911a2をタッチパネルとして備えることになる。このようなNC装置900では、表示画面911aに表示されている内容911a1をタッチパネル(キーボードのオブジェクト911a2)にて選択することにより、表示内容911a1に応じた操作が可能であるが、表示画面911aの一部がキーボードのオブジェクト911a2により占有されてしまうため、画面表示できる情報量(表示内容911a1の情報量)が制限されるために、所定の情報量を扱うために必要な画面遷移の回数が多くなり、操作性が低い傾向にある。
 それに対して、実施の形態1では、主表示画面11aのどの部分もタッチパネル用のオブジェクトにより占有されないので、画面表示できる情報量を確保できる。すなわち、表示制御部30は、主表示画面11a上に、工作機械Mに関連した第1の機械関連情報を表示させるとともに、補助表示画面22a上に、工作機械Mに関連した第2の機械関連情報を表示させる。これにより、所定の情報量を扱うために必要な画面遷移の回数を低減でき、操作性を向上できる。すなわち、工作機械Mを制御する際の操作性を向上できる。
 具体的には、表示制御部30が、補助表示画面22a上に、第1の機械関連情報に連動した情報を第2の機械関連情報として表示させる。これにより、第1の機械関連情報に関連した情報として第2の機械関連情報を確認したい場合に、画面遷移を行うことなく第2の機械関連情報を確認できるため、必要な画面遷移の回数を低減でき、操作性を向上できる。
 さらに具体的には、表示制御部30が、主表示画面11a上に、編集途中の加工プログラム73を第1の機械関連情報として表示させ、補助表示画面22a上に、編集途中の加工プログラム73に連動した複数のボタンオブジェクト22a1~22a5を第2の機械関連情報の一部として表示させる。これにより、加工プログラム73に追加するコードを調べるために他の画面に遷移する必要性を低減できるので、操作性を向上できる。
 特に、工作機械Mを制御するための加工プログラム73では、(Gコード等において)次に使用するコードが絞り込みやすいため、次に使用する可能性が高いコードを網羅して複数のボタンオブジェクト22a1~22a5として補助表示画面22a上に表示させることができる。
 さらに、表示制御部30は、補助表示画面22a上に、選択されたボタンオブジェクトに対応したコードの次に入力が予想される文字列を第2の機械関連情報の他の一部として表示させる。これにより、加工プログラム73に対してコードの次に追加するコードを調べるために他の画面に遷移する必要性も低減できるので、操作性をさらに向上できる。
 また、実施の形態1では、キーボードユニット20が、複数の入力キー21と、タッチパネルとして機能する補助表示画面22aとを、操作面20a上に有する。これにより、複数の入力キー21を介した入力操作とタッチパネルセンサ22bを介した入力操作とを連続して行う際の操作性を向上できる。
 さらに、実施の形態1では、補助表示画面22aが、例えば、操作面20aにおける右上に配されている。これにより、主表示画面11aと補助表示画面22aとの距離を近づけることができるので、主表示画面11aと補助表示画面22aとを相互に見比べる際の操作性を向上できる。また、操作面20aにおける補助表示画面22a以外の部分に入力キーをたくさん配置した場合でも、入力キーの操作時にユーザの手や腕により補助表示画面22aが覆われてしまうことを低減できるので、複数の入力キー21を操作しながら補助表示画面22aの表示内容を確認する際の操作性を向上できる。
 なお、図3に示すフローチャートでは、ステップS1の処理が行われた後にステップS2の処理とステップS3の処理とが並行して行われてもよい。あるいは、ステップS1の処理とステップS2の処理とが並行して行われた後にステップS3の処理が行われてもよい。あるいは、ステップS1の処理とステップS2の処理とステップS3の処理とが並行して行われてもよい。
実施の形態2.
 次に、実施の形態2にかかるNC装置100について図6及び図7を用いて説明する。図6は、実施の形態2における主表示画面111a及び補助表示画面122aの動作を示すフローチャートである。図7(a)は、主表示画面111aの動作を示す図である。図7(b)、(c)は、補助表示画面122aの動作を示す図である。以下では、実施の形態1と異なる部分を中心に説明する。
 図6に示すステップS11では、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、NC状態表示画面の起動指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した起動指示を主制御部50経由で表示制御部30へ供給する。
 表示制御部30は、供給された起動指示に応じて、NC状態表示画面111a1(図7(a)参照)を主表示データ71として生成する。そして、表示制御部30は、主表示データ71を主制御部50経由で記憶部70に記憶させるとともに、主表示データ71を表示用の画像信号に変換して主表示部111へ供給する。これにより、主表示部111は、主表示画面111aにNC状態表示画面111a1を起動して表示する。このとき、主表示部111は、編集位置を示すカーソル(例えば、図7(a)に示す黒四角のオブジェクト)111a2を、NC状態表示画面111a1における初期位置に表示させる。例えば、主表示部111は、NC状態表示画面111a1として、駆動部80におけるドライブアンプ81の状態を示す画面を主表示画面111a上に表示する。
 ステップS12では、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、機械座標の表示指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した表示指示を主制御部50経由で表示制御部30へ供給する。
 表示制御部30は、供給された表示指示に応じて、機械の位置を表す機械座標情報122a1(図7(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部122へ供給する。これにより、補助表示部122は、表示指示に応じた機械座標情報122a1を補助表示画面122a上に表示する。
 ステップS13では、主制御部50が、機械座標情報122a1に連動した複数のボタンオブジェクトが補助表示画面122aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、機械座標情報122a1に関連して参照される情報の候補を推定する。例えば、主制御部50は、機械座標情報122a1に関連して参照される情報の候補として、「ワーク座標」、「プログラム座標」、「機械座標」を推定する(図7(b)参照)。ワーク座標は、工作機械Mにより加工されるべきワークWの座標であって、ワークW上の原点を基準としたワークWの中心の座標である。プログラム座標は、加工プログラム73により指令される際の工作機械M(に取り付けられた工具)の座標であって、現在指令されている位置に対して工具補正量が加味された座標である。機械座標は、工作機械M(に取り付けられた工具)の座標である。
 主制御部50は、推定した情報の複数候補を表示制御部30へ供給する。表示制御部30は、機械座標情報122a1に加えて、情報の複数候補(「ワーク座標」、「プログラム座標」、「機械座標」)に対応した複数のボタンオブジェクト122a2~122a4(図7(b)参照)を含む情報を補助表示データ72として生成する。表示制御部30は、主制御部50経由で記憶部70の補助表示データ72を更新するとともに、補助表示データ72を表示用の画像信号に変換して補助表示部122へ供給する。これにより、補助表示部122は、機械座標情報122a1に連動した情報として、補助表示画面122a上に、複数のボタンオブジェクト122a2~122a4を表示する。
 ステップS14では、主制御部50が、「ワーク座標」、「プログラム座標」、「機械座標」のうち選択された座標が補助表示画面122aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクトのうち1つのボタンオブジェクトが選択されたことを認識した場合、選択されたボタンオブジェクトに対応する座標を取得する。例えば、主制御部50は、タッチパネルセンサ22bを介して、「ワーク座標」が選択されたことを認識した場合、機械座標値から記憶部70に記憶されているワーク座標オフセット値を差し引くことによりワーク座標の情報を算出する。主制御部50は、例えば、「X 0.000 Y 1.000 Z 2.000」をワーク座標の情報として取得する(図7(c)参照)。主制御部50は、取得したワーク座標を表示制御部30へ供給する。表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、補助表示データ72を表示用の画像信号に変換して補助表示部122へ供給する。これにより、補助表示部122は、機械座標情報122a1に代えてワーク座標情報122a11を補助表示画面122a上に表示する。
 あるいは、例えば、主制御部50は、タッチパネルセンサ22bを介して、「プログラム座標」が選択されたことを認識した場合、現在指令されている工具補正量を参照してプログラム座標の情報を算出する。主制御部50は、取得したプログラム座標を表示制御部30へ供給する。表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、補助表示データ72を表示用の画像信号に変換して補助表示部122へ供給する。これにより、補助表示部122は、機械座標情報122a1に代えてプログラム座標情報(図示せず)を補助表示画面122a上に表示する。
 ステップS15では、主制御部50が、他の座標の表示が要求されているか否かを判断する。
 例えば、入力制御部40は、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、NC状態表示画面111a1の終了指示がユーザから受け付けられたことを検知した場合、検知した終了指示を主制御部50へ供給する。
 主制御部50は、終了指示が所定時間内に入力制御部40から供給された場合、他の座標の表示が要求されていないと判断して、処理を終了し、終了指示が所定時間内に入力制御部40から供給されなかった場合、他の座標の表示が要求されていると判断して、処理をステップS14へ戻す。
 以上のように、実施の形態2でも、主表示画面111aがタッチパネル用のオブジェクトにより占有されないので、画面表示できる情報量を確保できる。すなわち、表示制御部30は、主表示画面111a上に、工作機械Mに関連した第1の機械関連情報を表示させるとともに、補助表示画面122a上に、工作機械Mに関連した第2の機械関連情報を表示させる。これにより、所定の情報量を扱うために必要な画面遷移の回数を低減でき、操作性を向上できる。すなわち、工作機械Mを制御する際の操作性を向上できる。
 具体的には、表示制御部30は、主表示画面111a上に、駆動部80におけるドライブアンプ81の状態を示すNC状態表示画面111a1を表示させるとともに、補助表示画面122a上に、工作機械Mの座標を表す機械座標情報122a1を表示させる。これにより、ドライブアンプ81の状態と同時にドライブアンプ81により駆動された工作機械Mの座標を確認したい場合に、主表示画面111a上のNC状態表示画面111a1を機械座標画面へ遷移させることなく両者を確認することができるので、必要な画面遷移の回数を低減でき、操作性を向上できる。
 また、実施の形態2では、表示制御部30が、補助表示画面122a上に、第2の機械関連情報の一部(機械座標情報122a1)に連動した複数のボタンオブジェクト122a2~122a4を第2の機械関連情報の他の一部として表示させる。タッチパネルセンサ22bは、複数のボタンオブジェクト122a2~122a4のうち押下されたボタンオブジェクトに対応する入力指示を受け付ける。これにより、補助表示画面122a上に表示される座標値を切り換えることができる。すなわち、工作機械Mの座標に続けて他の座標値を確認したい場合に、主表示画面111a上のNC状態表示画面111a1を機械座標画面へ遷移させることなく確認できるので、必要な画面遷移の回数をさらに低減できる。
 なお、図6に示すフローチャートでは、ステップS11の処理が行われた後にステップS12の処理とステップS13の処理とが並行して行われてもよい。あるいは、ステップS11の処理とステップS12の処理とが並行して行われた後にステップS13の処理が行われてもよい。あるいは、ステップS11の処理とステップS12の処理とステップS13の処理とが並行して行われてもよい。
実施の形態3.
 次に、実施の形態3にかかるNC装置200について図8及び図9を用いて説明する。図8は、実施の形態3における主表示画面211a及び補助表示画面222aの動作を示すフローチャートである。図9(a)は、主表示画面211aの動作を示す図である。図9(b)、(c)は、補助表示画面222aの動作を示す図である。以下では、実施の形態1と異なる部分を中心に説明する。
 図8に示すステップS21では、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、I/F画面の起動指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した起動指示を主制御部50経由で表示制御部30へ供給する。
 表示制御部30は、供給された起動指示に応じて、I/F画面211a1(図9(a)参照)を主表示データ71として生成する。そして、表示制御部30は、主表示データ71を主制御部50経由で記憶部70に記憶させるとともに、主表示データ71を表示用の画像信号に変換して主表示部211へ供給する。これにより、主表示部211は、主表示画面211aにI/F画面211a1を起動して表示する。このとき、主表示部211は、編集位置を示すカーソル(例えば、図9(a)に示す黒四角のオブジェクト)211a2を、I/F画面211a1における所定位置に表示させる。主表示部211は、I/F画面211a1として、例えば、PLC制御用各種入出力信号の表示及びPLC開発時の機械シーケンス動作の確認、NC装置の各部とPLCとの間の入出力データ確認に使用するI/F画面211a1を、主表示画面211a上に表示する。
 ステップS22では、主制御部50が、I/F画面211a1の表示内容と表示されるべきI/F診断情報(図9(b)に示す複数のI/F診断情報222a1~222a3)との両方に連動した複数のボタンオブジェクトが補助表示画面222aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、I/F診断(後述のステップS23)に必要となる操作の候補を推定する。例えば、主制御部50は、I/F診断に必要となる操作の候補として、「登録」、「解除」を推定する(図9(b)参照)。主制御部50は、推定した操作の複数候補「登録」、「解除」を表示制御部30へ供給する。表示制御部30は、操作の複数候補「登録」、「解除」に対応した複数のボタンオブジェクト222a4~222a5(図9(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部222へ供給する。これにより、補助表示部222は、I/F画面211a1の表示内容と表示されるべきI/F診断情報(図9(b)に示す複数のI/F診断情報222a1~222a3)との両方に連動した情報として、補助表示画面222a上に、複数のボタンオブジェクト222a4~222a5を表示する。
 ステップS23では、主制御部50が、複数のI/F診断情報222a1~222a3が補助表示画面222aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクト222a4~222a5のうち「登録」のボタンオブジェクト222a4が押圧されたことを認識した場合、I/F画面211a1内に表示されている複数のデバイスX0000~X0070、Y0000~Y0070のうちのカーソル位置のデバイスX0000、Y0048、X0018を、I/F診断すなわち登録・解除が判断されるべきデバイスとして特定する。主制御部50は、特定したデバイスX0000、Y0048、X0018の情報を表示制御部30へ供給する。表示制御部30は、特定したデバイスに対応したI/F診断情報222a1~222a3(図9(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部222へ供給する。これにより、補助表示部222は、I/F画面211a1の表示内容(選択されたデバイス)に連動した情報として、補助表示画面222a上に、複数のI/F診断情報222a1~222a3を表示する。例えば、図9(b)に示す各I/F診断情報222a1~222a3では、左側の情報がデバイスの識別子であり、右側の情報がデータ(例えば「00h」)である。
 例えば、主制御部50は、タッチパネルセンサ22bを介して複数のI/F診断情報222a1~222a3のうち1つのI/F診断情報のデータ(例えば「00h」)の部分が押圧されたことを認識した場合、押圧されたI/F診断情報を表示制御部30へ通知する。例えば、主制御部50は、タッチパネルセンサ22bを介して、I/F診断情報222a3の部分が押圧されたことを認識した場合、押圧されたのがI/F診断情報222a3のデータの部分であることを表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧されたI/F診断情報222a3のデータの部分が入力可能な状態になったことを示す表示(例えば、I/F診断情報222a3のハイライト表示)を行うように補助表示部222を制御する。
 そして、主制御部50は、複数の入力キー21を介して、例えばI/F診断情報222a3のデータの値として「20h」が入力された(データの変更が設定された)ことを認識した場合、I/F診断情報222a3のデータの値「20h」を表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧されたI/F診断情報222a3のデータの部分「00h」に代えて「20h」が入力されたことを示す表示(すなわち、新たなデータの値「20h」を含むI/F診断情報222a31の表示)を行うように補助表示部422を制御する。
 そして、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクト222a4~222a5のうち「解除」のボタンオブジェクト222a5が押圧されたことを認識した場合、「解除」のボタンオブジェクト222a5が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、補助表示画面222a上に表示されているデバイスを解除する。すなわち、表示制御部30は、各I/F診断情報222a1~222a3の補助表示画面222a上での表示を解除する。
 ステップS24では、主制御部50が、他のデバイスのI/F診断が要求されているか否かを判断する。
 例えば、入力制御部40は、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、I/F画面211a1の終了指示がユーザから受け付けられたことを検知した場合、検知した終了指示を主制御部50へ供給する。
 主制御部50は、終了指示が所定時間内に入力制御部40から供給された場合、他の座標の表示が要求されていないと判断して、処理を終了し、終了指示が所定時間内に入力制御部40から供給されなかった場合、他の座標の表示が要求されていると判断して、処理をステップS24へ戻す。
 以上のように、実施の形態3では、表示制御部30が、補助表示画面222a上に、I/F画面211a1の表示内容(第1の機械関連情報)と複数のI/F診断情報222a1~222a3(第2の機械関連情報の一部)との両方に連動した複数のボタンオブジェクト222a4~222a5を第2の機械関連情報の他の一部として表示させる。タッチパネルセンサ22bは、複数のボタンオブジェクト222a4~222a5のうち押下されたボタンオブジェクトに対応する入力指示を受け付ける。これにより、I/F画面211a1に表示された複数のデバイスのうち選択され補助表示画面222a上に表示させたデバイスについてI/F診断を行うことができる。この結果、常時入出力デバイスの確認・変更に必要な入力指示に対する入力回数を低減できるとともに、常時入出力デバイスの確認・変更に必要な画面遷移の回数を低減できる。
 なお、図8に示すフローチャートでは、ステップS21の処理が行われた後にステップS22の処理とステップS23の処理とが並行して行われてもよい。あるいは、ステップS21の処理とステップS22の処理とが並行して行われた後にステップS23の処理が行われてもよい。あるいは、ステップS21の処理とステップS22の処理とステップS23の処理とが並行して行われてもよい。
実施の形態4.
 次に、実施の形態4にかかるNC装置300について図10及び図11を用いて説明する。図10は、実施の形態4における主表示画面311a及び補助表示画面322aの動作を示すフローチャートである。図11(a)は、主表示画面311aの動作を示す図である。図11(b)、(c)は、補助表示画面322aの動作を示す図である。以下では、実施の形態1と異なる部分を中心に説明する。
 図10に示すステップS31では、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、波形表示画面の起動指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した起動指示を主制御部50経由で表示制御部30へ供給する。
 表示制御部30は、供給された起動指示に応じて、波形表示画面311a1(図11(a)参照)を主表示データ71として生成する。そして、表示制御部30は、主表示データ71を主制御部50経由で記憶部70に記憶させるとともに、主表示データ71を表示用の画像信号に変換して主表示部311へ供給する。これにより、主表示部311は、主表示画面311aに波形表示画面311a1を起動して表示する。このとき、主表示部311は、編集位置を示すカーソル(例えば、図11(a)に示す四角い枠)311a2を、波形表示画面311a1における所定位置に表示させる。主表示部311は、波形表示画面311a1として、例えば、サーボモータの動作を示す波形の表示オブジェクト311a3を含む画面を、主表示画面311a上に表示する。
 ステップS32では、主制御部50が、主表示画面311a上の表示オブジェクト311a3の一部を拡大した表示オブジェクトが補助表示画面322aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、波形表示画面311a1内に表示されている表示オブジェクト311a3のうちのカーソル311a2で囲まれた一部の表示オブジェクトを特定する。主制御部50は、特定した一部の表示オブジェクトを表示制御部30へ供給する。表示制御部30は、一部の表示オブジェクトを補助表示画面322a上における表示すべき領域に合わせて拡大した表示オブジェクト322a1(図11(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部322へ供給する。これにより、補助表示部322は、波形表示画面311a1の表示オブジェクト311a1の一部を拡大した表示オブジェクトとして、補助表示画面322a上に、表示オブジェクト322a1を表示する。
 あるいは、例えば、主制御部50は、複数の入力キー21を介して波形表示画面311a1におけるカーソル311a2が移動されたことを認識した場合、波形表示画面311a1内に表示されている表示オブジェクト311a3のうちの移動後のカーソル311a2で囲まれた一部の表示オブジェクトを特定する。主制御部50は、特定した一部の表示オブジェクトを表示制御部30へ供給する。表示制御部30は、一部の表示オブジェクトを補助表示画面322a上における表示すべき領域に合わせて拡大した表示オブジェクト(図示せず)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部322へ供給する。これにより、補助表示部322は、波形表示画面311a1の表示オブジェクトの一部を拡大した表示オブジェクトとして、補助表示画面322a上に、表示オブジェクト322a1を表示する。
 ステップS33では、主制御部50が、主表示画面311aの表示オブジェクト311a3と補助表示画面322aの表示オブジェクト322a1との両方に連動した複数のボタンオブジェクト322a2~322a4が補助表示画面322aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、波形表示に必要となる操作の候補を推定する。例えば、主制御部50は、I/F診断に必要となる操作の候補として、「拡大」、「縮小」、「メイン」を推定する(図11(b)参照)。主制御部50は、推定した操作の複数候補「拡大」、「縮小」、「メイン」を表示制御部30へ供給する。表示制御部30は、操作の複数候補「拡大」、「縮小」、「メイン」に対応した複数のボタンオブジェクト322a2~322a4(図11(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部322へ供給する。これにより、補助表示部322は、主表示画面311aの表示オブジェクト311a3と補助表示画面322aの表示オブジェクト322a1との両方に連動した情報として、補助表示画面322a上に、複数のボタンオブジェクト322a2~322a4を表示する。
 ステップS34では、主制御部50が、補助表示画面322a上の表示オブジェクト322a1を拡大・縮小した表示オブジェクトが補助表示画面322aに表示されるように、表示制御部30を制御する。あるいは、補助表示画面322a上の表示オブジェクト322a1が拡大・縮小された後に元の表示オブジェクト322a1が補助表示画面322aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクト322a2~322a4のうち「拡大」のボタンオブジェクト322a2が押圧されたことを認識した場合、「拡大」のボタンオブジェクト322a2が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、カーソル311a2により囲まれた領域の中央を中心にして表示オブジェクト311a1をさらに拡大して補助表示画面322a1上に表示させる。このとき、主表示画面311a上でカーソル311a2も表示オブジェクト311a3も図11(a)に示された状態に維持されているが、実質的に、カーソル311a2の大きさを小さくして表示オブジェクト311a3におけるカーソル311a2で囲まれる部分の面積を小さくしたことに相当する動作が行われる。
 あるいは、例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクト322a2~322a4のうち「縮小」のボタンオブジェクト322a3が押圧されたことを認識した場合、「縮小」のボタンオブジェクト322a3が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、カーソル311a2により囲まれた領域の中央を中心にして表示オブジェクト311a1を縮小して補助表示画面322a1上に表示オブジェクト322a11として表示させる(図11(c)参照)。このとき、主表示画面311a上でカーソル311a2も表示オブジェクト311a3も図11(a)に示された状態に維持されているが、実質的に、カーソル311a2の大きさを大きくして表示オブジェクト311a3におけるカーソル311a2で囲まれる部分の面積を大きくしたことに相当する動作が行われる。
 あるいは、例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクト322a2~322a4のうち「メイン」のボタンオブジェクト322a4が押圧されたことを認識した場合、「メイン」のボタンオブジェクト322a4が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、元の表示オブジェクト311a1、すなわち主表示画面311a上の表示オブジェクト311a3のうちのカーソル311a2で囲まれた一部の表示オブジェクトが補助表示画面322a上における表示すべき領域に合わせて拡大された表示オブジェクト322a1(図11(b)参照)を、再び補助表示画面322a1上に表示させる。このとき、主表示画面311a上でカーソル311a2も表示オブジェクト311a3も図11(a)に示された状態に維持されているが、実質的に、カーソル311a2の大きさを元に戻して表示オブジェクト311a3におけるカーソル311a2で囲まれる部分の面積を元に戻したことに相当する動作が行われる。
 ステップS35では、主制御部50が、さらに波形確認を行うことが要求されているか否かを判断する。
 例えば、入力制御部40は、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、波形表示画面311a1の終了指示がユーザから受け付けられたことを検知した場合、検知した終了指示を主制御部50へ供給する。
 主制御部50は、終了指示が所定時間内に入力制御部40から供給された場合、他の座標の表示が要求されていないと判断して、処理を終了し、終了指示が所定時間内に入力制御部40から供給されなかった場合、他の座標の表示が要求されていると判断して、処理をステップS34へ戻す。
 以上のように、実施の形態4では、表示制御部30が、主表示画面311a上に、表示オブジェクト311a3を第1の機械関連情報として表示させるとともに、補助表示画面322a上に、表示オブジェクト311a3の一部に対応した表示オブジェクト322a1を第2の機械関連情報として表示させる。すなわち、表示制御部30は、補助表示画面322a上に、主表示画面311a上の表示オブジェクト(全体波形)311a3の一部を拡大した表示オブジェクト(部分波形)322a1を表示させる。これにより、波形表示の全体像を確認しながら、拡大した部分波形を確認することができる。
 また、実施の形態4では、表示制御部30が、補助表示画面322a上に、主表示画面311a上の表示オブジェクト311a3(第1の機械関連情報)と補助表示画面322a上の表示オブジェクト322a1(第2の機械関連情報の一部)との両方に連動した複数のボタンオブジェクト322a2~322a4を第2の機械関連情報の他の一部として表示させる。タッチパネルセンサ22bは、複数のボタンオブジェクト322a2~322a4のうち押下されたボタンオブジェクトに対応する入力指示を受け付ける。これにより、波形表示画面311a1に表示された表示オブジェクト311a3のうち選択され補助表示画面322a上に表示させた部分の表示オブジェクト322a1について拡大・縮小して確認を行ったり(補助表示画面322a上で操作したことを省略して)もとの状態に戻したりすることができる。この結果、波形の確認に必要な入力指示に対する入力回数を低減できるとともに、波形の確認に必要な画面遷移の回数を低減できる。
 なお、図10に示すフローチャートでは、ステップS31の処理が行われた後にステップS32の処理とステップS33の処理とが並行して行われてもよい。あるいは、ステップS31の処理とステップS32の処理とが並行して行われた後にステップS33の処理が行われてもよい。あるいは、ステップS31の処理とステップS32の処理とステップS33の処理とが並行して行われてもよい。
実施の形態5.
 次に、実施の形態5にかかるNC装置400について図12及び図13を用いて説明する。図12は、実施の形態5における主表示画面411a及び補助表示画面422aの動作を示すフローチャートである。図13(a)は、主表示画面411aの動作を示す図である。図13(b)、(c)は、補助表示画面422aの動作を示す図である。以下では、実施の形態1と異なる部分を中心に説明する。
 図12に示すステップS41では、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、パラメータ画面の起動指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した起動指示を主制御部50経由で表示制御部30へ供給する。
 表示制御部30は、供給された起動指示に応じて、パラメータ画面411a1(図13(a)参照)を主表示データ71として生成する。そして、表示制御部30は、主表示データ71を主制御部50経由で記憶部70に記憶させるとともに、主表示データ71を表示用の画像信号に変換して主表示部411へ供給する。これにより、主表示部411は、主表示画面411aにパラメータ画面411a1を起動して表示する。このとき、主表示部411は、編集位置を示すカーソル(例えば、図13(a)に示す黒四角のオブジェクト)411a2を、パラメータ画面411a1における所定位置に表示させる。主表示部411は、パラメータ画面411a1として、例えば、NC装置400が制御する対象となる工作機械Mを特定するためのパラメータ(NCのパラメータ)を設定するための画面を、主表示画面411a上に表示する。
 ステップS42では、主制御部50が、パラメータ画面411a1の表示内容に連動した情報が補助表示画面422aに表示されるように、表示制御部30を制御する。
 例えば、NCのパラメータは、複数の関連パラメータが存在し、新規機能追加の場合には新たなパラメータ番号がとられるため、この関連パラメータは異なる画面に表示されることが多い。主制御部50は、パラメータ画面411a1内のカーソル411a2がある位置に表示されたパラメータに関連するパラメータを推定する。主制御部50は、例えば、パラメータ画面411a1内の「コーナ減速角度」に関連したパラメータとして、「♯1206 G1bF」、「♯1207 G1btL」、「♯1568 SfiltG1」を推定する。また、主制御部50は、推定したパラメータ「♯1206 G1bF」、「♯1207 G1btL」、「♯1568 SfiltG1」の値として、それぞれ、「1」、「50」、「30」を取得する。主制御部50は、推定した複数のパラメータの情報と複数の値の情報とを表示制御部30へ供給する。表示制御部30は、複数のパラメータの情報と複数の値の情報とに対応した複数の関連パラメータ情報422a1~422a3(図13(b)参照)と複数の値情報422a4~422a6とを補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部422へ供給する。これにより、補助表示部422は、パラメータ画面411a1の表示内容(選択されたパラメータ)に連動した情報として、補助表示画面422a上に、複数の関連パラメータ情報422a1~422a3及び複数の値情報422a4~422a6を表示する。
 ステップS43では、ステップS42で補助表示画面422a上に表示された複数の関連パラメータ情報422a1~422a3及び複数の値情報422a4~422a6を編集するように、表示制御部30を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して補助表示画面422a上の関連パラメータ情報422a3「♯1568 SfiltG1」に対する値情報422a6の部分「30」が押圧されたことを認識した場合、「Z」の後の「□」の部分が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧された値情報422a6の部分「30」が入力可能な状態になったことを示す表示(例えば、「30」のハイライト表示)を行うように補助表示部422を制御する。
 そして、主制御部50は、複数の入力キー21を介して、例えば「♯1568 SfiltG1」の値として「0」が入力されたことを認識した場合、「♯1568 SfiltG1」の値「0」を表示制御部30へ通知する。これに応じて、表示制御部30は、主制御部50を介して記憶部70の補助表示データ72を更新するとともに、押圧された値情報422a6の部分「30」に「0」が入力されたことを示す表示(すなわち、新たな値情報422a61の表示)を行うように補助表示部422を制御する。
 ステップS44では、主制御部50が、さらに編集を行いたいとの要求があるか否かを判断する。
 例えば、入力制御部40は、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、パラメータ画面411a1の終了指示がユーザから受け付けられたことを検知した場合、検知した終了指示を主制御部50へ供給する。
 主制御部50は、終了指示が所定時間内に入力制御部40から供給された場合、さらに編集を行いたいとの要求がないと判断して、処理を終了し、終了指示が所定時間内に入力制御部40から供給されなかった場合、さらに編集を行いたいとの要求があると判断して、処理をステップS43へ戻す。
 以上のように、実施の形態5では、表示制御部30が、補助表示画面422a上に、パラメータ画面411a1の表示内容(第1の機械関連情報)に連動した情報を第2の機械関連情報として表示させる。すなわち、表示制御部30は、パラメータ画面411a1内で選択されたNCのパラメータ(第1のパラメータ)を第1の機械関連情報として表示させるとともに、補助表示画面422a上に、そのNCのパラメータに関連した複数の関連パラメータ情報422a1~422a3(複数の第2のパラメータ)及び複数の値情報422a4~422a6を第2の機械関連情報として表示させる。これにより、NCのパラメータと同時にその関連するパラメータを確認したい場合に、主表示画面411a上のパラメータ画面411a1を関連するパラメータの画面へ遷移させることなく両者を確認することができるので、必要な画面遷移の回数を低減でき、操作性を向上できる。
実施の形態6.
 次に、実施の形態6にかかるNC装置500について図14及び図15を用いて説明する。図14は、実施の形態6における主表示画面511a及び補助表示画面522aの動作を示すフローチャートである。図15(a)は、主表示画面511aの動作を示す図である。図15(b)、(c)は、補助表示画面522aの動作を示す図である。以下では、実施の形態1と異なる部分を中心に説明する。
 図14に示すステップS51では、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、所定の画面の起動指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した起動指示を主制御部50経由で表示制御部30へ供給する。
 表示制御部30は、供給された起動指示に応じて、所定の画面511a1(図15(a)参照)を主表示データ71として生成する。そして、表示制御部30は、主表示データ71を主制御部50経由で記憶部70に記憶させるとともに、主表示データ71を表示用の画像信号に変換して主表示部511へ供給する。これにより、主表示部511は、主表示画面511aに所定の画面511a1を起動して表示する。
 ステップS52では、主制御部50が、主表示画面511a上の表示オブジェクト、すなわち所定の画面511a1の全体を縮小した表示オブジェクトが補助表示画面522aに表示される(コピーされる)ように、表示制御部30を制御する。
 例えば、主制御部50は、主表示画面511a上の表示オブジェクト(所定の画面511a1の全体)を特定する。主制御部50は、特定した表示オブジェクト(所定の画面511a1の全体)を表示制御部30へ供給する。表示制御部30は、表示オブジェクト(所定の画面511a1の全体)を補助表示画面522a上における表示すべき領域に合わせて縮小した表示オブジェクト522a1(図15(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部522へ供給する。これにより、補助表示部522は、主表示画面511a上の表示オブジェクト(所定の画面511a1の全体)の全部を縮小した表示オブジェクトとして、補助表示画面522a上に、表示オブジェクト522a1を表示する。
 ステップS53では、主制御部50が、補助表示画面522aの表示オブジェクト522a1に連動した複数のボタンオブジェクト522a3~522a5が補助表示画面522aに表示されるように、表示制御部30を制御する。
 例えば、主制御部50は、表示オブジェクト522a1に必要となる操作の候補を推定する。例えば、主制御部50は、所定の画面511a1の確認に必要となる操作の候補として、「拡大」、「縮小」、「メイン」を推定する(図15(b)参照)。主制御部50は、推定した操作の複数候補「拡大」、「縮小」、「メイン」を表示制御部30へ供給する。表示制御部30は、操作の複数候補「拡大」、「縮小」、「メイン」に対応した複数のボタンオブジェクト522a3~522a5(図15(b)参照)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部522へ供給する。これにより、補助表示部522は、補助表示画面522aの表示オブジェクト522a1に連動した情報として、補助表示画面522a上に、複数のボタンオブジェクト522a3~522a5を表示する。
 複数のボタンオブジェクト522a3~522a5が表示された後、ステップS54の処理とステップS55の処理とが並行して行われる。
 ステップS54では、主制御部50が、他の画面(図示せず)が主表示画面511aに表示されるように、表示制御部30を制御する。すなわち、ステップS54では、ユーザにより、主表示画面511a上で、他の画面の確認が行われる。
 例えば、入力制御部40が、複数の入力キー21及びタッチパネルセンサ22bの少なくとも一方から、他の画面への遷移指示がユーザから受け付けられたことを検知する。入力制御部40は、検知した遷移指示を主制御部50経由で表示制御部30へ供給する。
 表示制御部30は、供給された遷移指示に応じて、他の画面を主表示データ71として生成する。そして、表示制御部30は、主制御部50経由で記憶部70の主表示データ71を更新するとともに、主表示データ71を表示用の画像信号に変換して主表示部511へ供給する。これにより、主表示部511は、主表示画面511aに他の画面を表示する。
 ステップS55では、主制御部50が、補助表示画面522a上の表示オブジェクト522a1を拡大・縮小した表示オブジェクトが補助表示画面522aに表示されるように、表示制御部30を制御する。すなわち、ステップS55では、ユーザにより、補助表示画面522a上で、所定の画面の確認が行われる。
 例えば、主制御部50は、タッチパネルセンサ22bを介して表示オブジェクト522a1における部分522a2が押圧されるとともに、「拡大」のボタンオブジェクト522a3が押圧されたことを認識した場合、部分522a2の位置と、「拡大」のボタンオブジェクト522a3が押圧されたこととを表示制御部30へ通知する。これに応じて、表示制御部30は、部分522a2の位置を中心にして表示オブジェクト522a1をさらに拡大して補助表示画面522a上に表示オブジェクト522a11として表示させる(図15(c)参照)。このとき、表示制御部30は、拡大・縮小される前の元の表示オブジェクト522a1のデータを主制御部50経由でバックアップデータ(図示せず)として記憶部70に記憶させておく。
 あるいは、例えば、主制御部50は、タッチパネルセンサ22bを介して表示オブジェクト522a1における部分522a2が押圧されるとともに、「縮小」のボタンオブジェクト522a4が押圧されたことを認識した場合、部分522a2の位置と、「縮小」のボタンオブジェクト522a4が押圧されたこととを表示制御部30へ通知する。これに応じて、表示制御部30は、部分522a2の位置を中心にして表示オブジェクト522a1をさらに縮小して補助表示画面522a上に表示させる。このとき、表示制御部30は、拡大・縮小される前の元の表示オブジェクト522a1のデータを主制御部50経由でバックアップデータ(図示せず)として記憶部70に記憶させておく。
 そして、主制御部50は、タッチパネルセンサ22bを介して「メイン」のボタンオブジェクト522a5が押圧されたことを認識した場合、ステップS54の処理とステップS55の処理とがともに完了したものと判断する。
 ステップS56では、主制御部50が、補助表示画面522a上の表示オブジェクト522a1を拡大した表示オブジェクトが主表示画面511a上に再び表示される(戻しコピーされる)ように、表示制御部30を制御する。
 例えば、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクト522a3~522a5のうち「メイン」のボタンオブジェクト522a5が押圧されたことを認識した場合、「メイン」のボタンオブジェクト522a5が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、バックアップデータを主制御部50経由で記憶部70から読み出し、元の表示オブジェクト(所定の画面511a1の全体)を、再び主表示画面511a上に表示させる。すなわち、表示制御部30は、バックアップデータから復元した補助表示画面522a上の表示オブジェクト522a1が主表示画面511a上における表示すべき領域に合わせて拡大された表示オブジェクト(所定の画面511a1)を、再び主表示画面511a上に表示させる。
 以上のように、実施の形態6では、表示制御部30が、補助表示画面522a上に、主表示画面511a上の表示オブジェクト(所定の画面511a1の全体)の全部を縮小した表示オブジェクト522a1を表示させる。すなわち、表示制御部30は、主表示画面511a上の表示オブジェクト(所定の画面511a1の全体)の全部を縮小した表示オブジェクト522a1を補助表示画面522a上に表示させた後に、主表示画面511a上に、補助表示画面522a上の表示オブジェクト522a1を拡大した表示オブジェクト(所定の画面511a1の全体)を再び表示させる。これにより、一度、補助表示画面522aにコピーした内容を主表示画面511aに戻すことができる。すなわち、頻繁に参照する画面を確認してから他の画面を参照した後に頻繁に参照する画面に戻って確認したい場合に、主表示画面511a上の画面を遷移させて頻繁に参照する画面を探す必要がないので、必要な画面遷移の回数を低減でき、操作性を向上できる。
 また、実施の形態6では、主表示画面511a上の他の画面を表示させて確認する処理と、補助表示画面522a上に表示させた表示オブジェクト522a1を拡大・縮小させて確認する処理とを並行して行う。これにより、常に参照する画面を確認しながら他の画面を参照したい場合に、必要な画面遷移の回数を低減でき、操作性を向上できる。
 なお、ステップS56において、表示制御部30が、主表示画面511a上に第1の機械関連情報を表示させ補助表示画面522a上に第2の機械関連情報を表示させた状態から、主表示画面511a上に第2の機械関連情報を表示させ補助表示画面522a上に第1の機械関連情報を表示させた状態へ遷移させてもよい。
 例えば、主制御部50は、主表示画面511a上の表示オブジェクト(他の画面の全体)を特定する。主制御部50は、特定した表示オブジェクト(他の画面の全体)を表示制御部30へ供給する。表示制御部30は、表示オブジェクト(他の画面の全体)を補助表示画面522a上における表示すべき領域に合わせて縮小した表示オブジェクト(図示せず)を補助表示データ72として生成する。表示制御部30は、補助表示データ72を主制御部50経由で記憶部70に記憶させるとともに、補助表示データ72を表示用の画像信号に変換して補助表示部522へ供給する。これにより、補助表示部522は、主表示画面511a上の表示オブジェクト(他の画面の全体)の全部を縮小した表示オブジェクトを補助表示画面522a上に表示する。
 それとともに、主制御部50は、タッチパネルセンサ22bを介して複数のボタンオブジェクト522a3~522a5のうち「メイン」のボタンオブジェクト522a5が押圧されたことを認識した場合、「メイン」のボタンオブジェクト522a5が押圧されたことを表示制御部30へ通知する。これに応じて、表示制御部30は、バックアップデータを主制御部50経由で記憶部70から読み出し、元の表示オブジェクト(所定の画面511a1の全体)を、再び主表示画面511a上に表示させる。
 このように、補助表示画面522a上の表示オブジェクトが主表示画面511aへ戻しコピーされる処理と、主表示画面511a上の表示オブジェクトが補助表示画面522aへコピーされる処理がその戻しコピーされる処理とが並行して行われるので、頻繁に参照する画面を確認してから他の画面を参照した後に頻繁に参照する画面に戻って確認した後で他の画面を再度参照したい場合に、主表示画面511a上の画面を遷移させて他の画面を探す必要がないので、必要な画面遷移の回数を低減でき、操作性を向上できる。
 以上のように、本発明にかかる数値制御装置は、工作機械の制御に有用である。
 1、100、200 NC装置
 10 表示ユニット
 10a 主面
 11、111、211、311、411、511 主表示部
 11a、111a、211a、311a、411a、511a 主表示画面
 20 キーボードユニット
 20a 操作面
 21 複数の入力キー
 22、122、222、322、422、522 補助表示部
 22a、122a、222a、322a、422a、522a 補助表示画面
 22b タッチパネルセンサ
 50 主制御部
 60 画面座標演算部
 70 記憶部
 71 主表示データ
 72 補助表示データ
 73 加工プログラム
 74 入力指示データ
 80 駆動部
 81 ドライブアンプ
 900 NC装置
 910 表示ユニット
 911 表示部
 911a 表示画面
 M 工作機械
 W ワーク

Claims (13)

  1.  工作機械を制御する数値制御装置であって、
     主表示画面を有する表示ユニットと、
     複数の入力キーと補助表示画面とを操作面上に有するキーボードユニットと、
     前記主表示画面上に、前記工作機械に関連した第1の機械関連情報を表示させるとともに、前記補助表示画面上に、前記工作機械に関連した第2の機械関連情報を表示させる表示制御部と、
    を備え、
     前記キーボードユニットは、前記補助表示画面をタッチパネルとして入力指示を受け付ける表示入力部を有する
    ことを特徴とする数値制御装置。
  2.  前記表示制御部は、前記補助表示画面上に、前記第1の機械関連情報に連動した複数のボタンオブジェクトを前記第2の機械関連情報の一部として表示させ、
     前記表示入力部は、前記複数のボタンオブジェクトのうち押下されたボタンオブジェクトに対応する入力指示を受け付ける
    ことを特徴とする請求項1に記載の数値制御装置。
  3.  前記表示制御部は、前記補助表示画面上に、前記第2の機械関連情報の一部に連動した複数のボタンオブジェクトを前記第2の機械関連情報の他の一部として表示させ、
     前記表示入力部は、前記複数のボタンオブジェクトのうち押下されたボタンオブジェクトに対応する入力指示を受け付ける
    ことを特徴とする請求項1に記載の数値制御装置。
  4.  前記表示制御部は、前記補助表示画面上に、前記第1の機械関連情報と前記第2の機械関連情報の一部との両方に連動した複数のボタンオブジェクトを前記第2の機械関連情報の他の一部として表示させ、
     前記表示入力部は、前記複数のボタンオブジェクトのうち押下されたボタンオブジェクトに対応する入力指示を受け付ける
    ことを特徴とする請求項1に記載の数値制御装置。
  5.  前記表示制御部は、前記主表示画面上に、編集途中の加工プログラムを前記第1の機械関連情報として表示させ、前記補助表示画面上に、前記編集途中の加工プログラムに対して次に追加する候補となる複数のコードに対応した複数のボタンオブジェクトを前記第2の機械関連情報の一部として表示させ、
     前記表示入力部は、前記複数のボタンオブジェクトのうち押下されたボタンオブジェクトに対応するコードの入力指示を受け付ける
    ことを特徴とする請求項2に記載の数値制御装置。
  6.  前記表示制御部は、前記補助表示画面上に、選択された前記ボタンオブジェクトに対応したコードの次に入力が予想される文字列を前記第2の機械関連情報の他の一部として表示させる
    ことを特徴とする請求項5に記載の数値制御装置。
  7.  前記表示制御部は、前記補助表示画面上に、前記第1の機械関連情報に連動した情報を前記第2の機械関連情報として表示させる
    ことを特徴とする請求項1に記載の数値制御装置。
  8.  前記表示制御部は、前記主表示画面上に、第1のパラメータを前記第1の機械関連情報として表示させるとともに、前記補助表示画面上に、前記第1のパラメータに関連した第2のパラメータを前記第2の機械関連情報として表示させる
    ことを特徴とする請求項7に記載の数値制御装置。
  9.  前記表示制御部は、前記主表示画面上に、第1の表示オブジェクトを前記第1の機械関連情報として表示させるとともに、前記補助表示画面上に、前記第1の表示オブジェクトの一部に対応した第2の表示オブジェクトを前記第2の機械関連情報として表示させる
    ことを特徴とする請求項7に記載の数値制御装置。
  10.  前記表示制御部は、前記補助表示画面上に、前記第1の表示オブジェクトの一部を拡大した表示オブジェクトを前記第2の表示オブジェクトとして表示させる
    ことを特徴とする請求項9に記載の数値制御装置。
  11.  前記表示制御部は、前記補助表示画面上に、前記第1の表示オブジェクトの全部を縮小した表示オブジェクトを前記第2の表示オブジェクトとして表示させる
    ことを特徴とする請求項9に記載の数値制御装置。
  12.  前記表示制御部は、前記補助表示画面上に前記第1の表示オブジェクトの全部を縮小した前記第2の表示オブジェクトを表示させた後に、前記主表示画面上に、前記第2の表示オブジェクトを拡大した表示オブジェクトを前記第1の表示オブジェクトとして再び表示させる
    ことを特徴とする請求項11に記載の数値制御装置。
  13.  前記表示制御部は、前記主表示画面上に前記第1の機械関連情報を表示させ前記補助表示画面上に前記第2の機械関連情報を表示させた状態から、前記主表示画面上に前記第2の機械関連情報を表示させ前記補助表示画面上に前記第1の機械関連情報を表示させた状態へ遷移させる
    ことを特徴とする請求項1に記載の数値制御装置。
     
PCT/JP2010/071586 2010-12-02 2010-12-02 数値制御装置 WO2012073368A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN2010800704669A CN103238124A (zh) 2010-12-02 2010-12-02 数控装置
DE112010006050.9T DE112010006050C5 (de) 2010-12-02 2010-12-02 Numerische Steuervorrichtung
JP2012546636A JP5289624B2 (ja) 2010-12-02 2010-12-02 数値制御装置
US13/990,999 US20130257738A1 (en) 2010-12-02 2010-12-02 Numerical control apparatus
PCT/JP2010/071586 WO2012073368A1 (ja) 2010-12-02 2010-12-02 数値制御装置
TW100108874A TWI448851B (zh) 2010-12-02 2011-03-16 數值控制裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/071586 WO2012073368A1 (ja) 2010-12-02 2010-12-02 数値制御装置

Publications (1)

Publication Number Publication Date
WO2012073368A1 true WO2012073368A1 (ja) 2012-06-07

Family

ID=46171352

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/071586 WO2012073368A1 (ja) 2010-12-02 2010-12-02 数値制御装置

Country Status (6)

Country Link
US (1) US20130257738A1 (ja)
JP (1) JP5289624B2 (ja)
CN (1) CN103238124A (ja)
DE (1) DE112010006050C5 (ja)
TW (1) TWI448851B (ja)
WO (1) WO2012073368A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016051544A1 (ja) * 2014-09-30 2016-04-07 株式会社牧野フライス製作所 工作機械の制御装置
JP7016979B1 (ja) * 2021-04-05 2022-02-07 Dmg森精機株式会社 操作盤及び工作機械

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI492007B (zh) * 2012-06-19 2015-07-11 Univ Far East 數值控制加工管理系統及管理方法
WO2014203021A1 (en) * 2013-06-19 2014-12-24 Freescale Semiconductor, Inc. Visual display content source identifier and method
CN103513953A (zh) * 2013-08-14 2014-01-15 杭州浙大旭日科技开发有限公司 一种虚拟数控机床
EP3088979B1 (en) * 2013-12-26 2019-12-04 Makino Milling Machine Co., Ltd. Control device for machine tool
EP3159757B1 (en) * 2014-06-20 2021-02-17 Makino Milling Machine Co., Ltd. Control device for machine tool
JP6386871B2 (ja) 2014-10-22 2018-09-05 オークマ株式会社 工作機械用数値制御装置
CN105867645A (zh) * 2015-01-22 2016-08-17 西门子公司 数控系统的代码输入方法和代码格式的整理方法
JP6616173B2 (ja) * 2015-12-14 2019-12-04 Dmg森精機株式会社 加工プログラム編集装置、およびこれを備えた工作機械
JP7022049B2 (ja) * 2018-12-05 2022-02-17 ファナック株式会社 認識装置、システムおよび認識方法
CN113518953A (zh) * 2019-07-19 2021-10-19 山崎马扎克公司 机床、机床的加工程序编辑方法和用于机床的加工程序编辑的程序
DE102019215497A1 (de) * 2019-10-09 2021-04-15 Deckel Maho Pfronten Gmbh Verfahren zum steuern einer numerisch gesteuerten werkzeugmaschine auf grundlage von ein nc-programm aufweisenden steuerdaten
JP2021168000A (ja) * 2020-04-09 2021-10-21 アズビル株式会社 電子機器およびパラメータ変更方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03278091A (ja) * 1990-03-28 1991-12-09 Koudo Eizou Gijutsu Kenkyusho:Kk テキストデータの入力・編集方法およびテキストデータ表示装置
JPH05324037A (ja) * 1992-05-25 1993-12-07 Mori Seiki Co Ltd リモート操作パネル付nc装置
JPH07204986A (ja) * 1994-01-26 1995-08-08 Hitachi Seiko Ltd 数値制御研削盤およびその研削条件設定方法
JPH08161079A (ja) * 1994-12-02 1996-06-21 Japan Aviation Electron Ind Ltd 携帯型パーソナルコンピュータの構造
JPH09330199A (ja) * 1996-06-11 1997-12-22 Hitachi Ltd パーソナルコンピュータ
JP2000267758A (ja) * 1999-03-15 2000-09-29 Eteitsuku:Kk 情報処理装置
JP2005018406A (ja) * 2003-06-26 2005-01-20 Casio Comput Co Ltd 情報表示制御装置、サーバ及びプログラム
JP2010003287A (ja) * 2009-03-18 2010-01-07 Osaka Prefecture Ncプログラム入力装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255408A (ja) * 1985-05-07 1986-11-13 Hitachi Seiki Co Ltd ワ−ク形状のリスト入力装置
JPH03154105A (ja) * 1989-11-10 1991-07-02 Toshiba Mach Co Ltd Ncプログラム作成装置
JP2993158B2 (ja) * 1990-04-05 1999-12-20 三菱電機株式会社 数値制御装置
JPH0635567A (ja) * 1992-07-15 1994-02-10 Canon Inc 電子機器
US5465215A (en) * 1994-07-07 1995-11-07 Cincinnati Milacron Inc. Numerical control method and apparatus
JP4044169B2 (ja) * 1997-02-26 2008-02-06 株式会社アマダ 工程の流れに沿った情報設定画面の表示方法及びその機能を有するマルチウィンドウ方式のnc装置
US5984503A (en) * 1997-08-15 1999-11-16 Vickers, Incorporated Method and apparatus for entering and displaying structure information in a machining system
JP3839295B2 (ja) * 2001-10-09 2006-11-01 株式会社ジェイテクト 設備モニタ装置
DE10157577A1 (de) * 2001-11-23 2003-12-24 Heidenhain Gmbh Dr Johannes Vorrichtung und Verfahren zur Erstellung und/oder Änderung von NC-Programmen oder NC-Tabellen
EP1907906B2 (de) * 2005-07-18 2018-10-10 Netstal-Maschinen AG Verfahren und steuervorrichtung zur steuerung einer oder mehrerer maschinen
JP5324037B2 (ja) * 2006-10-12 2013-10-23 大智化学産業株式会社 孔あけ加工用当て板及び孔あけ加工方法
US7949422B1 (en) * 2007-06-22 2011-05-24 Vermont Machine Tool Corporation Machine tool control system
JP5099602B2 (ja) * 2008-01-18 2012-12-19 ブラザー工業株式会社 数値制御装置
JP2010193568A (ja) * 2009-02-16 2010-09-02 Daido Electronics Co Ltd 電動モータにおけるモータケース・磁石の一体組付体及びその製造方法
USD661253S1 (en) * 2009-11-20 2012-06-05 Siemens Aktiengesellschaft Field device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03278091A (ja) * 1990-03-28 1991-12-09 Koudo Eizou Gijutsu Kenkyusho:Kk テキストデータの入力・編集方法およびテキストデータ表示装置
JPH05324037A (ja) * 1992-05-25 1993-12-07 Mori Seiki Co Ltd リモート操作パネル付nc装置
JPH07204986A (ja) * 1994-01-26 1995-08-08 Hitachi Seiko Ltd 数値制御研削盤およびその研削条件設定方法
JPH08161079A (ja) * 1994-12-02 1996-06-21 Japan Aviation Electron Ind Ltd 携帯型パーソナルコンピュータの構造
JPH09330199A (ja) * 1996-06-11 1997-12-22 Hitachi Ltd パーソナルコンピュータ
JP2000267758A (ja) * 1999-03-15 2000-09-29 Eteitsuku:Kk 情報処理装置
JP2005018406A (ja) * 2003-06-26 2005-01-20 Casio Comput Co Ltd 情報表示制御装置、サーバ及びプログラム
JP2010003287A (ja) * 2009-03-18 2010-01-07 Osaka Prefecture Ncプログラム入力装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016051544A1 (ja) * 2014-09-30 2016-04-07 株式会社牧野フライス製作所 工作機械の制御装置
JPWO2016051544A1 (ja) * 2014-09-30 2017-04-27 株式会社牧野フライス製作所 工作機械の制御装置
US10423147B2 (en) 2014-09-30 2019-09-24 Makino Milling Machine Co., Ltd. Control device for machine tool
JP7016979B1 (ja) * 2021-04-05 2022-02-07 Dmg森精機株式会社 操作盤及び工作機械

Also Published As

Publication number Publication date
US20130257738A1 (en) 2013-10-03
DE112010006050C5 (de) 2020-10-29
JP5289624B2 (ja) 2013-09-11
DE112010006050B4 (de) 2015-10-01
CN103238124A (zh) 2013-08-07
TW201224689A (en) 2012-06-16
TWI448851B (zh) 2014-08-11
JPWO2012073368A1 (ja) 2014-05-19
DE112010006050T5 (de) 2013-09-19
DE112010006050T9 (de) 2013-12-19

Similar Documents

Publication Publication Date Title
JP5289624B2 (ja) 数値制御装置
JP5099602B2 (ja) 数値制御装置
JP2008112269A (ja) 加工シミュレーションシステム
JP2015056114A (ja) Nc工作機械の操作装置
JP2013257782A (ja) 作業支援制御部を有する工作機械の数値制御装置
JP2014002449A (ja) 仮想操作盤を表示する数値制御装置
US20050143854A1 (en) Numerical control device and method
JPH103307A (ja) 数値制御装置
JP2007179361A (ja) ダイアログ表示変更方法,プログラム,および電子機器
WO1999027438A1 (fr) Editeur de texte jouant un role de formation d'ecran
JP2007072518A (ja) 制御装置のヒューマン・マシン・インタフェース装置
JP2002166335A (ja) 工具交換機能付工作機械用数値制御装置の操作盤
JP2009251668A (ja) 表示制御装置及び表示制御方法
JP2002126975A (ja) 固定サイクル指令作成支援方法およびnc装置
JP2006061679A (ja) 医療用超音波装置でヘルプ情報を提供するための装置及び方法
JPH09120352A (ja) マルチウィンドウシステム
JP2006068865A (ja) 産業用ロボットのプログラミングペンダント
WO2023148821A1 (ja) プログラミング装置
JP6935612B1 (ja) 表示制御装置
WO2022269816A9 (ja) 数値制御装置、画面作成システム、及び数値制御装置が読み取り可能な命令を記憶する記憶媒体
JPS63197278A (ja) デ−タ処理装置
JP2002214975A (ja) 入力表示装置およびその表示方法
JP2023117539A (ja) 情報処理装置、工作機械および情報処理プログラム
JPS6382574A (ja) デ−タ処理装置
CN113849116A (zh) 一种应用于数控装置的键盘设计方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10860379

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012546636

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13990999

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120100060509

Country of ref document: DE

Ref document number: 112010006050

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10860379

Country of ref document: EP

Kind code of ref document: A1