WO2014136245A1 - エンジニアリングツール - Google Patents

エンジニアリングツール Download PDF

Info

Publication number
WO2014136245A1
WO2014136245A1 PCT/JP2013/056357 JP2013056357W WO2014136245A1 WO 2014136245 A1 WO2014136245 A1 WO 2014136245A1 JP 2013056357 W JP2013056357 W JP 2013056357W WO 2014136245 A1 WO2014136245 A1 WO 2014136245A1
Authority
WO
WIPO (PCT)
Prior art keywords
engineering tool
input
processing unit
human interface
user
Prior art date
Application number
PCT/JP2013/056357
Other languages
English (en)
French (fr)
Inventor
邦夫 大庭
博子 永松
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2013/056357 priority Critical patent/WO2014136245A1/ja
Priority to CN201380074153.4A priority patent/CN105027059B/zh
Priority to DE112013006644.0T priority patent/DE112013006644T5/de
Priority to US14/769,319 priority patent/US9639249B2/en
Priority to KR1020157027283A priority patent/KR20150123922A/ko
Priority to JP2013540163A priority patent/JP5576572B1/ja
Priority to TW102127742A priority patent/TWI494723B/zh
Publication of WO2014136245A1 publication Critical patent/WO2014136245A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/05Programmable logic controllers, e.g. simulating logic interconnections of signals according to ladder diagrams or function charts
    • G05B19/056Programming the PLC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/10Plc systems
    • G05B2219/13Plc programming
    • G05B2219/13144GUI graphical user interface, icon, function bloc editor, OI operator interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25084Select configuration as function of operator

Definitions

  • the present invention relates to an engineering tool, in particular, an engineering tool for creating a sequence program.
  • Patent Literature 1 discloses a programming device that can customize environment settings related to programming operations according to user preferences.
  • engineering tools provide a unified interface for all users without distinguishing the level of operation skill by users.
  • the input operation in the engineering tool may be difficult to understand for a user who is not familiar with program editing.
  • the input operation in the engineering tool may be unsatisfactory for a user who is skilled in program editing because the level of operability is low with respect to his skill.
  • the present invention has been made in view of the above, and is an engineering tool capable of satisfying a user with a different level of operation skill with ease of understanding according to the level of operation skill and high operability. The purpose is to obtain.
  • the present invention provides a basic processing unit that performs a program editing process in response to an input operation by an input device, and an operation screen for the program editing in a display device.
  • a display processing unit for displaying wherein the basic processing unit is capable of accepting the input operation by a plurality of input devices as a plurality of human interfaces, and the operation in the input operation from the plurality of human interfaces.
  • the basic processing unit performs processing according to the input operation by an input device corresponding to the selected human interface, and the display processing unit selects The operation screen corresponding to the human interface is displayed. Wherein the display on the device.
  • the engineering tool can select one of a plurality of human interfaces according to the level of operation skill.
  • the engineering tool can provide an interface that prioritizes the ease of input operations, for example, for a user at an elementary level.
  • the engineering tool can provide an interface with high operability and an emphasis on work speed, for example, for an advanced user.
  • the engineering tool has an effect that it can satisfy the user who has a different level of operation skill, with an easy understanding according to the level of the operation skill and high operability.
  • FIG. 1 is a block diagram illustrating a configuration for realizing operations and processes in the engineering tool according to the embodiment.
  • FIG. 2 is a flowchart for explaining switching of the human interface by the engineering tool.
  • FIG. 3 is a diagram illustrating an example of an operation screen when a mouse is used.
  • FIG. 4 is a diagram illustrating an example of an operation screen when the touch panel is used.
  • FIG. 5 is a diagram for explaining the display of the tile menu.
  • FIG. 6 is a diagram for explaining the input assist function.
  • FIG. 7 is a diagram illustrating the operation assist function.
  • FIG. 8 is a diagram illustrating sharing of human interface settings among a plurality of engineering tools.
  • FIG. 9 is a diagram illustrating management of human interface settings for each user.
  • FIG. 10 is a diagram for explaining sharing of human interface settings via a network in a plurality of engineering tools.
  • FIG. 11 is a diagram for explaining sharing of human interface settings via an external recording medium in a plurality of engineering tools.
  • FIG. 1 is a block diagram illustrating a configuration for realizing operations and processes in the engineering tool according to the embodiment.
  • the engineering tool 1 is a tool for editing a sequence program that is operated by a PLC system or the like.
  • the engineering tool 1 is realized by, for example, a personal computer (PC) 10 in which engineering tool software is installed.
  • PC personal computer
  • the PC 10 has an input device 11 and a display device 12.
  • the PC 10 includes a plurality of input devices 11, for example, a touch panel 13, a mouse 14, and a keyboard 15.
  • the display device 12 is, for example, a liquid crystal display.
  • the display device 12 displays an operation screen for program editing.
  • the touch panel 13 is disposed on the liquid crystal display.
  • the engineering tool 1 includes a basic processing unit 2 and a display processing unit 3.
  • the basic processing unit 2 performs a program editing process according to an input operation by the input device 11.
  • the display processing unit 3 performs processing for displaying the contents of program editing by the basic processing unit 2 on the operation screen.
  • the engineering tool 1 provides a plurality of human interfaces according to the level of operation skill in the input operation.
  • the human interface is sometimes referred to as a UI (user interface) as appropriate.
  • the plurality of UIs are, for example, a UI mainly composed of the touch panel 13, a UI mainly composed of the mouse 14, and a UI mainly composed of the keyboard 15.
  • the basic processing unit 2 can accept input operations using the touch panel 13, the mouse 14, and the keyboard 15 as a plurality of UIs.
  • the input operation using the touch panel 13 is performed by touching a touch switch appearing on the operation screen with a finger or the like. Since the touch panel 13 is touched while visually confirming the display position, it is known that information can be input relatively easily and the operation method is intuitively easy to understand.
  • the engineering tool 1 prepares a UI mainly composed of a touch panel 13 for beginner level users.
  • the display of the touch switch or the like is relatively enlarged assuming a malfunction caused by a wide range of touch positions with a finger or the like. For this reason, in the case of an input operation using the touch panel 13, the amount of information that can be displayed on one screen is reduced, and the operation for switching the screen is likely to increase. Moreover, various information for assisting the operation is displayed so that the operation may be performed according to the display. Therefore, in the UI mainly composed of the touch panel 13, priority is given to easy understanding of the input operation so as to be suitable when the knowledge about the operation of the program editing is small or when the user is not used to the operation of the program editing. On the other hand, the UI mainly composed of the touch panel 13 is not suitable when an operation with an emphasis on work speed is desired.
  • the keyboard 15 can promptly input various information by appropriately customized shortcut input or command input.
  • the keyboard 15 can perform a high-speed input operation by making full use of key input.
  • the engineering tool 1 provides a UI mainly composed of a keyboard 15 for advanced level users.
  • the UI mainly composed of the keyboard 15 is suitable for a case where an advanced operation with an emphasis on work speed is desired.
  • the UI mainly composed of the keyboard 15 is not suitable when there is little knowledge about the program editing operation or when the user is not used to the program editing operation.
  • the engineering tool 1 provides a UI mainly composed of a mouse 14 for intermediate level users.
  • the engineering tool 1 employs a UI mainly based on a mouse 14 because the input operation is easy to understand and has high operability between the UI mainly based on the touch panel 13 and the UI mainly based on the keyboard 15.
  • the engineering tool 1 recognizes the input device 11 in the automatic switching mode, for example, and can automatically select one of a plurality of UIs.
  • the automatic switching mode when the basic processing unit 2 recognizes that any of the plurality of input devices 11 that are UIs is connected to the PC 10 that is hardware, the engineering tool 1 corresponds to the input devices 11 that are connected.
  • Switch UI The user can appropriately select the input device 11 connected to the hardware according to the level of his / her operation skill.
  • the engineering tool 1 allows the user to select one of a plurality of UIs, for example, in the manual setting mode.
  • the display processing unit 3 causes the display device 12 to display a selection screen for accepting UI selection.
  • a selection screen for example, for each UI, a description of a suitable level of operation skill, for example, information for beginners, intermediates, advanced users, and the like is displayed. The user can appropriately select a UI from the selection screen according to the level of his / her operation skill.
  • the basic processing unit 2 When the UI is selected in each mode, the basic processing unit 2 performs processing according to the input operation by the input device 11 corresponding to the selected UI.
  • the display processing unit 3 causes the display device 12 to display an operation screen corresponding to the selected UI.
  • FIG. 2 is a flowchart for explaining switching of the human interface by the engineering tool.
  • the basic processing unit 2 determines whether or not the automatic switching mode is set (step S1).
  • step S1 Suppose that one of the input devices 11 is connected to the PC 10 when the automatic switching mode is set (step S2, Yes).
  • the basic processing unit 2 detects that the input device 11 has been changed due to the connection of the input device 11 (step S2, Yes).
  • the engineering tool 1 when the engineering tool 1 is installed in hardware on which the touch panel 13 is mounted, for example, a tablet terminal or the like, the engineering tool 1 automatically recognizes that the input device 11 is the touch panel 13.
  • the basic processing unit 2 waits until the change of the input device 11 is detected.
  • the engineering tool 1 switches the UI according to the input device 11 connected to the PC 10 (step S3). As a result, the engineering tool 1 ends the operation for switching the UI.
  • step S1 If the automatic switching mode is not set (step S1, No), the basic processing unit 2 recognizes that the manual switching mode is set. The user selects one of the UIs according to the selection screen on the display device 12.
  • step S4 When the user sets the UI on the selection screen (step S4, Yes), the engineering tool 1 switches the UI according to the selection on the selection screen (step S5). If there is no UI setting on the selection screen (step S4, No), the engineering tool 1 holds the UI until that time until a new UI is selected on the selection screen. As a result, the engineering tool 1 ends the operation for switching the UI.
  • the engineering tool 1 does not need to completely divide the input device 11 to be used, such as the touch panel 13 for the basic UI, the mouse 14 for the intermediate UI, and the keyboard 15 for the advanced UI. .
  • the touch panel 13, the mouse 14, and the keyboard 15 only need to be set as the main input devices 11, and the touch panel 13, the mouse 14, and the keyboard 15 can be used in appropriate combinations.
  • FIG. 3 is a diagram illustrating an example of an operation screen when a mouse is used.
  • FIG. 4 is a diagram illustrating an example of an operation screen when the touch panel is used.
  • FIG. 3 shows an example of ribbon display in the mouse operation screen 21.
  • the ribbon display includes a menu bar for file operations, icons for various editing operations, and the like.
  • the parts such as menus and icons have sizes that can be specified by the mouse pointer, for example, the same size as the menu bar and icons on the screen by normal document creation software.
  • FIG. 4 shows an example of ribbon display in the touch panel operation screen 22.
  • Parts such as menus and icons have a larger size than the case of the mouse operation screen 21 because the touch points with the fingers are likely to be wide. As each part becomes larger, the number of parts arranged on the screen at a time decreases. For this reason, the operation screen 22 for the touch panel frequently uses measures such as switching the display by selecting a tab and opening a dialog.
  • FIG. 5 is a diagram for explaining the display of the tile menu.
  • the tile menu 24 is mainly suitable for a touch panel operation screen 22 for beginners. For example, when the tab 23 shown at the right end of the touch panel operation screen 22 is touched and slid to the left, the tile menu 24 is displayed so as to cover the touch panel operation screen 22.
  • each function of program editing is prepared as a tile menu 24, so that the user can read out each function by a simple operation.
  • the contents of the tile menu 24 can be set by the user, for example.
  • the content of the tile menu 24 may be set automatically, for example, by the basic processing unit 2 ranking the function usage frequency.
  • the engineering tool 1 may be able to select whether the setting of the content of the tile menu 24 is manual or automatic as the setting mode.
  • each function of program editing can be read by key input on the keyboard 15.
  • the basic processing unit 2 can assign a keyboard shortcut to each function.
  • the shortcut key can be arbitrarily set by the user, for example.
  • the user can edit the program using a shortcut key that is easy to remember.
  • ⁇ Ctrl (control key) + “M” “O”> for starting the monitor mode, ⁇ Ctrl + “N” “E”> for switching to the next tab, and tab switching to the previous tab The user can arbitrarily set a shortcut key, such as ⁇ Ctrl + “B” “A”>. Thereby, the user can freely customize the input operation in the engineering tool 1 so that the program editing can proceed efficiently.
  • FIG. 6 is a diagram for explaining the input assist function.
  • an input assist function will be described as an example for inputting device and label information.
  • the display processing unit 3 displays a device / label setting screen 27 on the display device 12 to assist in inputting information on device and label.
  • the device / label setting screen 27 is displayed as a dialog on the mouse operation screen 21 for intermediate users, for example.
  • the display processing unit 3 displays the device / label setting screen 27 as a dialog.
  • the device / label setting screen 27 receives an input operation for setting a device and a label.
  • the device / label setting screen 27 it is possible to change the character of the character string representing the device one by one. Each character changes sequentially by clicking the button.
  • the user selects “device” with a radio button, adjusts each character to a character string indicating a desired device by operating the button, and clicks “OK” to set the device.
  • the device / label setting screen 27 displays a list of candidate label names.
  • the user selects “label” with a radio button, selects a desired label from candidates, and clicks “decide” to set the label. Thereby, the user can set a device and a label irrespective of the character input with the keyboard 15 or the soft keyboard on the screen.
  • the device / label setting screen 27 may be applied to the touch panel operation screen 22 for beginners.
  • FIG. 7 is a diagram for explaining the operation assistance function.
  • the basic processing unit 2 instructs the display processing unit 3 to display the operation assistance screen 28 when, for example, the mouse pointer is moved for a predetermined time or longer without being clicked by the mouse 14.
  • the basic processing unit 2 measures the time during which the mouse pointer is moving.
  • the basic processing unit 2 instructs display of the operation assistance screen 28 in response to the measurement result exceeding a predetermined threshold.
  • the display processing unit 3 displays the operation assistance screen 28 on the display device 12 in accordance with an instruction from the basic processing unit 2.
  • the operation assistance screen 28 is displayed as a dialog when applying a UI for beginners.
  • each function name in the program editing is presented and a link to a dialog explaining how to use the function is displayed for each function.
  • the user can continue the next operation by referring to the operation assistance screen 28 that is automatically displayed when he / she gets lost in the input operation.
  • the engineering tool 1 may be able to set a UI corresponding to the skill level of the user for each program editing function.
  • the engineering tool 1 can be set, for example, as a UI mainly for the touch panel 13 for the monitor function, a UI mainly for the keyboard 15 for the circuit editing function, and a UI mainly for the mouse 14 for the PC parameter setting function.
  • the basic processing unit 2 holds the UI set for each function in association with the function.
  • the engineering tool 1 when the user selects the monitor function in the program editing, the engineering tool 1 reads the UI of the main body of the touch panel 13 associated with the monitor function.
  • the engineering tool 1 reads the UI mainly of the keyboard 15 associated with the circuit editing function.
  • the engineering tool 1 reads the UI based on the mouse 14.
  • the user can freely customize the input operation method for each function in accordance with the skill and familiarity for each program editing function.
  • the engineering tool 1 may automatically save the entire program editing or UI settings for each function at regular intervals. For example, when the program editing operation is interrupted and then resumed, the engineering tool 1 reads the saved UI. Thus, the UI setting can be saved in the engineering tool 1 without the user having once selected the UI and performing an operation for saving.
  • the engineering tool 1 may accumulate UI settings as a history. For example, the user generates a log file in which a UI setting history is recorded by an optional operation for log management. The engineering tool 1 reads the UI setting at the time of the restoration point by designating the restoration point from the history. As a result, the user can restore the customized UI retroactively.
  • whether or not the UI settings are automatically saved may be switchable by a user setting action. Thereby, the user can freely select whether or not to automatically save the UI setting for each function.
  • the engineering tool 1 may store UI settings for each function each time the program editing operation is interrupted. Thereby, the engineering tool 1 can continue the UI setting before interrupting the program editing work even after the work is resumed.
  • the UI setting according to the skill level of the user may be shared among a plurality of engineering tools 1.
  • FIG. 8 is a diagram illustrating sharing of human interface settings among a plurality of engineering tools.
  • the three PCs 10-1, 10-2, and 10-3 are connected to each other through a cable or the like so as to communicate with each other.
  • An engineering tool 1 is installed in each of the three PCs 10-1, 10-2, and 10-3. Any of the three PCs 10-1, 10-2, and 10-3 holds a UI setting for each user.
  • the engineering tool 1 of the PC 10-1 holds settings for the user A, settings for the user B, and so on.
  • the engineering tool 1 of the PC 10-2 sets the UI for the user A from the engineering tool 1 of the PC 10-1 via communication. Is read.
  • the engineering tool 1 uses a common UI set for the user. read out. Each user can perform an input operation on the UI corresponding to his / her skill level, regardless of the work by any of the three PCs 10-1, 10-2, 10-3.
  • the engineering tools 1 installed on the three PCs 10-1, 10-2, and 10-3 are all the same products, and at least one of the engineering tools 1 may be a different product from the others. .
  • the engineering tool 1 may share the UI settings not only when they are the same product but also when they are different products. As a result, the user can save the trouble of setting the UI for each product of the engineering tool 1.
  • Different products include cases where one of the product series or version is different.
  • FIG. 9 is a diagram for explaining the management of human interface settings for each user.
  • the engineering tool 1 that holds UI settings in the storage area 30 manages the UI settings as a file for each user.
  • the engineering tool 1 that holds UI settings holds a setting management file 31 in the storage area 30.
  • the address of the file location storing the file for each user in the storage area 30 is associated with the user name and password that are the authentication information.
  • the UI settings and setting management file 31 are stored in the storage area 30 of the engineering tool 1 of the PC 10-1.
  • the engineering tool 1 of the PC 10-2 accesses the setting management file 31 in the engineering tool 1 of the PC 10-1.
  • the engineering tool 1 of the PC 10-2 acquires from the setting management file 31 the address “ ⁇ serv ⁇ propaties ⁇ A.cnf” of the file location corresponding to the user name “A” and the password “a_ @ v”.
  • the engineering tool 1 of the PC 10-2 reads out the setting information of the user A stored at the acquired address from the storage area 30.
  • the engineering tool 1 can accept the user authentication and read the UI setting for each user. Further, the engineering tool 1 manages UI settings for each user together with authentication information, and makes it possible to read the UI settings in response to the input of the authentication information, thereby enhancing security robustness.
  • the UI for user B is set as a default in the engineering tool 1 of the PC 10-2.
  • the engineering tool 1 of the PC 10-2 can read and set the UI for the user A.
  • the engineering tool 1 of the PC 10-2 automatically returns the setting to the UI for the original user B. Also good.
  • the engineering tool 1 can easily return to the original setting when the UI setting is temporarily changed from the default.
  • the plurality of engineering tools 1 may share the UI settings according to the skill level of the user via the network.
  • FIG. 10 is a diagram for explaining sharing of human interface settings via a network in a plurality of engineering tools.
  • the UI setting is stored in any hardware connected to the network 32 such as the Internet.
  • the engineering tool 1 of each hardware connected to the network 32 constitutes an engineering system.
  • the engineering tool 1 is installed in each of the PCs 10-1 and 10-2 and the portable terminal 10-4 that can be connected to the network 32.
  • the engineering tool 1 reads UI settings together with user authentication.
  • the user can read out the UI setting for the user from any engineering tool 1 via the network 32.
  • the engineering tool 1 can provide UI settings for each user to any hardware that can be connected to the network 32.
  • the engineering tool 1 may share the UI settings through the network 32 not only when they are the same product but also when they are different products.
  • the plurality of engineering tools 1 may be able to share UI settings according to the skill level of the user via an external recording medium readable by a computer.
  • FIG. 11 is a diagram for explaining sharing of human interface settings via an external recording medium in a plurality of engineering tools.
  • the USB memory 33 which is an external recording medium holds UI settings.
  • the engineering tool 1 is installed in each of the PCs 10-1 and 10-2 to which the USB memory 33 can be connected. When the USB memory 33 is connected to the PCs 10-1 and 10-2, the engineering tool 1 reads UI settings from the USB memory 33.
  • the user can read the UI setting for himself / herself by connecting the USB memory 33 to the PCs 10-1 and 10-2, regardless of whether the PC 10-1 or 10-2 is used for program editing.
  • the engineering tool 1 can share UI settings for each user even with hardware that is not connected so that they can communicate directly with each other.
  • the engineering tool 1 is not limited to using the USB memory 33 for sharing the UI settings, and any external recording medium may be used.
  • the engineering tool 1 may read the UI setting from the external recording medium only when user authentication is performed after the external recording medium is connected to the hardware. Thereby, the engineering tool 1 can read the UI setting for each user when the external recording medium holds the UI settings for a plurality of users. Further, the engineering tool 1 manages UI settings for each user together with authentication information, and makes it possible to read the UI settings in response to the input of the authentication information, thereby enhancing security robustness.
  • the engineering tool 1 may share the UI settings through an external recording medium not only when they are the same product but also when they are different products.
  • the user can arbitrarily set a UI corresponding to the level of his / her operation skill from a plurality of UIs that the engineering tool 1 can provide.
  • the engineering tool 1 can provide a UI that enables easy and easy-to-understand input operations for beginner level users.
  • the engineering tool 1 can provide a user who is skilled in program editing and has a UI suitable for editing work that is advanced and emphasizes work speed. Thereby, the engineering tool 1 has an effect that it is possible to satisfy a user having a different level of operation skill with ease of understanding according to the level of the operation skill and high operability.
  • 1 engineering tool 1 engineering tool, 2 basic processing unit, 3 display processing unit, 10 PC, 11 input device, 12 display device, 13 touch panel, 14 mouse, 15 keyboard, 21 mouse operation screen, 22 touch panel operation screen, 23 tab, 24 Tile menu, 25 parts palette, 26 circuit display screen, 27 device / label setting screen, 28 operation assistance screen, 29 login screen, 30 storage area, 31 setting management file, 32 network, 33 USB memory.

Abstract

 入力デバイス(11)による入力操作に応じてプログラム編集の処理を実施する基本処理部(2)と、プログラム編集のための操作画面を表示デバイス(12)において表示させる表示処理部(3)と、を有し、基本処理部は、複数のヒューマンインタフェースとして、複数の入力デバイスによる入力操作を受け付け可能であって、複数のヒューマンインタフェースから、入力操作における操作技量のレベルに応じたヒューマンインタフェースが選択されると、基本処理部は、選択されたヒューマンインタフェースに対応する入力デバイスによる入力操作に応じた処理を実施し、表示処理部は、選択されたヒューマンインタフェースに応じた操作画面を表示デバイスに表示させる。

Description

エンジニアリングツール
 本発明は、エンジニアリングツール、特に、シーケンスプログラムの作成のためのエンジニアリングツールに関する。
 エンジニアリングツールは、シーケンスプログラムを作成するユーザに対し、所定のヒューマンインタフェースを提供する。例えば、特許文献1には、プログラミング操作に関わる環境設定をユーザの嗜好に応じてカスタマイズ可能とするプログラミング装置が開示されている。
特開2004-62223号公報
 従来、エンジニアリングツールは、ユーザによる操作技量のレベルを区別せず、全てのユーザに対し統一されたインタフェースを提供する。この場合、エンジニアリングツールにおける入力操作が、プログラム編集に慣れないユーザにとっては分かりにくいものとなる場合がある。また、エンジニアリングツールにおける入力操作が、プログラム編集に熟練したユーザにとっては、自身の技量に対し操作性のレベルが低く不満足なものとなる場合もある。このように、従来技術によると、エンジニアリングツールは、操作技量のレベルが異なるユーザに対して、操作技量のレベルに応じた分かり易い入力操作と、高度な操作性とを両立させることが困難となる。
 特許文献1に記載のプログラミング装置のように、ユーザが任意にプログラミング環境を設定可能とする場合、自身の操作技量に合ったプログラミング環境がユーザによって必ずしも選択されるとは限らない。このため、任意にプログラミング環境を設定可能であっても、ユーザにとっては入力操作が分かりにくいものとなることや、操作性が不満足なものとなる場合がある。
 本発明は、上記に鑑みてなされたものであって、操作技量のレベルが異なるユーザに対し、操作技量のレベルに応じた分かり易さと高度な操作性とを満足させることを可能とするエンジニアリングツールを得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、入力デバイスによる入力操作に応じてプログラム編集の処理を実施する基本処理部と、前記プログラム編集のための操作画面を表示デバイスにおいて表示させる表示処理部と、を有し、前記基本処理部は、複数のヒューマンインタフェースとして、複数の入力デバイスによる前記入力操作を受け付け可能であって、前記複数のヒューマンインタフェースから、前記入力操作における操作技量のレベルに応じたヒューマンインタフェースが選択されると、前記基本処理部は、選択された前記ヒューマンインタフェースに対応する入力デバイスによる前記入力操作に応じた処理を実施し、前記表示処理部は、選択された前記ヒューマンインタフェースに応じた前記操作画面を前記表示デバイスに表示させることを特徴とする。
 本発明によると、エンジニアリングツールは、複数のヒューマンインタフェースのいずれかを、操作技量のレベルに応じて選択可能とする。技量レベルごとの複数のヒューマンインタフェースを提供可能とすることで、エンジニアリングツールは、例えば初級レベルのユーザに対しては、入力操作の分かり易さを優先させたインタフェースを提供できる。また、エンジニアリングツールは、例えば上級レベルのユーザに対しては、高度な操作性かつ作業速度重視のインタフェースを提供できる。これにより、エンジニアリングツールは、操作技量のレベルが異なるユーザに対し、操作技量のレベルに応じた分かり易さと高度な操作性とを満足させることができるという効果を奏する。
図1は、実施の形態にかかるエンジニアリングツールにおける操作および処理を実現するための構成を示すブロック図である。 図2は、エンジニアリングツールによるヒューマンインタフェースの切り換えについて説明するフローチャートである。 図3は、マウスを使用する場合の操作画面の例を示す図である。 図4は、タッチパネルを使用する場合の操作画面の例を示す図である。 図5は、タイルメニューの表示について説明する図である。 図6は、入力補助機能について説明する図である。 図7は、操作補助機能について説明する図である。 図8は、複数のエンジニアリングツールにおけるヒューマンインタフェースの設定の共有について説明する図である。 図9は、ユーザごとのヒューマンインタフェースの設定の管理について説明する図である。 図10は、複数のエンジニアリングツールにおける、ネットワークを介したヒューマンインタフェースの設定の共有について説明する図である。 図11は、複数のエンジニアリングツールにおける、外部記録媒体を介したヒューマンインタフェースの設定の共有について説明する図である。
 以下に、本発明にかかるエンジニアリングツールの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態.
 図1は、実施の形態にかかるエンジニアリングツールにおける操作および処理を実現するための構成を示すブロック図である。エンジニアリングツール1は、PLCシステム等で動作させるシーケンスプログラムを編集するツールである。エンジニアリングツール1は、例えば、エンジニアリングツールソフトウェアがインストールされたパーソナルコンピュータ(PC)10などで実現される。
 PC10は、入力デバイス11および表示デバイス12を有する。PC10は、複数の入力デバイス11、例えば、タッチパネル13、マウス14、キーボード15を備える。表示デバイス12は、例えば、液晶ディスプレイである。表示デバイス12は、プログラム編集のための操作画面等を表示する。タッチパネル13は、液晶ディスプレイの上に配置されている。
 エンジニアリングツール1は、基本処理部2および表示処理部3を備える。基本処理部2は、入力デバイス11による入力操作に応じてプログラム編集の処理を実施する。表示処理部3は、基本処理部2によるプログラム編集の内容を操作画面に表示させるための処理を実施する。
 エンジニアリングツール1は、入力操作における操作技量のレベルに応じた複数のヒューマンインタフェースを提供する。本実施の形態では、以下、ヒューマンインタフェースを、適宜UI(user interface)と称することもある。
 複数のUIは、例えば、タッチパネル13主体のUI、マウス14主体のUI、キーボード15主体のUIとする。基本処理部2は、複数のUIとして、タッチパネル13、マウス14およびキーボード15による入力操作を受け付け可能とする。
 タッチパネル13による入力操作は、操作画面に現れるタッチスイッチを指などでタッチすることによる。タッチパネル13は、表示位置を目視で確認しながらタッチするものであるため、情報を比較的容易に入力でき、かつ操作の仕方が直感的に分かり易いものとして知られている。エンジニアリングツール1は、初級レベルのユーザを対象としてタッチパネル13主体のUIを用意している。
 タッチパネル13の操作画面では、指などによるタッチ位置が広範囲となることによる誤作動を想定して、タッチスイッチなどの表示を比較的大きくすることとなる。このため、タッチパネル13による入力操作の場合、一画面に表示可能な情報量が少なくなることで、画面を切り換える操作が多くなり易くなる。また、表示にしたがって操作を進めれば良いように、操作を助けるためのさまざまな情報を表示していくことになる。したがって、タッチパネル13主体のUIでは、プログラム編集の操作に関する知識が少ない場合や、プログラム編集の操作に慣れていない場合に適するように、入力操作の分かり易さが優先される。その一方で、タッチパネル13主体のUIは、高度かつ作業速度重視の操作を望む場合には不向きとなる。
 キーボード15は、適宜カスタマイズされたショートカット入力やコマンド入力等により、多様な情報を即座に入力することができる。キーボード15は、キー入力を駆使することで、高速な入力操作が可能となる。エンジニアリングツール1は、上級レベルのユーザを対象としてキーボード15主体のUIを用意している。
 キーボード15による入力操作の場合、プログラム編集の操作に関する高度な知識や、プログラム編集の操作に慣れていることが求められることになる。キーボード15主体のUIは、高度かつ作業速度重視の操作を望む場合に適する。その一方で、キーボード15主体のUIは、プログラム編集の操作に関する知識が少ない場合や、プログラム編集の操作に慣れていない場合には不向きとなる。
 エンジニアリングツール1は、中級レベルのユーザを対象としてマウス14主体のUIを用意している。エンジニアリングツール1は、入力操作の分かり易さと操作性の高さとが、タッチパネル13主体のUIとキーボード15主体のUIとの間に位置するものとして、マウス14主体のUIを採用している。
 エンジニアリングツール1は、例えば、自動切り換えモードにおいて、入力デバイス11を認識し、複数のUIのいずれかを自動的に選択可能とする。自動切り換えモードでは、エンジニアリングツール1は、複数のUIである入力デバイス11のいずれかがハードウェアであるPC10に接続されたことを基本処理部2が認識すると、接続された入力デバイス11に応じてUIを切り換える。ユーザは、ハードウェアへ接続する入力デバイス11を、自身の操作技量のレベルに応じて適宜選択可能とする。
 エンジニアリングツール1は、例えば、手動設定モードにおいて、複数のUIのいずれかをユーザが選択可能とする。手動設定モードでは、表示処理部3は、UIの選択を受け付ける選択画面を表示デバイス12に表示させる。選択画面には、例えば、各UIについて、適する操作技量のレベルについての説明、例えば、初心者向け、中級者向け、上級者向けなどの情報が表示される。ユーザは、自身の操作技量のレベルに応じて、選択画面からUIを適宜選択できる。
 各モードにてUIが選択されると、基本処理部2は、選択されたUIに対応する入力デバイス11による入力操作に応じた処理を実施する。表示処理部3は、選択されたUIに応じた操作画面を表示デバイス12に表示させる。
 図2は、エンジニアリングツールによるヒューマンインタフェースの切り換えについて説明するフローチャートである。基本処理部2は、自動切り換えモードが設定されているか否かを判断する(ステップS1)。
 自動切り換えモードが設定されている場合(ステップS1、Yes)において、入力デバイス11のいずれかがPC10に接続されたとする。基本処理部2は、入力デバイス11が接続されたことで、入力デバイス11の変更があったことを検知する(ステップS2、Yes)。なお、タッチパネル13を搭載するハードウェア、例えばタブレット端末等にエンジニアリングツール1がインストールされた場合、エンジニアリングツール1は、入力デバイス11がタッチパネル13であることを自動認識する。入力デバイス11の変更を検知していない場合(ステップS2、No)、基本処理部2は、入力デバイス11の変更を検知するまで待機する。
 エンジニアリングツール1は、PC10に接続された入力デバイス11に応じて、UIを切り換える(ステップS3)。これにより、エンジニアリングツール1は、UIの切り換えのための動作を終了する。
 自動切り換えモードが設定されていない場合(ステップS1、No)、基本処理部2は、手動切り換えモードが設定されていることを認識する。ユーザは、表示デバイス12における選択画面にしたがって、UIのいずれかを選択する。
 選択画面にてユーザがUIを設定すると(ステップS4、Yes)、エンジニアリングツール1は、選択画面における選択に応じてUIを切り換える(ステップS5)。選択画面におけるUIの設定が無い(ステップS4、No)場合、エンジニアリングツール1は、選択画面にてUIが新たに選択されるまで、それまでのUIを保持する。これにより、エンジニアリングツール1は、UIの切り換えのための動作を終了する。
 なお、エンジニアリングツール1は、初級レベルのUIにタッチパネル13、中級レベルのUIにマウス14、上級レベルのUIにキーボード15、というように、使用する入力デバイス11を完全に分ける必要は無いものとする。各UIでは、タッチパネル13、マウス14、キーボード15のそれぞれが、主体となる入力デバイス11として設定されていれば良く、タッチパネル13、マウス14、キーボード15を適宜組み合わせて使用可能であるものとする。
 次に、図3から図7を参照して、各UIにおける入力操作および操作画面の具体例について説明する。図3は、マウスを使用する場合の操作画面の例を示す図である。図4は、タッチパネルを使用する場合の操作画面の例を示す図である。
 図3には、マウス用操作画面21のうちのリボン表示の例を示している。リボン表示には、ファイル操作のためのメニューバーや、各種編集操作のためのアイコンなどが含まれる。メニューやアイコンなどのパーツは、マウスポインタによってそれぞれを特定可能なサイズ、例えば、通常の文書作成ソフトウェアによる画面のメニューバーやアイコンなどと同様のサイズとされている。
 図4には、タッチパネル用操作画面22のうちのリボン表示の例を示している。メニューやアイコンなどのパーツは、指によるタッチポイントが広範囲となり易いことから、マウス用操作画面21の場合より大きいサイズとされている。各パーツが大型となるほど、画面内に一度に並べられるパーツの数が少なくなる。このため、タッチパネル用操作画面22は、タブの選択による表示の切り換えや、ダイアログを開くなどの措置が多用されることとなる。
 図5は、タイルメニューの表示について説明する図である。タイルメニュー24は、主に、初心者向けのタッチパネル用操作画面22に適している。例えば、タッチパネル用操作画面22の右端に示されたタブ23をタッチしたまま左側へスライドさせると、タイルメニュー24は、タッチパネル用操作画面22を覆うようにして表示される。
 初級レベルのUIでは、プログラム編集の各機能をタイルメニュー24として用意しておくことで、ユーザは、簡単な操作によって各機能を読み出すことができる。タイルメニュー24の内容は、例えば、ユーザが設定することができる。タイルメニュー24の内容は、例えば、機能の使用頻度を基本処理部2がランキングし、自動で設定することとしても良い。エンジニアリングツール1は、タイルメニュー24の内容の設定を手動および自動のいずれとするかを、設定モードとして選択可能としても良い。
 上級レベルのUIでは、プログラム編集の各機能を、キーボード15でのキー入力によって読み出すことができる。基本処理部2は、例えば、各機能にキーボードショートカットを割り当て可能とする。ショートカットキーは、例えば、ユーザが任意に設定することができる。ユーザは、自身が覚え易いショートカットキーを使用して、プログラム編集を実施することができる。
 例えば、モニタモードの起動には、<Ctrl(コントロールキー)+“M”“O”>、次のタブへのタブ切り換えには<Ctrl+“N”“E”>、前のタブへのタブ切り換えには<Ctrl+“B”“A”>というように、ユーザは、ショートカットキーを任意に設定することができる。これにより、ユーザは、プログラム編集が効率良く進められるように、エンジニアリングツール1における入力操作を自在にカスタマイズすることができる。
 図6は、入力補助機能について説明する図である。ここでは、デバイスおよびラベルの情報を入力するため入力補助機能を例として説明する。表示処理部3は、デバイスおよびラベルの情報についての入力補助のために、表示デバイス12にデバイス/ラベル設定画面27を表示させる。デバイス/ラベル設定画面27は、例えば、中級者向けのマウス用操作画面21において、ダイアログとして表示される。
 マウス用操作画面21では、例えば、部品パレット25から回路表示画面26へ部品記号をドラッグアンドドロップすることで、回路表示画面26に部品を貼り付けていく。回路表示画面26に部品が貼り付けられると、表示処理部3は、ダイアログとして、デバイス/ラベル設定画面27を表示する。デバイス/ラベル設定画面27は、デバイスおよびラベルを設定するための入力操作を受け付ける。
 デバイス/ラベル設定画面27では、デバイスを表す文字列の文字を1つずつ変更可能とされている。各文字は、ボタンのクリックによって順次変化する。ユーザは、ラジオボタンで「デバイス」を選択してから、ボタン操作により各文字を所望のデバイスを示す文字列に調節し、「決定」をクリックすることでデバイスを設定する。
 デバイス/ラベル設定画面27では、候補となるラベルの名称を一覧表示する。ユーザは、ラジオボタンで「ラベル」を選択してから、候補の中から所望のラベルを選択し、「決定」をクリックすることでラベルを設定する。これにより、ユーザは、キーボード15や画面上のソフトキーボードでの文字入力によらず、デバイスおよびラベルを設定することができる。なお、デバイス/ラベル設定画面27は、初心者向けのタッチパネル用操作画面22に適用しても良い。
 図7は、操作補助機能について説明する図である。例えば、マウス用操作画面21において、ユーザは、入力操作に迷いが生じたとき、操作を確定させること無くマウスポインタをしばらく行き来させることがある。基本処理部2は、例えばマウス14によるクリックがなされないまま、マウスポインタが一定時間以上移動した場合に、操作補助画面28の表示を表示処理部3に指示する。基本処理部2は、例えば、マウスポインタが移動している時間を計測する。基本処理部2は、計測結果が所定の閾値を超えたことに応じて、操作補助画面28の表示を指示する。
 表示処理部3は、基本処理部2からの指示に応じて、表示デバイス12に操作補助画面28を表示させる。操作補助画面28は、例えば、初心者向けのUIを適用する場合に、ダイアログとして表示される。
 操作補助画面28では、プログラム編集における各機能名を提示するとともに、機能の使い方を説明するダイアログへのリンクを機能ごとに表示する。これにより、ユーザは、入力操作に迷ったときに、自動的に表示される操作補助画面28の参照によって、次の操作を継続することができる。
 エンジニアリングツール1は、プログラム編集の機能ごとに、ユーザの技量レベルに応じたUIを設定可能としても良い。エンジニアリングツール1は、例えば、モニタ機能についてはタッチパネル13主体のUI、回路編集機能についてはキーボード15主体のUI、PCパラメータ設定機能についてはマウス14主体のUI、というように設定できる。基本処理部2は、各機能に対し設定されているUIを、機能と関連付けて保持する。
 この例において、プログラム編集においてユーザがモニタ機能を選択すると、エンジニアリングツール1は、モニタ機能に関連付けられているタッチパネル13主体のUIを読み出す。ユーザが回路編集機能を選択すると、エンジニアリングツール1は、回路編集機能に関連付けられているキーボード15主体のUIを読み出す。ユーザがPCパラメータ設定機能を選択すると、エンジニアリングツール1は、マウス14主体のUIを読み出す。
 このように、機能ごとにUIを設定可能とすることで、ユーザは、プログラム編集の機能ごとのスキルや慣れ度合いに応じて、各機能での入力操作の方法を自由にカスタマイズすることができる。
 エンジニアリングツール1は、プログラム編集の全体あるいは機能ごとのUIの設定を、一定の期間おきに自動的に保存することとしても良い。例えば、プログラム編集の作業をいったん中断してから再開するときに、エンジニアリングツール1は、保存しているUIを読み出す。これにより、ユーザが、UIをいったん選択してから保存のための操作を行わなくても、エンジニアリングツール1にUIの設定を保存しておくことができる。
 また、エンジニアリングツール1は、UIの設定を履歴として蓄積していくこととしても良い。例えば、ユーザは、UIの設定の履歴を記録したログファイルを、ログ管理のためのオプション操作によって生成させる。エンジニアリングツール1は、履歴から復元ポイントが指定されることで、復元ポイントの時点におけるUIの設定を読み出す。これにより、ユーザは、カスタマイズしたUIを、過去に遡って復元させることができる。
 なお、UIの設定を自動で保存するか否かは、ユーザの設定行為により切り換え可能としても良い。これにより、ユーザは、機能ごとのUIの設定を自動保存とするか否かを自由に選択することができる。
 エンジニアリングツール1は、プログラム編集の作業を中断するごとに、機能ごとのUIの設定を保存することとしても良い。これにより、エンジニアリングツール1は、プログラム編集の作業を中断する前のUIの設定を、作業再開後もそのまま継続させることができる。
 ユーザの技量レベルに応じたUIの設定は、複数のエンジニアリングツール1の間で共有可能としても良い。図8は、複数のエンジニアリングツールにおけるヒューマンインタフェースの設定の共有について説明する図である。
 例えば、3つのPC10-1,10-2,10-3は、ケーブル等を介して、互いに通信可能に接続されているとする。3つのPC10-1,10-2,10-3には、それぞれエンジニアリングツール1がインストールされている。3つのPC10-1,10-2,10-3のいずれかは、ユーザごとのUIの設定を保持する。
 例えば、PC10-1のエンジニアリングツール1が、ユーザAに対する設定、ユーザBに対する設定・・・を保持しているとする。この場合に、ユーザAがPC10-2のエンジニアリングツール1によってプログラム編集を行う場合、PC10-2のエンジニアリングツール1は、通信を介して、PC10-1のエンジニアリングツール1から、ユーザAに対するUIの設定を読み出す。
 このように、ユーザが、3つのPC10-1,10-2,10-3のいずれを使用してプログラム編集を行う場合も、エンジニアリングツール1は、当該ユーザに対し設定されている共通のUIを読み出す。各ユーザは、3つのPC10-1,10-2,10-3のいずれによる作業の場合も、自身の技量レベルに応じたUIにおいて、入力操作を実施できる。
 3つのPC10-1,10-2,10-3にインストールされているエンジニアリングツール1はいずれも互いに同一の製品であるほか、エンジニアリングツール1の少なくともいずれかが他とは異なる製品であっても良い。エンジニアリングツール1は、互いに同一の製品である場合のみならず、互いに異なる製品である場合も、UIの設定を共有することとしても良い。これにより、ユーザは、エンジニアリングツール1の製品ごとにUIを設定する手間を省くことができる。異なる製品とは、製品のシリーズやバージョンなどのいずれかが異なる場合を含むものとする。
 図9は、ユーザごとのヒューマンインタフェースの設定の管理について説明する図である。記憶領域30にてUIの設定を保持するエンジニアリングツール1は、UIの設定内容をユーザ単位のファイルとして管理する。また、UIの設定を保持するエンジニアリングツール1は、記憶領域30にて設定管理ファイル31を保持する。設定管理ファイル31には、記憶領域30のうちユーザごとのファイルを格納しているファイル場所のアドレスが、認証情報であるユーザ名およびパスワードに関連付けられている。
 例えば、ユーザAが、PC10-2のエンジニアリングツール1において、プログラム編集の開始に際してログインを実施したとする。ユーザAは、表示デバイス12に表示されたログイン画面29に、自身のユーザ名(ID)「A」およびパスワード「a_@v」を入力する。
 UIの設定および設定管理ファイル31が、PC10-1のエンジニアリングツール1の記憶領域30に保持されているとする。ログイン画面29のログインボタンを押下することでユーザAがログインを実行すると、PC10-2のエンジニアリングツール1は、PC10-1のエンジニアリングツール1内の設定管理ファイル31へアクセスする。
 PC10-2のエンジニアリングツール1は、ユーザ名「A」、パスワード「a_@v」に対応するファイル場所のアドレス「\\serv\propaties\A.cnf」を、設定管理ファイル31から取得する。PC10-2のエンジニアリングツール1は、取得したアドレスに格納されているユーザAの設定情報を記憶領域30から読み出す。
 これにより、エンジニアリングツール1は、ユーザ認証を受け付けるとともに、ユーザごとのUIの設定を読み出すことができる。また、エンジニアリングツール1は、ユーザごとのUIの設定を認証情報とともに管理し、認証情報の入力に応じてUIの設定を読み出し可能とすることで、セキュリティの堅牢性を高めることができる。
 例えば、PC10-2のエンジニアリングツール1に、ユーザBに対するUIがデフォルトとして設定されているとする。ユーザAがPC10-2のエンジニアリングツール1をプログラム編集に使用する場合、PC10-2のエンジニアリングツール1は、ユーザAに対するUIを読み出して設定することができる。この場合に、ユーザAがPC10-2のエンジニアリングツール1を使用するプログラム編集を完了してから、PC10-2のエンジニアリングツール1は、元のユーザBに対するUIへ、設定を自動的に戻すこととしても良い。これにより、エンジニアリングツール1は、UIの設定がデフォルトから一時的に変更された場合に、容易に元の設定へと戻すことができる。
 複数のエンジニアリングツール1は、ユーザの技量レベルに応じたUIの設定を、ネットワークを介して共有することとしても良い。図10は、複数のエンジニアリングツールにおける、ネットワークを介したヒューマンインタフェースの設定の共有について説明する図である。UIの設定は、インターネット等のネットワーク32に接続されているハードウェアのいずれかに格納されている。ネットワーク32に接続されている各ハードウェアのエンジニアリングツール1は、エンジニアリングシステムを構成する。
 ネットワーク32に接続可能なPC10-1,10-2および携帯端末10-4には、それぞれエンジニアリングツール1がインストールされている。エンジニアリングツール1は、例えば、ユーザ認証とともにUIの設定を読み出す。ユーザは、いずれのエンジニアリングツール1からも、ネットワーク32を介して、自身についてのUIの設定を読み出すことができる。
 これにより、エンジニアリングツール1は、ネットワーク32に接続可能ないずれのハードウェアへも、ユーザごとのUIの設定を提供することができる。エンジニアリングツール1は、互いに同一の製品である場合のみならず、互いに異なる製品である場合も、ネットワーク32を通じてUIの設定を共有することとしても良い。
 複数のエンジニアリングツール1は、ユーザの技量レベルに応じたUIの設定を、コンピュータにて読み取り可能な外部記録媒体を介して共有可能としても良い。図11は、複数のエンジニアリングツールにおける、外部記録媒体を介したヒューマンインタフェースの設定の共有について説明する図である。
 外部記録媒体であるUSBメモリ33は、UIの設定を保持している。USBメモリ33を接続可能なPC10-1,10-2には、それぞれエンジニアリングツール1がインストールされている。エンジニアリングツール1は、PC10-1,10-2にUSBメモリ33が接続されると、USBメモリ33からUIの設定を読み出す。
 ユーザは、PC10-1,10-2のいずれでプログラム編集を行う場合も、PC10-1,10-2にUSBメモリ33を接続することで、自身についてのUIの設定を読み出すことができる。これにより、エンジニアリングツール1は、互いに直接通信可能には接続されていないハードウェア同士でも、ユーザごとのUIの設定を共有することができる。
 なお、エンジニアリングツール1は、UIの設定の共有にUSBメモリ33を使用するものに限られず、いずれの外部記録媒体を使用することとしても良い。エンジニアリングツール1は、ハードウェアに外部記録媒体を接続してから、ユーザ認証がなされた場合に限り、外部記録媒体からUIの設定を読み出すこととしても良い。これにより、エンジニアリングツール1は、複数のユーザについてのUIの設定を外部記録媒体が保持している場合に、ユーザごとのUIの設定を読み出すことができる。また、エンジニアリングツール1は、ユーザごとのUIの設定を認証情報とともに管理し、認証情報の入力に応じてUIの設定を読み出し可能とすることで、セキュリティの堅牢性を高めることができる。
 エンジニアリングツール1は、互いに同一の製品である場合のみならず、互いに異なる製品である場合も、外部記録媒体を通じてUIの設定を共有することとしても良い。
 本発明のエンジニアリングツール1によると、ユーザは、エンジニアリングツール1が提供可能とする複数のUIから、自身の操作技量のレベルに応じたUIを任意に設定することができる。例えば、エンジニアリングツール1は、初級レベルのユーザに対しては、容易で理解し易い入力操作を可能とするUIを提供することができる。また、エンジニアリングツール1は、プログラム編集に熟練したユーザに対しては、高度かつ作業速度重視の編集作業に適したUIを提供することができる。これにより、エンジニアリングツール1は、操作技量のレベルが異なるユーザに対し、操作技量のレベルに応じた分かり易さと高度な操作性とを満足させることができるという効果を奏する。
 1 エンジニアリングツール、2 基本処理部、3 表示処理部、10 PC、11 入力デバイス、12 表示デバイス、13 タッチパネル、14 マウス、15 キーボード、21 マウス用操作画面、22 タッチパネル用操作画面、23 タブ、24 タイルメニュー、25 部品パレット、26 回路表示画面、27 デバイス/ラベル設定画面、28 操作補助画面、29 ログイン画面、30 記憶領域、31 設定管理ファイル、32 ネットワーク、33 USBメモリ。

Claims (10)

  1.  入力デバイスによる入力操作に応じてプログラム編集の処理を実施する基本処理部と、
     前記プログラム編集のための操作画面を表示デバイスにおいて表示させる表示処理部と、を有し、
     前記基本処理部は、複数のヒューマンインタフェースとして、複数の入力デバイスによる前記入力操作を受け付け可能であって、
     前記複数のヒューマンインタフェースから、前記入力操作における操作技量のレベルに応じたヒューマンインタフェースが選択されると、前記基本処理部は、選択された前記ヒューマンインタフェースに対応する入力デバイスによる前記入力操作に応じた処理を実施し、前記表示処理部は、選択された前記ヒューマンインタフェースに応じた前記操作画面を前記表示デバイスに表示させることを特徴とするエンジニアリングツール。
  2.  前記表示処理部は、前記ヒューマンインタフェースの選択を受け付ける選択画面を前記表示デバイスに表示させることを特徴とする請求項1に記載のエンジニアリングツール。
  3.  前記複数の入力デバイスのいずれかがハードウェアに接続されたことを前記基本処理部が検知すると、接続された前記入力デバイスに応じて前記ヒューマンインタフェースが切り換えられることを特徴とする請求項1に記載のエンジニアリングツール。
  4.  前記プログラム編集の機能ごとに、前記ヒューマンインタフェースを設定可能とすることを特徴とする請求項1に記載のエンジニアリングツール。
  5.  前記ヒューマンインタフェースの設定を、一定の期間おきに保存することを特徴とする請求項1から4のいずれか一つに記載のエンジニアリングツール。
  6.  複数のエンジニアリングツールの間で、前記ヒューマンインタフェースの設定を共有可能とすることを特徴とする請求項1から5のいずれか一つに記載のエンジニアリングツール。
  7.  前記ヒューマンインタフェースの設定が、ユーザの認証情報とともに保持され、前記認証情報が入力されたことに応じて、入力された前記認証情報に対応する前記ヒューマンインタフェースの設定を読み出すことを特徴とする請求項6に記載のエンジニアリングツール。
  8.  前記エンジニアリングツールがインストールされている複数のハードウェアがネットワークを介して接続され、前記ネットワークに接続されているハードウェアのいずれかが、前記ヒューマンインタフェースの設定を保持することを特徴とする請求項6または7に記載のエンジニアリングツール。
  9.  前記ヒューマンインタフェースの設定を、外部記憶媒体を介して、複数の前記エンジニアリングツールの間で共有することを特徴とする請求項6または7に記載のエンジニアリングツール。
  10.  前記複数の入力デバイスは、タッチパネル、マウスおよびキーボードを含むことを特徴とする請求項1から9のいずれか一つに記載のエンジニアリングツール。
PCT/JP2013/056357 2013-03-07 2013-03-07 エンジニアリングツール WO2014136245A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
PCT/JP2013/056357 WO2014136245A1 (ja) 2013-03-07 2013-03-07 エンジニアリングツール
CN201380074153.4A CN105027059B (zh) 2013-03-07 2013-03-07 工程设计工具
DE112013006644.0T DE112013006644T5 (de) 2013-03-07 2013-03-07 Engineering-Tool
US14/769,319 US9639249B2 (en) 2013-03-07 2013-03-07 Engineering tool providing human interface among plurality of human interfaces according to user skill level
KR1020157027283A KR20150123922A (ko) 2013-03-07 2013-03-07 엔지니어링 툴
JP2013540163A JP5576572B1 (ja) 2013-03-07 2013-03-07 エンジニアリングツール
TW102127742A TWI494723B (zh) 2013-03-07 2013-08-02 工程工具

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/056357 WO2014136245A1 (ja) 2013-03-07 2013-03-07 エンジニアリングツール

Publications (1)

Publication Number Publication Date
WO2014136245A1 true WO2014136245A1 (ja) 2014-09-12

Family

ID=51490803

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/056357 WO2014136245A1 (ja) 2013-03-07 2013-03-07 エンジニアリングツール

Country Status (7)

Country Link
US (1) US9639249B2 (ja)
JP (1) JP5576572B1 (ja)
KR (1) KR20150123922A (ja)
CN (1) CN105027059B (ja)
DE (1) DE112013006644T5 (ja)
TW (1) TWI494723B (ja)
WO (1) WO2014136245A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI609313B (zh) * 2016-02-24 2017-12-21 三菱電機股份有限公司 工程工具程式及工程工具
EP3462312B1 (en) * 2017-09-29 2022-08-17 ARM Limited Permitting unaborted processing of transaction after exception mask update instruction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231627A (ja) * 2005-02-23 2006-09-07 Ricoh Co Ltd 画像形成装置
JP2008287614A (ja) * 2007-05-21 2008-11-27 Hitachi Ltd 画面出力設定方法、情報処理装置及び情報処理システム
JP2011096167A (ja) * 2009-11-02 2011-05-12 Murata Machinery Ltd グラフィカル・ユーザ・インターフェース装置
JP2011128941A (ja) * 2009-12-18 2011-06-30 Hitachi Ltd Guiカスタマイズ方法、システム及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228493A (ja) 1997-02-14 1998-08-25 Matsushita Electric Ind Co Ltd 設計支援装置
JP4207105B2 (ja) 2001-03-15 2009-01-14 オムロン株式会社 システム
JP2004062223A (ja) 2002-07-24 2004-02-26 Yaskawa Electric Corp プログラマブルコントローラのプログラミング装置。
JP2005202774A (ja) 2004-01-16 2005-07-28 Mitsubishi Electric Corp 生産設備保全システム、生産設備用制御装置および情報処理装置
JP2007304448A (ja) 2006-05-13 2007-11-22 Sharp Corp 表示装置、方法およびプログラム
US8451232B2 (en) * 2007-01-07 2013-05-28 Apple Inc. Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
US8146003B2 (en) * 2007-08-17 2012-03-27 Microsoft Corporation Efficient text input for game controllers and handheld devices
US8726190B2 (en) * 2007-09-28 2014-05-13 Adobe Systems Incorporated Automatically transformed graphical user interface
CN101836179A (zh) 2007-10-26 2010-09-15 日本电气株式会社 电子设备、电子设备控制方法和包含电子设备控制程序的存储介质
US8591334B2 (en) 2010-06-03 2013-11-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
US8382591B2 (en) 2010-06-03 2013-02-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
DE102011007183A1 (de) 2011-04-12 2012-10-18 Wafios Ag Verfahren und System zur Programmierung der Steuerung einer mehrachsigen Umformmaschine sowie Umformmaschine
JPWO2012144140A1 (ja) 2011-04-19 2014-07-28 日本電気株式会社 UI(UserInterface)作成支援装置、UI作成支援方法及びプログラム
WO2012144139A1 (ja) 2011-04-21 2012-10-26 日本電気株式会社 UI(User Interface)作成支援装置、UI作成支援方法及びプログラム
US20120284631A1 (en) * 2011-05-02 2012-11-08 German Lancioni Methods to adapt user interfaces and input controls
TWM436864U (en) 2012-03-07 2012-09-01 Ezkey Corp Functional interface conversion input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231627A (ja) * 2005-02-23 2006-09-07 Ricoh Co Ltd 画像形成装置
JP2008287614A (ja) * 2007-05-21 2008-11-27 Hitachi Ltd 画面出力設定方法、情報処理装置及び情報処理システム
JP2011096167A (ja) * 2009-11-02 2011-05-12 Murata Machinery Ltd グラフィカル・ユーザ・インターフェース装置
JP2011128941A (ja) * 2009-12-18 2011-06-30 Hitachi Ltd Guiカスタマイズ方法、システム及びプログラム

Also Published As

Publication number Publication date
US20150378543A1 (en) 2015-12-31
CN105027059B (zh) 2017-09-22
JP5576572B1 (ja) 2014-08-20
TW201435526A (zh) 2014-09-16
KR20150123922A (ko) 2015-11-04
DE112013006644T5 (de) 2015-11-05
JPWO2014136245A1 (ja) 2017-02-09
US9639249B2 (en) 2017-05-02
TWI494723B (zh) 2015-08-01
CN105027059A (zh) 2015-11-04

Similar Documents

Publication Publication Date Title
WO2016078441A1 (zh) 图标管理的方法、装置及终端
JP2014139792A (ja) 視覚的フィードバック・ディスプレイ
US20170160861A1 (en) Method and apparatus for operating a screen of a touch screen device
JP2012141947A (ja) タッチスクリーン端末機におけるマウス右クリック機能の提供方法及び装置
JP6458751B2 (ja) 表示制御装置
JP4888254B2 (ja) 幾何学習補助装置およびその制御プログラム
US9870122B2 (en) Graphical user interface for rearranging icons
JP5222717B2 (ja) 表示ウインドウ選択方法、表示ウインドウ選択プログラムおよび端末装置
WO2016183912A1 (zh) 菜单布局方法及装置
JP2014232379A (ja) 表示装置、画像アイテムの移動装置、画像アイテムの移動方法、及びプログラム。
JP5576572B1 (ja) エンジニアリングツール
EP2899621B1 (en) Touch display apparatus and operating method thereof
WO2014106911A1 (ja) 情報処理装置及び情報更新プログラム
JP6188405B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP2022133902A (ja) 情報処理装置及び情報処理プログラム
CN106775237B (zh) 电子设备的控制方法及控制装置
JP6419270B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP2008293392A (ja) ラダープログラミングエディタ
JP2017157057A (ja) 表示制御装置
JP6341171B2 (ja) 電子端末、及びその制御方法とプログラム
JP6344355B2 (ja) 電子端末、及びその制御方法とプログラム
CN116627281A (zh) 一种交互方法、装置、设备及存储介质
JP2015079355A (ja) 電子機器、電子機器の制御方法及びプログラム
JP5704212B2 (ja) タッチ表示装置及びプログラム
TW201519072A (zh) 依據滑動手勢切換程序執行之觸控裝置及其方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380074153.4

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2013540163

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13876979

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14769319

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112013006644

Country of ref document: DE

Ref document number: 1120130066440

Country of ref document: DE

ENP Entry into the national phase

Ref document number: 20157027283

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 13876979

Country of ref document: EP

Kind code of ref document: A1