WO2021117619A1 - 映像確認用コンピュータ - Google Patents

映像確認用コンピュータ Download PDF

Info

Publication number
WO2021117619A1
WO2021117619A1 PCT/JP2020/045186 JP2020045186W WO2021117619A1 WO 2021117619 A1 WO2021117619 A1 WO 2021117619A1 JP 2020045186 W JP2020045186 W JP 2020045186W WO 2021117619 A1 WO2021117619 A1 WO 2021117619A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
robot
computer
displayed
video
Prior art date
Application number
PCT/JP2020/045186
Other languages
English (en)
French (fr)
Inventor
北野 真也
敦史 中矢
雅也 吉田
一夫 藤森
拓之 岡田
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to KR1020227021747A priority Critical patent/KR20220100983A/ko
Priority to US17/783,297 priority patent/US20230019019A1/en
Priority to CN202080085828.5A priority patent/CN114830320A/zh
Publication of WO2021117619A1 publication Critical patent/WO2021117619A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4063Monitoring general control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Definitions

  • the present invention relates to a video confirmation computer for confirming a video relating to the operation of a robot.
  • a robot has been used to convey a substrate such as a wafer.
  • the robot of Patent Document 1 includes a controller for controlling the movement of the robot.
  • the robot may generate an error due to various causes. In this case, it is necessary to perform maintenance work according to the error that occurs. In wafer processing equipment and the like, in order to realize a high level of information management, it is often the case that taking out data to another place and communication with an external network are restricted. In such a situation, it is required that the cause of the robot error can be quickly identified and eliminated.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to enable an operator to quickly and satisfactorily grasp the situation, for example, when an error occurs in a robot.
  • a computer for video confirmation having the following configuration. That is, this image confirmation computer is used to confirm an image related to the operation of the robot.
  • the video confirmation computer includes a storage unit and a calculation unit.
  • the storage unit can store information.
  • the calculation unit outputs information based on the stored contents of the storage unit.
  • the storage unit stores information on the position of the electric motor and information on video.
  • the electric motor drives the link body of the robot. Information on the position of the electric motor is received from the controller of the robot.
  • the information of the video is acquired by a camera attached to the robot.
  • the calculation unit causes at least one of the own machine and a computer connected to the own machine to display the model area and the video area side by side. In the model area, a two-dimensional or three-dimensional model that reproduces the posture of the robot is displayed by computer graphics. The image is displayed in the image area.
  • the plan sectional view which shows a part of the semiconductor processing equipment to which the image confirmation computer which concerns on one Embodiment of this invention is applied.
  • a side sectional view showing a part of a semiconductor processing facility cut out.
  • FIG. 1 is a plan sectional view showing a part of a semiconductor processing facility 20 to which one embodiment of the present invention is applied.
  • FIG. 2 is a side sectional view showing a part of the semiconductor processing equipment 20 cut out.
  • FIGS. 1 and 2 the state in which the robot 27 is moved in various ways is shown by a chain double-dashed line.
  • the semiconductor processing equipment 20 performs a predetermined process on the wafer 24 to be the substrate to be processed.
  • the wafer 24 is a semiconductor wafer.
  • Examples of the treatment applied to the wafer 24 include various process treatments such as heat treatment, impurity introduction treatment, thin film formation treatment, lithography treatment, cleaning treatment, and flattening treatment.
  • substrate processing other than the above-mentioned substrate processing may be performed.
  • the semiconductor processing equipment 20 includes a wafer processing device 22 and a wafer transfer device 23.
  • the semiconductor processing equipment 20 is defined in advance by, for example, the SEMI standard.
  • SEMI is an abbreviation for Semiconductor Equipment and Materials International.
  • the hoop 25 and the hoop opener 26 for opening and closing the hoop 25 follow the specifications of SEMI standards E47.1, E15.1, E57, E62, E63, E84 and the like.
  • the configuration of the semiconductor processing equipment 20 may differ from the SEMI standard.
  • the wafer processing device 22 is formed with a processing space 30 filled with a predetermined gas.
  • the wafer processing apparatus 22 performs the above-mentioned processing on the wafer 24 in the processing space 30.
  • the wafer processing device 22 includes a processing device main body that processes the wafer 24, a processing space forming unit that forms the processing space 30, a transport device that conveys the wafer 24 in the processing space 30, and an atmosphere filled with the processing space 30. It is provided with an adjusting device for controlling the gas.
  • the adjusting device is realized by a fan filter unit or the like.
  • the wafer transfer device 23 takes out the wafer 24 before processing from the hoop 25 and supplies it to the wafer processing device 22, and also takes out the processed wafer 24 from the wafer processing device 22 and re-accommodates it in the hoop 25.
  • the wafer transfer device 23 functions as a front-end module device (Equipment Front End Module; EFEM).
  • EFEM Equipment Front End Module
  • the wafer transfer device 23 serves as an interface unit for transferring the wafer 24 between the hoop 25 and the wafer processing device 22.
  • the wafer 24 passes through a highly clean preparation space 29 filled with a predetermined atmospheric gas while moving between the space in the hoop 25 and the processing space 30 of the wafer processing apparatus 22.
  • the preparation space 29 is a closed space where contamination control is performed.
  • suspended fine particles in the air are controlled below a limited cleanliness level, and environmental conditions such as temperature, humidity, and pressure are also controlled as necessary.
  • the processing space 30 and the preparation space 29 are maintained at a predetermined cleanliness so as not to adversely affect the processing of the wafer 24.
  • As the degree of cleanliness for example, CLASS1 defined by ISO (International Organization for Standardization) is adopted.
  • the robot 27 functions as a wafer transfer robot.
  • the robot 27 is realized by a SCARA type horizontal articulated robot.
  • SCARA is an abbreviation for Selective Company Assist Robot Arm.
  • the robot 27 is arranged in the preparation space 29.
  • the robot 27 includes a base 41, a robot arm 42, a vertical drive actuator 43a, a horizontal drive actuator 43b, and a controller 44.
  • the base 41 functions as a base member that supports the robot arm 42.
  • a robot arm 42 is attached to the upper surface of the base 41.
  • the robot arm 42 has a link structure including a plurality of link bodies that are sequentially connected in the direction from the base end portion to the tip end portion.
  • a robot hand 45 is provided at the tip of the robot arm 42.
  • the robot hand 45 can hold and release the wafer 24.
  • the vertical drive actuator 43a displaces the robot arm 42 in the vertical direction.
  • the vertical drive actuator 43a is configured as, for example, an electric motor.
  • the height of the robot hand 45 can be changed by moving the robot arm 42 in the vertical direction.
  • the horizontal drive actuator 43b individually rotates each link body of the robot arm 42 around the corresponding joint axis.
  • the horizontal drive actuator 43b is configured as, for example, an electric motor.
  • the robot hand 45 can be moved in the horizontal plane by rotating each link body around the joint axis in the vertical direction.
  • the controller 44 controls the vertical drive actuator 43a and the horizontal drive actuator 43b in accordance with a predetermined operation program or a movement command input from the user, and moves the robot hand 45 to a predetermined position.
  • the controller 44 includes a storage circuit 46, an arithmetic circuit 47, and an output device 48.
  • the storage circuit 46 stores a predetermined program and various data.
  • the arithmetic circuit 47 performs arithmetic processing according to the program.
  • the output device 48 outputs a control signal to the vertical drive actuator 43a and the horizontal drive actuator 43b based on the calculation result of the calculation circuit 47.
  • the storage circuit 46 is realized by, for example, a RAM, a ROM, an HDD, or the like.
  • the arithmetic circuit 47 is realized by, for example, a CPU.
  • the semiconductor processing equipment 20 includes a host controller 61.
  • the host controller 61 transmits a command for executing the semiconductor processing process to various devices constituting the semiconductor processing facility 20.
  • the upper controller 61 is connected to the above-mentioned controller 44 included in the robot 27 by wire or wirelessly.
  • the host controller 61 transmits a command to the controller 44 so that the robot 27 performs a required operation at a required timing.
  • the controller 44 controls the robot 27 according to a command received from the host controller 61.
  • the controller 44 transmits information about the error to the host controller 61.
  • the program for the controller 44 to control the robot 27 is composed of a plurality of modules.
  • the module refers to a part of a program for realizing a certain operation unit by the robot 27.
  • the operation unit include an operation of placing the wafer 24 held by the robot hand 45 in a predetermined position, an operation of holding the wafer 24 placed in the predetermined position by the robot hand 45, and the like. However, it is not limited to this.
  • the vertical drive actuator 43a and the horizontal drive actuator 43b are each configured as an electric motor.
  • the electric motor has a known configuration, and is not shown, but includes a motor drive circuit, a motor body, a rotation position sensor, and a current sensor.
  • the motor body includes a stator, a rotor and an output shaft.
  • the controller 44 supplies a current to the motor drive circuit via the power supply circuit so that the electric motor performs the desired operation. As a result, the output shaft of the electric motor rotates according to the flowing current.
  • the current flowing through the motor drive circuit is determined by the target value of the operation of the electric motor and the measured value of the operation.
  • a target value of the operation of the electric motor for example, a target value related to a rotation position, a rotation speed, or a rotation acceleration can be mentioned.
  • the measured value for example, a measured value relating to a rotational position, a rotational speed, or a rotational acceleration can be mentioned.
  • a control law such as a feedback control law or an adaptive control law may be used.
  • the camera 62 is fixed to the link body to which the robot hand 45 is fixed in the robot arm 42. As shown in FIG. 3, the camera 62 is connected to the video confirmation computer 65 via a network.
  • the video confirmation computer 65 can be, for example, a mobile terminal, a personal computer, or the like.
  • the semiconductor processing equipment 20 is provided with a camera 63 for photographing the robot 27.
  • the camera 63 is connected to the controller 44 by wire or wirelessly.
  • This computer may be referred to as a coping computer 70.
  • the host controller 61 also serves as the coping computer 70.
  • the video confirmation computer 65 includes a storage circuit (storage unit) 66 and an arithmetic circuit (calculation unit) 67.
  • the storage circuit 66 is realized by, for example, a RAM, a ROM, an HDD, or the like.
  • the arithmetic circuit 67 is realized by, for example, a CPU.
  • the information shown in the following (1) to (6) is stored in the storage circuit 66 of the video confirmation computer 65 and the storage circuit 46 of the controller 44 (hereinafter, simply referred to as a storage circuit). These memory operations may be performed continuously or discretely at intervals.
  • Information about images obtained by the cameras 62 and 63 (2) Information about the signal received by the controller 44 from the host controller 61 and the signal transmitted by the controller 44 to the host controller 61 (communication log information). (3) Information about the program executed by the controller 44 to control the robot 27 (4) Current value, position, speed, acceleration (including negative acceleration; the same shall apply hereinafter) and position deviation of the electric motor included in the robot 27. , Velocity deviation, and acceleration deviation (5) Information on output signals from various sensors (for example, floodlight / shading sensor, piston position sensor of pneumatic actuator, pressure sensor, valve position sensor of solenoid valve) possessed by the robot 27. (6) Information regarding input signals to various devices (for example, solenoid valves) possessed by the robot 27.
  • the current value of the electric motor is measured by a current sensor provided in the motor drive circuit.
  • the position of the electric motor can be obtained based on the measured value of the rotation position sensor provided in the electric motor.
  • the speed and acceleration of the electric motor can be obtained by time-differentiating the measured values of the rotational position sensor.
  • the position deviation, velocity deviation, and acceleration deviation can be obtained by calculating the difference between the above-mentioned position, velocity, and acceleration and the target position, target speed, and target acceleration.
  • a web server application and a database application are pre-installed in the controller 44, and the program is stored in the above-mentioned storage circuit 46.
  • the video confirmation computer 65 can display the status confirmation screen 71 as shown in FIG. 4 based on the contents stored in the storage circuit 66.
  • the status confirmation screen 71 includes a model area 72, a video area 73, a log area 74, and a graph area 75.
  • model area 72 two-dimensional and three-dimensional models that reproduce the posture of the robot 27 at a certain point in time are displayed by computer graphics.
  • the displayed model posture is calculated based on the position of the motor stored in the storage circuit 66.
  • a seek bar 72a is arranged in the lower part of the model area 72, and a slider, a play button, a pause button, and a reverse play button are arranged in the seek bar 72a.
  • the reproduction position of the image can be specified by the seek bar 72a. Therefore, the reproduction of the model operation in the model area 72 and the reproduction of the moving image in the video area 73 can be synchronized.
  • the communication log stored in the storage circuit 66 is displayed in the log area 74.
  • Information about the program executed to control the robot 27 may be displayed in the log area 74.
  • the graph area 75 information on the current value, position, speed, acceleration, position deviation, speed deviation, and acceleration deviation of the electric motor stored in the storage circuit 66 is displayed in graphs of different colors.
  • a line graph is displayed in which each value is on the vertical axis and the time is on the horizontal axis.
  • a vertical straight line (time figure) is displayed in each graph of the graph area 75. The position of this straight line corresponds to the time at the time displayed in the model area 72 and the video area 73.
  • the information stored in the storage circuit 66 within a predetermined time range including the error occurrence time point (for example, from a few seconds before the error occurrence time to a few seconds after the error occurrence time point) is displayed on the status confirmation screen. It becomes a display target to 71.
  • the seek bar 72a may include a button for performing a known fast-forward / rewind operation.
  • the reproduced movement of the robot 27 is displayed in the model area 72, and the image captured by the camera 62 is dynamically displayed in the video area 73.
  • the communication log is displayed in the log area 74, and the graph is displayed in the graph area 75.
  • the log history at the time specified by the seek bar 72a is displayed. This log history is added every moment in synchronization with playback.
  • the graph area 75 the time figure in each graph moves sideways in synchronization with the reproduction.
  • the operator can quickly identify the cause of the error from various viewpoints and deal with it by operating the video confirmation computer 65 when an error occurs.
  • the information stored in the storage circuit 66 within a predetermined time range before and after the error occurs is displayed on the status confirmation screen 71.
  • the information stored about the operation unit or the module executed in the controller 44 at the time of the error may be displayed on the status confirmation screen 71.
  • the model area 72 and the video area 73 are arranged side by side on the same status confirmation screen 71 so as to be close to each other. Therefore, the information in the two areas allows the operator to understand the situation in which the error has occurred in a complex and intuitive manner.
  • the overall situation of the robot 27 can be obtained from the model area 72, and the detailed situation around the tip of the robot hand 45 can be obtained from the image area 73.
  • the information of the two-dimensional or three-dimensional model displayed in the model area 72 and the information of the captured image displayed in the image area 73 can have a complementary relationship with each other. In this sense as well, it is advantageous that both images are displayed side by side.
  • model area 72 and the image area 73 are arranged adjacent to each other, the operator can easily grasp the model image and the captured image as integrated information. Therefore, even if the image in the image area 73 is played / stopped by the seek bar 72a in the model area 72, the configuration is such that a sense of discomfort is unlikely to occur.
  • the model area 72 is arranged on the left and the image area 73 is arranged on the right.
  • the arrangement may be reversed left and right.
  • the model area 72 and the video area 73 may be arranged side by side.
  • communication log describing the communication contents before and after that time is highly valuable information for identifying the cause of the error.
  • communication logs generally include those with high and low relevance to errors, and in many cases, those with low relevance to errors account for the majority. Therefore, there is a risk that something highly related to the error will be buried elsewhere, making it difficult to find.
  • the log analysis screen 81 output by the controller 44 to the coping computer 70 has a function of extracting and displaying the communication log that is highly related to the error. This makes it easier to identify the cause of the error and deal with it.
  • the coping computer 70 functions as a terminal for the controller 44.
  • each line of the communication log describes a communication code indicating the type of communication.
  • information on a communication code highly related to an error in the communication log is stored in advance in a form associated with information for identifying the type of error (for example, an error code).
  • the controller 44 filters the communication log to display only the types of communication logs that are highly related to the error code, and outputs the communication log to the coping computer 70.
  • the controller 44 can simultaneously display the following information (1) to (5) at the same time.
  • the log analysis screen 81 allows the operator to more easily understand the situation.
  • Error explanation area 82 The display contents of the error explanation area 82 include, for example, the date and time when the error occurred, the error code, and the outline of the error.
  • Detailed log area 83 The display content of the detailed log area 83 includes the communication log extracted as described above from a predetermined time before the error occurs to the time when the error occurs.
  • Operating position area 84 In the operating position region 84, a numerical value indicating the posture of the robot 27 when an error occurs can be displayed in the form of a position measured by the electric motor or a target value.
  • Program state area 85 In the program state area 85, information for identifying the module executed to control the robot 27 according to the communication log displayed in the detailed log area 83 is displayed.
  • each line of the communication log can be selected in the detailed log area 83, and the program corresponding to the log of the selected line may be displayed in the program state area 85.
  • Input / output signal area 86 In the input / output signal area 86, output signals from various sensors included in the robot 27 and input signals to various devices are displayed.
  • the storage circuit 46 of the controller 44 stores data indicating a coping method when an error occurs in the robot 27. By outputting this coping method from the controller 44 to the coping computer 70 and displaying it on a display (for example, the display 68 shown in FIG. 3), it is possible to support the error handling of the operator.
  • the contents displayed on the display 68 to support the work of dealing with the error can be, for example, the following (1) to (3).
  • Error explanation area 89 In the error explanation area 89, the date and time when the error occurred, the error code, and the like are displayed. In the error explanation area 89, an error that has occurred within a predetermined time in the past from the time when the latest error occurred, or an error that has occurred a predetermined number of times in the past from the time when the latest error has occurred may be displayed in a selectable manner. In the following, the past error displayed in the error explanation area 89 may be referred to as an error history.
  • Action content explanation area 90 In the action content explanation area 90, the action method corresponding to the error to be explained in the error explanation area 89 is displayed in detail.
  • the coping method is created in advance by the manufacturer of the robot 27 in response to the error code, and is stored in the storage circuit 46 of the controller 44 in the form of appropriate electronic data such as HTML data, image data, moving image data, and PDF data. ..
  • the action method corresponding to the error history may be displayed in the action content explanation area 90.
  • the moving image data can be, for example, data taken by the camera 63 of the robot 27 when an error has occurred in the past.
  • Related item list area 91 a list of items related to the error to be explained in the error explanation area 89 is displayed.
  • the items related to the error history may be displayed in the related item list area 91.
  • the list consists of one or more related items. As related items, for example, the following (a) and (b) can be set.
  • This interface can be, for example, a touch panel provided integrally with the display 68, a hardware key arranged in the vicinity of the display 68, or the like, but is not limited thereto.
  • the worker creates a work record by specifying an error code, an error occurrence date and time, a work date and time, a worker, a work content and its result, a title of the work record, an importance of the work record, and the like. be able to.
  • the work record input by the worker to the coping computer 70 is transmitted from the coping computer 70 to the controller 44.
  • the controller 44 that has received the work record data stores the work record in the storage circuit 46 in association with the error code.
  • the importance and title of the work record are displayed.
  • This error or an error related to the selected error history includes, but are not limited to, for example, other errors that may occur at the same time as one error, and other errors that occur as a result of the occurrence of one error.
  • the error-to-error association is created in advance by the manufacturer of the robot 27 and stored in the storage circuit 46 of the controller 44.
  • the error-to-error association may be configured to be registrable in the storage circuit 46 by an operator's operation. For example, an error code is displayed in the related item list area 91.
  • the operator can appropriately select the related items displayed in the related item list area 91 by appropriately operating the above-mentioned user interface device.
  • Information on the selected related item is transmitted from the coping computer 70 to the controller 44.
  • the controller 44 displays various data so that the contents of the work record are displayed when the work record is selected, and the coping method of the error is displayed in the coping content explanation area 90 when the related error is selected. It is transmitted to the coping computer 70.
  • a plurality of related items can be displayed in the related item list area 91, but the controller 44 sorts the related items so that the related items with high priority are on the top and the related items with low priority are on the bottom.
  • the coping computer 70 can be controlled so as to display.
  • FIG. 6 shows a state in which related items are arranged according to priority in the related item list area 91.
  • the priority is determined based on, for example, the frequency of error occurrence, the frequency of display of the explanation screen, the importance specified in the work record, the current sensor at the time of error occurrence, the degree of relevance judged from the position sensor detection value, and the like. be able to.
  • the controller 44 calculates, for example, the sum of an index obtained by multiplying an index obtained by quantifying the frequency of error occurrence and the like by an appropriate weight, and obtains the sum of the priorities. Can be.
  • an abnormality such as an increase in position deviation is detected at the same time for a plurality of motors driving each joint.
  • an abnormality such as an increase in position deviation is detected at the same time for a plurality of motors driving each joint.
  • the cable of a certain motor is broken, an abnormality is detected only in the motor.
  • the assumed abnormality detection pattern is stored in advance in this way, and when an abnormality occurs, the degree of similarity between the actual abnormality detection pattern and the assumed abnormality detection pattern is calculated, and the assumed abnormality detection pattern with a high degree of similarity is supported. It is also possible to preferentially display the troubleshooting contents for the abnormalities to be performed.
  • the abnormality detection pattern a combination of occurrence / non-occurrence of a plurality of detection items (positional deviation, speed deviation, etc.) may be used, or a measured value such as a current value of a motor at the time of abnormality occurrence may be used.
  • a degree of similarity for example, when a combination of occurrence / non-occurrence of a plurality of detection items is used as an abnormality detection pattern, a number in which the combinations of occurrence / non-occurrence of a plurality of detection items match may be used. In this case, weighting a plurality of detection items may increase the influence on the similarity of important detection items.
  • the storage circuit 46 of the controller 44 stores a method for identifying the cause of the error, a document describing how to deal with the error, and a manual describing how to use the robot. As shown in FIG. 7, the user can display and refer to these materials and manuals on the display 68 by operating the user interface device according to the situation.
  • the manual screen 93 will be briefly explained.
  • a table of contents display area 94 is arranged on the left side of the manual screen 93, and items of the table of contents of the manual are displayed in a list format in the table of contents display area 94.
  • a detailed display area 95 is arranged on the right side of the manual screen 93, and the detailed display area 95 can display the specific contents of the manual corresponding to the item of the table of contents selected in the table of contents display area 94.
  • a search box 96 is arranged above the table of contents display area 94, and a text search for manual text data can be performed. This eliminates the need to bring a paper manual close to the robot 27.
  • the displays of the log analysis screen 81, the error handling support screen 88, and the manual screen 93 described above are the web server application pre-installed on the controller 44 and the web browser pre-installed on the coping computer 70. It is realized by linking with the application.
  • the above-mentioned log analysis screen 81, error handling support screen 88, and manual screen 93 are displayed on, for example, a display 68 in the form of a web page or the like by an operator starting a web browser on the handling computer 70 and operating the web browser as appropriate. be able to.
  • the coping computer 70 (in other words, the terminal for the controller 44) for viewing various screens may be prepared separately from the host controller 61.
  • the web browser application is installed on the browsing computer.
  • the web server of the controller 44 determines the display content from the stored content of the storage circuit 46 in response to a request from the web browser of the computer on the viewing side, and transmits various data such as HTML data.
  • the web browser draws a screen such as a web page based on various received data.
  • the worker simply prepares an appropriate terminal on which a general web browser application is installed as a computer on the viewing side, and functions of the log analysis screen 81, the error handling support screen 88, and the manual screen 93. It can be used.
  • the image confirmation computer 65 for confirming the image related to the operation of the robot 27 includes a storage circuit 66 and an arithmetic circuit 67.
  • the storage circuit 66 can store information.
  • the arithmetic circuit 67 outputs information based on the stored contents of the storage circuit 66.
  • the storage circuit 66 stores information on the position of the electric motor that drives the link body of the robot 27 and information on the image. Information on the position of the electric motor is received from the controller 44 of the robot 27.
  • the video information is acquired by the camera 62 attached to the robot 27.
  • the arithmetic circuit 67 displays the model area 72 and the video area 73 side by side on the display of the own machine. In the model area 72, a two-dimensional or three-dimensional model that reproduces the posture of the robot 27 is displayed by computer graphics. An image is displayed in the image area 73.
  • the time corresponding to the model displayed in the model area 72 and the time corresponding to the video displayed in the video area 73 are synchronized.
  • the storage circuit 66 stores the communication log in which the controller 44 communicates with another device.
  • the arithmetic circuit 67 causes the own machine to display the log area 74 in which the history of the communication log is output.
  • the display timing of the communication log history in the log area 74 is synchronized with the time in the model area 72 and the video area 73.
  • the change in the display of the log area 74 is performed at a timing that matches the time represented by the model area 72 and the video area 73. Therefore, the worker does not get confused about grasping the situation.
  • the arithmetic circuit 67 is for designating a time corresponding to the model displayed in the model area 72 and a time corresponding to the video displayed in the video area 73.
  • the common seek bar 72a is displayed.
  • Information in the normal state of the robot 27 may be stored in at least one of the storage circuit 66 of the video confirmation computer 65 and the storage circuit 46 of the controller 44.
  • the information in the normal state can be displayed for reference on the video confirmation computer 65 or the coping computer 70.
  • This configuration is particularly advantageous in the graph area 75 on the status confirmation screen 71 displayed by the video confirmation computer 65. This is because the graph in the graph area 75 may fluctuate greatly even in the normal state, and it is difficult to distinguish between abnormal and normal without a comparison standard. Parameters indicating the characteristics of the graph in the normal state (for example, the average value, the maximum value, the minimum value, etc.) can also be displayed in the graph of the graph area 75.
  • the computer that displays at least one of the log analysis screen 81, the error handling support screen 88, and the manual screen 93 may be a teach pendant operated to perform teaching work to the robot 27.
  • the image acquired by the camera 62 attached to the robot 27 can also be used as an auxiliary when performing the teaching work by the teach pendant.
  • the video confirmation computer 65 and the coping computer 70 may be realized by one hardware (computer).
  • the status confirmation screen 71 displayed by the video confirmation computer 65 may also be displayed on a browser basis in the same manner as the log analysis screen 81 and the like.
  • the video confirmation computer 65 may display the status confirmation screen 71 on the display of another computer connected to the video confirmation computer 65 in place of or in addition to the display of the own machine.
  • Robot 44 Controller Robot controller
  • Video confirmation computer 66
  • Storage circuit storage unit
  • Arithmetic circuit calculation unit
  • Display display unit
  • Model area Video area
  • Log area Log area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

ロボットの動作に関する映像を確認するための映像確認用コンピュータは、記憶部と、演算部と、を備える。前記記憶部は、前記ロボットのコントローラから受信した、前記ロボットのリンク体を駆動する電動モータの位置の情報と、前記ロボットに取り付けたカメラにより取得された映像の情報と、を記憶する。演算部は、自機及び自機に接続されたコンピュータのうち少なくとも何れかに、モデル領域と、映像領域と、を並べて表示させる。前記モデル領域には、前記ロボットの姿勢を再現する2次元又は3次元のモデルが、コンピュータグラフィックスによって表示される。前記映像領域には、前記映像が表示される。

Description

映像確認用コンピュータ
 本発明は、ロボットの動作に関する映像を確認するための映像確認用コンピュータに関する。
 従来から、例えば、ウエハ等の基板を搬送するためにロボットが用いられている。特許文献1のロボットは、ロボットの動きを制御するためのコントローラを備えている。
特開2008-28134号公報
 ロボットは、様々な原因でエラーを発生することがある。この場合、発生するエラーに応じてメンテナンス作業を行う必要がある。ウエハ処理設備等においては、高いレベルの情報管理を実現するため、別の場所へのデータの持出しや、外部ネットワークとの通信が制限される場合も多い。このような状況において、ロボットのエラーの原因を素早く特定して解消できることが求められている。
 本発明は以上の事情に鑑みてされたものであり、その目的は、例えばロボットのエラー発生時において、作業者が状況を素早く良好に把握可能とすることにある。
 本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
 本発明の観点によれば、以下の構成の映像確認用コンピュータが提供される。即ち、この映像確認用コンピュータは、ロボットの動作に関する映像を確認するために用いられる。前記映像確認用コンピュータは、記憶部と、演算部と、を備える。前記記憶部は、情報を記憶可能である。前記演算部は、前記記憶部の記憶内容に基づく情報を出力する。前記記憶部は、電動モータの位置の情報と、映像の情報と、を記憶する。前記電動モータは、前記ロボットのリンク体を駆動する。前記電動モータの位置の情報は、前記ロボットのコントローラから受信される。前記映像の情報は、前記ロボットに取り付けたカメラにより取得される。前記演算部は、自機及び自機に接続されたコンピュータのうち少なくとも何れかに、モデル領域と、映像領域と、を並べて表示させる。前記モデル領域には、前記ロボットの姿勢を再現する2次元又は3次元のモデルが、コンピュータグラフィックスによって表示される。前記映像領域には、前記映像が表示される。
 このように2つの領域が並べて表示されることで、作業者は、ロボットの動作に関する状況を複合的かつ直感的に把握することができる。従って、作業者は状況に対して、円滑かつ的確に対処することができる。
 本発明によれば、例えばロボットのエラー発生時において、作業者が状況を素早く良好に把握することができる。
本発明の一実施形態に係る映像確認用コンピュータが適用される半導体処理設備の一部を示す平面断面図。 半導体処理設備の一部を切断して示す側面断面図。 半導体処理設備において構築される通信ネットワークを説明する模式図。 映像確認用コンピュータにおいて表示される状況確認画面の表示例を示す図。 対処用コンピュータにおいて表示されるログ解析画面の表示例を示す図。 エラー対処支援画面の表示例を示す図。 マニュアル画面の表示例を示す図。
 次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態が適用される半導体処理設備20の一部を示す平面断面図である。図2は、半導体処理設備20の一部を切断して示す側面断面図である。図1及び図2には、ロボット27を様々に動かした状態が2点鎖線で示されている。
 半導体処理設備20は、処理対象基板となるウエハ24に対して、予め定められた処理を施す。本実施形態において、ウエハ24は、半導体ウエハである。ウエハ24に施される処理としては、例えば、熱処理、不純物導入処理、薄膜形成処理、リソグラフィ処理、洗浄処理又は平坦化処理等の様々なプロセス処理を挙げることができる。半導体処理設備20において、上述した基板処理以外の基板処理が行われてもよい。
 半導体処理設備20は、ウエハ処理装置22と、ウエハ移載装置23と、を備える。半導体処理設備20は、例えばSEMI規格によって予め規定されたものである。SEMIは、Semiconductor Equipment and Materials Internationalの略称である。この場合、例えばフープ25及びフープ25を開閉するためのフープオープナ26は、SEMI規格のE47.1、E15.1、E57、E62、E63、E84等の仕様に従う。ただし、半導体処理設備20の構成がSEMI規格と異なっていても良い。
 ウエハ処理装置22には、所定の気体が充填される処理空間30が形成されている。ウエハ処理装置22は、この処理空間30において、上述の処理をウエハ24に施す。ウエハ処理装置22は、ウエハ24に処理を施す処理装置本体のほか、処理空間30を形成する処理空間形成部と、処理空間30でウエハ24を搬送する搬送装置と、処理空間30に満たされる雰囲気気体を制御する調整装置と、を備える。調整装置は、ファンフィルタユニット等によって実現される。
 ウエハ移載装置23は、処理前のウエハ24をフープ25から取り出してウエハ処理装置22に供給するとともに、処理後のウエハ24をウエハ処理装置22から取り出してフープ25に再収容する。ウエハ移載装置23は、フロントエンドモジュール装置(Equipment Front End Module;EFEM)として機能する。半導体処理設備20において、ウエハ移載装置23は、フープ25とウエハ処理装置22との間でのウエハ24の受渡しを行うインタフェース部となる。ウエハ24は、フープ25内の空間と、ウエハ処理装置22の処理空間30との間を移動する間に、予め定められる雰囲気気体で満たされるクリーン度の高い準備空間29を通過する。
 準備空間29は、コンタミネーションコントロールが行われている閉じられた空間である。準備空間29では、空気中における浮遊微小粒子が限定された清浄度レベル以下に管理されており、必要に応じて温度、湿度、圧力等の環境条件についても管理が行われている。本実施形態では、処理空間30及び準備空間29は、ウエハ24の処理に悪影響を与えないように、所定のクリーン度に保たれる。このクリーン度としては、例えば、ISO(国際標準化機構)に規定されるCLASS1が採用される。
 ロボット27は、ウエハ移載ロボットとして機能する。本実施形態では、ロボット27は、SCARA(スカラ)型の水平多関節ロボットによって実現される。SCARAは、Selective Compliance Assembly Robot Armの略称である。ロボット27は、準備空間29に配置される。
 ロボット27は、図2等に示すように、基台41と、ロボットアーム42と、上下駆動アクチュエータ43aと、水平駆動アクチュエータ43bと、コントローラ44と、を備える。
 基台41は、ロボットアーム42を支持するベース部材として機能する。基台41の上面にロボットアーム42が取り付けられている。
 ロボットアーム42は、基端部から先端部に向かう方向に順次連結される複数のリンク体を備えるリンク構造を有する。ロボットアーム42の先端部には、ロボットハンド45が設けられる。ロボットハンド45は、ウエハ24を保持したり、保持を解除したりすることができる。ロボットハンド45によるウエハ24の保持の方法は様々であり、例えば、ロボットハンド45の上にウエハ24を載せたり、ロボットハンド45によってウエハ24を挟んだり、負圧によってウエハ24をロボットハンド45に吸着したりすること等が考えられる。
 上下駆動アクチュエータ43aは、ロボットアーム42を上下方向に変位させる。上下駆動アクチュエータ43aは、例えば電動モータとして構成される。ロボットアーム42が上下方向に移動することで、ロボットハンド45の高さを変更することができる。
 水平駆動アクチュエータ43bは、ロボットアーム42の各リンク体を、対応する関節軸を中心として個別に回転させる。水平駆動アクチュエータ43bは、例えば電動モータとして構成される。上下方向の関節軸を中心として各リンク体が回転することで、ロボットハンド45を水平面内で移動させることができる。
 コントローラ44は、予め定められる動作プログラム又はユーザから入力される移動指令に従って、上下駆動アクチュエータ43a及び水平駆動アクチュエータ43bを制御し、予め定められる位置にロボットハンド45を移動させる。コントローラ44は、図3に示すように、記憶回路46と、演算回路47と、出力装置48と、を備える。記憶回路46は、所定のプログラム及び各種のデータを記憶する。演算回路47は、前記プログラムに従って演算処理を行う。出力装置48は、演算回路47の演算結果に基づいて、上下駆動アクチュエータ43a及び水平駆動アクチュエータ43bに制御信号を出力する。記憶回路46は、例えば、RAM、ROM、及びHDD等によって実現される。演算回路47は、例えば、CPUによって実現される。
 図3に示すように、半導体処理設備20は、上位コントローラ61を備える。上位コントローラ61は、半導体処理設備20を構成する様々な装置に、半導体処理工程を実行するための指令を送信する。
 上位コントローラ61は、ロボット27が備える前述のコントローラ44と有線又は無線で接続されている。上位コントローラ61は、ロボット27が必要なタイミングで必要な動作を行うように、コントローラ44に指令を送信する。コントローラ44は、上位コントローラ61から受信した指令に従って、ロボット27を制御する。
 コントローラ44は、何らかのエラーが発生した場合、当該エラーに関する情報を上位コントローラ61に送信する。コントローラ44がロボット27を制御するためのプログラムは、複数のモジュールで構成されている。ここでモジュールとは、ロボット27によってある動作単位を実現するためのプログラムの部分をいう。動作単位としては、例えば、ロボットハンド45によって保持されているウエハ24を所定位置に載置する動作、及び、所定位置に載置されているウエハ24をロボットハンド45によって保持する動作等が挙げられるが、これに限定されない。
 上下駆動アクチュエータ43a及び水平駆動アクチュエータ43bは、それぞれ電動モータとして構成される。電動モータは公知の構成であり、図示しないが、モータ駆動回路と、モータ本体と、回転位置センサと、電流センサと、を備える。モータ本体は、ステータ、ロータ及び出力軸を備える。コントローラ44は、電動モータが所望の動作を行うように、電源回路を介してモータ駆動回路に電流を供給する。この結果、流れた電流に応じて電動モータの出力軸が回転する。
 モータ駆動回路に流れる電流は、電動モータの動作の目標値と、動作の計測値と、によって決定される。電動モータの動作の目標値としては、例えば、回転位置、回転速度、又は回転加速度に関する目標値を挙げることができる。計測値としては同様に、例えば、回転位置、回転速度、又は回転加速度に関する計測値を挙げることができる。モータ駆動回路に流れる電流の制御において、フィードバック制御則又は適応制御則等の制御則が用いられても良い。
 ロボットアーム42のうちロボットハンド45が固定されるリンク体には、カメラ62が固定されている。図3に示すように、このカメラ62は、映像確認用コンピュータ65にネットワークを介して接続されている。映像確認用コンピュータ65は、例えば、モバイル端末、パーソナルコンピュータ等とすることができる。
 半導体処理設備20には、ロボット27を撮影するためのカメラ63が設けられている。カメラ63は、コントローラ44と有線又は無線で接続されている。
 ロボット27に何らかの異常が発生し、トラブルシューティングの必要が生じた場合、作業者は何らかのコンピュータを操作して、対処のための情報を得ることができる。このコンピュータを、対処用コンピュータ70と呼ぶことがある。本実施形態では、上位コントローラ61が対処用コンピュータ70を兼ねている。
 映像確認用コンピュータ65は、記憶回路(記憶部)66と演算回路(演算部)67とを含む。記憶回路66は、例えば、RAM、ROM及びHDD等によって実現される。演算回路67は、例えば、CPUによって実現される。
 例えば以下の(1)~(6)に示す情報が、映像確認用コンピュータ65の記憶回路66及びコントローラ44の記憶回路46(以下、単に記憶回路という)に記憶される。これらの記憶動作は、連続的に行われても良いし、間隔をあけて離散的に行われても良い。
 (1)カメラ62,63によって得られた画像に関する情報
 (2)コントローラ44が上位コントローラ61から受信した信号、及び、コントローラ44が上位コントローラ61へ送信した信号に関する情報(通信ログ情報)
 (3)コントローラ44がロボット27を制御するために実行したプログラムに関する情報
 (4)ロボット27が備える電動モータの電流値、位置、速度、加速度(負の加速度を含む。以下同じ。)、位置偏差、速度偏差、及び加速度偏差に関する情報
 (5)ロボット27が有する各種センサ(例えば、投光/遮光センサ、空気圧アクチュエータのピストン位置センサ、圧力センサ、ソレノイドバルブのバルブ位置センサ)からの出力信号に関する情報
 (6)ロボット27が有する各種機器(例えば、ソレノイドバルブ)への入力信号に関する情報
 ここで、電動モータの電流値は、モータ駆動回路に設けられた電流センサによって計測される。電動モータの位置は、当該電動モータに設けられた回転位置センサの測定値に基づいて得ることができる。電動モータの速度及び加速度は、前記回転位置センサの測定値を時間微分することにより得ることができる。位置偏差、速度偏差、及び加速度偏差は、上述の位置、速度及び加速度と目標位置、目標速度、目標加速度との差を計算することにより得ることができる。
 コントローラ44には、ウェブサーバアプリケーション及びデータベースアプリケーションが予めインストールされ、プログラムが上述の記憶回路46に記憶されている。
 ところで、何らかの原因で、ロボット27にエラーが発生することがある。この場合、映像確認用コンピュータ65は、記憶回路66に記憶した内容に基づいて、図4に示すような状況確認画面71を表示することができる。この状況確認画面71は、モデル領域72と、映像領域73と、ログ領域74と、グラフ領域75と、を含む。
 モデル領域72には、ある時点でのロボット27の姿勢を再現する2次元及び3次元のモデルが、コンピュータグラフィックスによって表示される。表示されるモデルの姿勢は、記憶回路66に記憶されたモータの位置に基づいて計算される。モデル領域72の下部にはシークバー72aが配置され、このシークバー72aには、スライダ、再生ボタン、一時停止ボタン及び逆再生ボタンが配置されている。これにより、モデル領域72の表示においてロボット27の動作を再現させたり、ある時点で止めたりすることができる。現実のロボット27が例えばカメラ63から隠れて撮影不能の位置にある場合でも、オペレータは、モデル領域72の表示内容を参照することで、ロボット27がどのような姿勢だったかを容易に把握することができる。
 映像領域73には、カメラ62により取得され、記憶回路66に記憶された撮影画像が表示される。画像の再生位置は、前記シークバー72aによって指定することができる。従って、モデル領域72におけるモデル動作の再現と、映像領域73による動画の再生と、を同期させることができる。
 ログ領域74には、記憶回路66に記憶された通信ログが表示される。ログ領域74に、ロボット27を制御するために実行されたプログラムに関する情報が表示されても良い。
 グラフ領域75には、記憶回路66に記憶された電動モータの電流値や位置、速度、加速度、位置偏差、速度偏差、加速度偏差に関する情報が、それぞれ異なる色のグラフで表示される。図4に示される例では、各値を縦軸にとり、時刻を横軸にとった折れ線グラフが表示されている。グラフ領域75の各グラフには、縦の直線(時刻図形)が表示されている。この直線の位置は、モデル領域72及び映像領域73において表示されている時点の時刻に対応している。
 ロボット27において何らかのエラーが発生すると、エラー発生時点を含む所定の時間範囲(例えば、エラー発生時点の数秒前からエラー発生時点の数秒後まで)に記憶回路66に記憶された情報が、状況確認画面71への表示対象となる。
 シークバー72aにおいて再生ボタンが押されると、モデル領域72及び映像領域73において表示対象の情報が再生される。同様に、逆再生ボタンが押されると、表示対象の情報が逆再生される。一時停止ボタンが押されると、再生/逆再生が一時停止し、一時停止ボタンが再び押されると、一時停止が解除される。シークバー72aに、公知の早送り操作/巻戻し操作を行うためのボタンが含まれても良い。
 表示対象の情報が再生される場合、モデル領域72には再現されたロボット27の動きが表示され、映像領域73にはカメラ62による撮影画像が動的に表示される。再生時において、ログ領域74には通信ログが表示され、グラフ領域75にはグラフが表示される。ログ領域74においては、シークバー72aで指示された時刻におけるログ履歴が表示される。このログ履歴は、再生に同期して刻々と追記されていく。グラフ領域75においては、各グラフにおける前記時刻図形が、再生に同期して、横向きに移動する。
 以上の構成により、作業者は、エラー発生時に映像確認用コンピュータ65を操作することで、エラーの原因を様々な観点から迅速に特定し、対処することが可能になる。
 上記の例では、エラー発生前後の所定の時間範囲において記憶回路66に記憶された情報を状況確認画面71への表示対象としている。これに代えて、エラー発生時にコントローラ44において実行されていた動作単位又はモジュールに関して記憶された情報を状況確認画面71への表示対象としても良い。
 モデル領域72及び映像領域73は、互いに近接するように、同一の状況確認画面71において並べて配置されている。従って、2つの領域の情報により、作業者は、エラーが発生した状況を複合的かつ直感的に理解することができる。
 モデル領域72からはロボット27の全体的な状況が得られ、映像領域73からはロボットハンド45の先端周辺の詳細な状況が得られる。このように、モデル領域72に表示される2次元又は3次元モデルの情報と、映像領域73に表示される撮影映像の情報とは、互いに補完的な関係となり得る。この意味でも、両映像が並んで表示されるのは有利である。
 加えて、ログ領域74のログ履歴の追加は、モデル領域72及び映像領域73が表示している時刻と整合するタイミングで行われるので、作業者が状況の把握に混乱することがない。
 モデル領域72と映像領域73が隣接して配置されているので、作業者はモデル映像と撮影画像とを一体的な情報として把握し易くなる。従って、モデル領域72のシークバー72aによって映像領域73の映像が再生/停止したとしても、違和感が生じにくい構成とすることができる。
 図4の例では、モデル領域72が左、映像領域73が右となるように配置されている。しかしながら、配置を左右逆にしても良い。また、モデル領域72と映像領域73とを上下に並べて配置しても良い。
 次に、コントローラ44が対処用コンピュータ70のディスプレイ(例えば、図3に示すディスプレイ68)に表示させることが可能なログ解析画面81について、図5を参照して説明する。
 ロボット27に何らかのエラーが発生した場合、その時点前後の通信内容を記述した通信ログは、エラー原因の特定等のために価値の高い情報である。しかしながら、通信ログは一般に、エラーとの関連性が高いものと低いものを含んでおり、エラーとの関連性が低いものが大部分を占める場合も多い。従って、エラーとの関連性が高いものが他に埋没し、発見が難しくなるおそれがある。
 そこで本実施形態では、コントローラ44が対処用コンピュータ70に出力するログ解析画面81において、通信ログの中でもエラーとの関連性が高いものを抽出して表示する機能を有している。これにより、エラーの原因特定及び対処が容易になる。対処用コンピュータ70は、コントローラ44に対する端末として機能する。
 具体的に説明すると、通信ログの各行には、通信の種類を示す通信コードが記述される。コントローラ44の記憶回路46には、通信ログの中でエラーと関連性の高い通信コードの情報が、エラーの種類を特定する情報(例えば、エラーコード)と関連付けた形で予め記憶されている。通信ログの抽出が作業者によって指示された場合、エラーコードと関連性が高い種類の通信ログだけを表示するようにフィルタされ、コントローラ44から対処用コンピュータ70に出力される。
 コントローラ44は、このように絞り込まれた形で通信ログを対処用コンピュータ70に表示させる場合に、例えば以下の(1)~(5)のような情報をまとめて同時に表示させることができる。このログ解析画面81により、作業者が状況をより容易に理解することができる。
 (1)エラー説明領域82。エラー説明領域82の表示内容には、例えば、エラーの発生日時、エラーコード、及びエラーの概要が含まれる。
 (2)詳細ログ領域83。詳細ログ領域83の表示内容には、上記のように抽出された、エラー発生の所定時間前からエラー発生時点までの通信ログが含まれる。
 (3)動作位置領域84。動作位置領域84には、エラー発生時のロボット27の姿勢を示す数値を、電動モータにおいて計測された位置又は目標値の形で表示することができる。
 (4)プログラム状態領域85。プログラム状態領域85には、詳細ログ領域83に表示された通信ログに応じてロボット27を制御するために実行されたモジュールを特定するための情報が表示される。ただし、詳細ログ領域83において通信ログの各行が選択可能となっており、選択された行のログに応じたプログラムがプログラム状態領域85に表示されても良い。
 (5)入出力シグナル領域86。入出力シグナル領域86は、ロボット27が有する各種センサからの出力信号、及び、各種機器への入力信号が表示される。
 次に、対処用コンピュータ70が表示可能なエラー対処支援画面88について、図6を参照して説明する。
 コントローラ44の記憶回路46には、ロボット27に何らかのエラーが発生した場合の対処方法を示すデータが記憶されている。この対処方法をコントローラ44から対処用コンピュータ70に出力し、ディスプレイ(例えば、図3に示すディスプレイ68)に表示することにより、作業者のエラー対応を支援することができる。
 エラーに対処する作業を支援するためにディスプレイ68に表示される内容としては、例えば以下の(1)~(3)とすることができる。
 (1)エラー説明領域89。エラー説明領域89には、エラーの発生日時及びエラーコード等が表示される。エラー説明領域89においては、直近のエラー発生時点から過去の所定時間内に発生したエラー、又は、直近のエラー発生時点から過去の所定回数発生したエラーが、選択可能に表示されても良い。以下では、エラー説明領域89に表示された過去のエラーをエラー履歴と呼ぶことがある。
 (2)対処内容説明領域(詳細説明領域)90。対処内容説明領域90には、エラー説明領域89で説明対象となっているエラーに対応した対処方法が詳細に表示される。対処方法は、予めロボット27のメーカによってエラーコードに対応して作成され、HTMLデータ、画像データ、動画データ、PDFデータ等の適宜の電子データの形で、コントローラ44の記憶回路46に記憶される。エラー説明領域89でエラー履歴が選択された場合、対処内容説明領域90において、当該エラー履歴に対応した対処方法が表示されても良い。動画データは、例えば、過去にエラーが発生したときにロボット27をカメラ63で撮影したデータとすることができる。
 (3)関連項目一覧領域91。関連項目一覧領域91には、エラー説明領域89で説明対象となっているエラーに関連する項目の一覧が表示される。エラー説明領域89でエラー履歴が選択された場合、関連項目一覧領域91において、当該エラー履歴に関連する項目が表示されても良い。一覧は、1又は複数の関連項目から構成される。関連項目としては、例えば、以下の(a),(b)とすることができる。
 (a)今回のエラー又は選択されたエラー履歴に対して過去に対応した作業記録。作業者は、エラーが発生した場合に適宜のユーザインタフェース装置を操作することで、作業記録作成画面をディスプレイ68に表示させることができる。このインタフェースは、例えば、ディスプレイ68と一体的に設けられたタッチパネル、又は、ディスプレイ68の近傍に配置されるハードウェアキー等とすることができるが、これに限定されない。作業記録作成画面で、作業者は、エラーコード、エラー発生日時、作業日時、作業者、作業内容とその結果、作業記録の標題、作業記録の重要度等を指定して、作業記録を作成することができる。作業者が対処用コンピュータ70に入力した作業記録は、対処用コンピュータ70からコントローラ44に送信される。作業記録のデータを受信したコントローラ44は、エラーコードに関連付けて、当該作業記録を記憶回路46に記憶する。関連項目一覧領域91には、例えば、作業記録の重要度と標題が表示される。
 (b)今回のエラー又は選択されたエラー履歴に関連するエラー。関連するエラーとしては、例えば、あるエラーと同時に発生する可能性がある他のエラー、及び、あるエラーの発生に起因して発生する他のエラーが挙げられるが、これに限定されない。エラーとエラーの関連付けは、ロボット27のメーカによって予め作成され、コントローラ44の記憶回路46に記憶される。エラーとエラーの関連は、作業者の操作によって記憶回路46に登録可能に構成されても良い。関連項目一覧領域91には、例えば、エラーコードが表示される。
 作業者は、上述のユーザインタフェース装置を適宜操作することにより、関連項目一覧領域91において表示されている関連項目を適宜選択することができる。選択された関連項目の情報は、対処用コンピュータ70からコントローラ44へ送信される。コントローラ44は、作業記録が選択された場合は当該作業記録の内容を、関連するエラーが選択された場合は当該エラーの対処方法を、それぞれ対処内容説明領域90に表示させるように、各種データを対処用コンピュータ70へ送信する。
 関連項目一覧領域91には複数の関連項目を表示することができるが、コントローラ44は、優先度が高い関連項目が上、優先度が低い関連項目が下となるように、関連項目をソートして表示するように対処用コンピュータ70を制御することができる。図6には、関連項目一覧領域91において優先度に応じて関連項目が並べられた状態が示されている。優先度は、例えば、エラーの発生頻度、説明画面が表示された頻度、作業記録において指定された重要度、エラー発生時の電流センサ、位置センサ検出値から判断した関連度等に基づいて決定することができる。優先度を定めるために複数の観点が用いられる場合、コントローラ44は、例えば、エラーの発生頻度等を数値化した指標に適宜の重みを乗じたものの総和を計算し、得られた総和を優先度とすることができる。
 例えば衝突が発生した場合には、各関節を駆動する複数のモータについて同時に位置偏差の増大等の異常が検知される。一方、例えばあるモータのケーブルが断線した場合には当該モータのみについて異常が検知される。このように想定される異常検知パターンを予め記憶しておき、異常が発生した際に実際の異常検知パターンと想定異常検知パターンとの類似度を計算し、類似度の高い想定異常検知パターンに対応する異常に対するトラブルシューティング内容を優先的に表示するようにしても良い。異常検知パターンとして、複数の検知項目(位置偏差や速度偏差等)の発生/不発生の組み合わせを用いても良く、異常発生時のあるモータの電流値等の計測値を用いても良い。また、類似度としては、例えば複数の検知項目の発生/不発生の組み合わせを異常検知パターンとして用いる場合には、複数の検知項目の発生/不発生の組み合わせが一致する数を用いても良い。この場合、複数の検知項目に重み付けをすることで重要な検知項目の類似度に与える影響を大きくしても良い。
 以上の構成とすることにより、エラーの原因の特定と対処が容易になる。また、ユーザによって登録された作業記録もエラー対処支援画面88における表示対象とすることで、過去の対処によって獲得された知識の蓄積に基づく対処が可能になり、また、そのような知識を複数人で共有することができる。関連項目は優先度が高いものから順に表示されるので、発生したエラーに対して効率的に対処することができる。
 コントローラ44の記憶回路46には、エラーの原因を特定するための方法、エラーの対処方法が記述された資料、及び、ロボットの使用方法が記述されたマニュアルが記憶されている。ユーザは、状況に応じてユーザインタフェース装置を操作することにより、図7に示すように、これらの資料及びマニュアルをディスプレイ68に表示させて参照することができる。
 マニュアル画面93を簡単に説明する。マニュアル画面93の左側には目次表示領域94が配置され、この目次表示領域94には、マニュアルの目次の項目が一覧形式で表示されている。マニュアル画面93の右側には詳細表示領域95が配置され、この詳細表示領域95には、目次表示領域94で選択された目次の項目に対応するマニュアルの具体的な内容を表示することができる。目次表示領域94の上側には検索ボックス96が配置されており、マニュアルのテキストデータを対象とするテキスト検索を行うことができる。これにより、紙のマニュアルをロボット27の近くまで持ち込むことが不要になる。
 以上に説明したログ解析画面81、エラー対処支援画面88、及びマニュアル画面93のそれぞれの表示は、コントローラ44に予めインストールされているウェブサーバアプリケーションと、対処用コンピュータ70に予めインストールされているWebブラウザアプリケーションと、の連携により実現される。対処用コンピュータ70において作業者がウェブブラウザを起動して適宜操作することにより、上述のログ解析画面81、エラー対処支援画面88、マニュアル画面93を、ウェブページ等の形で例えばディスプレイ68に表示することができる。
 各種画面を閲覧するための対処用コンピュータ70(言い換えれば、コントローラ44に対する端末)は、上位コントローラ61とは別に用意されても良い。何れにせよ、閲覧側のコンピュータには、ウェブブラウザアプリケーションがインストールされる。コントローラ44のウェブサーバは、閲覧側のコンピュータのウェブブラウザからの要求に応じて、記憶回路46の記憶内容から表示内容を決定し、HTMLデータ等の各種データを送信する。閲覧側のコンピュータにおいてウェブブラウザは、受信した各種データに基づいて、ウェブページ等の画面を描画する。この構成では、作業者は、一般的なウェブブラウザアプリケーションがインストールされた適宜の端末を閲覧側のコンピュータとして準備するだけで、ログ解析画面81、エラー対処支援画面88、及びマニュアル画面93の機能を利用することができる。このように、本実施形態では、端末に専用アプリケーションのような特別なソフトをインストールする必要がない。従って、この構成は、一般的に電子機器の持込みが厳しく制限され、持ち込まれる電子機器に対して高度な機密保持対策が要求される半導体製造工場等において好適である。
 以上に説明したように、本実施形態において、ロボット27の動作に関する映像を確認するための映像確認用コンピュータ65は、記憶回路66と、演算回路67と、を備える。記憶回路66は、情報を記憶可能である。演算回路67は、記憶回路66の記憶内容に基づく情報を出力する。記憶回路66は、ロボット27のリンク体を駆動する電動モータの位置の情報と、映像の情報と、を記憶する。電動モータの位置の情報は、ロボット27のコントローラ44から受信される。映像の情報は、ロボット27に取り付けたカメラ62により取得される。演算回路67は、自機のディスプレイに、モデル領域72と、映像領域73と、を並べて表示させる。モデル領域72には、ロボット27の姿勢を再現する2次元又は3次元のモデルが、コンピュータグラフィックスによって表示される。映像領域73には、映像が表示される。
 このように2つの領域が並べて表示されることで、作業者は、ロボット27の動作に関する状況を複合的かつ直感的に把握することができる。従って、作業者は状況(例えば、エラーの発生)に対して、円滑かつ的確に対処することができる。
 また、本実施形態の映像確認用コンピュータ65において、モデル領域72に表示されるモデルに対応する時刻と、映像領域73に表示される映像に対応する時刻が、同期している。
 これにより、モデル領域72におけるモデル動作の再現と、映像領域73による動画の再生と、を同期させることができる。従って、画面を見た作業者は、状況を容易に把握することができる。
 また、本実施形態の映像確認用コンピュータ65において、記憶回路66は、コントローラ44が他の装置と通信した通信ログを記憶する。演算回路67は、モデル領域72及び映像領域73に加えて、通信ログの履歴が出力されるログ領域74を、自機に表示させる。ログ領域74への通信ログ履歴の表示タイミングが、モデル領域72及び映像領域73における時刻に同期している。
 これにより、ログ領域74の表示の変化が、モデル領域72及び映像領域73が表す時刻と整合するタイミングで行われる。従って、作業者が状況の把握に混乱することがない。
 また、本実施形態の映像確認用コンピュータ65において、演算回路67は、モデル領域72に表示されるモデルに対応する時刻、及び、映像領域73に表示される映像に対応する時刻を指定するための共通のシークバー72aを表示させる。
 これにより、シークバーを用いた直感的な操作によって、どの時刻での状況をモデル領域72及び映像領域73に表示させるかを指定することができる。従って、作業者が、知りたい時刻での状況を容易に把握することができる。また、シークバー72aが共通であるので、操作の際に混乱しにくい簡素な画面を実現できる。
 以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。
 ロボット27の正常状態における情報を、映像確認用コンピュータ65の記憶回路66及びコントローラ44の記憶回路46のうち少なくとも何れかに記憶しても良い。この場合、エラーが発生したときは、映像確認用コンピュータ65又は対処用コンピュータ70において、正常状態での情報を参考のために表示することができる。この構成は、映像確認用コンピュータ65が表示する状況確認画面71におけるグラフ領域75において特に有利である。グラフ領域75のグラフは正常状態でも大きく変動することがあり、比較の基準がないと異常と正常の区別が難しいからである。正常状態におけるグラフの特徴を示すパラメータ(例えば、値の平均値、最大値、最小値等)を、グラフ領域75のグラフにおいて併せて表示することもできる。
 ログ解析画面81、エラー対処支援画面88及びマニュアル画面93のうち少なくとも何れかを表示させるコンピュータは、ロボット27への教示作業を行うために操作されるティーチペンダントであっても良い。
 ロボット27に取り付けられるカメラ62で取得された画像は、ティーチペンダントによって教示作業を行う際に補助的に用いることもできる。
 映像確認用コンピュータ65と、対処用コンピュータ70とを、1つのハードウェア(コンピュータ)で実現しても良い。
 映像確認用コンピュータ65が表示する状況確認画面71についても、ログ解析画面81等と同様に、ブラウザベースで表示されても良い。
 映像確認用コンピュータ65は、状況確認画面71を、自機のディスプレイに代えて、又はそれに加えて、映像確認用コンピュータ65に接続された他のコンピュータのディスプレイに表示させても良い。
 27 ロボット
 44 コントローラ(ロボット用コントローラ)
 65 映像確認用コンピュータ
 66 記憶回路(記憶部)
 67 演算回路(演算部)
 68 ディスプレイ(表示部)
 72 モデル領域
 73 映像領域
 74 ログ領域

Claims (4)

  1.  ロボットの動作に関する映像を確認するための映像確認用コンピュータであって、
     情報を記憶可能な記憶部と、
     前記記憶部の記憶内容に基づく情報を出力する演算部と、
    を備え、
     前記記憶部は、
     前記ロボットのコントローラから受信した、前記ロボットのリンク体を駆動する電動モータの位置の情報と、
     前記ロボットに取り付けたカメラにより取得された映像の情報と、
    を記憶し、
     前記演算部は、自機及び自機に接続されたコンピュータのうち少なくとも何れかに、
     前記ロボットの姿勢を再現する2次元又は3次元のモデルが、コンピュータグラフィックスによって表示されるモデル領域と、
     前記映像が表示される映像領域と、
    を並べて表示させることを特徴とする映像確認用コンピュータ。
  2.  請求項1に記載の映像確認用コンピュータであって、
     前記モデル領域に表示される前記モデルに対応する時刻と、前記映像領域に表示される映像に対応する時刻が、同期していることを特徴とする映像確認用コンピュータ。
  3.  請求項2に記載の映像確認用コンピュータであって、
     前記記憶部は、前記コントローラが他の装置と通信した通信ログを記憶し、
     前記演算部は、前記モデル領域及び前記映像領域に加えて、前記通信ログの履歴が出力されるログ領域を、自機及び自機に接続されたコンピュータのうち少なくとも何れかに表示させ、
     前記ログ領域への通信ログ履歴の表示タイミングが、前記モデル領域及び前記映像領域における時刻に同期していることを特徴とする映像確認用コンピュータ。
  4.  請求項2又は3に記載の映像確認用コンピュータであって、
     前記演算部は、前記モデル領域に表示される前記モデルに対応する時刻、及び、前記映像領域に表示される映像に対応する時刻を指定するための共通のシークバーを表示させることを特徴とする映像確認用コンピュータ。
PCT/JP2020/045186 2019-12-10 2020-12-04 映像確認用コンピュータ WO2021117619A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020227021747A KR20220100983A (ko) 2019-12-10 2020-12-04 영상 확인용 컴퓨터
US17/783,297 US20230019019A1 (en) 2019-12-10 2020-12-04 Video confirmation computer
CN202080085828.5A CN114830320A (zh) 2019-12-10 2020-12-04 影像确认计算机

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-222900 2019-12-10
JP2019222900 2019-12-10
JP2020099458A JP2021091077A (ja) 2019-12-10 2020-06-08 映像確認用コンピュータ
JP2020-099458 2020-06-08

Publications (1)

Publication Number Publication Date
WO2021117619A1 true WO2021117619A1 (ja) 2021-06-17

Family

ID=76311372

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2020/045187 WO2021117620A1 (ja) 2019-12-10 2020-12-04 ロボット用コントローラ
PCT/JP2020/045186 WO2021117619A1 (ja) 2019-12-10 2020-12-04 映像確認用コンピュータ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045187 WO2021117620A1 (ja) 2019-12-10 2020-12-04 ロボット用コントローラ

Country Status (6)

Country Link
US (1) US20230019019A1 (ja)
JP (2) JP2021091078A (ja)
KR (1) KR20220100983A (ja)
CN (1) CN114830320A (ja)
TW (2) TWI770712B (ja)
WO (2) WO2021117620A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2795317C1 (ru) * 2022-07-28 2023-05-02 федеральное государственное автономное образовательное учреждение высшего образования "Пермский национальный исследовательский политехнический университет" Способ управления манипулятором

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022132166A (ja) * 2021-02-26 2022-09-07 株式会社キビテク ロボット支援システム
KR20230094447A (ko) * 2021-12-21 2023-06-28 이규옥 엔드이펙터 감지센서를 갖는 풉 및 이를 이용한 데이터 통합 관리시스템
WO2024095340A1 (ja) * 2022-10-31 2024-05-10 ファナック株式会社 動画マニュアル作成装置、及び動画マニュアル作成方法
KR102624242B1 (ko) * 2023-07-07 2024-01-15 주식회사 아임토리 로봇 기반 2d 및 3d 매칭 서비스 제공 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001062766A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 2足歩行ロボットの遠隔制御用ユーザインターフェイスシステム
JP2004174662A (ja) * 2002-11-27 2004-06-24 Fanuc Ltd ロボットの動作状態解析装置
JP2006120820A (ja) * 2004-10-21 2006-05-11 Hitachi Sci Syst Ltd 薄型基板処理装置及び薄型基板搬送装置
JP2009214265A (ja) * 2008-03-12 2009-09-24 Denso Wave Inc ロボット教示装置
JP2017052053A (ja) * 2015-09-10 2017-03-16 株式会社Ihiエアロスペース 無人車両における遠隔操縦用画像の作製方法、及び無人車両の遠隔操縦システム
JP2019171490A (ja) * 2018-03-27 2019-10-10 日本電産サンキョー株式会社 動作履歴管理システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2764586B2 (ja) * 1988-09-30 1998-06-11 トーヨーエイテック株式会社 機械異常の復旧方法表示装置
JPH03105406A (ja) * 1989-09-19 1991-05-02 Matsushita Electric Ind Co Ltd 設備のエラーメッセージ表示方法
US20030045098A1 (en) * 2001-08-31 2003-03-06 Applied Materials, Inc. Method and apparatus for processing a wafer
JP2004031381A (ja) * 2002-06-21 2004-01-29 Hitachi High-Technologies Corp 半導体製造装置及びその診断装置ならびに半導体製造装置の運用システム
JP2006219258A (ja) * 2005-02-10 2006-08-24 Hitachi Plant Technologies Ltd 設備装置の作業支援システム
JP4098338B2 (ja) 2006-07-20 2008-06-11 川崎重工業株式会社 ウェハ移載装置および基板移載装置
JP5260156B2 (ja) * 2008-06-17 2013-08-14 株式会社日立ハイテクノロジーズ 自動分析装置管理システム
JP5414703B2 (ja) * 2011-01-20 2014-02-12 東京エレクトロン株式会社 処理装置の異常診断方法及びその異常診断システム
JP6105537B2 (ja) * 2014-09-24 2017-03-29 ファナック株式会社 アラーム対処履歴を表示する数値制御装置
EP3875230A4 (en) * 2018-11-01 2022-07-27 Canon Kabushiki Kaisha EXTERNAL INPUT DEVICE, ROBOT SYSTEM, CONTROL METHOD FOR ROBOT SYSTEM, CONTROL PROGRAM AND RECORDING MEDIA

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001062766A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 2足歩行ロボットの遠隔制御用ユーザインターフェイスシステム
JP2004174662A (ja) * 2002-11-27 2004-06-24 Fanuc Ltd ロボットの動作状態解析装置
JP2006120820A (ja) * 2004-10-21 2006-05-11 Hitachi Sci Syst Ltd 薄型基板処理装置及び薄型基板搬送装置
JP2009214265A (ja) * 2008-03-12 2009-09-24 Denso Wave Inc ロボット教示装置
JP2017052053A (ja) * 2015-09-10 2017-03-16 株式会社Ihiエアロスペース 無人車両における遠隔操縦用画像の作製方法、及び無人車両の遠隔操縦システム
JP2019171490A (ja) * 2018-03-27 2019-10-10 日本電産サンキョー株式会社 動作履歴管理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2795317C1 (ru) * 2022-07-28 2023-05-02 федеральное государственное автономное образовательное учреждение высшего образования "Пермский национальный исследовательский политехнический университет" Способ управления манипулятором

Also Published As

Publication number Publication date
TW202138138A (zh) 2021-10-16
WO2021117620A1 (ja) 2021-06-17
TWI770712B (zh) 2022-07-11
US20230019019A1 (en) 2023-01-19
TW202137381A (zh) 2021-10-01
KR20220100983A (ko) 2022-07-18
JP2021091078A (ja) 2021-06-17
JP2021091077A (ja) 2021-06-17
CN114830320A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
WO2021117619A1 (ja) 映像確認用コンピュータ
JP3834307B2 (ja) ロボットシステム
EP3822743A1 (en) Remote support via visualizations of instructional procedures
US11556875B2 (en) Generating visualizations for instructional procedures
CN110573308A (zh) 机器人系统的混合现实辅助空间编程
JP2017094407A (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
US11455300B2 (en) Interactive industrial automation remote assistance system for components
US20210225685A1 (en) Transport apparatus and adapter pendant
CN112313045A (zh) 用于机器人拣箱的系统和方法
JP2019171490A (ja) 動作履歴管理システム
WO2018123087A1 (ja) シミュレーション装置、ロボット、シミュレーション方法、及びそのプログラム
CN112894798A (zh) 在存在人类操作员的情况下控制机器人的方法
CN114080590A (zh) 使用先进扫描技术的机器人料箱拾取系统和方法
CN113412178A (zh) 机器人控制装置、机器人系统以及机器人控制方法
CN112109078A (zh) 具有以视频方式拍摄机器人装置的动作的照相机的监视装置
CN113165186A (zh) 机器人系统及其控制装置和控制方法、摄像装置、控制程序和存储介质
WO2022056050A1 (en) Fine-grained industrial robotic assemblies
CN116348912A (zh) 用于机器人视觉引导中的对象跟踪的方法和系统
TWI760008B (zh) 位置檢測方法、控制裝置及機器人系統
WO2022234668A1 (ja) 稼働管理装置
KR20140008659A (ko) 로봇을 모니터링하는 교시조작 시스템 및 교시조작 방법
WO2022269927A1 (ja) プログラム作成装置
CN117461007A (zh) 提供针对在机器人系统中产生的异常的步骤的异常处理装置、网络系统以及方法
CA3191818A1 (en) Robots, tele-operation systems, computer program products, and methods of operating the same
WO2024054797A1 (en) Visual robotic task configuration system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20897863

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20227021747

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20897863

Country of ref document: EP

Kind code of ref document: A1