WO2012141282A1 - 計算機システム、及び組立アニメーション生成方法 - Google Patents

計算機システム、及び組立アニメーション生成方法 Download PDF

Info

Publication number
WO2012141282A1
WO2012141282A1 PCT/JP2012/060106 JP2012060106W WO2012141282A1 WO 2012141282 A1 WO2012141282 A1 WO 2012141282A1 JP 2012060106 W JP2012060106 W JP 2012060106W WO 2012141282 A1 WO2012141282 A1 WO 2012141282A1
Authority
WO
WIPO (PCT)
Prior art keywords
assembly
parts
animation
processor
camera
Prior art date
Application number
PCT/JP2012/060106
Other languages
English (en)
French (fr)
Inventor
敦子 榎本
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US14/111,235 priority Critical patent/US9390534B2/en
Publication of WO2012141282A1 publication Critical patent/WO2012141282A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling

Definitions

  • the present invention relates to a computer system and an assembly animation generation method, for example, to a technique for generating an assembly animation indicating an assembly operation of an assembly based on an assembly sequence indicating a sequence for assembling an assembly using a computer. Is.
  • Patent Document 1 discloses a method of generating an assembly animation by calculating an assembly order and its movement direction.
  • Patent Document 1 does not take into account the camera posture required for creating the animation. Therefore, even if the animation of the assembly operation is generated, the camera remains in the initial posture, and the operation of the target component that the operator wants to show may be obstructed by other components and cannot be seen.
  • the present invention has been made in view of such a situation, and provides a technique for automatically generating a camera posture in which a motion of a target part in a work instruction animation can be seen.
  • the work according to the actual work is estimated by estimating the horizontal plane which is the installation surface of the target work and the standing position of the operator (also referred to as an operator or user).
  • the field of view is automatically generated.
  • inertia tensor information of a plurality of parts constituting the assembly is acquired, and the first inertia principal axis of the assembly is calculated from the inertia tensor information. Also, an assembly sequence and a plurality of parts are obtained such that proximity relation information indicating a proximity relation between a plurality of parts is obtained, and each of the plurality of parts does not interfere with a neighboring part based on the proximity relation information of the plurality of parts. An assembly motion vector indicating the assembly direction is generated.
  • a plurality of camera viewpoints each having a camera axis around the first inertia main axis and being candidates for a work field of view when generating an assembly animation are arranged, and an assembly motion vector of the target part for each of the plurality of parts Is selected as the work visual field of the target part. Then, an assembly animation of the assembly is generated from the set work visual field.
  • the present invention it is possible to estimate the positional relationship between a worker's installation posture and an operator in assembly work from an assembly model to be assembled, and to automatically generate a work field of view. Can be reduced.
  • the present invention automatically displays a work field of view in accordance with the assembly work of an actual assembly by the worker (a field of view that makes the worker feel exactly what he / she sees), an assembly animation and an assembly work instruction diagram based on the work field of view.
  • a work field of view in accordance with the assembly work of an actual assembly by the worker (a field of view that makes the worker feel exactly what he / she sees), an assembly animation and an assembly work instruction diagram based on the work field of view.
  • each acquisition unit, calculation unit, and generation unit can be read as an acquisition program, a calculation program, and a generation program.
  • FIG. 1 is a diagram showing a schematic configuration of a computer system (also referred to as an “assembly viewpoint generation system”) that implements the present invention.
  • the computer system 1 reads out various programs stored in a ROM (Read Only Memory) 8 and develops them in a RAM (Random Access Memory) 9 to execute processing according to the various programs, acquired data and Storage means 3 for storing the processing results, input means 4 for the user to input information and necessary instructions, output means 5 for outputting the processing results and the created animation, and CAD 7 for storing at least CAD data
  • ROM 8 Read Only Memory
  • RAM 9 Random Access Memory
  • the processing means 2 is a processor such as a CPU, for example.
  • the storage means 3 is, for example, an HDD or a semiconductor memory.
  • the input means 4 is, for example, a keyboard or a mouse (pointing device).
  • the output unit 5 is, for example, a display or a printer.
  • the connection line 6 is, for example, a connection cord or a network.
  • the processing means 2 reads, for example, a program stored in the ROM 8 and executes it to thereby obtain a component arrangement / proximity relationship acquisition unit 201, an assembly unit setting / installation orientation calculation unit 202, an assembly sequence generation unit 203, and a work field of view. It functions as an assembly animation generation unit 204 and a work instruction diagram generation unit 205.
  • the component gravity center / inertia tensor acquisition unit 200 acquires the gravity center information and inertia tensor (inertia main axis: inertia moment axis) information of the component designated by the user (operator) from the CAD 7, and the component gravity center / inertia tensor of the storage unit 3. Store in the data storage unit 300.
  • the component arrangement / proximity relationship acquisition unit 201 obtains information on the arrangement of components specified by the user and information on the proximity relationship between the components (for example, the components 1 and 2 are adjacent in the assembly). Obtained from the CAD 7 and stored in the component arrangement / proximity relationship data storage unit 302 of the storage unit 3. These pieces of information can also be designated by the user. In this case, the component arrangement / proximity relationship acquisition unit 201 uses the component designation / proximity relationship data stored in the storage unit 3 as information input by the user. Store in the storage unit 302.
  • the assembly unit setting / installation posture calculation unit 202 sets the assembly unit designated by the user as a group or a simultaneous assembly part. Further, the assembly unit setting / installation orientation calculation unit 202 calculates the orientation of component installation based on the component gravity center / inertia tensor data 300 for each group or simultaneous assembly component. For example, when assembling a part, it may be easier to assemble a posture different from the posture of the final assembly. Therefore, here, a stable posture that is easy to assemble in the group and the simultaneous assembly parts is calculated using the inertia tensor information.
  • the assembly unit setting / installation posture calculation unit 202 displays the calculated component posture data on the screen of the output means 5 (display), and in response to the operator's confirmation, the assembly unit / installation posture data storage unit 303. To store. If there is a correction instruction by the operator, the assembly unit setting / posture calculation unit 202 performs correction in response to the correction instruction, and then stores the correction in the assembly unit / installation posture data storage unit 303.
  • the assembly sequence generation unit 203 generates an assembly sequence of the finished product using the component arrangement / proximity relation data and the data of the assembly unit.
  • the assembly animation generation unit with work visual field 204 generates assembly animation data with work visual field of the finished product based on the assembly sequence generated by the assembly sequence generation unit 203.
  • the work instruction diagram generation unit 205 creates a time-series still image of point points (which can be specified by the operator) in the animation movie as a work instruction diagram based on the assembly animation data with a work visual field.
  • a work instruction diagram is created in order to cope with such a case.
  • work instruction diagrams include still images before and after processing (for example, assembly) of a certain part.
  • the storage means 3 includes an assembly model data storage unit 301 that stores assembly model data downloaded from the CAD 7, and a part center of gravity / inertia tensor data storage unit 300 that stores part center of gravity / inertia tensor data for the target part acquired from the CAD 7.
  • a component arrangement / proximity relationship data storage unit 302 that stores the component arrangement and proximity relationship data of each component acquired from the CAD 7, the assembly unit of the finished product designated by the operator, and the calculated installation attitude data
  • Assembly unit / installation attitude data storage unit 303 for storing the assembly sequence data storage unit 304 for storing the generated assembly sequence data
  • an assembly animation data storage unit for storing the assembly animation data generated based on the assembly sequence data 305 and created from assembly animation
  • a work instruction plan data storage unit 306 for storing the work instruction view (that work instructions are possible), a has.
  • FIG. 2 is a flowchart for explaining an outline of processing of the computer system 1.
  • step S20 the processing means 2 acquires (downloads) a list of components of the finished product from the CAD 7 and displays it on the screen of the output means 5.
  • This parts list is a list of parts related to an assembly model for which an assembly sequence and an assembly animation are to be generated.
  • the processing unit 2 registers data of the part that is the target of the selected assembly sequence, and stores the data in the storage unit 3. The data is stored in the assembly model data storage unit 301.
  • step S21 the part center of gravity / inertia tensor acquisition unit 200 extracts the center of gravity data and inertia tensor data of each part selected from the assembly model data extracted by the operator's selection from the part list and stored in the assembly model data storage unit 301. Is stored in the part gravity center / inertia tensor data storage unit 300 of the storage means 3.
  • step S22 the component arrangement / proximity relationship acquisition unit 201 evaluates the arrangement of each component and the proximity relationship between components from the assembly model data extracted from the component list and stored in the assembly model data storage unit 301.
  • the component arrangement / proximity relationship data is acquired and stored in the component arrangement / proximity relationship data storage unit 302 of the storage unit 3.
  • step S23 first, the processing means 2 displays the assembly model data stored in the assembly model data storage unit 301 on the screen of the output means 5.
  • the assembly unit setting / installation orientation calculation unit 202 receives the input part set.
  • a group of parts to be moved and a group of parts to be assembled by the simultaneous assembly operation are stored in the assembly unit / installation posture data storage unit 303 as assembly unit data.
  • step S23 the assembly unit setting / installation orientation calculation unit 202 reads out the component gravity center data and inertia tensor data from the component gravity center / inertia tensor data storage unit 300 for each assembly unit, and installs components based on the data. Calculate the posture. Then, the assembly unit setting / installation orientation calculation unit 202 displays the calculated orientation information of the installed parts on the screen of the output means 5, and after confirmation and correction processing by the operator, the confirmed orientation information is converted into assembly unit / installation orientation data. Store in the storage unit 303.
  • step S24 the assembly sequence generation unit 203 reads the component placement / proximity relationship data storage unit 302 and the assembly unit / installation posture data storage unit 303 from the component placement / proximity relationship data storage unit 302 and the assembly unit / installation posture data storage unit 303, respectively. Using these, assembly sequence data is generated and stored in the assembly sequence data storage unit 304.
  • step S ⁇ b> 25 the assembly animation generation unit with work visual field 204 reads the corresponding assembly sequence data from the assembly sequence data storage unit 304, generates assembly animation data with a viewpoint using this, and stores it in the assembly animation data storage unit 305. To do.
  • step S26 the work instruction diagram generating unit 205 reads the created assembly animation data with work visual field from the assembly animation data storage unit 305, and creates a work instruction diagram.
  • Step S22 Details of Component Placement / Proximity Relationship Acquisition Processing>
  • the component arrangement / proximity relationship acquisition unit 201 first sets the assembly (finished product) designated by the operator and the minimum rectangular parallelepiped 8 containing the assembly or the component as the arrangement information of the component. Get the coordinates of the vertex CAD in world coordinates.
  • step S22 acquisition of the proximity relationship between components, which is another function of step S22, will be described.
  • a part 31 constituting the assembly 30 is arranged in the vicinity of the peripheral part 32 and the part 33.
  • the component 31 and the component 32 are close to each other on a coaxial cylindrical surface 311, and the component 31 and the component 33 are close to each other on a plane 312.
  • the component arrangement / proximity relationship acquisition unit 201 acquires the types and geometric information of adjacent surfaces as follows.
  • Cylindrical surface When the adjacent surface is a cylindrical surface, the direction vector 34 of the cylindrical axis and the coordinate value and radius of the center of the circle on the bottom surface of the cylinder are information representing the proximity relationship.
  • Plane When the adjacent surface is a plane, the solid outward normal vector 35, the orthogonal two axes 36 and 37 on the plane, and the origin coordinates are information representing the proximity relationship.
  • Conical surface When the adjacent surface is a conical surface, the direction vector of the conical axis and the coordinate value and the radius of the center of the circle on the conical bottom surface are information representing the proximity relationship.
  • Whether or not the surfaces of two parts are close to each other is determined by whether or not the distance between certain surfaces is less than or equal to a threshold value specified by the user. May be determined to be close.
  • FIG. 4 is a diagram for explaining the setting of the assembly unit in step S23 executed by the assembly unit setting / installation posture calculation unit 202.
  • the assembly model loaded in step S20 is a component unit 41 configured by the designer.
  • the component unit 41 in the assembly model is often different from the assembly unit when one unit 40 as shown in FIG. 4A is assembled. That is, they often do not correspond one-to-one.
  • the setting of the component unit 42 of the assembly sequence includes the setting of the component 43 that is an assembly sequence generation target (animation generation target), the setting of the component group 44 that is assembled as a component, and the component However, it is divided into the setting of parts 45 that simultaneously perform assembly operations (simultaneous assembly parts: not parts, but parts that are simultaneously attached to a certain part in the same direction) 45, for example. Since the part Part8 is a base, it can be excluded from the setting target for each part.
  • the component in the assembly sequence generation refers to a component unit configured as shown in FIG. 4C set in step S23.
  • step S23 when the assembly unit 40 is set, the installation posture of the assembly unit is calculated.
  • the installation posture will be described with reference to FIG. In the example of FIG. 10, when the assembly unit 40 is installed such that the inertia main axis (first inertia main axis) 1001 having the maximum moment of inertia in the assembly unit 40 is parallel to the gravity 1002, Is a stable installation posture.
  • the center of gravity 1003 of the assembly unit 40 is obtained by accumulating information on the centers of gravity of the parts constituting the assembly unit. Then, the assembly unit 40 is installed in a direction in which the center of gravity 1003 is lower along the direction of gravity from the intersection 1004 of the diagonal line of the smallest outer rectangular parallelepiped 1000 that is the smallest rectangular parallelepiped including the assembly unit. Thereby, it becomes the attitude
  • the inertial spindle 1001 is obtained by a predetermined matrix operation using a common origin in each part constituting the assembly and using inertia tensor information of each part.
  • the direction of the inertial spindle 1001 is determined by the positional relationship between the intersection 1004 and the center of gravity 1003.
  • the center of gravity 1003 is below the center 1004, so the inertia main axis 1001 is determined upward.
  • the inertial main shaft 1001 is determined downward, and a more stable posture (vertical posture) is set.
  • the assembly unit setting / installation posture calculation unit 202 displays this on the output unit 5 as Z of a three-dimensional vector.
  • the operator sets the front direction orthogonal to the inertial spindle 1001 by the input means 4.
  • the front direction is set to an arrow 1005.
  • This is a three-dimensional vector X.
  • the remaining orthogonal vector Y is calculated by the cross product operation Z ⁇ X of Z and X, and the three-dimensional orthogonal vector (X, Y, Z) is set as the installation posture of the assembly unit 40.
  • the assembly sequence can be generated by generating a disassembly sequence from the CAD assembly model, reversing the disassembly order of the disassembly sequence, and inverting the sign of the disassembly motion vector.
  • FIG. 5 is a flowchart for explaining the generation of the disassembly sequence and the process of generating the assembly sequence from the disassembly sequence.
  • the assembly sequence generation unit 203 refers to the component arrangement / proximity relationship data in the component arrangement / proximity relationship data storage unit 302, and the six constituent planes from the eight vertices of the smallest cuboid containing each target component to the minimum cuboid. And the following parts disassembly order proposal ((i) or (ii) or a combination thereof) is generated. (I) Among the component parts, any one of the six component planes of the smallest rectangular parallelepiped arranges the component parts in descending order in the vertical direction.
  • the rank cannot be determined for the two parts that are not in the internal / external relationship. In that case, it is possible to give an order among all the parts by giving an order to the order between parts using the process (i). If the processing of (i) is used, it is possible to rank all parts independently, but for parts having the same order, for example, one of the six constituent planes of the smallest rectangular parallelepiped has a higher order on the left part. It is also possible to add conditions such as
  • step S52 the assembly sequence generation unit 203 initializes the order i of the disassembly order generated in step S51.
  • step S53 the assembly sequence generation unit 203 determines whether the order i has reached the final order of the disassembly order. If it is determined that it has not been reached (No in S53), the process proceeds to step S54. On the other hand, if it is determined that it has been reached (Yes in S53), the process proceeds to step S58.
  • step S54 the assembly sequence generation unit 203 calculates a disassembly motion vector set v (i) for the target part p (i) in the disassembly order i by a method described later (see FIG. 6).
  • step S55 the assembly sequence generation unit 203 determines whether or not a decomposition motion vector has been generated. For example, the part in the middle of the assembly cannot be removed (does not move) even if it is removed from the assembly, and at this time, “there is no decomposition motion vector”. Whether it moves or does not move can be determined from the information on the proximity of the parts.
  • the process proceeds to step S56.
  • the decomposition motion is generated (Yes in S55)
  • the process proceeds to step S57.
  • step S56 the assembly sequence generation unit 203 advances the order of the target part p (i) to i + 1 and shifts the process to step S53. That is, since there is no decomposition motion vector, the order of removing the part is postponed.
  • step S57 the assembly sequence generation unit 203 sets the next order as i + 1 as a processing target, and shifts the processing to step S53.
  • step S58 the assembly sequence generation unit 203 reverses the disassembly order and stores it as an assembly order.
  • step S59 the assembly sequence generation unit 203 inverts the vector sign of the decomposition motion v (i) for all the orders i in the assembly sequence to obtain an assembly motion vector set u (i), and the assembly motion vector set u (i ) Is stored in the assembly sequence data storage unit 304.
  • the reverse of the disassembly motion vector is the assembly motion vector.
  • FIG. 6 is a diagram showing a configuration model for explaining the details of the calculation process of the decomposition motion in step S54.
  • a target part p (i) for calculation of decomposition motion is a.
  • 61 is the part a
  • the part 62 is close to the part a and the cylindrical surface 611
  • the part 63 is close to the part a and the plane 612.
  • a set of decomposition motion vectors can be calculated as shown in Equation 1 using the central axis e i of the cylindrical surface. That is, in the case of a cylindrical surface, the resolving motion vector is a vertical vector.
  • a set of motion vectors can be calculated from the solid outward normal of the plane of the part 63 and the orthogonal vector on the plane as shown in Equation 2. That is, in the case of a plane, the resolving motion vectors are vectors in the upward direction and the XY direction.
  • Equation 3 the decomposition motion vector set of the part a.
  • the motion area of the target component a is limited by the proximity plane, and the component a may interfere with the proximity plane j.
  • the motion area set of the proximity plane j is calculated as shown in Equation 4 below.
  • the part a part 61
  • the part a can be moved only upward.
  • the corrected motion vector that takes into account the limitation of the motion region of the proximity plane j interferes with a proximity plane k (k ⁇ j) other than the proximity plane j, the correction motion vector does not become the decomposition motion vector of the part a. Then, the corrected motion vector is re-corrected by the processing of Equation 6, and the re-corrected motion vector is calculated.
  • V (i) is expressed by Equation 7.
  • the interference component is removed, and V (i) is a set of candidates for the direction to be removed (resolved motion vector).
  • Step S25 Details of Assembly Animation Generation Processing with Camera Viewpoint>
  • the motion of the part (assembly motion vector) is obtained.
  • the arrangement position of the camera is set.
  • Step S25 is a process of generating assembly animation data from the assembly sequence data 13 created in step S24 and storing it in the assembly animation data storage unit 305.
  • the assembly animation data is constituted by data of a part name 701 to be moved, an assembly motion vector 702 that is a moving direction, and a camera viewpoint 703. These pieces of data are associated with each assembly 720 in units of a total group 710 and stored in the assembly animation data storage unit 305 as assembly animation data.
  • the installation posture coordinate system of the assembly unit is [X, Y, Z].
  • the Z axis is always upward.
  • the installation posture coordinate system is a coordinate system in a posture in which the assembly unit is stable, which is obtained in step S23.
  • the posture [Xc 1 , Yc 1 , Zc 1 ] of the first camera 1101 is calculated by Equation 9.
  • the camera Zc 1 axis is set in the front direction X of the assembly unit, and the camera Yc (1) axis is set in the vertical upward direction Z of the assembly unit.
  • the coordinates of the camera are combined with the installation posture coordinate system.
  • the Zc k axis of the k-th camera is obtained by rotating the front direction vector X of the assembly unit by 2 ⁇ ⁇ (k ⁇ 1) / N around the vertical upward vector Z. Thereby, N cameras are arranged at a predetermined interval around the Z axis.
  • the camera is the k1 camera 1103 [Xc k1 , Yc k1 , Zc k1 ], and the camera rotated downward by an angle ⁇ is the k2 camera 1104 [Xc k2 , Yc k2 , Zc k2 ].
  • u i 1201 be the assembly motion vector of the part p (i) to be assembled in the order i of the assembly sequence. Then, a camera km that satisfies the condition of Expression 11 is selected.
  • a camera in which the assembly motion vector and the camera's Zc axis are most parallel and opposite in direction is selected. That is, a camera axis that is close to the assembly motion vector (assembly direction) is selected. Thereby, an easy-to-see direction is determined as the work visual field.
  • the second camera 1202 is selected for the assembly motion vector u i 1201. Since the assembly direction differs for each part, the camera direction (camera axis) is selected for each part and used for animation generation.
  • An animation image 802 is displayed on the 3D model display area 801 on the screen 800 as shown in FIG. 8, for example, as shown in FIG.
  • the operator can directly operate the displayed animation image 802 (up / down, left / right, rotation, enlargement / reduction) to adjust the camera posture (including the position).
  • the camera posture adjustment is performed for each assembly in the order of assembling to the assembly model, and all the camera postures after the changed order are changed.
  • the camera posture A is reflected in the assembly order from n to a. Is done.
  • the camera posture is changed to B in the assembly order of m (n ⁇ m ⁇ a) in advance, the camera posture A is reflected in the assembly order from n to (m ⁇ 1).
  • the camera posture is changed to B in the m-th assembly order, the camera posture B is reflected in the assembly order from m to a.
  • the assembly animation can be played back in an arbitrary order and can be ended in an arbitrary order. You can change the playback speed of the animation, and you can send and return frames by frame so that one block constitutes one frame, and the operator can check the animation at a speed that suits you be able to.
  • the operator may press the “animation playback” button 812 in FIG.
  • the animation playback button 812 When the animation playback button 812 is pressed, the 3D model 802 displayed in the 3D model display area 801 starts to move, and an animation showing how the corresponding assembly is assembled can be viewed. At this time, by setting the start position of the animation in advance, the assembly animation can be viewed from the designated assembly order.
  • the button 812 When the animation playback is to be terminated halfway, the button 812 is changed to an “animation stop” button during the playback, and this button is pressed to stop the animation.
  • the edited animation is saved by pressing the “animation save” button 813, and the animation editing operation is finished by pushing the “end” button 815.
  • Step S26 Details of Work Instruction Drawing Creation Process> Next, a process for creating a work instruction diagram (also referred to as a work instruction sheet) based on the created / edited animation will be described.
  • a work instruction diagram also referred to as a work instruction sheet
  • FIG. 9 shows a case where a work instruction sheet for a part 902 is displayed as a highlight part in the work instruction diagram display area 901.
  • information such as a part name, a figure number, and the number is displayed as quality confirmation information regarding the highlight part 902.
  • precautions for assembling the highlight component 902 are displayed.
  • the first inertia principal axis of the assembly is calculated from the inertia tensor information of each part. Also, an assembly motion vector indicating the assembly sequence and the assembly direction of the plurality of parts is generated based on the proximity relation information indicating the proximity relation between the plurality of parts. The assembly sequence and the assembly motion vector at this time are calculated so that each of the plurality of parts does not interfere with adjacent parts. Then, a plurality of camera viewpoints each having a camera axis are arranged around the first inertia main axis. This camera viewpoint is a candidate for the work field of view when generating the assembly animation.
  • the camera viewpoint that most closely matches the assembly motion vector of the target part is selected.
  • the selected camera viewpoint becomes the work field of view of the target part.
  • an assembly animation of the assembly is generated.
  • the work visual field is preferably generated in an assembly unit (for example, a group) designated by the user. This further improves the efficiency of animation generation.
  • a work instruction diagram including still images before and after the assembly of the specified part is generated based on the assembly animation image.
  • a plurality of camera viewpoints may be arranged so as to form a predetermined angle with respect to a plane in which the first principal axis is a perpendicular line.
  • a camera viewpoint that forms a predetermined angle ( ⁇ , ⁇ ) with the assembly motion vector of each component is a candidate for the work visual field of the target component.
  • the selected camera viewpoint is the one that most closely matches the direction of the assembly motion vector, but when viewed from the direction of the first principal axis, A predetermined angle is formed. In this way, it is possible to create a work field of view that is slightly shifted (by a predetermined angle) rather than seeing the assembly operation from directly in front of the component, and it is possible to provide a work field that is easier to see by the user. .
  • the assembly motion vector is generated by determining the disassembly order of a plurality of parts, generating the disassembly motion vectors of the plurality of parts in the disassembly order, and inverting the sign of the disassembly motion vector.
  • the reverse of the disassembly order is the assembly order.
  • an adjustment interface for adjusting the camera posture at the selected camera viewpoint may be displayed on the screen. Thereby, it is possible to provide a camera viewpoint more suitable for the user's preference.
  • the present invention can also be realized by a program code of software that realizes the functions of the embodiment.
  • a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium.
  • the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.
  • a storage medium for supplying such program code for example, a flexible disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. are used.
  • an OS operating system
  • the computer CPU or the like performs part or all of the actual processing based on the instruction of the program code.
  • the program code is stored in a storage means such as a hard disk or memory of a system or apparatus or a storage medium such as a CD-RW or CD-R
  • the computer (or CPU or MPU) of the system or apparatus may read and execute the program code stored in the storage means or the storage medium when used.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown. All the components may be connected to each other.
  • Work instruction diagram generation unit (work instruction diagram generation program) 301 ... Assembly model data storage unit 300 ... Parts center of gravity / inertia tensor data storage unit 302 ... Component placement / proximity relationship data storage unit 303 ... Assembly unit / installation posture data storage unit 304 ... Assembly Sequence data storage unit 305 ... assembly animation data storage unit 306 ... work instruction diagram data storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 作業指示アニメーションにおける対象部品の動作が見えるカメラ姿勢を自動的に生成するための技術を提供する。組立品を構成する複数の部品の慣性テンソル情報から組立品の第一慣性主軸を算出する。また、複数の部品間の近接関係を示す近接関係情報を取得し、複数の部品の近接関係情報に基づいて、複数の部品のそれぞれが近接する部品と干渉しないような、組立シーケンス及び複数の部品の組み付け方向を示す組立運動ベクトルを生成する。さらに、第一慣性主軸の周りに、それぞれカメラ軸を有し、組立アニメーション生成の際の作業視野の候補となる複数のカメラ視点を配置し、複数の部品のそれぞれについて、対象部品の組立運動ベクトルに最も方向が合致するカメラ視点を選択し、当該選択されたカメラ視点を対象部品の作業視野として設定する。そして、設定された作業視野から組立品の組立アニメーションを生成する。

Description

計算機システム、及び組立アニメーション生成方法
 本発明は、計算機システム、及び組立アニメーション生成方法に関し、例えば、コンピュータを用い、組立品を組み立てるシーケンスを示す組立シーケンスに基づいて、組立品の組立の動作を示す組立アニメーションを生成するための技術に関するものである。
 複数の部品を組み立てて完成品を作成する場合、組立動作をアニメーションとして示すことができると組立作業上非常に便利である。例えば、特許文献1には、組立順序とその運動方向を算出し、組立アニメーションを生成する方法が開示されている。
特開2008-46924号公報
 しかしながら、特許文献1で示される従来のアニメーション作成技術においては、アニメーション作成時に必要となるカメラ姿勢については考慮されていない。したがって、組立動作のアニメーションを生成してもカメラは初期姿勢のままであり、作業者に見せたい対象部品の動作が他の部品に妨げられて見えなくなる恐れがある。
 本発明はこのような状況に鑑みてなされたものであり、作業指示アニメーションにおける対象部品の動作が見えるカメラ姿勢を自動的に生成するための技術を提供するものである。
 上記課題を解決するために、本発明では、対象ワークの設置面であり作業者(オペレータ、ユーザと言うこともできる)の立ち位置である水平面を推算することにより、現実の作業に則した作業視野を自動的に生成するようにする。
 即ち、本発明では、組立品を構成する複数の部品の慣性テンソル情報を取得し、当該慣性テンソル情報から組立品の第一慣性主軸を算出する。また、複数の部品間の近接関係を示す近接関係情報を取得し、複数の部品の近接関係情報に基づいて、複数の部品のそれぞれが近接する部品と干渉しないような、組立シーケンス及び複数の部品の組み付け方向を示す組立運動ベクトルを生成する。さらに、第一慣性主軸の周りに、それぞれカメラ軸を有し、組立アニメーション生成の際の作業視野の候補となる複数のカメラ視点を配置し、複数の部品のそれぞれについて、対象部品の組立運動ベクトルに最も方向が合致するカメラ視点を選択し、当該選択されたカメラ視点を対象部品の作業視野として設定する。そして、設定された作業視野から組立品の組立アニメーションを生成する。
 本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本発明の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される特許請求の範囲の様態により達成され実現される。
 本明細書の記述は典型的な例示に過ぎず、本発明の特許請求の範囲又は適用例を如何なる意味に於いても限定するものではないことを理解する必要がある。
 本発明によれば、組立の対象となるアセンブリモデルから組立作業におけるワークの設置姿勢と作業者との位置関係を推算し、作業視野を自動的に生成することが可能となり、組立作業指示の工数の低減効果を得られる。
本発明の実施形態によるコンピュータシステムの概略構成を示す図である。 本発明の実施形態による組立アニメーション生成処理の概要を説明するためのフローチャートである。 本発明の実施形態による部品の近接関係(例)を説明するための図である。 本発明の実施形態による組立単位の設定の例を示す図である。 本発明の実施形態による組立運動ベクトル生成処理の詳細を説明するためのフローチャートである。 本発明の実施形態による分解運動(例)を説明するための図である。 本発明の実施形態による組立アニメーションデータの構成を示すデータリストの図である。 本発明の実施形態による組立アニメーションを表示した画面例を示す図(画面正面図)である。 本発明の実施形態による作業支持図を表示した画面例を示す図(画面正面図)である。 本発明の実施形態による組立単位の設置姿勢算出に関する情報例を示す図である。 本発明の実施形態による複数台のカメラの設定例を示す図である。 本発明の実施形態による組立運動を捕らえるのに適したカメラを選択する例を説明するための図である。
 本発明は、作業者による現実の組立品の組立作業に則した作業視野(作業者がまさに見ているような感覚となる視野)、その作業視野に基づいた組立アニメーションや組立作業指示図を自動生成するための技術を提供する。
 以下、添付図面を参照して本発明の実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本発明の原理に則った具体的な実施形態と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。
 本実施形態では、当業者が本発明を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本発明の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。
 更に、本発明の実施形態は、後述されるように、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。従って、各取得部、算出部、及び生成部は、取得プログラム、算出プログラム、及び生成プログラムと読み替えることができる。
 <コンピュータシステムの構成>
 図1は、本発明を実現するコンピュータシステム(「組立視点生成システム」ともいう)の概略構成を示す図である。
 コンピュータシステム1は、ROM(Read Only Memory)8に格納された各種プログラムを読み出してRAM(Random Access Memory)9に展開し、各種プログラムに従った処理を実行する処理手段2と、取得したデータ及び処理結果を格納するための記憶手段3と、ユーザが情報や必要な指示を入力するための入力手段4と、処理結果や作成したアニメーションを出力する出力手段5と、少なくともCADデータを格納するCAD7と、少なくとも各種プログラムを格納するROM8と、少なくとも処理手段2の作業領域を提供するRAM9と、を有し、それらは接続線6を介して接続されている。
 処理手段2は、例えばCPUなどのプロセッサである。記憶手段3は、例えばHDDや半導体メモリである。入力手段4は、例えばキーボードやマウス(ポインティングデバイス)である。出力手段5は、例えばディスプレイやプリンタである。接続線6は、例えば接続コードやネットワークである。
 処理手段2は、例えばROM8に記憶されたプログラム読み出して実行することによって、部品配置・近接関係取得部201と、組立単位設定・設置姿勢算出部202と、組立シーケンス生成部203と、作業視野付き組立アニメーション生成部204と、作業指示図生成部205として機能する。
 部品重心・慣性テンソル取得部200は、ユーザ(オペレータ)によって指定された部品の重心情報及び慣性テンソル(慣性主軸:慣性モーメントの軸)情報をCAD7から取得し、記憶手段3の部品重心・慣性テンソルデータ格納部300に格納する。
 部品配置・近接関係取得部201は、ユーザによって指定された部品の配置に関する情報及び各部品間の近接関係(例えば、組立品の中で部品1と2が隣接している等)の情報を、CAD7から取得し、記憶手段3の部品配置・近接関係データ格納部302に格納する。なお、これらの情報は、ユーザによって指定することも可能であり、その場合には、部品配置・近接関係取得部201は、ユーザによって指定入力された情報を記憶手段3の部品配置・近接関係データ格納部302に格納する。
 組立単位設定・設置姿勢算出部202は、ユーザによって指示された組立単位を、部組や同時組立部品として設定する。また、組立単位設定・設置姿勢算出部202は、部組や同時組立部品ごとに部品重心・慣性テンソルデータ300に基づいて部品を設置する姿勢を算出する。例えば、部組を組み立てるときには、最終的な組立品の姿勢とは異なる姿勢のほうが組み立て易いこともある。そこで、ここでは、部組や同時組立部品における組み立てやすい安定的な姿勢が、慣性テンソル情報を用いて算出される。そして、組立単位設定・設置姿勢算出部202は、算出した部品の姿勢データを出力手段5(ディスプレイ)の画面上に表示し、オペレータの確認に応答して、組立単位・設置姿勢データ格納部303に格納する。オペレータによる修正指示があれば、組立単位設定・姿勢算出部202は、修正指示に応答して修正を施してから、組立単位・設置姿勢データ格納部303に格納する。
 組立シーケンス生成部203は、部品配置・近接関係データ及び組立単位のデータを用いて、完成品の組立シーケンスを生成する。
 作業視野付組立アニメーション生成部204は、組立シーケンス生成部203によって生成された組立シーケンスに基づいて、完成品の作業視野付組立アニメーションデータを生成する。
 作業指示図生成部205は、作業視野付組立アニメーションデータに基づいて、当該アニメーショ動画におけるポイント箇所(オペレータが指定可能)の時系列の静止画像を作業指示図として作成する。オペレータ(作業者)によっては、一連のアニメーション画像よりも、所定の組立のポイントの前後の画像だけでも良い場合があり、このような場合に対応するために、作業指示図が作成される。作業指示図の例として、ある部品の処理(例えば、組み付け)前後の静止画像が挙げられる。
 記憶手段3は、CAD7からダウンロードされた組立モデルデータを格納する組立モデルデータ格納部301と、CAD7から取得した対象部品についての部品重心・慣性テンソルデータを格納する部品重心・慣性テンソルデータ格納部300と、CAD7から取得した各部品の部品配置及び近接関係のデータを格納する部品配置・近接関係データ格納部302と、オペレータによって指定された完成品の組立単位及び算出して得られた設置姿勢データを格納する組立単位・設置姿勢データ格納部303と、生成した組立シーケンスデータを格納する組立シーケンスデータ格納部304と、組立シーケンスデータに基づいて生成された組立アニメーションデータを格納する組立アニメデータ格納部305と、組立アニメーションから作成された作業指示図(作業指示書ということも可能である)を格納する作業指示図データ格納部306と、を有している。
 <コンピュータシステムの処理概要>
 図2は、コンピュータシステム1の処理概要を説明するためのフローチャートである。
 ステップS20では、処理手段2が、完成品の構成部品のリストをCAD7から取得(ダウンロード)して出力手段5の画面上に表示する。この部品リストは、組立シーケンス及び組立アニメーションを生成しようとする組立モデルに関連する部品をリストアップしたものである。オペレータが、この部品リストが表示された画面上で組立シーケンスの対象となる部品を選択すると、処理手段2は、選択された組立シーケンスの対象となる部品のデータを登録して、記憶手段3の組立モデルデータ格納部301に記憶する。
 ステップS21では、部品重心・慣性テンソル取得部200が、部品リストからオペレータの選択によって抽出され組立モデルデータ格納部301に記憶された組立モデルデータから、選択された各部品の重心データ及び慣性テンソルデータを取得し、記憶手段3の部品重心・慣性テンソルデータ格納部300に格納する。
 ステップS22では、部品配置・近接関係取得部201が、部品リストから抽出されて組立モデルデータ格納部301に記憶された組立モデルデータから、各部品の配置及び部品間の近接関係を評価して、部品配置・近接関係データを取得し、記憶手段3の部品配置・近接関係データ格納部302に格納する。
 ステップS23では、まず、処理手段2が、組立モデルデータ格納部301に記憶された組立モデルデータを出力手段5の画面上に表示する。オペレータが画面上に表示された組立モデルデータに対して、入力手段4を用いて組立を行う組立単位(部組)を設定すると、組立単位設定・設置姿勢算出部202が、入力された部組として動かす部品群や同時の組み立て動作で組み立てる部品群を、組立単位データとして組立単位・設置姿勢データ格納部303に格納する。また、ステップS23では、組立単位設定・設置姿勢算出部202が、組立単位ごとに部品重心・慣性テンソルデータ格納部300から部品重心データ及び慣性テンソルデータを読み出し、当該データに基づいて、設置する部品の姿勢を算出する。そして、組立単位設定・設置姿勢算出部202が、算出した設置部品の姿勢情報を出力手段5の画面に表示し、オペレータによる確認や修正処理を経て、確定した姿勢情報を組立単位・設置姿勢データ格納部303に格納する。
 ステップS24では、組立シーケンス生成部203が、部品配置・近接関係データ格納部302及び組立単位・設置姿勢データ格納部303のそれぞれから、部品配置・近接関係データ及び組立単位・設置姿勢データを読み出し、これらを用いて組立シーケンスデータを生成し、組立シーケンスデータ格納部304に格納する。
 ステップS25では、作業視野付き組立アニメーション生成部204が、組立シーケンスデータ格納部304から対応する組立シーケンスデータを読み出し、これを用いて視点付組立アニメーションデータを生成し、組立アニメデータ格納部305に格納する。
 ステップS26では、作業指示図生成部205が、作成された作業視野付組立アニメーションデータを組立アニメデータ格納部305から読み出して、作業指示図を作成する。
 以下において、図2のS22乃至S26の各ステップの詳細について説明する。
 <ステップS22:部品配置・近接関係の取得処理の詳細>
 ステップS22では、部品配置・近接関係取得部201は、まず、オペレータによって指定された組立品(完成品)及び、その構成部品の配置情報として、組立品または構成部品を内包する最小の直方体の8頂点のCADのワールド座標における座標を取得する。
 次に、ステップS22のもう1つの機能である部品間近接関係の取得について説明する。
 今、例えば、図3に示されるような組立品30を考える。当該組立品30を構成する部品31は、周辺の部品32及び部品33と近接して配置されている。部品31と部品32は同軸の円筒面311で近接しており、部品31と部品33は平面312で近接している。
 そこで、部品配置・近接関係取得部201は、近接するサーフェスの種類と幾何情報を以下のように取得する。
(i)円筒面:近接する面が円筒面の場合、円筒軸の方向ベクトル34と円筒底面の円の中心の座標値と半径が、近接関係を表す情報となる。
(ii)平面:近接する面が平面の場合、ソリッド外向き法線ベクトル35と、平面上の直行2軸36及び37と、原点座標が、近接関係を表す情報となる。
(iii)円錐面:近接する面が円錐面の場合、円錐軸の方向ベクトルと円錐底面の円の中心の座標値と半径が、近接関係を表す情報となる。
 なお、2つの部品のサーフェスが近接するか否かの判断は、あるサーフェス間の距離が、ユーザが指定する閾値以下か否かによって行われ、閾値以下であれば、これらの部品の2つのサーフェスは近接すると判断するようにすれば良い。
 <ステップS23:組立単位の設定と設置姿勢の算出処理の詳細>
 図4は、組立単位設定・設置姿勢算出部202が実行するステップS23の組立単位の設定について説明するための図である。
 ステップS20においてロードされる組立モデルは、図4Bに示すように、設計者が構成した部品単位41となる。このため、組立モデルにおける部品単位41は、図4Aに示すような一つのユニット40を組み立てるときの組立単位と異なる場合が多い。つまり、それらは1対1に対応しない場合が多い。
 そこで、ステップS23では、組立シーケンスの部品単位42の設定は、組立シーケンス生成の対象(アニメーション生成の対象)となる部品43の設定と、部組品として組立てる部品群44の設定と、部組品ではないが同時に組み立て動作を行う部品(同時組立部品:部組品ではないが、例えば、ある部品に対して同じ方向に同時に取り付けられるような部品)45の設定とに分けられる。なお、部品Part8は土台であるため、部品単位の設定対象から除くことが可能となっている。
 図4の例では、図4Bに示すように、設計上の部品単位41は8つであるが、図4Cに示すように、組立シーケンスの部品単位42は4つ(Part部品8を除く、部品単位44及び45、Part4及び5)に設定されている。以後の説明での組立シーケンス生成における部品とは、ステップS23で設定された図4Cに示すような構成の部品単位を指すものとする。
 ステップS23では、組立単位40が設定されると、その組立単位の設置姿勢が算出される。図10を用いて、設置姿勢について説明する。図10の例では、組立単位40において最大の慣性モーメントを有する慣性主軸(第一慣性主軸)1001が重力1002と平行となるように、組立単位40の設置姿勢を取るとき、組立単位40は重力に対して安定する設置姿勢となっている。
 また、組立単位40の重心1003が、組立単位を構成する部品の各重心の情報を積算することにより得られる。そして、当該重心1003が、組立単位を包含する最小の直方体である最少外包直方体1000の対角線の交点1004より重力方向に沿って下側となる方向に、組立単位40が設置される。これにより、水平方向の外乱に対し安定する姿勢となる。例えば、重心1003が交点1004よりも上にある場合には、設置姿勢を逆にした方が安定する。なお、慣性主軸1001は、組立品を構成する各部品において、原点を共通化し、各部品の慣性テンソル情報を用いて、所定の行列演算により求められる。ただし、この段階では、軸の方向が上向きか下向きか確定することができない。そこで、前述のように、交点1004と重心1003の位置関係により、慣性主軸1001の方向が決定される。図10の例では、重力方向が1002のとき、重心1003は中心1004の下にあるため、慣性主軸1001は上向きに決定される。一方、重心1003が中心1004より上にある場合には、慣性主軸1001は下向きに決定され、より安定する姿勢(上下方向の姿勢)が設定される。
 以上の方法を用いると、例えば、組立単位40の設置姿勢の鉛直軸方向が慣性主軸1001であると算出される。そして、組立単位設定・設置姿勢算出部202は、これを3次元ベクトルのZとして出力手段5に表示する。
 次に、オペレータが慣性主軸1001と直交する正面方向を入力手段4により設定する。例えば、組立単位40において、正面方向が矢印1005に設定されたとする。これを3次元ベクトルXとする。S23では、ZとXの外積演算Z×Xにより、残る直交ベクトルYを算出し、3次元直交ベクトル(X、Y、Z)が組立単位40の設置姿勢とされる。
 <ステップS24:組立シーケンス生成処理の詳細>
 組立シーケンスは、CADの組立モデルから分解シーケンスを生成し、分解シーケンスの分解順序を逆順にし、分解運動ベクトルの符号を反転することにより生成することができる。このような処理手順について図5を参照しながら説明する。図5は、分解シーケンスの生成と分解シーケンスから組立シーケンスを生成する処理を説明するためのフローチャートである。
 ステップS51では、組立シーケンス生成部203は、部品配置・近接関係データ格納部302の部品配置・近接関係データを参照し、各対象部品を内包する最小直方体の8頂点から最小直方体の6つの構成平面を構成し、以下のような部品の分解順序案((i)又は(ii)、或いは、それらの組み合わせ)を生成する。
(i)構成部品うち、最小直方体の6つの構成平面のいずれかが、鉛直方向で高い順に構成部品の順序を並べる。
(ii)同軸で構成される組立品の組立シーケンスを生成する場合、ユーザにより指定された方向軸に対し、最小直方体の4つの構成面が平行な部品群について、該当する4つの構成面に対し、部品間で内包関係が成立する部品群を、内側からあるいは外側からの順序に並べる。
 ここで、(ii)の処理において互いに内包・外包関係にあたらない2部品については、順位が決定できない。その場合、(i)の処理を用いて部品間の順序に序列をつけることにより、全ての部品間に序列を付けることが可能である。(i)の処理を用いれば単独で全ての部品間に序列をつけることができるが、同じ順位となる部品については、例えば、最小直方体の6つの構成平面のいずれかが左側の部品を高い順位にするなどのように条件を付加することも可能である。
 ステップS52では、組立シーケンス生成部203は、ステップS51で生成した分解順序の順番iを初期化する。
 ステップS53では、組立シーケンス生成部203は、順番iが分解順序の最終順番に達したか否かを判断する。達していないと判断した場合(S53でNoの場合)、処理はステップS54に移行する。一方、達していると判断した場合(S53でYesの場合)、処理はステップS58に移行する。
 ステップS54では、組立シーケンス生成部203は、分解順序iの対象部品p(i)について、後述する方法(図6参照)により分解運動ベクトル集合v(i)を算出する。
 ステップS55では、組立シーケンス生成部203は、分解運動ベクトルが生成されたか否かを判定する。例えば、組立品の真ん中にある部品などは組立品から外そうとしても外すことができず(動かない)、このとき「分解運動ベクトルがない」とすることができる。動くか動かないかは、部品の近接関係の情報により判断することができる。近接部品との干渉で分解運動が生成されない場合(S55でNoの場合)、処理はステップS56に移行する。分解運動が生成された場合(S55でYesの場合)、処理はステップS57に移行する。
 ステップS56では、組立シーケンス生成部203は、対象部品p(i)の順序をi+1に先送りして処理をステップS53に移行させる。つまり、分解運動ベクトルがないため、当該部品を外す順序を後回しにされる。
 ステップS57では、組立シーケンス生成部203は、次の順序であるi+1に処理対象とし、処理をステップS53に移行させる。
 ステップS58では、組立シーケンス生成部203は、分解順序を逆順にして組立順序として格納する。
 ステップS59では、組立シーケンス生成部203は、組立順序の全ての順番iについて分解運動v(i)のベクトル符号を反転して組立運動ベクトル集合u(i)とし、当該組立運動ベクトル集合u(i)を組立シーケンスデータ格納部304に格納する。分解運動ベクトルの逆が組立運動ベクトルとなる。
 <ステップS54:分解運動の算出処理の詳細>
 図6は、ステップS54の分解運動の算出処理の詳細を説明するための構成モデルを示す図である。
 まず、ここでは分解運動算出の対象部品p(i)をaとする。図6の例では61が部品a、部品62が部品aと円筒面611で近接し、部品63が部品aと平面612で近接している。部品aと近接するサーフェスjについて、サーフェスjの種類が円筒面及び円錐面の場合、分解運動ベクトルの集合は、円筒面の中心軸eを用いて式1のように算出することができる。つまり、円筒面の場合には、分解運動ベクトルは上下方向のベクトルとなる。
Figure JPOXMLDOC01-appb-M000001
 また、例えば、サーフェスjの種類が平面の場合、運動ベクトルの集合は、部品63の平面のソリッド外向き法線と平面上の直交ベクトルから式2のように算出することができる。つまり、平面の場合には、分解運動ベクトルは、上方向、及びXY方向のベクトルとなる。
Figure JPOXMLDOC01-appb-M000002
 部品aに複数の近接サーフェスが在る場合は、サーフェスごとの運動ベクトル集合の和集合を部品aの分解運動ベクトル集合は、式3のように表すことができる。
Figure JPOXMLDOC01-appb-M000003
 ここで対象部品aは、近接平面により運動の動作領域が制限され、部品aは近接平面jと干渉する可能性がある。
 近接平面jの運動領域集合は、以下の式4のように算出する。例えば、図6において、部品a(部品61)については、上方向にしか動かせないからである。
Figure JPOXMLDOC01-appb-M000004
 運動ベクトル集合Mに属する運動ベクトルmに対し、動作領域集合Dの要素ベクトルdによる制限を加味した補正運動ベクトルを式5により算出する。
Figure JPOXMLDOC01-appb-M000005
 次に、近接平面jの運動領域の制限を加味した補正運動ベクトルが、近接平面j以外の近接平面k(k≠j)と干渉する場合、補正運動ベクトルは部品aの分解運動ベクトルとならないので、式6の処理により補正運動ベクトルを再補正して再補正運動ベクトルを算出する。
Figure JPOXMLDOC01-appb-M000006
 零ベクトル以外の再補正運動ベクトルを要素として、部品aの分解運動ベクトル集合V(i)とすると、V(i)は式7で表される。なお、式7では、干渉成分が取り除かれたものとなっており、V(i)は、取り外す方向(分解運動ベクトル)の候補の集合となっている。
Figure JPOXMLDOC01-appb-M000007
 以上の処理により部品aについて近接面と干渉しない複数の分解運動ベクトルが生成され、このベクトルの符号を反転して式8で表されるベクトルを組立運動ベクトル集合U(i)とし、これが組立順序とともに組立シーケンスデータとして組立シーケンスデータ格納部304に格納される。
Figure JPOXMLDOC01-appb-M000008
 <ステップS25:カメラ視点付組立アニメーション生成処理の詳細>
 ステップS24までの処理により、部品の動き(組立運動ベクトル)が求められる。ステップS25では、カメラの配置位置が設定される。
 ステップS25は、ステップS24で作成された組立シーケンスデータ13から組立アニメーションデータを生成し、組立アニメデータ格納部305に格納する処理である。
 組立アニメーションデータは、例えば、図7に示すように、動かす対象の部品名701と動かす方向である組立運動ベクトル702と、カメラ視点703のデータによって構成される。これらのデータは、総組710の単位で部組品720ごとに関連付けられて、組立アニメデータ格納部305に、組立アニメーションデータとして格納されている。
 次に、カメラ視点を設定するためのカメラ姿勢の算出方法について説明する。S23で算出した組立単位の設置姿勢のXY平面を地平面として、鉛直上方向であるZ軸周りに均等に複数台のカメラを置いて、以下の方法で組立動作を捕らえるのに適したカメラに自動的に切り換える。
 まず、複数台のカメラ姿勢の算出方法を示す。オペレータが入力手段4から設定したカメラ台数をNとする。組立単位の設置姿勢座標系を[X,Y,Z]とする。Z軸は必ず上向きとなっている。なお、設置姿勢座標系は、ステップS23で求められた、組立単位が安定した姿勢での座標系である。
 図11に示すように、式9により第一カメラ1101の姿勢[Xc,Yc,Zc]を算出する。式9によって、カメラZc軸を組立単位の正面方向Xに、カメラYc(1)軸を組立単位の鉛直上方向Zに設定する。式9により、カメラの座標を設置姿勢座標系に併せている。
Figure JPOXMLDOC01-appb-M000009
 第kカメラ1102(k=1,…,N)の姿勢[Xc,Yc,Zc]は、式10で算出する。第kカメラのZc軸は組立単位の正面方向ベクトルXを鉛直上方向ベクトルZ周りに2π・(k-1)/N回転させたものである。これにより、Z軸周りにN個のカメラが所定間隔で配置される。
Figure JPOXMLDOC01-appb-M000010
 さらに、第kカメラ(k=1,…,N)の姿勢[Xc,Yc,Zc]を正面ベクトルX周りに上向きに角度α(例えば、予め設定された正の定数)だけ回転させたカメラを第k1カメラ1103[Xck1,Yck1,Zck1]、下向きに角度-αだけ回転させたカメラを第k2カメラ1104[Xck2,Yck2,Zck2]とする。
 次に、組立運動を捕らえるのに適したカメラの選択方法について示す。組立順序の順番iで組み立てる部品p(i)の組立運動ベクトルをu1201とする。そして、式11の条件を満たすカメラkmが選択される。
Figure JPOXMLDOC01-appb-M000011
 式11により組立運動ベクトルとカメラのZc軸が最も平行で方向は反対のカメラが選択される。つまり、組立運動ベクトル(組み付け方向)と並行に近いカメラ軸が選択される。これにより、作業視野として見やすい方向が決定される。図12の例では組立運動ベクトルu1201に対し、第2カメラ1202が選ばれることになる。なお、組み付け方向は部品ごとに異なるため、カメラの方向(カメラ軸)は部品ごとに選択され、アニメーション生成に用いられる。
 この算出したカメラ姿勢から組立品のアセンブリモデルを観察している状態で、部品p(i)が組立運動ベクトルuで移動して組立品のアセンブリモデルに組みつけられる様子をアニメーションとして作成する。
 次に、カメラ姿勢を調整する方法について説明する。算出したカメラ姿勢から見た組立品の三次元モデルを出力手段4の画面上に、例えば図8のように画面800上の三次元モデル表示領域801にアニメーション画像802を表示する。オペレータはこの画面800上で、表示されたアニメーション画像802を直接操作(上下、左右、回転、拡大、縮小)して、カメラ姿勢(位置も含む)を調整することができる。
 カメラ姿勢調整は、アセンブリモデルに組み付ける順番に組立品毎に行われ、変更した順番以降のカメラ姿勢が全て変更されるようになっている。
 例えば、a(aは任意の自然数)番目まである組立順番においてn(n≦a)番でカメラ姿勢をAに変更したならば、n以上a以下までの組立順番に対してカメラ姿勢Aが反映される。あらかじめm(n<m≦a)の組立順番でカメラ姿勢をBに変更している場合はn以上(m-1)以下までの組立順番に対してカメラ姿勢Aが反映される。逆に後からm番の組立順番でカメラ姿勢をBに変更すればm以上a以下の組立順番に対してカメラ姿勢Bが反映される。これにより、自動生成した姿勢であってもオペレータの好みによって姿勢を変更することが可能となる。
 組立順番通りに三次元モデルを組立てる様子を、設定したカメラ姿勢で表示するアニメーションを見て、組立順番とカメラ姿勢を確認することができる。
 また、組立アニメーションは、任意の順番から再生することができ、また、任意の順番で終了することができる。アニメーションの再生スピードを変更することや、一つのブロックが一フレームを構成するようなフレーム単位でフレーム送りやフレーム戻しを行うことができ、作業者は自分に合ったスピードでアニメーションを見て確認することができる。
 アニメーションを見る場合は、オペレータは、図8の「アニメーション再生」ボタン812を押せば良い。アニメーション再生ボタン812を押すと、三次元モデル表示領域801に表示されている三次元モデル802が動き出し、該当する組立品の組み立てる様子を表すアニメーションを見ることが可能となる。このとき、アニメーションの開始位置を予め設定しておくことにより、指定した組立順番から組立てアニメーションを見ることが可能になる。アニメーション再生を途中で終了する場合は、再生中にボタン812が「アニメーション停止」ボタンに変わっているので、このボタンを押してアニメーションを停止する。組立順番とカメラ姿勢の確認が終わり、作成したアニメーションを保存する場合は「アニメーション保存」ボタン813を押して編集したアニメーションを保存し、「終了」ボタン815を押すことでアニメーション編集作業を終了する。
 <ステップS26:作業指示図作成処理の詳細>
 次に、この作成・編集したアニメーションに基づいて、作業指示図(作業指示書ともいう)を作成する処理について説明する。
 図8の画面において、オペレータが「作業指示図作成」ボタン814を押すと、図9に示すような作業指示書の画面に変わる。
 図9では、作業指示図表示領域901にハイライト部品として部品902の作業指示書が表示されている場合について示している。903の欄には、ハイライト部品902に関する品質確認情報として、部品名や図番、員数などの情報が表示される。904の欄には、ハイライト部品902を組み付ける作業をする上での注意事項が表示される。
 画面右下の「次へ」ボタン911をクリックすると、現在表示されているハイライト部品902の次に組み付ける部品に関する情報が作業指示図表示領域901に表示される。また、「戻る」ボタン912をクリックすると、現在表示されているハイライト部品902の前に組み付ける部品に関する情報が作業指示図表示領域901に表示される。
 各部品の作業指示書の確認が終わると、「終了」ボタン815をクリックして作業を終了する。
 <まとめ>
 本発明の実施形態では、各部品の慣性テンソル情報から組立品の第一慣性主軸を算出する。また、複数の部品間の近接関係を示す近接関係情報に基づいて、組立シーケンス及び複数の部品の組み付け方向を示す組立運動ベクトルを生成する。このときの組立シーケンス及び組立運動ベクトルは、複数の部品のそれぞれが近接する部品と干渉しないように算出される。そして、第一慣性主軸の周りに、それぞれカメラ軸を有する複数のカメラ視点を配置する。このカメラ視点が、組立アニメーション生成の際の作業視野の候補となる。さらに、複数の部品のそれぞれについて、対象部品の組立運動ベクトルに最も方向が合致するカメラ視点を選択する。この選択されたカメラ視点が対象部品の作業視野となる。この作業視野から組立品の組立アニメーションが生成される。このようにすることにより、現実の作業に則した作業視野を自動生成することが可能となる。つまり、従来のような、部品の組立動作ベクトルにカメラ軸を平行にする方式では、ワークの設置面を考慮していなかったので、実際取りえない作業者の姿勢による視野を生成していたが、本発明によれば、この課題は解消される。なお、作業視野は、ユーザによって指定された組立単位(例えば、部組)で生成されるようにすると良い。これにより、よりアニメーション生成の効率が良くなる。
 また、本発明では、組立アニメーションの画像に基づいて、指定された部品の組立前後の静止画像を含む作業指示図を生成する。このようにすることにより、組立動作の全体の様子まで必要のないユーザに対して、必要な部分のみの組立情報を提供することができるので、このようなユーザの作業効率をより高くすることができるようになる。
 本発明では、第一主軸が垂線となる平面に対して所定角度をなすように複数のカメラ視点を配置するようにしても良い。このとき、それぞれの部品の組み立て運動ベクトルと所定角度(α、-α)をなすカメラ視点が対象部品の作業視野の候補となる。そして、第一主軸が法線となる平面上でカメラ視点を見たときには上記選択されたカメラ視点は、組立運動ベクトルの方向と最も一致したものとなるが、第一主軸の方向からみると、所定角度をなしている。このようにすることにより、部品の真正面から組立動作を見るよりも、少しずらして(所定角度分だけ)作業視野を作成することができ、ユーザによってより見やすい作業視野を提供することが可能となる。
 なお、組立運動ベクトルは、複数の部品の分解順序を決定し、当該分解順序で複数の部品のそれぞれの分解運動ベクトルを生成し、当該分解運動ベクトルの符号を反転させて生成する。また、組立シーケンスは、分解順序の逆を組立順序とする。このようにすることにより、組立品から容易に組立運動ベクトル及び組立シーケンスを生成することが可能となる。
 また、選択されたカメラ視点におけるカメラ姿勢を調整するための調整用インタフェースを画面上に表示するようにしても良い。これにより、よりユーザの好みに適したカメラ視点を提供することが可能となる。
 本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
 また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。
 さらに、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。
 最後に、ここで述べたプロセス及び技術は本質的に如何なる特定の装置に関連することはなく、コンポーネントの如何なる相応しい組み合わせによってでも実装できることを理解する必要がある。更に、汎用目的の多様なタイプのデバイスがここで記述した教授に従って使用可能である。ここで述べた方法のステップを実行するのに、専用の装置を構築するのが有益であることが判るかもしれない。また、実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。本発明は、具体例に関連して記述したが、これらは、すべての観点に於いて限定の為ではなく説明の為である。本分野にスキルのある者には、本発明を実施するのに相応しいハードウェア、ソフトウェア、及びファームウエアの多数の組み合わせがあることが解るであろう。例えば、記述したソフトウェアは、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
 さらに、上述の実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていても良い。
 加えて、本技術分野の通常の知識を有する者には、本発明のその他の実装がここに開示された本発明の明細書及び実施形態の考察から明らかになるである。記述された実施形態の多様な態様及び/又はコンポーネントは、データを管理する機能を有するコンピュータ化ストレージシステムに於いて、単独又は如何なる組み合わせでも使用することが出来る。明細書と具体例は典型的なものに過ぎず、本発明の範囲と精神は後続する請求範囲で示される。
1・・・コンピュータシステム
2・・・処理手段(プロセッサ)
3・・・記憶手段
4・・・入力手段
5・・・出力手段
6・・・接続線
7・・・CAD
200・・・部品重心・慣性テンソル取得部(部品重心・慣性テンソル取得プログラム)
201・・・部品配置・近接関係取得部(部品配置・近接関係取得プログラム)
202・・・組立単位設定・設置姿勢算出部(組立単位設定・設置姿勢算出プログラム)
203・・・組立シーケンス生成部(組立シーケンス生成プログラム)
204・・・作業視野付き組立アニメーション生成部(作業視野付き組立アニメーション生成プログラム)
205・・・作業指示図生成部(作業指示図生成プログラム)
301・・・組立モデルデータ格納部
300・・・部品重心・慣性テンソルデータ格納部
302・・・部品配置・近接関係データ格納部
303・・・組立単位・設置姿勢データ格納部
304・・・組立シーケンスデータ格納部
305・・・組立アニメデータ格納部
306・・・作業指示図データ格納部

Claims (14)

  1.  組立品を組み立てるシーケンスを示す組立シーケンスに基づいて、前記組立品の組立の動作を示す組立アニメーションを生成する計算機システムであって、
     前記組立アニメーションを生成するプロセッサと、
     前記生成された組立アニメーションの情報を格納するメモリと、
     前記プロセッサの制御に応答して、前記組立アニメーションを表示するディスプレイと、を有し、
     前記プロセッサは、
      前記組立品を構成する複数の部品の慣性テンソル情報を取得し、当該慣性テンソル情報から前記組立品の第一慣性主軸を算出し、
      前記複数の部品間の近接関係を示す近接関係情報を取得し、
      前記複数の部品の近接関係情報に基づいて、前記複数の部品のそれぞれが近接する部品と干渉しないような、前記組立シーケンス及び前記複数の部品の組み付け方向を示す組立運動ベクトルを生成し、
      前記第一慣性主軸の周りに、それぞれカメラ軸を有し、前記組立アニメーション生成の際の作業視野の候補となる複数のカメラ視点を配置し、
      前記複数の部品のそれぞれについて、対象部品の前記組立運動ベクトルに最も方向が合致するカメラ視点を選択し、当該選択されたカメラ視点を前記対象部品の作業視野として設定し、
      前記作業視野から前記組立アニメーションを生成することを特徴とする計算機システム。
  2.  請求項1において、
     前記プロセッサは、前記組立アニメーションの画像に基づいて、指定された部品の組立前後の静止画像を含む作業指示図を生成することを特徴とする計算機システム。
  3.  請求項1において、
     前記プロセッサは、前記第一主軸が垂線となる平面に対して所定角度をなすように前記複数のカメラ視点を配置し、前記それぞれの部品の前記組み立て運動ベクトルと所定角度をなす前記カメラ視点を前記対象部品の作業視野の候補とすることを特徴とする計算機システム。
  4.  請求項1において、
     前記プロセッサは、前記複数の部品の分解順序を決定し、当該分解順序で前記複数の部品のそれぞれの分解運動ベクトルを生成し、当該分解運動ベクトルの符号を反転させて前記組立運動ベクトルを生成することを特徴とする計算機システム。
  5.  請求項4において、
     前記プロセッサは、前記分解順序の逆を組立順序として、前記組立シーケンスを生成することを特徴とする計算機システム。
  6.  請求項1において、
     前記プロセッサは、指示入力に応答して、前記組立品を構成する複数の部品のうち同時に組立を行う部品の集合である組立単位を設定し、当該組立単位の前記第一慣性主軸に基づいて安定的な設置姿勢を決定し、当該安定的な設置姿勢の前記組立単位における各部品に対して、前記作業視野を設定することを特徴とする計算機システム。
  7.  請求項1において、
     前記プロセッサは、前記選択されたカメラ視点におけるカメラ姿勢を調整するための調整用インタフェースを画面上に表示するように前記ディスプレイを制御することを特徴とする計算機システム。
  8.  計算機システムを用い、組立品を組み立てるシーケンスを示す組立シーケンスに基づいて、前記組立品の組立の動作を示す組立アニメーションを生成する組立アニメーション生成方法であって、
     前記計算機システムが有するプロセッサが、前記組立品を構成する複数の部品の慣性テンソル情報を取得し、当該慣性テンソル情報から前記組立品の第一慣性主軸を算出するステップと、
     前記プロセッサが、前記複数の部品間の近接関係を示す近接関係情報を取得ステップと、
     前記プロセッサが、前記複数の部品の近接関係情報に基づいて、前記複数の部品のそれぞれが近接する部品と干渉しないような、前記組立シーケンス及び前記複数の部品の組み付け方向を示す組立運動ベクトルを生成するステップと、
     前記プロセッサが、前記第一慣性主軸の周りに、それぞれカメラ軸を有し、前記組立アニメーション生成の際の作業視野の候補となる複数のカメラ視点を配置するステップと、
     前記プロセッサが、前記複数の部品のそれぞれについて、対象部品の前記組立運動ベクトルに最も方向が合致するカメラ視点を選択し、当該選択されたカメラ視点を前記対象部品の作業視野として設定するステップと、
     前記プロセッサが、前記作業視野から前記組立アニメーションを生成し、ディスプレイ画面上に表示するステップと、
    を有することを特徴とする組立アニメーション生成方法。
  9.  請求項8において、
     さらに、前記プロセッサが、前記組立アニメーションの画像に基づいて、指定された部品の組立前後の静止画像を含む作業指示図を生成するステップを有することを特徴とする組立アニメーション生成方法。
  10.  請求項8において、
     前記選択されたカメラ視点を前記対象部品の作業視野として設定するステップにおいて、前記プロセッサは、前記第一主軸が垂線となる平面に対して所定角度をなすように前記複数のカメラ視点を配置し、前記それぞれの部品の前記組み立て運動ベクトルと所定角度をなす前記カメラ視点を前記対象部品の作業視野の候補とすることを特徴とする組立アニメーション生成方法。
  11.  請求項8において、
     前記組立運動ベクトルを生成するステップにおいて、前記プロセッサは、前記複数の部品の分解順序を決定し、当該分解順序で前記複数の部品のそれぞれの分解運動ベクトルを生成し、当該分解運動ベクトルの符号を反転させて前記組立運動ベクトルを生成することを特徴とする組立アニメーション生成方法。
  12.  請求項11において、
     前記プロセッサは、前記分解順序の逆を組立順序として、前記組立シーケンスを生成することを特徴とする組立アニメーション生成方法。
  13.  請求項8において、
     さらに、前記プロセッサが、指示入力に応答して、前記組立品を構成する複数の部品のうち同時に組立を行う部品の集合である組立単位を設定するステップと、
     前記プロセッサが、当該組立単位の前記第一慣性主軸に基づいて安定的な設置姿勢を決定するステップと、を有し、
     前記前記選択されたカメラ視点を前記対象部品の作業視野として設定するステップにおいて、前記プロセッサは、前記安定的な設置姿勢の前記組立単位における各部品に対して、前記作業視野を設定することを特徴とする組立アニメーション生成方法。
  14.  請求項8において、
     さらに、前記プロセッサが、前記選択されたカメラ視点におけるカメラ姿勢を調整するための調整用インタフェースを画面上に表示するように前記ディスプレイを制御するステップを有することを特徴とする組立アニメーション生成方法。
PCT/JP2012/060106 2011-04-13 2012-04-13 計算機システム、及び組立アニメーション生成方法 WO2012141282A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/111,235 US9390534B2 (en) 2011-04-13 2012-04-13 Computer system and assembly animation generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-089386 2011-04-13
JP2011089386A JP5628083B2 (ja) 2011-04-13 2011-04-13 計算機システム、及び組立アニメーション生成方法

Publications (1)

Publication Number Publication Date
WO2012141282A1 true WO2012141282A1 (ja) 2012-10-18

Family

ID=47009442

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/060106 WO2012141282A1 (ja) 2011-04-13 2012-04-13 計算機システム、及び組立アニメーション生成方法

Country Status (3)

Country Link
US (1) US9390534B2 (ja)
JP (1) JP5628083B2 (ja)
WO (1) WO2012141282A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114429522A (zh) * 2022-01-28 2022-05-03 南京维拓科技股份有限公司 产品模型爆炸拆解及装配顺序开发的方法及编辑器

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101735683B1 (ko) * 2014-01-07 2017-05-15 한국전자통신연구원 목조 건조물 조립 시뮬레이션 장치 및 그 방법
JP6266104B2 (ja) * 2014-05-20 2018-01-24 株式会社日立製作所 組立順序生成装置、組立順序生成方法および組立順序生成プログラム
JP6318080B2 (ja) * 2014-12-01 2018-04-25 株式会社日立製作所 順序決定支援装置および順序決定支援方法
EP3040946B1 (en) * 2014-12-30 2019-11-13 Dassault Systèmes Viewpoint selection in the rendering of a set of objects
US10379524B2 (en) 2015-06-26 2019-08-13 The Boeing Company Management of a display of an assembly model
US10417924B2 (en) * 2016-11-11 2019-09-17 Sap Se Visual work instructions for assembling product
US10650609B2 (en) 2018-02-23 2020-05-12 Sap Se Virtual prototyping and assembly validation
JP6952650B2 (ja) * 2018-06-07 2021-10-20 株式会社日立製作所 作業指示生成装置および作業指示生成方法
US11423799B2 (en) * 2019-07-03 2022-08-23 Rockwell Automation Technologies, Inc. Systems and methods for generating custom assembly instructions for product packages

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139500A (ja) * 2004-11-11 2006-06-01 Ricoh Co Ltd 3次元形状処理方法および装置
JP2006171889A (ja) * 2004-12-13 2006-06-29 Ricoh Co Ltd 3次元形状表示システム、3次元形状表示方法及び3次元形状表示プログラム
JP2008046924A (ja) * 2006-08-17 2008-02-28 Hitachi Ltd 組立物情報生成装置
JP2009134708A (ja) * 2007-11-09 2009-06-18 Ricoh Co Ltd パーツ識別画像作成装置及び同方法、パーツ識別表示装置及び同方法、プログラム及び記憶媒体
JP2011013986A (ja) * 2009-07-02 2011-01-20 Hitachi Ltd 作業指示図生成装置および作業指示図生成方法
JP2012014569A (ja) * 2010-07-02 2012-01-19 Hitachi Ltd 組立シーケンス生成システム、プログラム及び方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619630A (en) * 1994-02-28 1997-04-08 Hitachi, Ltd. Apparatus for producing exploded view and animation of assembling and method thereof
US6144375A (en) * 1998-08-14 2000-11-07 Praja Inc. Multi-perspective viewer for content-based interactivity
AU2382300A (en) * 1998-12-23 2000-07-12 National Institute Of Standards And Technology ("Nist") Method and system for a virtual assembly design environment
US6453209B1 (en) * 1999-09-01 2002-09-17 Daimlerchrysler Corporation Computer-implemented method and apparatus for integrating vehicle manufacturing operations
JP4224748B2 (ja) * 1999-09-13 2009-02-18 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、記録媒体、並びに画像処理装置
US20020143507A1 (en) * 2000-07-26 2002-10-03 Hwei-Min Lu 3-D kinematics and tolerance variation analysis
CA2317336A1 (en) * 2000-09-06 2002-03-06 David Cowperthwaite Occlusion resolution operators for three-dimensional detail-in-context
US7295958B1 (en) * 2002-06-04 2007-11-13 Massachusetts Institute Of Technology Method and system for computer aided design
GB0510108D0 (en) * 2005-05-18 2005-06-22 Advanced Integrated Engineerin Simulation environment
DE602006010089D1 (de) * 2005-08-11 2009-12-10 Philips Intellectual Property Wiedergeben einer ansicht von einem bilddatensatz
US7403833B2 (en) * 2006-04-03 2008-07-22 Stratasys, Inc. Method for optimizing spatial orientations of computer-aided design models
JP4986543B2 (ja) * 2006-08-31 2012-07-25 キヤノン株式会社 情報処理方法、情報処理装置
US7979251B2 (en) * 2007-03-16 2011-07-12 Lego A/S Automatic generation of building instructions for building element models
US8537165B2 (en) * 2008-06-18 2013-09-17 Roblox Corporation Method and apparatus for automatic coalescence of connected rigid bodies
WO2010023668A1 (en) * 2008-08-28 2010-03-04 Technion Research & Development Foundation Ltd. System and method for stabilizing a single-track vehicle
US20110128350A1 (en) * 2009-11-30 2011-06-02 Motorola, Inc. Method and apparatus for choosing a desired field of view from a wide-angle image or video
US8401687B2 (en) * 2010-11-24 2013-03-19 Sap Ag Visual assembly tool

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139500A (ja) * 2004-11-11 2006-06-01 Ricoh Co Ltd 3次元形状処理方法および装置
JP2006171889A (ja) * 2004-12-13 2006-06-29 Ricoh Co Ltd 3次元形状表示システム、3次元形状表示方法及び3次元形状表示プログラム
JP2008046924A (ja) * 2006-08-17 2008-02-28 Hitachi Ltd 組立物情報生成装置
JP2009134708A (ja) * 2007-11-09 2009-06-18 Ricoh Co Ltd パーツ識別画像作成装置及び同方法、パーツ識別表示装置及び同方法、プログラム及び記憶媒体
JP2011013986A (ja) * 2009-07-02 2011-01-20 Hitachi Ltd 作業指示図生成装置および作業指示図生成方法
JP2012014569A (ja) * 2010-07-02 2012-01-19 Hitachi Ltd 組立シーケンス生成システム、プログラム及び方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAISUKE IMIYA ET AL.: "A Navigate System for Mechanical Part Exchange", DAI 39 KAI SPECIAL INTERNET GROUP ON FOUNDATION OF ARTIFICIAL INTELLIGENCE SHIRYO (SIG-FAI-9903), 25 November 1999 (1999-11-25), pages 113 - 118 *
MASAKI OTSUKI ET AL.: "Viewpoint Selection of Rangefinder for 3D Shape Measurement", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J81-D-II, no. 6, 25 June 1998 (1998-06-25), pages 1269 - 1277 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114429522A (zh) * 2022-01-28 2022-05-03 南京维拓科技股份有限公司 产品模型爆炸拆解及装配顺序开发的方法及编辑器
CN114429522B (zh) * 2022-01-28 2023-08-18 南京维拓科技股份有限公司 产品模型爆炸拆解及装配顺序开发的方法及编辑器

Also Published As

Publication number Publication date
US20140118358A1 (en) 2014-05-01
JP2012221416A (ja) 2012-11-12
US9390534B2 (en) 2016-07-12
JP5628083B2 (ja) 2014-11-19

Similar Documents

Publication Publication Date Title
JP5628083B2 (ja) 計算機システム、及び組立アニメーション生成方法
US10705678B2 (en) Image processing apparatus, image processing method, and storage medium for generating a virtual viewpoint image
CN105354820B (zh) 调整虚拟现实图像的方法及装置
JP5686538B2 (ja) 組立シーケンス生成システム、プログラム及び方法
CN109691084A (zh) 信息处理装置和方法以及程序
JP2018092580A (ja) 画像生成装置および方法
US10467791B2 (en) Motion edit method and apparatus for articulated object
JP6348623B2 (ja) 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム
JP2015087846A (ja) 三次元モデル作成システム
CN102262705A (zh) 实景虚拟现实方法
Vajak et al. Combining photogrammetry, 3D modeling and real time information gathering for highly immersive VR experience
US20220277520A1 (en) Information processing apparatus, information processing method, and storage medium
JP2016071682A (ja) オブジェクト配置装置、オブジェクト配置方法、及び、プログラム
JP2008117113A (ja) 画像生成装置および方法、画像生成プログラム
JP6555755B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2008287588A (ja) 画像処理装置および方法
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
CN114452646A (zh) 虚拟对象透视处理方法、装置及计算机设备
JP2015170232A (ja) 情報処理装置、その制御方法、及びプログラム
WO2015141214A1 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP6357412B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2020173222A1 (zh) 物品虚拟化处理方法、装置、电子设备及存储介质
CN108920598A (zh) 全景图浏览方法、装置、终端设备、服务器及存储介质
KR20200004754A (ko) 정보 처리장치, 그 제어방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12771461

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14111235

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 12771461

Country of ref document: EP

Kind code of ref document: A1