JP2020040130A - Processing device, control method of processing device, and control program of processing device - Google Patents

Processing device, control method of processing device, and control program of processing device Download PDF

Info

Publication number
JP2020040130A
JP2020040130A JP2018167081A JP2018167081A JP2020040130A JP 2020040130 A JP2020040130 A JP 2020040130A JP 2018167081 A JP2018167081 A JP 2018167081A JP 2018167081 A JP2018167081 A JP 2018167081A JP 2020040130 A JP2020040130 A JP 2020040130A
Authority
JP
Japan
Prior art keywords
camera
processing apparatus
cameras
processing device
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018167081A
Other languages
Japanese (ja)
Other versions
JP6595065B1 (en
Inventor
山田 智明
Tomoaki Yamada
智明 山田
静雄 西川
Shizuo Nishikawa
静雄 西川
大樹 中尾
Hiroki Nakao
大樹 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DMG Mori Co Ltd
Original Assignee
DMG Mori Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DMG Mori Seiki Co Ltd filed Critical DMG Mori Seiki Co Ltd
Priority to JP2018167081A priority Critical patent/JP6595065B1/en
Priority to PCT/JP2019/031959 priority patent/WO2020049973A1/en
Application granted granted Critical
Publication of JP6595065B1 publication Critical patent/JP6595065B1/en
Publication of JP2020040130A publication Critical patent/JP2020040130A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/20Arrangements for observing, indicating or measuring on machine tools for indicating or measuring workpiece characteristics, e.g. contour, dimension, hardness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Machine Tool Sensing Apparatuses (AREA)
  • Numerical Control (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a processing device including measuring means capable of performing highly accurate measurement based on an image; and to provide a control method of the processing device.SOLUTION: A processing device includes at least two cameras including at least one mobile camera 101 and a camera 102 fixed inside the processing device, and a measuring part for measuring a three-dimensional shape of an imaging object by using images acquired by at least two cameras. The mobile camera is attached to a tool spindle. Measuring means measures at least either of the depth of a hole processed in the imaging object and the size of a step processed on the imaging object, as a three-dimensional shape.SELECTED DRAWING: Figure 1

Description

本発明は、加工装置、加工装置の制御方法および加工装置の制御プログラムに関する。   The present invention relates to a processing device, a control method for the processing device, and a control program for the processing device.

上記技術分野において、特許文献1には、工作機械の機内にカメラを配置し、当該カメラを用いて機内を撮影して、表示する技術が開示されている。   In the above technical field, Patent Literature 1 discloses a technique in which a camera is arranged in a machine tool, and the inside of the machine is photographed and displayed using the camera.

特開2018−94689号公報JP 2018-94689 A

しかしながら、上記文献に記載の技術では、所望の映像を得ることができなかったため、映像に基づいた精度の高い計測をすることができなかった。   However, with the technology described in the above-mentioned literature, a desired image could not be obtained, and therefore, highly accurate measurement based on the image could not be performed.

本発明の目的は、上述の課題を解決する技術を提供することにある。   An object of the present invention is to provide a technique for solving the above-mentioned problem.

上記目的を達成するため、本発明に係る加工装置は、
少なくとも1つの移動カメラを含む少なくとも2つのカメラと、
前記少なくとも2つのカメラで取得した画像を用いて、撮影対象物の立体形状を計測する計測手段と、
を備えた。
In order to achieve the above object, a processing apparatus according to the present invention includes:
At least two cameras including at least one moving camera;
Using an image acquired by the at least two cameras, measuring means for measuring the three-dimensional shape of the imaging target,
With.

上記目的を達成するため、本発明に係る加工装置の制御方法は、
少なくとも1つの移動カメラを含む少なくとも2つのカメラを備えた加工装置の制御方法であって、
前記少なくとも2つのカメラで撮影した画像を取得する取得ステップと、
取得した前記画像を用いて、撮影対象物の立体形状を計測する計測ステップと、
を含む。
In order to achieve the above object, a method for controlling a processing apparatus according to the present invention includes:
A method for controlling a processing apparatus including at least two cameras including at least one moving camera,
An obtaining step of obtaining an image captured by the at least two cameras;
Using the acquired image, a measurement step of measuring the three-dimensional shape of the imaging target,
including.

上記目的を達成するため、本発明に係る加工装置の制御プログラムは、
少なくとも1つの移動カメラを含む少なくとも2つのカメラを備えた加工装置の制御プログラムであって、
前記少なくとも2つのカメラで撮影した画像を取得する取得ステップと、
取得した前記画像を用いて、撮影対象物の立体形状を計測する計測ステップと、
をコンピュータに実行させる。
In order to achieve the above object, a control program for a processing apparatus according to the present invention includes:
A control program for a processing apparatus provided with at least two cameras including at least one moving camera,
An obtaining step of obtaining an image captured by the at least two cameras;
Using the acquired image, a measurement step of measuring the three-dimensional shape of the imaging target,
On a computer.

本発明によれば、映像に基づいた精度の高い計測をすることができる。   According to the present invention, highly accurate measurement based on an image can be performed.

本発明の第1実施形態に係る加工装置の構成を示す図である。It is a figure showing the composition of the processing device concerning a 1st embodiment of the present invention. 本発明の第2実施形態に係る加工装置の構成の一例の概要を示す図である。It is a figure showing the outline of an example of the composition of the processing device concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る加工装置の構成の他の例の概要を示す図である。It is a figure showing the outline of other examples of the composition of the processing device concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る加工装置の構成を示すブロック図である。It is a block diagram showing the composition of the processing device concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る加工装置の備えるカメラテーブルの一例を示す図である。It is a figure showing an example of a camera table with which a processing device concerning a 2nd embodiment of the present invention is provided. 本発明の第2実施形態に係る加工装置のハードウェア構成を示すブロック図である。It is a block diagram showing the hardware constitutions of the processing device concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る加工装置の処理手順を説明するフローチャートである。It is a flow chart explaining a processing procedure of a processing device concerning a 2nd embodiment of the present invention. 本発明の第3実施形態に係る加工装置の構成の一例の概要を示す図である。It is a figure showing the outline of an example of the composition of the processing device concerning a 3rd embodiment of the present invention. 本発明の第3実施形態に係る加工装置の備えるカメラテーブルの一例を示す図である。It is a figure showing an example of a camera table with which a processing device concerning a 3rd embodiment of the present invention is provided. 本発明の第3実施形態に係る加工装置の処理手順を説明するフローチャートである。It is a flow chart explaining the processing procedure of the processing device concerning a 3rd embodiment of the present invention.

以下に、本発明を実施するための形態について、図面を参照して、例示的に詳しく説明記載する。ただし、以下の実施の形態に記載されている、構成、数値、処理の流れ、機能要素などは一例に過ぎず、その変形や変更は自由であって、本発明の技術範囲を以下の記載に限定する趣旨のものではない。   Hereinafter, an embodiment for carrying out the present invention will be illustratively described in detail with reference to the drawings. However, the configurations, numerical values, processing flows, functional elements, and the like described in the following embodiments are merely examples, and modifications and changes are free, and the technical scope of the present invention is described in the following description. It is not intended to be limiting.

[第1実施形態]
本発明の第1実施形態としての加工装置100について、図1を用いて説明する。加工装置100は、カメラ画像から立体形状を計測する装置である。
[First Embodiment]
A processing apparatus 100 according to a first embodiment of the present invention will be described with reference to FIG. The processing device 100 is a device that measures a three-dimensional shape from a camera image.

図1に示すように、加工装置100は、移動カメラ101、カメラ102および計測部103を含む。さらに、加工装置100は、少なくとも1つの移動カメラ101を含む少なくとも2つのカメラ101,102を有する。計測部103は、少なくとも2つのカメラ101,102で取得した画像を用いて、撮影対象物110の立体形状を計測する。   As shown in FIG. 1, the processing apparatus 100 includes a moving camera 101, a camera 102, and a measuring unit 103. Further, the processing apparatus 100 has at least two cameras 101 and 102 including at least one moving camera 101. The measurement unit 103 measures the three-dimensional shape of the imaging target 110 using the images acquired by at least two cameras 101 and 102.

本実施形態によれば、映像に基づいた精度の高い計測をすることができる。   According to the present embodiment, highly accurate measurement based on an image can be performed.

[第2実施形態]
次に本発明の第2実施形態に係る加工装置について、図2A乃至図6を用いて説明する。図2Aは、本実施形態に係る加工装置の構成の一例の概要を示す図である。加工装置200は、回転ステージ230(加工台)に載置された撮影対象物210の加工を行う。加工装置200は、装置内にカメラが少なくとも2台配置されている。
[Second embodiment]
Next, a processing apparatus according to a second embodiment of the present invention will be described with reference to FIGS. 2A to 6. FIG. 2A is a diagram illustrating an outline of an example of a configuration of a processing apparatus according to the present embodiment. The processing apparatus 200 performs processing on the imaging target 210 placed on the rotary stage 230 (processing table). The processing apparatus 200 has at least two cameras arranged in the apparatus.

加工装置200は、移動カメラ201と固定カメラ202とを有する。移動カメラ201は、工具主軸220に取り付けられている。工具主軸220には、スピンドルが取り付けられており、移動カメラ201は、例えば、スピンドルを介して工具主軸220に取り付けられる。そして、移動カメラ201は、工具主軸220またはスピンドルの移動に合わせて動く。つまり、移動カメラ201は、移動式のカメラとなっている。なお、スピンドルは、回転するが、移動カメラ201は、スピンドルの回転に合わせて回転しないように取り付けてもよい。   The processing apparatus 200 includes a moving camera 201 and a fixed camera 202. The moving camera 201 is attached to the tool spindle 220. A spindle is attached to the tool spindle 220, and the moving camera 201 is attached to the tool spindle 220 via, for example, a spindle. Then, the moving camera 201 moves in accordance with the movement of the tool spindle 220 or the spindle. That is, the mobile camera 201 is a mobile camera. Although the spindle rotates, the moving camera 201 may be mounted so as not to rotate in accordance with the rotation of the spindle.

固定カメラ202は、加工装置200の天井に取り付けられている。固定カメラ202は、加工装置200の天井に取り付けられ、移動できない(位置が変わらない)ので、固定式のカメラとなっている。   The fixed camera 202 is attached to the ceiling of the processing device 200. The fixed camera 202 is attached to the ceiling of the processing apparatus 200 and cannot be moved (the position does not change), so that it is a fixed camera.

加工装置200は、移動カメラ201および固定カメラ202で撮影し、取得した画像を重ね合わせることで、いわゆるステレオカメラと同じく、立体的な映像を得る。得られた立体的な映像を用いて、加工装置200は、撮影対象物210(ワーク、加工対象物など)の立体形状や、撮影対象物に加工された穴の深さ、段差の大きさなどを計測する。また、加工装置200は、立体形状を計測することにより、工具と撮影対象物210との衝突や、加工装置200の部品と撮影対象物210との衝突などを回避することが可能となる。   The processing apparatus 200 obtains a three-dimensional image as in the case of a so-called stereo camera by capturing images with the moving camera 201 and the fixed camera 202 and superimposing the obtained images. Using the obtained three-dimensional image, the processing apparatus 200 performs processing such as the three-dimensional shape of the imaging target 210 (work, processing target, etc.), the depth of a hole processed in the imaging target, the size of a step, and the like. Is measured. Further, by measuring the three-dimensional shape, the processing device 200 can avoid collision between the tool and the imaging target 210, collision between components of the processing device 200 and the imaging target 210, and the like.

また、2台のカメラのうち一方を工具主軸220に取り付けて移動カメラ201とし、もう一方を加工装置200の内部に固定して固定カメラ202とすることで、より広範囲の画像が得られる。   Further, one of the two cameras is attached to the tool spindle 220 to be the movable camera 201, and the other is fixed inside the processing apparatus 200 to be the fixed camera 202, so that a wider range of images can be obtained.

このように、移動カメラ201および固定カメラ202を加工装置200に取り付ければ、装置内の立体映像が得られるので、加工装置200の内部を外部から確認するためのガラス製の窓を設ける必要がなくなる。そのため、仮に、加工装置200の内部で工具の破損や撮影対象物210の破壊などの事故が発生しても、破損した工具などの破片等により窓が壊れて、加工装置200の外部に被害が及ぶことがなくなる。   In this way, if the mobile camera 201 and the fixed camera 202 are attached to the processing apparatus 200, a stereoscopic image in the apparatus can be obtained, so that there is no need to provide a glass window for checking the inside of the processing apparatus 200 from outside. . Therefore, even if an accident such as breakage of a tool or destruction of the imaging target 210 occurs inside the processing apparatus 200, a window is broken by broken pieces of the tool or the like, and damage is caused outside the processing apparatus 200. Will not reach.

次に、移動カメラ201および固定カメラ202の撮影姿勢および設置位置を決定する方法について説明する。移動カメラ201および固定カメラ202で取得した画像を用いて計測した撮影対象物210の立体形状の精度は、ベースアングルが大きくなるほど高くなる。ここで、ベースアングルは、移動カメラ201と固定カメラ202と撮影対象物210とが作る三角形の角度である。このように、立体形状の精度は、ベースアングルが大きいほど高くなるが、一方で、特徴点が2つのカメラ(移動カメラ201、固定カメラ202)で捉えられていないとならない。   Next, a method for determining the shooting posture and the installation position of the mobile camera 201 and the fixed camera 202 will be described. The accuracy of the three-dimensional shape of the imaging target 210 measured using the images acquired by the moving camera 201 and the fixed camera 202 increases as the base angle increases. Here, the base angle is the angle of a triangle formed by the mobile camera 201, the fixed camera 202, and the photographing target 210. As described above, the accuracy of the three-dimensional shape increases as the base angle increases, but on the other hand, the feature points must be captured by the two cameras (the moving camera 201 and the fixed camera 202).

また、移動カメラ201のZ方向の位置は、カメラの視野(FOV;Field of View)を変えるため、撮影対象物210がカメラの視野に収まるか否かの判断で足りる(決定できる)。移動カメラ201のX方向の位置は、撮影対象物210が視野中央に来るような位置であればよい。移動カメラ201のY方向の位置は、ベースアングルが最大となり、撮影対象物210の面の観察が可能な位置となればよい。   Further, the position of the mobile camera 201 in the Z direction can be changed (determined) by determining whether or not the imaging target 210 falls within the field of view of the camera in order to change the field of view (FOV) of the camera. The position of the mobile camera 201 in the X direction may be any position as long as the photographing target 210 comes to the center of the visual field. The position of the mobile camera 201 in the Y direction only needs to be a position where the base angle is maximum and the surface of the imaging target 210 can be observed.

移動カメラ201および固定カメラ202の撮影姿勢および設置位置は、具体的には、例えば、次の手順に従って決定できる。(1)撮影対象物210(ワーク)のモデルから注目領域を設定する。(2)注目領域の中心と固定カメラ202のなす角をSP軸の角を合致させエピポーララインとカメラの画素方向とを合致させる。(3)注目領域の中心と視野中心とが合致するように移動カメラ201のX座標を決める。(4)注目領域の大きさと移動カメラ201の画角とからZ位置を決定する。(5)撮影対象物210の各ファセットの法線ベクトルのY成分の分布を求める。(6)移動カメラ201から撮影対象物210に向かうベクトルと(5)の法線ベクトルとのなす角があらかじめ定められた値(例えば、70°)以下となるように移動カメラ201の撮影方向を決める。(7)(6)で求めた角度と(4)で求めたZ座標とからY座標を求める。   The photographing attitude and the installation positions of the mobile camera 201 and the fixed camera 202 can be specifically determined according to, for example, the following procedure. (1) An attention area is set from a model of the imaging target 210 (work). (2) Match the angle between the center of the attention area and the fixed camera 202 with the angle of the SP axis, and match the epipolar line with the pixel direction of the camera. (3) The X coordinate of the moving camera 201 is determined so that the center of the attention area matches the center of the visual field. (4) The Z position is determined from the size of the attention area and the angle of view of the moving camera 201. (5) The distribution of the Y component of the normal vector of each facet of the imaging target 210 is obtained. (6) The shooting direction of the mobile camera 201 is set so that the angle between the vector directed from the mobile camera 201 to the shooting target 210 and the normal vector of (5) is equal to or less than a predetermined value (for example, 70 °). Decide. (7) The Y coordinate is obtained from the angle obtained in (6) and the Z coordinate obtained in (4).

図2Bは、本実施形態に係る加工装置の構成の他の例の概要を示す図である。加工装置240は、加工装置200と同様に装置内にカメラが少なくとも2台配置されている。加工装置240では、回転ステージ230がスライドしてY軸方向(鉛直方向)に移動する。加工装置240では、2台の移動カメラ201)が、回転ステージ230に取り付けられている。円盤状のパレット250は、あらかじめ加工対象物(ワーク)などの撮影対象物210が設置されており、図示しない搬送用ロボットなどで回転ステージ230の上へと搬送される。   FIG. 2B is a diagram illustrating an outline of another example of the configuration of the processing apparatus according to the present embodiment. The processing apparatus 240 has at least two cameras disposed in the apparatus as in the processing apparatus 200. In the processing device 240, the rotary stage 230 slides and moves in the Y-axis direction (vertical direction). In the processing device 240, two moving cameras 201) are attached to the rotary stage 230. The disk-shaped pallet 250 has a photographing target 210 such as a processing target (work) previously set thereon, and is conveyed onto the rotary stage 230 by a transfer robot or the like (not shown).

2台の移動カメラ201)で取得した画像を用いて、加工装置240の内部の撮影対象物210などを立体形状として捉えることができるので、搬送用ロボットの制御を閉ループ制御とすることができる。また、加工装置240は、立体形状を計測するので、ワークや加工対象物などの撮影対象物210の搬送中に撮影対象物210に応答するNC(Numerical Control)プログラムの適不適の判断や応答するプログラムを選択できる。   Using the images acquired by the two moving cameras 201), the imaging target 210 and the like inside the processing device 240 can be captured as a three-dimensional shape, so that the control of the transfer robot can be closed-loop control. Further, since the processing device 240 measures the three-dimensional shape, it determines whether or not the NC (Numerical Control) program responds to the imaging target 210 while the imaging target 210 such as a work or a processing target is being conveyed, and makes a response. You can select a program.

また、加工装置240は、工具主軸220に取り付けられたスピンドルの一部の立体形状を計測できるので、衝突後の自己チェック、切粉の巻きつきなどをチェックすることができる。加工装置240が、加速度センサ等を備えて衝突などの異常検知ができる装置であれば、異常検出後に立体形状としてスピンドル自体を保存することにより異常状態の検証が容易になる。   In addition, since the processing device 240 can measure the three-dimensional shape of a part of the spindle attached to the tool spindle 220, it can check itself after a collision, check the winding of chips, and the like. If the processing device 240 includes an acceleration sensor or the like and can detect an abnormality such as a collision, the abnormal state can be easily verified by storing the spindle itself as a three-dimensional shape after the abnormality is detected.

なお、加工装置200,240の内部に配置される移動カメラ201の台数は、1台であっても、複数台であってもよく、加工装置内部における複数台のカメラが全て移動カメラ201であってもよい。移動カメラの台数が1台である時には、加工装置200,240の内部に配置される固定カメラ202は、少なくとも1台必要になるが、固定カメラ202は複数台であってもよい。     The number of mobile cameras 201 disposed inside the processing apparatuses 200 and 240 may be one or more, and all of the plurality of cameras inside the processing apparatuses are mobile cameras 201. You may. When the number of mobile cameras is one, at least one fixed camera 202 is required to be disposed inside the processing apparatuses 200 and 240. However, a plurality of fixed cameras 202 may be provided.

図3は、本実施形態に係る加工装置の構成を示すブロック図である。加工装置200は、移動カメラ201と固定カメラ202と計測部301と検出部302とを有する。移動カメラ201は、加工装置200内を移動可能となっている。また、移動カメラ201は、加工装置200の内部を撮影して、画像を取得する。なお、移動カメラ201は、移動しながら撮影をして、画像を取得しても、撮影の際には、静止した状態で撮影して、画像を取得してもよい。   FIG. 3 is a block diagram illustrating a configuration of the processing apparatus according to the present embodiment. The processing apparatus 200 includes a moving camera 201, a fixed camera 202, a measuring unit 301, and a detecting unit 302. The moving camera 201 is movable in the processing device 200. Further, the mobile camera 201 captures an image of the inside of the processing apparatus 200 by capturing an image. In addition, the moving camera 201 may capture an image while moving, and acquire an image. Alternatively, when capturing, the mobile camera 201 may capture a still image to acquire an image.

固定カメラ202は、加工装置200の内部の所定の位置に取り付けられたカメラである。つまり、固定カメラ202は、動かないカメラである。固定カメラ202は、加工装置200の内部を撮影して、画像を取得する。   The fixed camera 202 is a camera attached to a predetermined position inside the processing device 200. That is, the fixed camera 202 is a camera that does not move. The fixed camera 202 photographs the inside of the processing apparatus 200 and acquires an image.

移動カメラ201および固定カメラ202は、加工装置200の内部に存在するものを撮影対象とする。図3においては、移動カメラ201および固定カメラ202の撮影対象物210は、回転ステージ230(加工台)に載置された加工対象物としている。しかし、撮影対象物210は、例えば、加工装置200の加工対象となる加工対象物(ワーク)や、加工対象物を載せる加工台、工具主軸、工具ホルダ、チャック、刃具などであってもよく、加工装置200の内部に存在するものであれば、これらには限定されない。また、移動カメラ201で固定カメラ202を撮影しても、固定カメラ202で移動カメラ201を撮影してもよい。   The mobile camera 201 and the fixed camera 202 are objects that exist inside the processing apparatus 200 and are to be photographed. In FIG. 3, the object 210 to be photographed by the mobile camera 201 and the fixed camera 202 is a processing object mounted on a rotary stage 230 (processing table). However, the imaging target 210 may be, for example, a processing target (work) to be processed by the processing apparatus 200, a processing table on which the processing target is placed, a tool spindle, a tool holder, a chuck, a cutting tool, or the like. It is not limited to these as long as it exists inside the processing device 200. Further, the fixed camera 202 may be photographed by the moving camera 201 or the moving camera 201 may be photographed by the fixed camera 202.

計測部301は、移動カメラ201および固定カメラ202で撮影し、取得した画像を用いて、撮影対象物210の立体形状を計測する。計測部301は、撮影対象物210を複数の異なる方向から同時に撮影された画像、すなわち、移動カメラ201および固定カメラ202で取得した画像を用いることにより、撮影対象物210の奥行き方向の情報を得られる。これにより、計測部301は、撮影対象物210の立体形状を測定できる。   The measurement unit 301 measures the three-dimensional shape of the photographing target 210 by using the images captured by the moving camera 201 and the fixed camera 202 and using the acquired images. The measurement unit 301 obtains information in the depth direction of the imaging target 210 by using images obtained by simultaneously capturing the imaging target 210 from a plurality of different directions, that is, images acquired by the moving camera 201 and the fixed camera 202. Can be Accordingly, the measurement unit 301 can measure the three-dimensional shape of the imaging target 210.

また、検出部302は、固定カメラ202を用いて移動カメラ201の位置を検出して、キャリブレーションを実行する。まず、計測部301は、固定カメラ202により撮影した移動カメラ201の映像を取得する。そして、検出部302は、移動カメラ201と固定カメラ202との内部パラメータ、外部パラメータ、歪係数などのパラメータを求めて、キャリブレーションを行う。キャリブレーションを実行して、上述のパラメータが求まれば、エピポーラ幾何学的な拘束条件により、対応点探索やレクティフィケーションなどを効率的に行うことができる。なお、検出部302は、加工装置200の起動時などのタイミングでキャリブレーションを行う。検出部302によりキャリブレーションを実行するタイミングは、これには限定されず、加工途中や加工完了後などのタイミングであってもよい。因みに、キャリブレーションを行うことなく8点アルゴリズムにより直接三次元座標を算出してもよい。   Further, the detection unit 302 detects the position of the mobile camera 201 using the fixed camera 202, and executes calibration. First, the measurement unit 301 acquires an image of the mobile camera 201 captured by the fixed camera 202. Then, the detection unit 302 obtains parameters such as internal parameters, external parameters, and distortion coefficients of the mobile camera 201 and the fixed camera 202, and performs calibration. If the above parameters are obtained by executing the calibration, the corresponding point search, the rectification, and the like can be efficiently performed under the epipolar geometric constraint condition. Note that the detection unit 302 performs calibration at a timing such as when the processing apparatus 200 is started. The timing at which calibration is performed by the detection unit 302 is not limited to this, and may be timing during processing, after processing is completed, or the like. Incidentally, the three-dimensional coordinates may be directly calculated by the 8-point algorithm without performing the calibration.

さらに、計測部301は、撮影対象物210の立体形状として、撮影対象物210に加工された穴の深さおよび撮影対象物210に加工された段差の大きさのうち少なくとも1つを計測する。これにより、撮影対象物210の加工状態や加工の進捗状況などが分かるので、加工装置200は、加工条件などを変更したり、制御したりすることができる。なお、計測部301が計測する立体形状は、穴の深さや段差の大きさには限定されず、例えば、穴の直径や溝の深さおよび長さ、などであってもよい。   Further, the measurement unit 301 measures at least one of the depth of a hole formed in the imaging target 210 and the size of a step formed in the imaging target 210, as the three-dimensional shape of the imaging target 210. Thus, since the processing state and the progress of the processing of the imaging target 210 can be known, the processing apparatus 200 can change or control the processing conditions and the like. Note that the three-dimensional shape measured by the measurement unit 301 is not limited to the depth of the hole or the size of the step, and may be, for example, the diameter of the hole, the depth and the length of the groove, and the like.

図4は、本実施形態に係る加工装置の備えるカメラテーブルの一例を示す図である。カメラテーブル401は、カメラID(Identifier)411に関連付けて、移動/固定412、位置413、スペック414および撮影画像415を格納する。カメラID411は、カメラを識別するための識別子である。移動/固定412は、カメラが移動式のカメラか固定式のカメラかを示す。位置413は、カメラ(移動カメラ201,固定カメラ202)の位置を示す。スペック414は、カメラの性能を示し、画角やF値、焦点距離、画素数、倍率などが含まれるが、これらには限定されない。撮影画像415は、カメラ(移動カメラ201,固定カメラ202)で撮影した画像である。加工装置200は、例えば、カメラテーブル401を参照して、撮影対象物の立体形状を計測する。また、加工装置200は、カメラテーブル401を参照して、移動カメラ201の位置を検出する。   FIG. 4 is a diagram illustrating an example of a camera table included in the processing apparatus according to the present embodiment. The camera table 401 stores a move / fix 412, a position 413, a specification 414, and a captured image 415 in association with a camera ID (Identifier) 411. The camera ID 411 is an identifier for identifying a camera. The move / fix 412 indicates whether the camera is a mobile camera or a fixed camera. The position 413 indicates the position of the camera (the mobile camera 201 and the fixed camera 202). The specification 414 indicates the performance of the camera, and includes, but is not limited to, an angle of view, an F value, a focal length, the number of pixels, a magnification, and the like. The captured image 415 is an image captured by a camera (the moving camera 201 and the fixed camera 202). The processing apparatus 200 measures, for example, the three-dimensional shape of the imaging target with reference to the camera table 401. Further, the processing device 200 detects the position of the mobile camera 201 with reference to the camera table 401.

図5は、本実施形態に係る加工装置のハードウェア構成を示すブロック図である。CPU(Central Processing Unit)510は、演算制御用のプロセッサであり、プログラムを実行することで図3の加工装置200の機能構成部を実現する。CPU510は複数のプロセッサを有し、異なるプログラムやモジュール、タスク、スレッドなどを並行して実行してもよい。ROM(Read Only Memory)520は、初期データおよびプログラムなどの固定データおよびその他のプログラムを記憶する。また、ネットワークインタフェース530は、ネットワークを介して他の装置などと通信する。なお、CPU510は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPU(Graphics Processing Unit)を含んでもよい。また、ネットワークインタフェース530は、CPU510とは独立したCPUを有して、RAM(Random Access Memory)540の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM540とストレージ550との間でデータを転送するDMAC(Direct Memory Access Controller)を設けるのが望ましい(図示なし)。さらに、CPU510は、RAM540にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU510は、処理結果をRAM540に準備し、後の送信あるいは転送はネットワークインタフェース530やDMACに任せる。   FIG. 5 is a block diagram illustrating a hardware configuration of the processing apparatus according to the present embodiment. A CPU (Central Processing Unit) 510 is a processor for arithmetic control, and realizes the functional components of the processing apparatus 200 in FIG. 3 by executing a program. The CPU 510 includes a plurality of processors, and may execute different programs, modules, tasks, threads, and the like in parallel. A ROM (Read Only Memory) 520 stores fixed data such as initial data and programs, and other programs. In addition, the network interface 530 communicates with other devices via a network. Note that the number of CPUs 510 is not limited to one, and may include a plurality of CPUs or a GPU (Graphics Processing Unit) for image processing. Further, it is desirable that the network interface 530 has a CPU independent of the CPU 510 and writes or reads transmission / reception data in an area of a RAM (Random Access Memory) 540. It is desirable to provide a DMAC (Direct Memory Access Controller) for transferring data between the RAM 540 and the storage 550 (not shown). Further, CPU 510 recognizes that the data has been received or transferred to RAM 540 and processes the data. The CPU 510 prepares the processing result in the RAM 540, and leaves the subsequent transmission or transfer to the network interface 530 or the DMAC.

RAM540は、CPU510が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM540には、本実施形態の実現に必要なデータを記憶する領域が確保されている。位置541は、移動カメラ201および固定カメラ202の加工装置200の内部での位置のデータである。スペック542は、移動カメラ201および固定カメラ202の性能などに関するデータである。撮影画像543は、移動カメラ201および固定カメラ202で撮影した画像のデータである。パラメータ544は、キャリブレーションにより求められた、移動カメラ201と固定カメラ202との間の内部パラメータや外部パラメータ、歪係数などである。   RAM 540 is a random access memory used by CPU 510 as a work area for temporary storage. In the RAM 540, an area for storing data necessary for realizing the present embodiment is secured. The position 541 is data of the position of the mobile camera 201 and the fixed camera 202 inside the processing device 200. The specification 542 is data relating to the performance of the mobile camera 201 and the fixed camera 202 and the like. The captured image 543 is data of an image captured by the mobile camera 201 and the fixed camera 202. The parameter 544 is an internal parameter, an external parameter, a distortion coefficient, and the like between the mobile camera 201 and the fixed camera 202, which are obtained by the calibration.

送受信データ545は、ネットワークインタフェース530を介して送受信されるデータである。また、RAM540は、各種アプリケーションモジュールを実行するためのアプリケーション実行領域546を有する。   The transmission / reception data 545 is data transmitted / received via the network interface 530. Further, the RAM 540 has an application execution area 546 for executing various application modules.

ストレージ550には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ストレージ550は、カメラテーブル401を格納する。カメラテーブル401は、図4に示した、カメラID411と撮影画像415などとの関係を管理するテーブルである。   The storage 550 stores a database, various parameters, or the following data or programs necessary for realizing the present embodiment. The storage 550 stores the camera table 401. The camera table 401 is a table for managing the relationship between the camera ID 411 and the captured image 415 shown in FIG.

ストレージ550は、さらに、計測モジュール551および検出モジュール552を格納する。計測モジュール551は、移動カメラ201および固定カメラ202で撮影し、取得した画像を用いて、撮影対象物210の立体形状を計測するモジュールである。また、計測モジュール551は、立体形状として、撮影対象物210に加工された穴の深さおよび撮影対象物210に加工された段差の大きさのうち少なくとも1つを計測するモジュールである。検出モジュール552は、固定カメラ202を用いて移動カメラ201の位置を検出するモジュールである。これらのモジュール551〜552は、CPU510によりRAM540のアプリケーション実行領域546に読み出され、実行される。制御プログラム553は、加工装置200の全体を制御するためのプログラムである。   The storage 550 further stores a measurement module 551 and a detection module 552. The measurement module 551 is a module that measures the three-dimensional shape of the photographing target 210 using images acquired by photographing with the moving camera 201 and the fixed camera 202. The measurement module 551 is a module that measures, as a three-dimensional shape, at least one of the depth of a hole formed in the imaging target 210 and the size of a step formed in the imaging target 210. The detection module 552 is a module that detects the position of the mobile camera 201 using the fixed camera 202. These modules 551 to 552 are read into the application execution area 546 of the RAM 540 by the CPU 510 and executed. The control program 553 is a program for controlling the entire processing apparatus 200.

入出力インタフェース560は、入出力機器との入出力データをインタフェースする。入出力インタフェース560には、表示部561、操作部562、が接続される。また、入出力インタフェース560には、さらに、記憶媒体564が接続されてもよい。さらに、音声出力部であるスピーカ563や、音声入力部であるマイク(図示せず)、あるいは、GPS位置判定部が接続されてもよい。なお、図5に示したRAM540やストレージ550には、加工装置200が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。   The input / output interface 560 interfaces input / output data with input / output devices. The display unit 561 and the operation unit 562 are connected to the input / output interface 560. Further, a storage medium 564 may be connected to the input / output interface 560. Furthermore, a speaker 563 as an audio output unit, a microphone (not shown) as an audio input unit, or a GPS position determination unit may be connected. Note that the RAM 540 and the storage 550 shown in FIG. 5 do not show programs and data relating to general-purpose functions and other realizable functions of the processing apparatus 200.

図6は、本実施形態に係る加工装置の処理手順を説明するフローチャートである。このフローチャートは、図5のCPU510がRAM540を使用して実行し、図3の加工装置200の機能構成部を実現する。   FIG. 6 is a flowchart illustrating a processing procedure of the processing apparatus according to the present embodiment. This flowchart is executed by the CPU 510 in FIG. 5 using the RAM 540, and implements the functional components of the processing apparatus 200 in FIG.

ステップS601において、加工装置200は、装置の起動作業を実行する。ステップS603において、加工装置200は、キャリブレーションが必要か否かを判断する。キャリブレーションが必要でない場合(ステップS603のNO)、加工装置200は、ステップS609へ進む。キャリブレーションが必要な場合(ステップS603のYES)、加工装置200は、ステップS605へ進む。   In step S601, the processing device 200 executes a start operation of the device. In step S603, the processing device 200 determines whether calibration is necessary. If calibration is not necessary (NO in step S603), the processing apparatus 200 proceeds to step S609. If calibration is necessary (YES in step S603), the processing apparatus 200 proceeds to step S605.

ステップS605において、加工装置200は、固定カメラ202を用いて移動カメラ201の位置を検出する。ステップS607において、加工装置200は、キャリブレーションを実行して、移動カメラ201と固定カメラ202との内部パラメータ、外部パラメータ、歪係数などのパラメータを求める。   In step S605, the processing apparatus 200 detects the position of the mobile camera 201 using the fixed camera 202. In step S607, the processing apparatus 200 executes calibration to obtain parameters such as internal parameters, external parameters, and distortion coefficients of the mobile camera 201 and the fixed camera 202.

ステップS609において、加工装置200は、移動カメラ201および固定カメラ202で撮影し、取得した画像を取得する。ステップS611において、加工装置200は、移動カメラ201および固定カメラ202で取得した画像を用いて、撮影対象物210の立体形状を計測する。加工装置200は、例えば、立体形状として撮影対象物210に加工された穴の深さおよび撮影対象物210に加工された段差の大きさのうち少なくとも1つを計測する。ステップS613において、加工装置200は、計測を終了するか否かを判断する。計測を終了しないと判断した場合(ステップS613のNO)、加工装置200は、ステップS609へと戻る。計測を終了すると判断した場合(ステップS613のYES)、加工装置200は、処理を終了する。   In step S609, the processing apparatus 200 acquires an image captured by the moving camera 201 and the fixed camera 202, and acquires the acquired image. In step S611, the processing apparatus 200 measures the three-dimensional shape of the imaging target 210 using the images acquired by the moving camera 201 and the fixed camera 202. The processing apparatus 200 measures, for example, at least one of a depth of a hole processed in the imaging target 210 as a three-dimensional shape and a size of a step processed in the imaging target 210. In step S613, the processing device 200 determines whether to end the measurement. If it is determined that the measurement is not to be ended (NO in step S613), the processing device 200 returns to step S609. If it is determined that the measurement is to be ended (YES in step S613), the processing device 200 ends the processing.

本実施形態によれば、映像に基づいた精度の高い計測をすることができる。また、固定カメラを用いて移動カメラの位置を検出するので、カメラのキャリブレーションを行うことができる。さらに、立体形状として撮影対象物に加工された穴の深さや撮影対象物に加工された段差の大きさを計測できる。   According to the present embodiment, highly accurate measurement based on an image can be performed. Further, since the position of the mobile camera is detected using the fixed camera, the camera can be calibrated. Further, it is possible to measure the depth of a hole formed in the object to be photographed as a three-dimensional shape and the size of a step formed in the object to be photographed.

[第3実施形態]
次に本発明の第3実施形態に係る加工装置について、図7乃至図9を用いて説明する。図7は、本実施形態に係る加工装置の構成の一例の概要を示す図である。本実施形態に係る加工装置は、上記第2実施形態と比べると、工具マガジンおよびカメラ交換部を有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Third embodiment]
Next, a processing apparatus according to a third embodiment of the present invention will be described with reference to FIGS. FIG. 7 is a diagram illustrating an outline of an example of a configuration of a processing apparatus according to the present embodiment. The processing apparatus according to the present embodiment is different from the above-described second embodiment in that it has a tool magazine and a camera exchange unit. Other configurations and operations are the same as those of the second embodiment, and thus the same configurations and operations are denoted by the same reference numerals and detailed description thereof will be omitted.

加工装置700は、工具マガジン701とカメラ交換部702とを有する。工具マガジン701は、複数の工具(工具類)とともに複数種類のカメラを収容する。工具マガジン701は、例えば、ATC(Automatic Tool Changer)マガジンであり、工具格納、工具選択、工具交換などの役割を有する。なお、工具マガジン701は、タレット式、マガジン収納式のいずれであってもよい。   The processing device 700 includes a tool magazine 701 and a camera exchange unit 702. The tool magazine 701 houses a plurality of types of cameras together with a plurality of tools (tools). The tool magazine 701 is, for example, an ATC (Automatic Tool Changer) magazine and has a role of storing a tool, selecting a tool, and exchanging a tool. The tool magazine 701 may be either a turret type or a magazine storage type.

カメラ交換部702は、選択されたカメラを工具マガジン701から取り出し、加工装置700の内部の所定の位置に取り付ける。カメラ交換部702は、例えば、ロボットアームであり、工具マガジン701からカメラを取り出し、加工装置700の内部の所定の位置に取り付けることができる。なお、カメラ交換部702は、カメラの交換ができる装置などであれば、いずれの装置でもよい。   The camera exchange unit 702 takes out the selected camera from the tool magazine 701 and attaches the selected camera to a predetermined position inside the processing device 700. The camera exchange unit 702 is, for example, a robot arm, and can take out the camera from the tool magazine 701 and attach it to a predetermined position inside the processing device 700. Note that the camera exchange unit 702 may be any device as long as it can exchange cameras.

図8は、本実施形態に係る加工装置の備えるカメラテーブルの一例を示す図である。カメラテーブル801は、カメラID411に関連付けて収容位置811を格納する。収容位置811は、工具マガジン701において、カメラが収容されている位置を示す。加工装置700は、カメラテーブル801を参照して、目的に応じたカメラを選択し、交換する。   FIG. 8 is a diagram illustrating an example of a camera table included in the processing apparatus according to the present embodiment. The camera table 801 stores the accommodation position 811 in association with the camera ID 411. The storage position 811 indicates a position where the camera is stored in the tool magazine 701. The processing device 700 refers to the camera table 801 to select and exchange a camera according to the purpose.

図9は、本実施形態に係る加工装置の処理手順を説明するフローチャートである。このフローチャートは、図5のCPU510がRAM540を使用して実行し、図7の加工装置700の機能構成部を実現する。ステップS901において、加工装置700は、カメラの交換が必要か否かを判断する。カメラの交換が必要ないと判断した場合(ステップS901のNO)、加工装置700は、ステップS603へ進む。カメラの交換が必要と判断した場合(ステップS901のYES)、加工装置700は、ステップS903へ進む。ステップS903において、加工装置700は、複数種類のカメラの中から用途に応じたカメラを選択し、交換する。   FIG. 9 is a flowchart illustrating a processing procedure of the processing apparatus according to the present embodiment. This flowchart is executed by the CPU 510 in FIG. 5 using the RAM 540, and implements the functional components of the processing apparatus 700 in FIG. In step S901, the processing device 700 determines whether the camera needs to be replaced. If it is determined that the camera does not need to be replaced (NO in step S901), the processing device 700 proceeds to step S603. If it is determined that the camera needs to be replaced (YES in step S901), the processing device 700 proceeds to step S903. In step S903, the processing apparatus 700 selects a camera according to the application from among a plurality of types of cameras, and replaces the camera.

本実施形態によれば、カメラを選択的に交換できるので、様々な用途に合わせた計測を行える。   According to the present embodiment, the camera can be selectively replaced, so that measurement suitable for various uses can be performed.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
[Other embodiments]
Although the present invention has been described with reference to the exemplary embodiments, the present invention is not limited to the above exemplary embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. In addition, a system or an apparatus in which different features included in each embodiment are combined in any way is also included in the scope of the present invention.

上記目的を達成するため、本発明に係る加工装置は、
加工に用いられる工具を取り付けるための工具主軸と、
少なくとも1つの移動カメラを含む少なくとも2つのカメラと、
前記少なくとも2つのカメラで取得した画像を用いて、撮影対象物の立体形状を計測する計測手段と、
工具とともに前記移動カメラを収容する工具マガジンと、
前記工具マガジンに収容された前記移動カメラを前記工具主軸に取り付けるカメラ取付手段と、
を備えた。
In order to achieve the above object, a processing apparatus according to the present invention includes:
A tool spindle for mounting a tool used for machining,
At least two cameras including at least one moving camera;
Using an image acquired by the at least two cameras, measuring means for measuring the three-dimensional shape of the imaging target,
A tool magazine accommodating the moving camera together with a tool,
Camera mounting means for mounting the moving camera housed in the tool magazine to the tool spindle,
With.

上記目的を達成するため、本発明に係る加工装置の制御方法は、
加工に用いられる工具を取り付けるための工具主軸と、
少なくとも1つの移動カメラを含む少なくとも2つのカメラと、
前記少なくとも2つのカメラで取得した画像を用いて、撮影対象物の立体形状を計測する計測手段と、
工具とともに前記移動カメラを収容する工具マガジンと、
前記工具マガジンに収容された前記移動カメラを前記工具主軸に取り付けるカメラ取付手段と、
を備えた加工装置の制御方法であって、
前記工具マガジンに収容された前記移動カメラを前記工具主軸に取り付けるカメラ取付ステップと、
前記移動カメラで撮影した画像を取得する取得ステップと、
取得した前記画像を用いて、撮影対象物の立体形状を計測する計測ステップと、
を含む。
In order to achieve the above object, a method for controlling a processing apparatus according to the present invention includes:
A tool spindle for mounting a tool used for machining,
At least two cameras including at least one moving camera;
Using an image acquired by the at least two cameras, measuring means for measuring the three-dimensional shape of the imaging target,
A tool magazine accommodating the moving camera together with a tool,
Camera mounting means for mounting the moving camera housed in the tool magazine to the tool spindle,
A method for controlling a processing apparatus comprising:
A camera mounting step of mounting the moving camera accommodated in the tool magazine to the tool spindle,
An acquisition step of acquiring an image taken by the moving camera,
Using the acquired image, a measurement step of measuring the three-dimensional shape of the imaging target,
including.

上記目的を達成するため、本発明に係る加工装置の制御プログラムは
加工に用いられる工具を取り付けるための工具主軸と、
少なくとも1つの移動カメラを含む少なくとも2つのカメラと、
前記少なくとも2つのカメラで取得した画像を用いて、撮影対象物の立体形状を計測する計測手段と、
工具とともに前記移動カメラを収容する工具マガジンと、
前記工具マガジンに収容された前記移動カメラを前記工具主軸に取り付けるカメラ取付手段と、
を備えた加工装置の制御プログラムであって、
前記工具マガジンに収容された前記移動カメラを前記工具主軸に取り付けるカメラ取付ステップと、
前記移動カメラで撮影した画像を取得する取得ステップと、
取得した前記画像を用いて、撮影対象物の立体形状を計測する計測ステップと、
をコンピュータに実行させる。
In order to achieve the above object, a control program for a processing apparatus according to the present invention
A tool spindle for mounting a tool used for machining,
At least two cameras including at least one moving camera;
Using an image acquired by the at least two cameras, measuring means for measuring the three-dimensional shape of the imaging target,
A tool magazine accommodating the moving camera together with a tool,
Camera mounting means for mounting the moving camera housed in the tool magazine to the tool spindle,
A control program for a processing apparatus comprising:
A camera mounting step of mounting the moving camera accommodated in the tool magazine to the tool spindle,
An acquisition step of acquiring an image taken by the moving camera,
Using the acquired image, a measurement step of measuring the three-dimensional shape of the imaging target,
On a computer.

Claims (7)

少なくとも1つの移動カメラを含む少なくとも2つのカメラと、
前記少なくとも2つのカメラで取得した画像を用いて、撮影対象物の立体形状を計測する計測手段と、
を備えた加工装置。
At least two cameras including at least one moving camera;
Using an image acquired by the at least two cameras, measuring means for measuring the three-dimensional shape of the imaging target,
Processing equipment equipped with
前記少なくとも2つのカメラは、前記加工装置の内部に取り付けられた固定カメラを含み、
前記固定カメラを用いて前記移動カメラの位置を検出する検出手段をさらに備えた請求項1に記載の加工装置。
The at least two cameras include a fixed camera mounted inside the processing device;
The processing apparatus according to claim 1, further comprising a detection unit configured to detect a position of the mobile camera using the fixed camera.
前記移動カメラは、工具主軸に取り付けられる請求項1または2に記載の加工装置。   The processing apparatus according to claim 1, wherein the movable camera is attached to a tool spindle. 前記計測手段は、前記立体形状として、前記撮影対象物に加工された穴の深さおよび前記撮影対象物に加工された段差の大きさのうち少なくとも1つを計測する請求項1乃至3のいずれか1項に記載の加工装置。   4. The apparatus according to claim 1, wherein the measuring unit measures at least one of a depth of a hole processed in the imaging target and a size of a step processed in the imaging target as the three-dimensional shape. 5. The processing apparatus according to claim 1. 複数の工具とともに複数種類のカメラを収容する工具マガジンと、
収容された前記複数種類のカメラを選択的に交換するカメラ交換手段と、
をさらに備えた請求項1乃至4のいずれか1項に記載の加工装置。
A tool magazine that houses multiple types of cameras with multiple tools,
Camera exchange means for selectively exchanging the plurality of types of stored cameras,
The processing apparatus according to any one of claims 1 to 4, further comprising:
少なくとも1つの移動カメラを含む少なくとも2つのカメラを備えた加工装置の制御方法であって、
前記少なくとも2つのカメラで撮影した画像を取得する取得ステップと、
取得した前記画像を用いて、撮影対象物の立体形状を計測する計測ステップと、
を含む加工装置の制御方法。
A method for controlling a processing apparatus including at least two cameras including at least one moving camera,
An obtaining step of obtaining an image captured by the at least two cameras;
Using the acquired image, a measurement step of measuring the three-dimensional shape of the imaging target,
A method for controlling a processing apparatus including:
少なくとも1つの移動カメラを含む少なくとも2つのカメラを備えた加工装置の制御プログラムであって、
前記少なくとも2つのカメラで撮影した画像を取得する取得ステップと、
取得した前記画像を用いて、撮影対象物の立体形状を計測する計測ステップと、
をコンピュータに実行させる加工装置の制御プログラム。
A control program for a processing apparatus provided with at least two cameras including at least one moving camera,
An obtaining step of obtaining an image captured by the at least two cameras;
Using the acquired image, a measurement step of measuring the three-dimensional shape of the imaging target,
Control program for a processing apparatus that causes a computer to execute the processing.
JP2018167081A 2018-09-06 2018-09-06 Machining apparatus, machining apparatus control method, and machining apparatus control program Expired - Fee Related JP6595065B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018167081A JP6595065B1 (en) 2018-09-06 2018-09-06 Machining apparatus, machining apparatus control method, and machining apparatus control program
PCT/JP2019/031959 WO2020049973A1 (en) 2018-09-06 2019-08-14 Processing device, control method for processing device, and control program for processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018167081A JP6595065B1 (en) 2018-09-06 2018-09-06 Machining apparatus, machining apparatus control method, and machining apparatus control program

Publications (2)

Publication Number Publication Date
JP6595065B1 JP6595065B1 (en) 2019-10-23
JP2020040130A true JP2020040130A (en) 2020-03-19

Family

ID=68314149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018167081A Expired - Fee Related JP6595065B1 (en) 2018-09-06 2018-09-06 Machining apparatus, machining apparatus control method, and machining apparatus control program

Country Status (2)

Country Link
JP (1) JP6595065B1 (en)
WO (1) WO2020049973A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126461A (en) * 2019-02-05 2020-08-20 ファナック株式会社 Machine controller

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109940463B (en) * 2019-01-18 2021-08-10 哈尔滨理工大学 On-machine detection clamp for machining size of quenched steel die for milling machine and control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0961140A (en) * 1995-08-28 1997-03-07 Denso Corp Image input apparatus and inspection method using it
JP2000131032A (en) * 1998-10-24 2000-05-12 Hitachi Seiki Co Ltd Method and device for measuring three-dimensional profile
JP2000180106A (en) * 1998-12-21 2000-06-30 Kokko:Kk Work machining instrument and computer-readable recording medium
JP2005300512A (en) * 2004-03-18 2005-10-27 Ricoh Co Ltd Surface defect inspecting apparatus, surface defect inspection method, and program for making computer execute the same
JP2008168372A (en) * 2007-01-10 2008-07-24 Toyota Motor Corp Robot device and shape recognition method
US20180150062A1 (en) * 2016-11-25 2018-05-31 Glowforge Inc. Controlled deceleration of moveable components in a computer numerically controlled machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0961140A (en) * 1995-08-28 1997-03-07 Denso Corp Image input apparatus and inspection method using it
JP2000131032A (en) * 1998-10-24 2000-05-12 Hitachi Seiki Co Ltd Method and device for measuring three-dimensional profile
JP2000180106A (en) * 1998-12-21 2000-06-30 Kokko:Kk Work machining instrument and computer-readable recording medium
JP2005300512A (en) * 2004-03-18 2005-10-27 Ricoh Co Ltd Surface defect inspecting apparatus, surface defect inspection method, and program for making computer execute the same
JP2008168372A (en) * 2007-01-10 2008-07-24 Toyota Motor Corp Robot device and shape recognition method
US20180150062A1 (en) * 2016-11-25 2018-05-31 Glowforge Inc. Controlled deceleration of moveable components in a computer numerically controlled machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126461A (en) * 2019-02-05 2020-08-20 ファナック株式会社 Machine controller

Also Published As

Publication number Publication date
WO2020049973A1 (en) 2020-03-12
JP6595065B1 (en) 2019-10-23

Similar Documents

Publication Publication Date Title
JP6407812B2 (en) Machine tool control system capable of obtaining workpiece origin and workpiece origin setting method
JP7167012B2 (en) Systems, methods and apparatus for locating parts for use in manufacturing operations
US8295585B2 (en) Method for determining the position of an object in space
JP2020011339A (en) Robot system control method and robot system
EP1555508A1 (en) Measuring system
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
CN111193862B (en) Camera calibration device and camera calibration method
JP2016185572A (en) Robot, robot control device, and robot system
US10359266B2 (en) Position measurement method of object in machine tool and position measurement system of the same
US9942524B2 (en) Device and method for detecting the position of an object in a machine tool
JP6129058B2 (en) Teaching point correction apparatus and teaching point correction method
WO2006079617A1 (en) Device and method for calibrating the center point of a tool mounted on a robot by means of a camera
CA2874573C (en) Method for estimating the rotational speed of a tool mounted on a rotating spindle of a machine tool and such a machine tool
WO2020049973A1 (en) Processing device, control method for processing device, and control program for processing device
US20170292827A1 (en) Coordinate measuring system
CN116958146B (en) Acquisition method and device of 3D point cloud and electronic device
JP2021193400A (en) Method for measuring artefact
CN115066313B (en) Workpiece mounting method for machining device, workpiece mounting support system, and storage medium
US20200366814A1 (en) Image capturing apparatus, image processing apparatus, image processing method, image capturing apparatus calibration method, robot apparatus, method for manufacturing article using robot apparatus, and recording medium
JPH09253979A (en) Tool edge position measuring device
CN109732601B (en) Method and device for automatically calibrating pose of robot to be perpendicular to optical axis of camera
WO2022124232A1 (en) Image processing system and image processing method
JP2019104093A (en) Robot system
CN112258578A (en) Coordinate origin measuring method and device
JPH012891A (en) Vision robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190925

R150 Certificate of patent or registration of utility model

Ref document number: 6595065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees