JP7253088B2 - Image processing device, machine tool and image processing method - Google Patents

Image processing device, machine tool and image processing method Download PDF

Info

Publication number
JP7253088B2
JP7253088B2 JP2022038461A JP2022038461A JP7253088B2 JP 7253088 B2 JP7253088 B2 JP 7253088B2 JP 2022038461 A JP2022038461 A JP 2022038461A JP 2022038461 A JP2022038461 A JP 2022038461A JP 7253088 B2 JP7253088 B2 JP 7253088B2
Authority
JP
Japan
Prior art keywords
tool
unit
image
image processing
profile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022038461A
Other languages
Japanese (ja)
Other versions
JP2022079494A (en
Inventor
建太 神藤
圭一 小高
正和 高山
純一 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DMG Mori Co Ltd
Original Assignee
DMG Mori Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020004356A external-priority patent/JP2021109298A/en
Application filed by DMG Mori Co Ltd filed Critical DMG Mori Co Ltd
Priority to JP2022038461A priority Critical patent/JP7253088B2/en
Publication of JP2022079494A publication Critical patent/JP2022079494A/en
Application granted granted Critical
Publication of JP7253088B2 publication Critical patent/JP7253088B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、画像処理装置、工作機及び画像処理方法に関する。 The present invention relates to an image processing device, a machine tool, and an image processing method.

工作機を使用してワークを加工する際、工具の形状や状態を把握することで、正確にワークの加工を継続することが可能となる。具体的には、工作機の加工では、工具等の干渉チェックが必須となるため、工具の正確な形状の把握が重要である。また、工具の状態の把握により、精度良い加工が実現できる。ところが、工具の形状や状態の把握は、特別な作業や時間を要するのが現状である。 When machining a workpiece using a machine tool, it is possible to accurately continue machining the workpiece by grasping the shape and condition of the tool. Specifically, in machine tool machining, it is essential to check the interference of tools and the like, so it is important to accurately grasp the shape of the tool. Also, by grasping the state of the tool, it is possible to achieve high-precision machining. However, the current situation is that grasping the shape and condition of the tool requires special work and time.

特許文献1では、超音波接合工具の交換時期を、画像を用いて判定する技術が開示される。また、特許文献2では、研削加工装置の工具を、画像を用いて管理する技術が開示される。特許文献3では、工作機械の工具の変化に対し、工具の先端を撮影視野に捉えるための技術が開示される。さらに、特許文献4では、工作機に取り付けられた工具を画像で検査する技術が開示される。 Patent Literature 1 discloses a technique for determining when to replace an ultrasonic welding tool using an image. Further, Japanese Patent Laid-Open No. 2002-200002 discloses a technique for managing tools of a grinding apparatus using an image. Patent Literature 3 discloses a technique for capturing the tip of a tool in the field of view in response to changes in the tool of a machine tool. Furthermore, Patent Document 4 discloses a technique for inspecting a tool attached to a machine tool using an image.

特開2010-207837号公報JP 2010-207837 A 特開2001-269844号公報JP 2001-269844 A 特開平9-323240号公報JP-A-9-323240 特開2016-218550号公報JP 2016-218550 A

しかしながら、上記特許文献のいずれによっても、工具の形状や状態を正確に把握することは困難である。 However, with any of the above patent documents, it is difficult to accurately grasp the shape and condition of the tool.

本開示の画像処理装置は、工具を用いてワークを加工する工作機に取り付けられた撮像部で撮像された工具の複数の画像データを受信する受信部と、受信部で受信した複数の画像データから工具のプロファイルに係るプロファイル情報である点群データを形成する点群データ形成部と、点群データから工具の2次元または3次元のプロファイルを示すプロファイル画像データを形成するプロファイル画像形成部と、を備える。
本開示において、画像処理装置の他に、工作機、画像処理方法などを提供するものである。
The image processing apparatus of the present disclosure includes a receiving unit that receives a plurality of image data of the tool captured by an imaging unit attached to a machine tool that processes a work using the tool, and a plurality of image data received by the receiving unit. a point cloud data forming unit that forms point cloud data, which is profile information related to the profile of the tool, from the point cloud data; Prepare.
In addition to the image processing apparatus, the present disclosure provides a machine tool, an image processing method, and the like.

これらの概括的かつ特定の態様は、システム、方法、及びコンピュータプログラム、並びに、それらの組み合わせにより、実現されてもよい。 These general and specific aspects may be implemented by systems, methods and computer programs, and combinations thereof.

本発明によれば、工具の形状や状態を正確に把握することができる。
工具の形状や状態を正確に把握することができることで、工作機での作業負担を軽減することができる。また、加工精度の向上を図ることができる。
According to the present invention, it is possible to accurately grasp the shape and condition of the tool.
By being able to accurately grasp the shape and condition of the tool, the work load on the machine tool can be reduced. Moreover, the improvement of processing precision can be aimed at.

工作機の外観図である。It is an external view of a machine tool. 実施の形態1に係る工作機における工具、撮像部及び照明部の位置関係を説明する図である。FIG. 4 is a diagram for explaining the positional relationship among a tool, an imaging section, and an illumination section in the machine tool according to Embodiment 1; 実施の形態1に係る画像処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an image processing apparatus according to Embodiment 1; FIG. 工作機で撮像された画像データの一例である。It is an example of the image data imaged with the machine tool. 画像処理装置で形成された点群データの一例である。It is an example of point cloud data formed by an image processing device. 画像処理装置で形成されたプロファイル画像データの一例である。It is an example of profile image data formed by an image processing apparatus. 実施の形態1に係る点群データの登録の処理を説明するフローチャートである。5 is a flowchart for explaining processing for registering point cloud data according to Embodiment 1. FIG. 実施の形態2に係る点群データの更新の処理を説明するフローチャートである。FIG. 10 is a flowchart for explaining point cloud data update processing according to the second embodiment; FIG. プロファイル情報の更新の処理を説明するシーケンス図である。FIG. 11 is a sequence diagram illustrating profile information update processing;

以下に、図面を参照して各実施形態に係る画像処理装置、工作機及び画像処理方法について説明する。以下の説明では、同一の構成について、同一の符号を付して説明を省略する。 An image processing apparatus, a machine tool, and an image processing method according to each embodiment will be described below with reference to the drawings. In the following description, the same reference numerals are assigned to the same configurations, and descriptions thereof are omitted.

以下で説明する「工作機」は、工作機械とも言われるものであり、工具を用いて加工対象である金属等のワークに対し、切削、研削等により所望の形状に加工するものである。 The "machine tool" described below is also referred to as a machine tool, and uses a tool to process a work such as a metal to be processed into a desired shape by cutting, grinding, or the like.

本実施形態の「画像処理装置」は、工作機内で撮像される画像を処理する装置である。さらに、例えば、工作機においてワークの加工に使用する工具の管理に利用するものである。具体的には、画像処理装置は、工具の画像データを取得する。そして、画像処理装置は、工具の画像データをもとに、点群データと、2次元または3次元の外形を示すプロファイル画像データとを形成するものである。または、画像処理装置は、工具の画像データをもとに、工具の刃部と、外形等のプロファイルを定めるものである。または、画像処理装置は、工具の画像データをもとに、工具の刃部とシャンク部との境界を定めるものである。そして、画像処理装置は、これらを用いて、加工の際の工具の位置の制御や工具の管理に利用することができる。 The "image processing device" of this embodiment is a device that processes an image captured within the machine tool. Furthermore, for example, it is used for management of tools used for machining a work in a machine tool. Specifically, the image processing device acquires image data of the tool. Based on the image data of the tool, the image processing device forms point cloud data and profile image data representing the two-dimensional or three-dimensional outline of the tool. Alternatively, the image processing device determines the blade portion of the tool and the profile such as the outer shape based on the image data of the tool. Alternatively, the image processing device determines the boundary between the blade portion and the shank portion of the tool based on the image data of the tool. The image processing apparatus can use these to control the position of the tool and manage the tool during machining.

「点群データ」は、工具の外形等のプロファイルを特定するためのプロファイル情報であって、工具の画像データの輪郭から抽出された複数の点で形成される点群のデータとして説明する。また、点群データには、工具のプロファイル情報として、例えば、工具の刃部及びシャンク部の領域を特定する情報、工具の長さ、工具の外径、工具の長手方向の位置に対応した外径情報等を含む工具の各部に関する情報を関連付けてもよい。 "Point cloud data" is profile information for specifying a profile such as the outer shape of a tool, and will be described as point cloud data formed by a plurality of points extracted from the contour of the image data of the tool. In addition, the point cloud data includes tool profile information such as information specifying the region of the cutting edge and shank of the tool, the length of the tool, the outer diameter of the tool, and the outer diameter corresponding to the position in the longitudinal direction of the tool. Information about each part of the tool may be associated, including diameter information and the like.

「プロファイル画像データ」は、工具の2次元または3次元の外形や輪郭を表すものである。例えば、2次元のプロファイル画像データとは、工具の輪郭を表す投影図である。また、3次元のプロファイル画像データとは、例えば、工具の外形を表す3次元の画像データである。 "Profile image data" represents the two-dimensional or three-dimensional outline and contour of the tool. For example, two-dimensional profile image data is a projection drawing representing the contour of a tool. Also, the three-dimensional profile image data is, for example, three-dimensional image data representing the outer shape of the tool.

[実施の形態1]
〈工作機〉
工作機1は、例えば図1に示すような外形であり、加工領域200内に配置されるワークを加工することができる。
[Embodiment 1]
〈Machine tools〉
The machine tool 1 has an outer shape as shown in FIG. 1, for example, and can machine a work arranged in a machining area 200.

工作機の構成について、図1及び図2を用いて説明する。工作機1は、主軸に取り付けられ、ワークの加工に用いられる工具11、加工対象のワークを保持することが可能であり、駆動機構に駆動されることよりワークを保持可能な保持部12、工具を撮像可能な撮像部13及び発光可能な照明部14を備える。また、図1に示すように、工作機1は、加工領域200と工作機1の外部を遮断するカバー201を備え、カバー201には、加工対象のワークを、加工領域200から工作機1の外部に取り出すための開口202を開閉可能なドア203を備える。工作機1の加工などの操作をする操作盤15を備えている。 The configuration of the machine tool will be described with reference to FIGS. 1 and 2. FIG. The machine tool 1 includes a tool 11 attached to a spindle and used for machining a workpiece, a holder 12 capable of holding a workpiece to be machined and capable of holding the workpiece by being driven by a drive mechanism, and a tool. and an illumination unit 14 capable of emitting light. As shown in FIG. 1, the machine tool 1 includes a cover 201 that isolates a machining area 200 from the outside of the machine tool 1 . It has a door 203 capable of opening and closing an opening 202 for taking out to the outside. A control panel 15 is provided for operating the machine tool 1 such as machining.

さらに、工作機1は、図3を用いて後述する画像処理装置10と接続される。なお、本実施形態では、工作機1と画像処理装置10とは、別々の装置で、有線のケーブルを介して接続されている。しかし、この形態には限定されず、画像処理装置10も工作機1の内部に組み込まれている形態であってもよい。 Furthermore, the machine tool 1 is connected to an image processing device 10 which will be described later with reference to FIG. In this embodiment, the machine tool 1 and the image processing device 10 are separate devices and are connected via a wired cable. However, it is not limited to this form, and the image processing device 10 may also be incorporated inside the machine tool 1 .

工具11は、図2に示すように、ワークの加工に利用される部位である刃部111と、主軸113のホルダ114に保持される部位であるシャンク部112とを含む。また、工作機1は、図1に示す収納部であるマガジン16に複数種の工具11を収納する。そして、工作機1は、複数の中から選択した工具11を主軸113に保持させることで、異なる複数種類の加工を実現することができる。なお、図2に示す構成は、図1中の破線部分に位置するものである。 The tool 11 includes, as shown in FIG. 2, a blade portion 111 which is a portion used for machining a workpiece, and a shank portion 112 which is a portion held by a holder 114 of a spindle 113 . Moreover, the machine tool 1 stores a plurality of types of tools 11 in a magazine 16, which is a storage portion shown in FIG. The machine tool 1 can implement a plurality of different types of machining by causing the spindle 113 to hold a tool 11 selected from a plurality of tools. The configuration shown in FIG. 2 is located in the dashed line portion in FIG.

主軸113は、加工に利用される工具11を保持し、制御機構により、回転及び移動等することが可能に構成される。これにより、工作機1では、対象のワークを加工することができる。 The spindle 113 holds the tool 11 used for machining, and is configured to be able to rotate, move, etc. by a control mechanism. As a result, the machine tool 1 can machine the target work.

撮像部13は、例えば、CCDやCMOS等の撮像素子を備えたカメラである。この撮像部13は、所定のタイミングで、工具主軸113に取り付けられた工具11を撮像することができる。本実施形態の撮像部13は、工具主軸113に保持される工具11を撮像対象とする。なお、撮像部13で、ワーク主軸のワーク保持部に保持されるワークを撮像対象としてもよい。 The imaging unit 13 is, for example, a camera equipped with an imaging device such as a CCD or CMOS. The imaging unit 13 can image the tool 11 attached to the tool spindle 113 at a predetermined timing. The imaging unit 13 of the present embodiment takes the tool 11 held by the tool spindle 113 as an imaging target. Note that the imaging unit 13 may capture the workpiece held by the workpiece holder of the workpiece spindle.

撮像部13は、工具主軸113に取り付けられた工具11を複数の異なる方向から撮像する。具体的には、主軸113が、保持する工具11を所定のピッチで回転させ、撮像部13が、工具11の回転を止めた状態で撮像を行う。このように所定ピッチ間隔で、工具11を撮像することで、撮像部13が固定されている場合であっても、工具11を異なる複数の方向から撮像することができる。なお、一枚の画像に工具11が収まらない場合、主軸113は、回転軸に沿って工具11を移動させてもよい。 The imaging unit 13 images the tool 11 attached to the tool spindle 113 from a plurality of different directions. Specifically, the main shaft 113 rotates the held tool 11 at a predetermined pitch, and the imaging unit 13 performs imaging while the rotation of the tool 11 is stopped. By capturing images of the tool 11 at predetermined pitch intervals in this way, even when the imaging unit 13 is fixed, the tool 11 can be imaged from a plurality of different directions. In addition, when the tool 11 cannot fit in one image, the spindle 113 may move the tool 11 along the rotation axis.

撮像部13は、工具主軸113を所定間隔で回転させ、その間隔毎に工具11を撮像して複数の画像を得る。つまり、工具11の全体の画像を、複数に分けて得ることができる。したがって、撮像部13は、一の工具11について、異なる方向から見る複数の画像データを得る。なお、撮像部13は、得られた画像データを、画像処理装置10に出力する。 The imaging unit 13 rotates the tool spindle 113 at predetermined intervals and images the tool 11 at each interval to obtain a plurality of images. In other words, an image of the entire tool 11 can be obtained by dividing it into a plurality of images. Therefore, the imaging unit 13 obtains a plurality of image data of one tool 11 viewed from different directions. Note that the imaging unit 13 outputs the obtained image data to the image processing device 10 .

上述のように、工作機1は、撮像部13により、工作機1の工具主軸113に取り付けられた工具11を撮像することで、複数の方向からの工具11の画像データを得ることができる。このとき、撮像部13は、所定のピッチの工具11の回転画像を取得することが好ましい。例えば、撮像部13は、主軸113の回転軸を基準として工具11が18°回転される毎に画像データを撮像することにより、各工具11について、工具11の回転軸に対して垂直方向のうちの異なる方向からの複数の画像を得ることができる。このとき、工作機1は、工具11の回転角度に関する情報を画像データと共に画像処理装置10に提供する。これにより、画像処理装置10は、工具11の立体情報の点群データを生成することができる。 As described above, the machine tool 1 can obtain image data of the tool 11 from a plurality of directions by imaging the tool 11 attached to the tool spindle 113 of the machine tool 1 with the imaging unit 13 . At this time, it is preferable that the imaging unit 13 acquires a rotation image of the tool 11 at a predetermined pitch. For example, the imaging unit 13 captures image data each time the tool 11 is rotated by 18° with respect to the rotation axis of the main shaft 113 , so that for each tool 11 , Multiple images from different directions can be obtained. At this time, the machine tool 1 provides information about the rotation angle of the tool 11 to the image processing device 10 together with the image data. Thereby, the image processing device 10 can generate the point cloud data of the three-dimensional information of the tool 11 .

例えば、撮像部13は、新たな工具11を工作機1の収納部であるマガジン16に収納する前のタイミングで、工具11を撮像する。これにより、工作機1は、簡易に、加工前に行うシミュレーションにおける干渉チェック用の工具11のモデルデータを生成することができ、加工前の干渉チェックを効率的に行うことができる。 For example, the imaging unit 13 images the tool 11 before the new tool 11 is stored in the magazine 16 that is the storage unit of the machine tool 1 . As a result, the machine tool 1 can easily generate the model data of the tool 11 for interference check in the simulation performed before machining, and can efficiently perform the interference check before machining.

照明部14は、図2に示すように、発光面141が撮像部13の受光面131と対向するように配置され、発光面141から出射された光のうち工具の周囲を通過した光が受光面131に入射する。したがって、この照明部14は、透過照明である。透過照明である照明部14の使用により、工具11の輪郭の詳細を把握可能な投影画像を得ることができる。これにより、投影画像を処理する画像処理装置10において、工具11の正確な点群データを得ることができる。 As shown in FIG. 2, the illumination unit 14 is arranged such that the light emitting surface 141 faces the light receiving surface 131 of the imaging unit 13, and the light emitted from the light emitting surface 141 and passing around the tool is received. Incident on surface 131 . Therefore, this illumination unit 14 is a transmitted illumination. The use of the illumination unit 14, which is transmitted illumination, makes it possible to obtain a projected image from which the details of the outline of the tool 11 can be grasped. As a result, accurate point cloud data of the tool 11 can be obtained in the image processing device 10 that processes the projected image.

なお、撮像部13は、工具11を撮影する際以外は、加工領域と区画するためのシャッタを有する撮像収納部の中に配置されている。工具11を撮影する際に撮像収納部のシャッタが開き、撮像部13の前に主軸に取り付けられた工具11を、主軸を移動させることで移動し、工具11の撮影を行う。この工具11の撮影の前に撮像部13のキャリブレーションを行うことが好ましい。撮像部13からの距離が予め分かっている物体を撮影し、撮影された画像から物体との距離が設定値通りであるか確認を行い、異なっていれば撮像部13の位置を調整する。この予め距離が分っている物体としては、シャッタの裏面を使ってもよい。さらに、撮像部13の光透過部材であるレンズやガラスや受光素子であるCMOSなどに埃などの異物が付着していることを検出してもよい。異物の付着により撮像画像に異物が映り込むとAIでの判別において切屑と判断する可能性があるためである。撮像部13が異物を検出した際は、制御部から受光素子や光透過部材に対して振動機構を用いて振動を与え、異物を光透過部材や受光素子から落とす制御を行うことにより、異物が映り込むことを低減した画像の取得が可能になる。これにより、切り屑の判断が正確にできる。 Note that the imaging unit 13 is arranged in an imaging storage unit having a shutter for partitioning the machining area except when photographing the tool 11 . When photographing the tool 11, the shutter of the imaging storage part is opened, the tool 11 attached to the main shaft in front of the imaging part 13 is moved by moving the main shaft, and the tool 11 is photographed. It is preferable to calibrate the imaging unit 13 before photographing the tool 11 . An object whose distance from the imaging unit 13 is known in advance is photographed, and it is confirmed from the photographed image whether the distance to the object is as set as the set value, and if different, the position of the imaging unit 13 is adjusted. The object whose distance is known in advance may be the rear surface of the shutter. Further, it may be detected that a foreign object such as dust is attached to a lens or glass that is a light transmission member of the imaging unit 13 or a CMOS that is a light receiving element. This is because there is a possibility that if a foreign substance adheres and is reflected in the captured image, it may be determined as chips in discrimination by AI. When the imaging unit 13 detects a foreign object, the control unit applies vibration to the light receiving element and the light transmitting member using a vibration mechanism, and performs control to remove the foreign object from the light transmitting member and the light receiving element. It is possible to obtain an image with reduced reflection. This makes it possible to accurately determine chips.

撮像目的によって、撮像部13と工具11との位置が異なる。つまり、撮像部13で撮影する際に被写界深度内に工具11のプロファイル情報を生成したい部分が入るように工具11を所定位置に設置して撮影を行う。例えば、工具11の『輪郭測定』と、『表面摩耗測定』とを比較すると、工具11の輪郭測定の場合は、輪郭部分が光軸のワーキングディスタンス(WD)上に位置させる。一方、工具11の表面磨耗測定の場合は、工具11の直径に対する中心部分が光軸に位置し工具11の外表面が光軸のワーキングディスタンス(WD)上に位置させる。このようにして撮影して画像を取得することにより、所望の画像を得ることができる。 The positions of the imaging unit 13 and the tool 11 differ depending on the purpose of imaging. In other words, the tool 11 is set at a predetermined position so that the portion of the tool 11 whose profile information is to be generated is within the depth of field when the image is captured by the imaging unit 13 . For example, comparing the "contour measurement" of the tool 11 and the "surface wear measurement", in the case of the contour measurement of the tool 11, the contour portion is positioned on the working distance (WD) of the optical axis. On the other hand, when measuring the surface wear of the tool 11, the central portion of the diameter of the tool 11 is positioned on the optical axis and the outer surface of the tool 11 is positioned on the working distance (WD) of the optical axis. A desired image can be obtained by capturing an image in this manner.

〈画像処理装置〉
図3を用いて、実施形態に係る画像処理装置10の一例を説明する。画像処理装置10は、演算部100と、記憶部110と、入力部120と、出力部130と、通信部140とを備える。この画像処理装置10は、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置である。
<Image processing device>
An example of the image processing apparatus 10 according to the embodiment will be described with reference to FIG. The image processing apparatus 10 includes an arithmetic unit 100 , a storage unit 110 , an input unit 120 , an output unit 130 and a communication unit 140 . This image processing apparatus 10 is, for example, an information processing apparatus such as a personal computer or a tablet terminal.

演算部100は、画像処理装置10全体の制御を司るコントローラである。例えば、演算部100は、記憶部110に記憶される制御プログラムPを読み出して実行することにより、受信部101、点群データ形成部102、プロファイル画像形成部103、設定部104、記憶処理部105及び補正部106としての処理を実行する。また、演算部100は、ハードウェアとソフトウェアの協働により所定の機能を実現するものに限定されず、所定の機能を実現する専用に設計されたハードウェア回路でもよい。すなわち、演算部100は、CPU、MPU、GPU、FPGA、DSP、ASIC等、種々のプロセッサで実現することができる。 The calculation unit 100 is a controller that controls the entire image processing apparatus 10 . For example, the calculation unit 100 reads out and executes the control program P stored in the storage unit 110 to obtain the receiving unit 101, the point cloud data forming unit 102, the profile image forming unit 103, the setting unit 104, and the storage processing unit 105. And the processing as the correction unit 106 is executed. Further, the arithmetic unit 100 is not limited to one that realizes a predetermined function through cooperation of hardware and software, and may be a hardware circuit designed exclusively for realizing a predetermined function. That is, the arithmetic unit 100 can be realized by various processors such as CPU, MPU, GPU, FPGA, DSP, and ASIC.

記憶部110は種々の情報を記録する記録媒体である。記憶部110は、例えば、RAM、ROM、フラッシュメモリ、SSD(Solid State Device)、ハードディスク、その他の記憶デバイスまたはそれらを適宜組み合わせて実現される。記憶部110には、演算部100が実行する制御プログラムPの他、工作機1で使用する種々のデータ等が格納される。例えば、記憶部110は、画像データD1、プロファイル情報D2及びプロファイル画像データD3を記憶する。 The storage unit 110 is a recording medium for recording various information. The storage unit 110 is implemented by, for example, RAM, ROM, flash memory, SSD (Solid State Device), hard disk, other storage devices, or an appropriate combination thereof. In addition to the control program P executed by the calculation unit 100, the storage unit 110 stores various data used in the machine tool 1 and the like. For example, the storage unit 110 stores image data D1, profile information D2, and profile image data D3.

入力部120は、データや操作信号の入力に利用するキーボード、マウス及びタッチパネル等の入力手段である。出力部130は、データの出力に利用するディスプレイ等の出力手段である。 The input unit 120 is input means such as a keyboard, mouse, and touch panel used for inputting data and operation signals. The output unit 130 is output means such as a display used to output data.

通信部140は、外部の装置(図示せず)とのデータ通信を可能とするためのインタフェース回路(モジュール)である。例えば、通信部140は、画像データを撮像する撮像部13とデータ通信を実行することができる。 The communication unit 140 is an interface circuit (module) for enabling data communication with an external device (not shown). For example, the communication unit 140 can perform data communication with the imaging unit 13 that captures image data.

受信部101は、工具11を用いてワークを加工する工作機1の機内に取り付けられた撮像部13で撮像された工具11の複数の画像データD1を受信する。例えば、受信部101は、回転して異なる角度から撮像された工具11の複数の投影画像の画像データD1を受信する。また、受信部101は、受信した複数の画像データD1を、工具11の識別情報と、撮像時の工具11と撮像部13の位置関係を識別する識別情報と、を関連付けて記憶部110に記憶させる。これにより、後に、対象の工具11に関する点群データやプロファイル画像データD3の形成が可能となる。 The receiving unit 101 receives a plurality of image data D1 of the tool 11 captured by the imaging unit 13 mounted inside the machine tool 1 that processes the workpiece using the tool 11 . For example, the receiving unit 101 receives image data D1 of a plurality of projection images of the tool 11 rotated and captured from different angles. Further, the receiving unit 101 associates the received plurality of image data D1 with the identification information of the tool 11 and the identification information for identifying the positional relationship between the tool 11 and the imaging unit 13 at the time of imaging, and stores them in the storage unit 110. Let As a result, point group data and profile image data D3 regarding the target tool 11 can be formed later.

図4Aは、受信部101が受信した画像データD1の一例である。図4Aに示す例では、刃部111及びシャンク部112を含む工具11の外形を含む画像データD1である。画像データD1は、1つの撮像部で1回の撮像で取得されるものであってもよい。また、異なる撮像範囲を撮像する複数の撮像部13から同時に撮像された複数の画像データを受信した場合、受信部101は、同時に撮像された複数の画像データを合成し、一の画像データD1としてもよい。さらに、1つの撮像部で工具を動かしながら複数の撮影を行い、それらを合成して1つの画像データD1としてもよい。 FIG. 4A is an example of image data D1 received by the receiving unit 101. FIG. In the example shown in FIG. 4A, the image data D1 includes the outer shape of the tool 11 including the blade portion 111 and the shank portion 112 . The image data D1 may be acquired by one image pickup by one image pickup unit. Further, when receiving a plurality of image data captured simultaneously from a plurality of imaging units 13 that capture different imaging ranges, the reception unit 101 synthesizes the plurality of image data captured at the same time as one image data D1. good too. Furthermore, one imaging unit may take a plurality of images while moving the tool, and synthesize the images to obtain one image data D1.

画像データD1は、工具11全体を含む画像である場合もあるし、工具の先端部分の刃部分だけを含む画像である場合もある。このような場合に、工具先端から自動的に輪郭を追従して複数の画像を取得して、それらを合成して工具先端部分の画像データD1を取得してもよい。このようにすることで、工具先端部分の画像だけで十分な場合は、撮像時間を短縮できる。 The image data D1 may be an image including the entire tool 11, or may be an image including only the blade portion of the tip portion of the tool. In such a case, a plurality of images may be acquired by automatically following the contour from the tip of the tool, and the image data D1 of the tip portion of the tool may be acquired by synthesizing the images. By doing so, the imaging time can be shortened when only the image of the tip portion of the tool is sufficient.

なお、この画像データD1を出力部130に表示し、作業者が、入力部120を利用して自動で設定された工具11の刃部と、他の部分であるシャンク部等と境界を設定させることを可能としてもよい。例えば、作業者は、刃部とシャンク部との境界として、図4Aに示す(A)を設定する。また、出力部130に画像データD1を表示し、作業者が、画像処理装置10における解析等の処理の対象とする範囲を設定させることを可能としてもよい。例えば、解析対象の範囲が初期では(A)から下の刃部に設定されていた場合、作業者は、解析対象の範囲として、(A)から(B)に設定を変更することが可能である。これにより、(B)から下の刃部を解析することが可能になる。刃部の一部のみを解析することより、解析時間の短縮が可能になる。また、同じ時間で解析する場合でも、解析点を多くできる。この説明では、刃部とシャンク部との境界の設定に関して説明したが、工具と工具ホルダの境界を設定するような設定でも用いることができる。 This image data D1 is displayed on the output unit 130, and the operator uses the input unit 120 to set the boundary between the blade portion of the tool 11 automatically set and the shank portion, which is another portion. It may be possible to For example, the operator sets (A) shown in FIG. 4A as the boundary between the blade portion and the shank portion. Further, the image data D1 may be displayed on the output unit 130 so that the operator can set a range to be subjected to processing such as analysis in the image processing apparatus 10 . For example, if the analysis target range is initially set from (A) to the lower blade, the operator can change the setting from (A) to (B) as the analysis target range. be. This makes it possible to analyze the lower blade from (B). Analysis time can be shortened by analyzing only a part of the blade. Also, even if the analysis is performed in the same amount of time, the number of analysis points can be increased. In this description, the setting of the boundary between the blade portion and the shank portion has been described, but it can also be used for setting the boundary between the tool and the tool holder.

点群データ形成部102は、受信部101で受信した複数の画像データD1から工具の外形に関する点群データを形成する。具体的には、点群データ形成部102は、一の工具11について得られた複数の画像データD1に含まれる工具11の輪郭上から抽出された複数の点で構成される点群を点群データとする。例えば、点群データ形成部102は、一の工具11について得られた各画像データD1のうち工具11の輪郭から所定間隔で点を抽出し、抽出した複数の点に角度成分を合わせて合成し、点群データとする。この角度成分は、各画像データD1と共に、工作機1から受信したものである。これにより、点群データ形成部102は、工具11の3次元立体構造を表すことのできる点群データを形成することができる。また、点群データ形成部102は、画像データD1から形成した点群データをプロファイル情報D2として、工具11の識別情報とともに記憶部110に記憶させか、プロファイル情報D2を工具管理情報の工具11の識別情報と関連付けて記憶させる。図4Bは、点群データ形成部102が形成した点群データの一例である。 The point cloud data forming unit 102 forms point cloud data relating to the outer shape of the tool from the plurality of image data D1 received by the receiving unit 101 . Specifically, the point cloud data forming unit 102 converts a point cloud composed of a plurality of points extracted from the contour of the tool 11 included in a plurality of image data D1 obtained for one tool 11 into a point cloud. data. For example, the point cloud data forming unit 102 extracts points at predetermined intervals from the contour of the tool 11 from the image data D1 obtained for one tool 11, and synthesizes the extracted points by matching the angle components. , point cloud data. This angle component is received from the machine tool 1 together with each image data D1. Thereby, the point cloud data forming unit 102 can form point cloud data capable of representing the three-dimensional structure of the tool 11 . Further, the point cloud data forming unit 102 stores the point cloud data formed from the image data D1 as the profile information D2 together with the identification information of the tool 11 in the storage unit 110, or stores the profile information D2 of the tool 11 in the tool management information. It is stored in association with identification information. FIG. 4B is an example of point cloud data formed by the point cloud data forming unit 102 .

プロファイル画像形成部103は、点群データから工具11の2次元または3次元のプロファイルを示すプロファイル画像データD3を形成する。具体的には、プロファイル画像形成部103は、点群データで形成される3次元立体構造の一部で切断して得られる平面の輪郭をプロファイル画像データD3とすることができる。また、プロファイル画像形成部103は、プロファイル情報D2の点群データで形成される3次元立体構造の外形自体をプロファイル画像データD3としてもよい。さらに、プロファイル画像データD3は、プロファイル情報D2から生成された、例えば、2次元CADデータ形式のDXFフォーマットの工具の2次元データであってもよい。また、プロファイル画像形成部103は、点群データから形成したプロファイル画像データD3を、工具11の識別情報とともに記憶部110に記憶させる。図4Cは、プロファイル画像形成部103が形成した工具を3次元で表すプロファイル画像データD3の一例である。 The profile image forming unit 103 forms profile image data D3 representing a two-dimensional or three-dimensional profile of the tool 11 from the point cloud data. Specifically, the profile image forming unit 103 can use, as the profile image data D3, a contour of a plane obtained by cutting a part of the three-dimensional structure formed by the point cloud data. Also, the profile image forming unit 103 may use the outline itself of the three-dimensional structure formed by the point cloud data of the profile information D2 as the profile image data D3. Furthermore, the profile image data D3 may be two-dimensional tool data in DXF format, which is a two-dimensional CAD data format, for example, generated from the profile information D2. Also, the profile image forming unit 103 causes the storage unit 110 to store the profile image data D3 formed from the point cloud data together with the identification information of the tool 11 . FIG. 4C is an example of profile image data D3 that three-dimensionally represents the tool formed by the profile image forming unit 103 .

設定部104は、工具11の刃部111の情報を設定する。具体的には、設定部104は、記憶部110に記憶されるプロファイル情報D2の点群データまたはプロファイル画像データD3を用いて、刃部111の情報として、刃部111の領域及び刃部111の長さや径等のサイズに関する情報を設定することができる。または、設定部104は、刃部111の情報として、工具11の刃部111とシャンク部112との境界を設定することができる。その他、設定部104は、刃部111の情報として、刃部111の領域及びサイズに関する情報と刃部111とシャンク部112の境界との両方を設定してもよい。 The setting unit 104 sets information about the blade portion 111 of the tool 11 . Specifically, the setting unit 104 uses the point cloud data or profile image data D3 of the profile information D2 stored in the storage unit 110 to set the region of the blade portion 111 and the area of the blade portion 111 as the information of the blade portion 111. Information about size such as length and diameter can be set. Alternatively, the setting unit 104 can set the boundary between the blade portion 111 and the shank portion 112 of the tool 11 as information on the blade portion 111 . In addition, the setting unit 104 may set both information regarding the area and size of the blade portion 111 and the boundary between the blade portion 111 and the shank portion 112 as the information on the blade portion 111 .

例えば、設定部104は、予め基準として設定される各種別の工具11の形状、刃部111の形状またはシャンク部112の形状等のデータを参考に、プロファイル情報D2の点群データまたはプロファイル画像データD3から、対象の工具11の刃部111の領域及びサイズまたは刃部111とシャンク部112との境界を設定することができる。 For example, the setting unit 104 refers to data such as the shape of each type of tool 11, the shape of the blade portion 111, or the shape of the shank portion 112, which is set in advance as a reference, and sets the point cloud data or the profile image data of the profile information D2. From D3, the area and size of the blade portion 111 of the target tool 11 or the boundary between the blade portion 111 and the shank portion 112 can be set.

記憶処理部105は、設定部104で設定された刃部111の情報を工具11の情報としてプロファイル情報D2に追加し、記憶部110に記憶させる。具体的には、記憶処理部105は、対象の工具11のプロファイル情報D2に、刃部111の情報を追加する。 The memory processing unit 105 adds the information of the blade portion 111 set by the setting unit 104 to the profile information D2 as the information of the tool 11, and causes the storage unit 110 to store the information. Specifically, the memory processing unit 105 adds the information of the blade part 111 to the profile information D2 of the target tool 11 .

このとき、補正部106は、必要に応じて刃部111の情報を補正する。具体的には、点群データ形成部102で形成された点群データまたはプロファイル画像形成部103で形成されたプロファイル画像データD3は、出力部130であるディスプレイに表示される。作業者等は、これら表示されるデータに対し、刃部111の情報を補正するための信号を入力することができる。例えば、補正部106は、入力部120を介して作業者等により入力された信号に基づいて、工具11の刃部111及びシャンク部112の境界位置である刃部111の情報を補正する。または、補正部106は、入力部120を介して作業者等により入力された信号に基づいて、工具11の刃部111の情報を補正する。これにより、画像処理装置10には、工作機1で使用される工具11に関する刃部111の情報がプロファイル情報D2に登録される。 At this time, the correction unit 106 corrects the information on the blade unit 111 as necessary. Specifically, the point cloud data formed by the point cloud data forming unit 102 or the profile image data D3 formed by the profile image forming unit 103 are displayed on the display, which is the output unit 130 . An operator or the like can input a signal for correcting the information of the blade portion 111 with respect to the displayed data. For example, the correction unit 106 corrects the information of the blade portion 111, which is the boundary position between the blade portion 111 and the shank portion 112 of the tool 11, based on a signal input by an operator or the like via the input portion 120. FIG. Alternatively, the correction unit 106 corrects the information of the cutting edge 111 of the tool 11 based on the signal input by the operator or the like via the input unit 120 . As a result, in the image processing device 10, the information of the blade portion 111 related to the tool 11 used in the machine tool 1 is registered in the profile information D2.

〈プロファイル情報の登録の処理〉
図5に示すフローチャートを用いて、実施の形態1に係る画像処理装置10におけるプロファイル情報D2の登録の処理について説明する。このプロファイル情報D2の登録の処理は、工作機1において新たな工具11が主軸113に設置され、使用が可能となったタイミングで開始される。主軸113に工具11が取り付けられた状態で画像を撮影するため、工具11の位置が正確かつ簡単に制御できるためである。まず、受信部101は、撮像部13が主軸113に取り付けられた工具11を撮像した画像データD1を受信し、記憶部110に記憶させる(S01)。
<Profile information registration processing>
The process of registering the profile information D2 in the image processing apparatus 10 according to the first embodiment will be described with reference to the flowchart shown in FIG. The process of registering the profile information D2 is started when a new tool 11 is installed on the spindle 113 of the machine tool 1 and becomes ready for use. This is because the image is captured while the tool 11 is attached to the spindle 113, so the position of the tool 11 can be controlled accurately and easily. First, the receiving unit 101 receives image data D1 obtained by imaging the tool 11 attached to the spindle 113 by the imaging unit 13, and stores the image data D1 in the storage unit 110 (S01).

点群データ形成部102は、ステップS01で受信された工具11の画像データD1を用いて、工具11の外形から抽出された複数の点群で構成される点群データを形成する(S02)。また、点群データ形成部102は、形成した点群データをプロファイル情報D2として記憶部110に記憶させる。 The point cloud data forming unit 102 uses the image data D1 of the tool 11 received in step S01 to form point cloud data composed of a plurality of point groups extracted from the outer shape of the tool 11 (S02). Further, the point cloud data forming unit 102 stores the formed point cloud data in the storage unit 110 as the profile information D2.

プロファイル画像形成部103は、ステップS02で形成された工具11の点群データを用いて、プロファイル画像データD3を形成する(S03)。また、プロファイル画像形成部103は、形成したプロファイル画像データD3を記憶部110に記憶させる。 The profile image forming unit 103 forms profile image data D3 using the point group data of the tool 11 formed in step S02 (S03). Also, the profile image forming unit 103 causes the storage unit 110 to store the formed profile image data D3.

設定部104は、ステップS02で形成された点群データまたはステップS03で形成された工具11のプロファイル画像データD3を用いて、工具11の刃部111の情報を設定する(S04)。なお、点群データを用いて刃部111の情報を設定する場合、ステップS03のプロファイル画像データD3の形成は省略してもよい。 The setting unit 104 sets information on the cutting edge 111 of the tool 11 using the point cloud data formed in step S02 or the profile image data D3 of the tool 11 formed in step S03 (S04). Note that when setting the information of the blade portion 111 using point cloud data, the formation of the profile image data D3 in step S03 may be omitted.

補正部106は、ステップS04で設定された刃部111の情報に関して補正する必要があるとき(S05でYES)、プロファイル情報D2を補正する(S06)。具体的には、入力部120を介して作業者による信号が入力された場合、補正部106は、入力された信号に応じてプロファイル情報D2を補正する。 When the information of the blade portion 111 set in step S04 needs to be corrected (YES in S05), the correction section 106 corrects the profile information D2 (S06). Specifically, when a worker's signal is input via the input unit 120, the correction unit 106 corrects the profile information D2 according to the input signal.

記憶処理部105は、ステップS04で設定された刃部111の情報またはステップS06で補正された刃部111の情報を記憶部110に記憶されるプロファイル情報D2に追加して登録する(S07)。 The storage processing unit 105 adds and registers the information of the blade portion 111 set in step S04 or the information of the blade portion 111 corrected in step S06 to the profile information D2 stored in the storage unit 110 (S07).

このように、実施形態に係る画像処理装置10によれば、工作機1において新たな工具11が使用されることとなった場合、容易かつ短時間でプロファイル画像データD3及びプロファイル情報D2を形成することが可能となる。これにより、工作機1では、このプロファイル画像データD3及びプロファイル情報D2を用いて干渉チェックを行うことが可能となり、高精度なワークの加工を容易に実現することができる。 As described above, according to the image processing apparatus 10 according to the embodiment, when a new tool 11 is used in the machine tool 1, the profile image data D3 and the profile information D2 are easily formed in a short time. becomes possible. As a result, the machine tool 1 can perform an interference check using the profile image data D3 and the profile information D2, and can easily process a workpiece with high accuracy.

[実施の形態2]
〈工作機及び画像処理装置〉
実施の形態1に係る工作機1及び画像処理装置10では、工作機1に新たな工具11が収納される等により新たな工具11を使用することが可能となったタイミングで画像を取得し、プロファイル情報D2を登録していた。これに対し、実施の形態2に係る工作機及び画像処理装置では、既にプロファイル情報D2が登録されている工具11について、使用により摩耗、損傷等が生じた所定のタイミングで、新たに画像を取得し、プロファイル情報D2を更新するものである。
[Embodiment 2]
<Machine tool and image processing device>
In the machine tool 1 and the image processing apparatus 10 according to Embodiment 1, an image is acquired at the timing when the new tool 11 is stored in the machine tool 1 and the new tool 11 becomes available, Profile information D2 was registered. On the other hand, in the machine tool and the image processing apparatus according to the second embodiment, the tool 11 for which the profile information D2 has already been registered acquires a new image at a predetermined timing when wear, damage, etc. occurs due to use. and updates the profile information D2.

実施の形態2に係る工作機は、図1及び2を用いて上述した工作機1と同一の構成であり、また、実施の形態2に係る画像処理装置は、図3を用いて上述した画像処理装置10と同一の構成であるため、図1乃至3を参照して説明する。 The machine tool according to the second embodiment has the same configuration as the machine tool 1 described above with reference to FIGS. Since it has the same configuration as the processing device 10, it will be described with reference to FIGS.

実施の形態2に係る工作機1の撮像部13は、工作機1の主軸に同一の工具が取り付けられた状態で、所定の期間をあけて工具を撮像する。これにより、画像処理装置10において複数の異なるタイミングで撮像された画像データを比較し、摩耗等の工具11の変化を特定することが可能となる。例えば、撮像部13は、各工具11の使用が所定の回数に達したタイミングで、定期的に工具11を撮像してもよい。または、撮像部13は、工作機1における何らかのセンサによる値が所定の範囲外となった場合に、工具11を撮像しても良い。 The imaging unit 13 of the machine tool 1 according to Embodiment 2 captures images of the tool at predetermined intervals while the same tool is attached to the spindle of the machine tool 1 . This makes it possible to compare image data captured at a plurality of different timings in the image processing device 10 and identify changes in the tool 11 such as wear. For example, the imaging unit 13 may periodically capture an image of the tool 11 at the timing when each tool 11 has been used a predetermined number of times. Alternatively, the imaging unit 13 may capture an image of the tool 11 when the value obtained by some sensor in the machine tool 1 is out of a predetermined range.

ここで、各撮像のタイミングで、撮像部13の位置及び姿勢は固定であることが好ましい。この場合、工具11が取り付けられた主軸113の移動制御により、撮像の際の微細なピント調整等を行うことができる。このように、撮像部13を固定し、主軸113の移動機構を利用することで、移動機構等を要さず、また、工作機1の大型化を防ぐことができる。 Here, it is preferable that the position and posture of the imaging unit 13 be fixed at the timing of each imaging. In this case, by controlling the movement of the main shaft 113 to which the tool 11 is attached, it is possible to finely adjust the focus during imaging. By fixing the imaging unit 13 and using the movement mechanism of the spindle 113 in this manner, a movement mechanism or the like is not required, and the machine tool 1 can be prevented from becoming large.

また、実施の形態2に係る画像処理装置10の補正部106は、撮像部13による先の撮像で得られた工具11の画像データD1に基づいて定められたプロファイル情報D2を、後の撮像で得られた工具11の新たな画像データD1に基づいて形成された点群データを用いて補正する。例えば、出力部130は、記憶部110に記憶される先のプロファイル情報D2を出力部130に出力するとともに、新たに得られた画像データD1から生成されたプロファイル情報D2を並べて出力する。これにより、作業者等に、工具11の変化を把握しやすくさせる。作業者等は、これら表示されるデータを比較し、プロファイル情報D2の一部である刃部の情報を補正するための信号を入力することができる。または、工具管理画面で工具の摩耗を補正するための信号を入力することができる形態でもよい。補正部106は、入力部120を介して作業者等により新たに入力された信号に基づいて、プロファイル情報D2や工具管理画面で管理する工具管理情報に含まれる刃部の情報を補正する。また、記憶処理部105は、補正部106により補正された新たなプロファイル情報D2を記憶部110に登録する。これにより、プロファイル情報D2をもとに最新の工具11の状態に更新される。また、画像処理装置10では、更新された新たなプロファイル情報D2から、工具11が交換を必要とする程度に摩耗していることが検出された場合、出力部130に工具の交換タイミングである通知を表示してもよい。 Further, the correction unit 106 of the image processing apparatus 10 according to Embodiment 2 corrects the profile information D2 determined based on the image data D1 of the tool 11 obtained by the previous imaging by the imaging unit 13 in the subsequent imaging. Correction is performed using point cloud data formed based on the obtained new image data D1 of the tool 11 . For example, the output unit 130 outputs the previous profile information D2 stored in the storage unit 110 to the output unit 130, and also outputs the profile information D2 generated from the newly obtained image data D1 side by side. This makes it easier for the operator or the like to grasp the change in the tool 11 . An operator or the like can compare these displayed data and input a signal for correcting the information of the blade portion, which is a part of the profile information D2. Alternatively, it may be possible to input a signal for correcting tool wear on the tool management screen. The correcting unit 106 corrects information about the blade portion included in the tool management information managed on the profile information D2 and the tool management screen, based on a signal newly input by the operator or the like via the input unit 120 . Also, the storage processing unit 105 registers the new profile information D2 corrected by the correction unit 106 in the storage unit 110 . As a result, the state of the tool 11 is updated based on the profile information D2. Further, in the image processing device 10, when it is detected from the updated new profile information D2 that the tool 11 is worn to the extent that replacement is required, the output unit 130 is notified that it is time to replace the tool. may be displayed.

〈プロファイル情報の更新の処理〉
図6に示すフローチャートを用いて、実施の形態1に係る画像処理装置10におけるプロファイル情報D2の更新の処理について説明する。まず、受信部101は、撮像部13が撮像した新たな画像データD1を受信し、記憶部110に記憶させる(S11)。
<Profile information update processing>
A process of updating the profile information D2 in the image processing apparatus 10 according to the first embodiment will be described with reference to the flowchart shown in FIG. First, the receiving unit 101 receives new image data D1 captured by the imaging unit 13 and stores it in the storage unit 110 (S11).

点群データ形成部102は、ステップS11で受信された工具11の新たな画像データD1を用いて、新たな点群データを形成する(S12)。また、点群データ形成部102は、新たに形成した点群データを新たなプロファイル情報D2として記憶部110に記憶させる。 The point cloud data forming unit 102 forms new point cloud data using the new image data D1 of the tool 11 received in step S11 (S12). Further, the point cloud data forming unit 102 causes the storage unit 110 to store the newly formed point cloud data as new profile information D2.

プロファイル画像形成部103は、ステップS12で形成された工具11の新たな点群データを用いて、新たなプロファイル画像データD3を形成する(S13)。また、プロファイル画像形成部103は、形成した新たなプロファイル画像データD3を記憶部110に記憶させる。 The profile image forming unit 103 forms new profile image data D3 using the new point group data of the tool 11 formed in step S12 (S13). Also, the profile image forming unit 103 causes the storage unit 110 to store the newly formed profile image data D3.

設定部104は、ステップS12で形成された新たな点群データまたはステップS13で形成された工具11の新たなプロファイル画像データD3を用いて、現在の工具11の刃部の情報を設定する(S14)。なお、点群データを用いて刃部111の情報を設定する場合、ステップS13の新たなプロファイル画像データD3の形成は省略してもよい。 The setting unit 104 uses the new point cloud data formed in step S12 or the new profile image data D3 of the tool 11 formed in step S13 to set the current information on the cutting edge of the tool 11 (S14 ). Note that when setting the information of the blade portion 111 using the point cloud data, the formation of the new profile image data D3 in step S13 may be omitted.

補正部106は、ステップS14で設定された刃部の情報に関して補正する必要があるとき(S15でYES)、プロファイル情報D2を補正する(S16)。具体的には、出力部130に比較して表示されるプロファイル情報D2等に対し、入力部120を介して作業者による信号が入力された場合、補正部106は、入力された信号に応じてプロファイル情報D2を補正する。 The correcting unit 106 corrects the profile information D2 when it is necessary to correct the blade information set in step S14 (YES in S15) (S16). Specifically, when a signal is input from the operator via the input unit 120 for the profile information D2 or the like displayed for comparison on the output unit 130, the correction unit 106 performs Correct the profile information D2.

記憶処理部105は、ステップS14で設定された新たな刃部111の情報またはステップS16で補正された新たな刃部111の情報を記憶部110に記憶させる(S17)。これにより、画像処理装置10では、現在の工具11の状態に関して得られた新たなプロファイル情報D2が登録される。 The storage processing unit 105 causes the storage unit 110 to store the information of the new blade portion 111 set in step S14 or the information of the new blade portion 111 corrected in step S16 (S17). Thereby, in the image processing device 10, new profile information D2 obtained regarding the current state of the tool 11 is registered.

また、画像処理装置10は、登録した新たなプロファイル情報D2で特定される状態の現在の工具11が、予め設定される工具11の寿命に達しておらず(S18でNO)、新たな画像データを取得する所定のタイミングに達した場合(S19でYES)、ステップS11~S19の処理を繰り返す。例えば、画像処理装置10では、工具11の寿命に達したか否かを判定するためのデータを記憶部110で記憶する。 Further, the image processing apparatus 10 determines that the current tool 11 in the state specified by the registered new profile information D2 has not reached the preset life of the tool 11 (NO in S18), and new image data (YES in S19), the processing of steps S11 to S19 is repeated. For example, in the image processing device 10, the storage unit 110 stores data for determining whether the tool 11 has reached the end of its life.

一方、工作機1における処理を終了するタイミングである場合(S20でYES)、プロファイル情報D2の更新の処理を終了する。 On the other hand, if it is time to end the process in the machine tool 1 (YES in S20), the process of updating the profile information D2 ends.

また、画像処理装置10は、登録した新たなプロファイル情報D2で特定される状態の現在の工具11が、予め設定される工具11の寿命に達している場合(S18でYES)、工具交換のタイミングである通知を出力部130に表示し(S21)、プロファイル情報D2の更新の処理を終了する。 In addition, when the current tool 11 in the state specified by the registered new profile information D2 has reached the preset life of the tool 11 (YES in S18), the image processing apparatus 10 determines the tool replacement timing. is displayed on the output unit 130 (S21), and the process of updating the profile information D2 is terminated.

なお、図7に示すシーケンス図を用いて、図6を用いて上述したプロファイル情報D2の更新の処理を実行する場合における工作機1での処理について説明する。まず、画像処理装置10がNC装置17に、工具11の位置を調整するための位置制御信号を送信する(S31)。これにより、NC装置17は、主軸113を制御し、工具11の位置を調整する(S32)。 The sequence diagram shown in FIG. 7 will be used to explain the processing in the machine tool 1 when executing the processing for updating the profile information D2 described above with reference to FIG. First, the image processing device 10 transmits a position control signal for adjusting the position of the tool 11 to the NC device 17 (S31). Thereby, the NC device 17 controls the spindle 113 and adjusts the position of the tool 11 (S32).

また、画像処理装置10は、照明部14に、照明を調光するための照明制御信号S33を送信する(S33)。これにより、照明部14は、調光される(S34)。 The image processing apparatus 10 also transmits an illumination control signal S33 for dimming the illumination to the illumination unit 14 (S33). Thereby, the illumination unit 14 is dimmed (S34).

その後、画像処理装置10は、撮影制御信号を撮像部13に送信する(S35)。これにより、撮像部13は、工具11の画像データD1を撮像する(S36)。また、撮像部13は、撮像した画像データD1を画像処理装置10に出力する。 After that, the image processing device 10 transmits a shooting control signal to the imaging section 13 (S35). Thereby, the imaging unit 13 images the image data D1 of the tool 11 (S36). The imaging unit 13 also outputs the captured image data D<b>1 to the image processing device 10 .

画像処理装置10は、取得した画像データD1を用いて、図6を用いて上述したように、画像の処理及びデータの更新を実行する(S38)。 The image processing apparatus 10 uses the acquired image data D1 to process the image and update the data as described above with reference to FIG. 6 (S38).

処理を継続する場合、画像処理装置10は、新たな位置制御信号をNC装置17に送信する(S39)。また、NC装置17は、主軸113を制御し、工具11の位置を調整する(S40)。図7において破線で囲まれるステップS35からS40までの処理は、プロファイル情報D2の更新の処理を終了するまで繰り替えされる。 When continuing the processing, the image processing device 10 transmits a new position control signal to the NC device 17 (S39). The NC device 17 also controls the spindle 113 to adjust the position of the tool 11 (S40). The processing from steps S35 to S40 surrounded by a dashed line in FIG. 7 is repeated until the update processing of the profile information D2 is completed.

または、工具11の交換のタイミングに達した場合、画像処理装置10は、NC装置17に、交換のための位置に制御するための位置制御信号を送信する(S41)。これにより、NC装置17は、主軸113を制御し、工具11を交換するための位置に調整する(S42)。その後、工作機1において、工具11が交換される。 Alternatively, when the timing for replacing the tool 11 is reached, the image processing device 10 transmits a position control signal to the NC device 17 to control the position for replacement (S41). As a result, the NC device 17 controls the spindle 113 and adjusts the tool 11 to a position for exchanging (S42). After that, in the machine tool 1, the tool 11 is replaced.

このように、画像処理装置10では、摩耗、損傷等の工具に生じた変化を含む新たなプロファイル情報D2を登録することができる。したがって、工作機1は、新たなプロファイル情報D2を用いて、長期使用による工具11の摩耗、損傷等の劣化やずれを的確に反映させ、加工精度の低下を防ぐことができる。 In this manner, the image processing apparatus 10 can register new profile information D2 including changes in the tool such as wear and damage. Therefore, by using the new profile information D2, the machine tool 1 can accurately reflect deterioration and deviation such as wear and damage of the tool 11 due to long-term use, and can prevent a decrease in machining accuracy.

[変形例1]
実施の形態1で上述した工作機1では、撮像部13は、工具11の透過画像を撮像するものとして説明した。これに対し、撮像部13が、反射光を撮像するものであっても良い。具体的には、照明部14は、発光面が撮像部13の受光面と同じ向きになるように配置され、発光面から出射された光が工具に当たり、その反射光が撮像部13の受光面に入射するように構成されてもよい。これにより、撮像部13は、工具11表面の画像を得ることができるので、工具11に生じた傷等を的確に把握することができる。
[Modification 1]
In the machine tool 1 described above in Embodiment 1, the imaging unit 13 has been described as capturing a transmission image of the tool 11 . Alternatively, the imaging unit 13 may capture reflected light. Specifically, the illumination unit 14 is arranged such that the light emitting surface is oriented in the same direction as the light receiving surface of the imaging unit 13 . may be configured to be incident on the As a result, the imaging unit 13 can obtain an image of the surface of the tool 11 , and can accurately grasp the damage or the like on the tool 11 .

[変形例2]
上述した工作機1及び画像処理装置10では、取得する画像データD1をプロファイル情報D2の登録や更新に使用した。これに対し、画像処理装置10において、取得する画像データD1を用いて、現在、工作機1の保持部12により保持される工具を識別可能としても良い。この場合、画像処理装置10は、工作機1で使用可能な複数の工具の情報である工具リストデータを記憶部110に記憶するとともに、演算部100において、工具を識別する識別部を備える。
[Modification 2]
In the machine tool 1 and the image processing apparatus 10 described above, the acquired image data D1 is used to register and update the profile information D2. On the other hand, in the image processing device 10, the tool currently held by the holding section 12 of the machine tool 1 may be identified using the acquired image data D1. In this case, the image processing apparatus 10 stores tool list data, which is information on a plurality of tools that can be used in the machine tool 1, in the storage unit 110, and the calculation unit 100 includes an identification unit for identifying the tools.

工具リストデータは、例えば、各工具の識別情報として工具の型番を含む。また、工具リストデータは、各型番に工具の形状に関する情報として、工具の刃部の外径及び長さとを少なくとも含む。さらに、工具の刃部111の部位により、外径が異なる工具に関しては、工具の形状に関する情報として、その部位を特定する工具の部位の長手方向に関する情報を含むことができる。識別部は、点群データまたはプロファイル画像データD3を、工具リストデータの中から主軸113に取り付けられた工具の型番を定める。これにより、主軸113に保持される工具を容易に識別することができる。 The tool list data includes, for example, tool model numbers as identification information for each tool. In addition, the tool list data includes at least the outer diameter and length of the blade portion of the tool as information on the shape of the tool for each model number. Furthermore, for a tool having a different outer diameter depending on the part of the cutting edge 111 of the tool, the information about the shape of the tool can include information about the longitudinal direction of the part of the tool that specifies the part. The identification unit determines the model number of the tool attached to the spindle 113 from the point cloud data or the profile image data D3 and the tool list data. This makes it possible to easily identify the tool held on the spindle 113 .

[変形例3]
上述した画像処理装置10では、設定部104が、工具11の刃部111の情報を設定する。これに対し、プロファイル画像形成部103が、予め機械学習により学習済みの学習モデルを用いて、刃部111の情報を設定するようにしてもよい。具体的には、この学習モデルは、工具のプロファイル画像データと、該工具11を実測に基づく刃部111及びシャンク部112の境界位置と、該工具11を実測に基づく外形プロファイルデータとのセットからなる教師データを用いた学習により得られたパラメータが適用されたものである。この学習モデルは、工具11の画像データを入力とし、工具11の刃部111及びシャンク部112の境界位置等のプロファイル情報D2及びプロファイル画像データD3を出力とする。これにより、学習モデルを利用して、プロファイル情報D2の登録を可能とする。
[Modification 3]
In the image processing apparatus 10 described above, the setting unit 104 sets information on the blade portion 111 of the tool 11 . On the other hand, the profile image forming section 103 may set the information of the blade section 111 using a learning model that has been learned in advance by machine learning. Specifically, this learning model is obtained from a set of profile image data of the tool, boundary positions of the blade portion 111 and the shank portion 112 based on actual measurement of the tool 11, and outline profile data based on actual measurement of the tool 11. The parameters obtained by learning using the teacher data are applied. This learning model receives image data of the tool 11 and outputs profile information D2 such as boundary positions of the blade portion 111 and the shank portion 112 of the tool 11 and profile image data D3. This enables the profile information D2 to be registered using the learning model.

以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。 As described above, the above embodiments have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which modifications, replacements, additions, omissions, etc. are made as appropriate.

本出願において開示する技術を用いることにより、干渉チェック用工具3Dモデル自動生成が可能になる。また、本出願において開示する技術を用いることにより、工具交換時に切り屑巻き付きを検出することが可能になる。また、本出願において開示する技術を用いることにより、工具補正の自動化が可能になる。また、本出願において開示する技術を用いることにより、すくい面の欠け検出や、逃げ面摩耗量の計測による、定量的な工具管理が可能になる。 By using the technology disclosed in this application, it becomes possible to automatically generate a 3D model of a tool for interference check. Moreover, by using the technology disclosed in the present application, it becomes possible to detect chip entanglement during tool change. Also, by using the technology disclosed in the present application, tool correction can be automated. Moreover, by using the technology disclosed in the present application, it is possible to perform quantitative tool management by detecting chipping of the rake face and measuring the amount of wear on the flank face.

本開示の全請求項に記載の画像処理装置、工作機及び画像処理方法は、ハードウェア資源、例えば、プロセッサ、メモリ、及びプログラムとの協働などによって、実現される。 The image processing device, machine tool, and image processing method described in all claims of the present disclosure are realized by cooperation with hardware resources such as processors, memories, and programs.

本開示の画像処理装置、工作機及び画像処理方法は、例えば、工作機の干渉チェックの容易化に有用である。 The image processing device, machine tool, and image processing method of the present disclosure are useful, for example, in facilitating interference checks of machine tools.

1 工作機
11 工具
12 保持部
13 撮像部
14 照明部
10 画像処理装置
100 演算部
101 受信部
102 点群データ形成部
103 プロファイル画像形成部
104 設定部
105 記憶処理部
106 補正部
110 記憶部
120 入力部
130 出力部
140 通信部
D1 画像データ
D2 プロファイル情報
D3 プロファイル画像データ
P 制御プログラム
1 Machine tool 11 Tool 12 Holding unit 13 Imaging unit 14 Illuminating unit 10 Image processing device 100 Calculation unit 101 Receiving unit 102 Point cloud data forming unit 103 Profile image forming unit 104 Setting unit 105 Storage processing unit 106 Correcting unit 110 Storage unit 120 Input Unit 130 Output unit 140 Communication unit D1 Image data D2 Profile information D3 Profile image data P Control program

Claims (1)

工具を用いてワークを加工する工作機で撮像された画像を処理し、工具が工作機にある状態で、工具の状態を検査する方法であって、
工具を主軸に取り付けた状態で工具の先端を撮像部の前に移動し、工具の先端のみを撮像する第1工程と、
前記工具の先端から自動的に輪郭を追従して複数の画像を撮像する第2工程と、
前記複数の画像を解析して複数の点を抽出し、前記第2工程で撮像された前記複数の画像の合成から1つの前記工具のプロファイルに係わる前記工具の1つの点群データを形成する第3工程と、
工具を主軸に取り付けた状態でワークの加工を行い、加工後に工具を主軸に取り付けたまま工具の先端を撮像部の前に移動する第4工程と、
前記工具の先端から自動的に輪郭を追従して複数の画像を撮像する第5工程と、
前記第5工程で撮像された画像を解析し、前記点群データと比較する第6工程とを備える、工具の状態を検査する検査方法。
A method for processing an image captured by a machine tool that processes a workpiece using a tool and inspecting the condition of the tool while the tool is in the machine tool, comprising:
a first step of moving the tip of the tool in front of the imaging unit while the tool is attached to the spindle, and imaging only the tip of the tool ;
a second step of capturing a plurality of images by automatically following the contour from the tip of the tool;
Analyzing the plurality of images to extract a plurality of points, and forming one point cloud data of the tool related to the profile of the one tool from the synthesis of the plurality of images captured in the second step 3 steps;
a fourth step of machining the workpiece with the tool attached to the spindle, and moving the tip of the tool in front of the imaging unit while the tool is attached to the spindle after machining;
a fifth step of automatically following the contour from the tip of the tool and capturing a plurality of images;
An inspection method for inspecting the state of a tool, comprising a sixth step of analyzing the image captured in the fifth step and comparing it with the point cloud data.
JP2022038461A 2020-01-15 2022-03-11 Image processing device, machine tool and image processing method Active JP7253088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022038461A JP7253088B2 (en) 2020-01-15 2022-03-11 Image processing device, machine tool and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020004356A JP2021109298A (en) 2020-01-15 2020-01-15 Image processing device, machine tool and image processing method
JP2022038461A JP7253088B2 (en) 2020-01-15 2022-03-11 Image processing device, machine tool and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020004356A Division JP2021109298A (en) 2020-01-15 2020-01-15 Image processing device, machine tool and image processing method

Publications (2)

Publication Number Publication Date
JP2022079494A JP2022079494A (en) 2022-05-26
JP7253088B2 true JP7253088B2 (en) 2023-04-05

Family

ID=87888581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022038461A Active JP7253088B2 (en) 2020-01-15 2022-03-11 Image processing device, machine tool and image processing method

Country Status (1)

Country Link
JP (1) JP7253088B2 (en)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993023820A1 (en) 1992-05-18 1993-11-25 Sensor Adaptive Machines, Inc. Further methods and apparatus for control of lathes and other machine tools
JP2002018680A (en) 2000-07-10 2002-01-22 Mitsubishi Electric Corp Machine tool
JP2008026149A (en) 2006-07-21 2008-02-07 Sumitomo Electric Ind Ltd Visual examination device
JP2010099781A (en) 2008-10-24 2010-05-06 Fuji Mach Mfg Co Ltd Cutting tool inspection system
US20110223833A1 (en) 2010-03-09 2011-09-15 Nagel Maschinen-Und Werkzeugfabrik Gmbh Method and apparatus for the measurement-aided fine machining of workpiece surfaces, and measuring system
JP2013088414A (en) 2011-10-24 2013-05-13 Hitachi Ltd Shape inspection method and device of the same
CN103995496A (en) 2014-04-28 2014-08-20 南京航空航天大学 Aircraft part high-precision matching component processing method based on digital measurement
JP2015131357A (en) 2014-01-10 2015-07-23 三菱重工業株式会社 Tool breakage detector for machine tool
WO2015111200A1 (en) 2014-01-24 2015-07-30 三菱電機株式会社 Tool shape measurement device and tool shape measurement method
JP2016024048A (en) 2014-07-18 2016-02-08 コニカミノルタ株式会社 Measuring apparatus, and measuring method, for machining tools
JP2016040531A (en) 2014-08-12 2016-03-24 コニカミノルタ株式会社 Working tool measuring method and measuring device
CN105773309A (en) 2016-03-10 2016-07-20 天津大学 Online testing method for ultra-view-field cutter
WO2016129103A1 (en) 2015-02-13 2016-08-18 株式会社牧野フライス製作所 Tool shape measurement apparatus and machine tool
JP2017049656A (en) 2015-08-31 2017-03-09 ファナック株式会社 Machining system with machining accuracy maintaining function
WO2018220776A1 (en) 2017-05-31 2018-12-06 株式会社牧野フライス製作所 Machine tool and tool defect determination method
JP2018194416A (en) 2017-05-17 2018-12-06 三菱重工業株式会社 Tool inspection device, processing machine, and method for inspecting tool of processing machine
JP2019153037A (en) 2018-03-02 2019-09-12 株式会社 ジェイネット Processing support device, processing support method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5633252A (en) * 1979-08-22 1981-04-03 Komatsu Ltd Photographing process for damaged cutting tool

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993023820A1 (en) 1992-05-18 1993-11-25 Sensor Adaptive Machines, Inc. Further methods and apparatus for control of lathes and other machine tools
JP2002018680A (en) 2000-07-10 2002-01-22 Mitsubishi Electric Corp Machine tool
JP2008026149A (en) 2006-07-21 2008-02-07 Sumitomo Electric Ind Ltd Visual examination device
JP2010099781A (en) 2008-10-24 2010-05-06 Fuji Mach Mfg Co Ltd Cutting tool inspection system
US20110223833A1 (en) 2010-03-09 2011-09-15 Nagel Maschinen-Und Werkzeugfabrik Gmbh Method and apparatus for the measurement-aided fine machining of workpiece surfaces, and measuring system
JP2013088414A (en) 2011-10-24 2013-05-13 Hitachi Ltd Shape inspection method and device of the same
JP2015131357A (en) 2014-01-10 2015-07-23 三菱重工業株式会社 Tool breakage detector for machine tool
WO2015111200A1 (en) 2014-01-24 2015-07-30 三菱電機株式会社 Tool shape measurement device and tool shape measurement method
CN103995496A (en) 2014-04-28 2014-08-20 南京航空航天大学 Aircraft part high-precision matching component processing method based on digital measurement
JP2016024048A (en) 2014-07-18 2016-02-08 コニカミノルタ株式会社 Measuring apparatus, and measuring method, for machining tools
JP2016040531A (en) 2014-08-12 2016-03-24 コニカミノルタ株式会社 Working tool measuring method and measuring device
WO2016129103A1 (en) 2015-02-13 2016-08-18 株式会社牧野フライス製作所 Tool shape measurement apparatus and machine tool
JP2017049656A (en) 2015-08-31 2017-03-09 ファナック株式会社 Machining system with machining accuracy maintaining function
CN105773309A (en) 2016-03-10 2016-07-20 天津大学 Online testing method for ultra-view-field cutter
JP2018194416A (en) 2017-05-17 2018-12-06 三菱重工業株式会社 Tool inspection device, processing machine, and method for inspecting tool of processing machine
WO2018220776A1 (en) 2017-05-31 2018-12-06 株式会社牧野フライス製作所 Machine tool and tool defect determination method
JP2019153037A (en) 2018-03-02 2019-09-12 株式会社 ジェイネット Processing support device, processing support method

Also Published As

Publication number Publication date
JP2022079494A (en) 2022-05-26

Similar Documents

Publication Publication Date Title
CN108965690B (en) Image processing system, image processing apparatus, and computer-readable storage medium
JP5679560B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
US7499584B2 (en) Smear-limit based system and method for controlling vision systems for consistently accurate and high-speed inspection
CN108700408B (en) Three-dimensional shape data and texture information generation system, method and shooting control method
US20080252248A1 (en) Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
JP6588704B2 (en) Tool cutting edge detection method and apparatus, and tool correction value setting apparatus
CN104061878A (en) Shape Measuring Apparatus
JPH08257876A (en) Tool wearing amount automatic measuring method and tool wearing amount automatic measuring device in machine tool
CN112969900B (en) Tool shape measuring device and tool shape measuring method
JP2016040531A (en) Working tool measuring method and measuring device
WO2021145347A1 (en) Image processing device, machine tool, and image processing method
JP6210722B2 (en) Image measuring apparatus and image measuring program
JP2018194542A (en) Image processing system, image processing apparatus, and image processing program
JP7253088B2 (en) Image processing device, machine tool and image processing method
JP4302445B2 (en) Manufacturing method of spark plug
JP2001332611A (en) Apparatus for measuring shape of carrier
JP6901612B1 (en) Image processing equipment and machine tools
JP5740648B2 (en) Image measuring apparatus, autofocus control method, and autofocus control program
JP2021043167A (en) Tool inspection system
US20170328706A1 (en) Measuring apparatus, robot apparatus, robot system, measuring method, control method, and article manufacturing method
CN106896532B (en) Shaft alignment device and shaft alignment position setting program
JP4091355B2 (en) Spark plug manufacturing method and manufacturing apparatus
JP2016024048A (en) Measuring apparatus, and measuring method, for machining tools
KR102303073B1 (en) Multi-sided Vision Inspection Algorithm and Using the same
JP2018031701A (en) Calibration method and calibration device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230324

R150 Certificate of patent or registration of utility model

Ref document number: 7253088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150