JP2014106167A - Laser projection method and laser projection device - Google Patents

Laser projection method and laser projection device Download PDF

Info

Publication number
JP2014106167A
JP2014106167A JP2012260466A JP2012260466A JP2014106167A JP 2014106167 A JP2014106167 A JP 2014106167A JP 2012260466 A JP2012260466 A JP 2012260466A JP 2012260466 A JP2012260466 A JP 2012260466A JP 2014106167 A JP2014106167 A JP 2014106167A
Authority
JP
Japan
Prior art keywords
workpiece
laser projection
laser
unit
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012260466A
Other languages
Japanese (ja)
Other versions
JP6114015B2 (en
Inventor
Hiroyuki Nakano
博之 中野
Nobuhisa Seya
修久 瀬谷
Daisuke Igarashi
大輔 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012260466A priority Critical patent/JP6114015B2/en
Priority to US14/079,515 priority patent/US9644942B2/en
Priority to EP13192864.0A priority patent/EP2738516B1/en
Priority to CN201310566097.8A priority patent/CN103846739B/en
Publication of JP2014106167A publication Critical patent/JP2014106167A/en
Priority to US15/166,394 priority patent/US10094652B2/en
Application granted granted Critical
Publication of JP6114015B2 publication Critical patent/JP6114015B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device that not only project design information on a workpiece, using a laser beam, but also easily perform a comparative judgement of the design information with a machining result on the workpiece.SOLUTION: The present invention comprises: a first step of irradiating a workpiece serving as a measurement object with a laser beam from a laser projection part, and controlling a plurality of mirror angles; a second step of photographing the workpiece by a three-dimensional camera, extracting a contour of the workpiece and calculating a three-dimensional coordinate; a third step of comparing the three-dimensional coordinate of the workpiece contour calculated in the second step with the mirror angle and calculating a position relation between the laser projection part and the workpiece; and a fourth step of performing coordinate transformation of CAD data information on the basis of the position relation between the laser projection part and the workpiece calculated in the third step, and drawing CAD data onto the workpiece from the laser projection part.

Description

本発明は、レーザ投影方法およびレーザ投影装置に関する。   The present invention relates to a laser projection method and a laser projection apparatus.

NC(Numerical Control)加工機械による加工は、NCプログラムに従い、自動的に進む。一旦、加工が始まると、NCプログラムに従い加工が進むことは加工効率向上などの観点からは有利であるが、NCプログラムに間違いがあった場合には、間違いに気付かずに加工が進んでしまうといった課題がある。また、正確に加工を行うために、加工の途中で加工機のオペレータが補正数値を入力する場合があり、この際に、誤った数値を入力した場合などに、そのまま、誤った加工が施されるといったリスクがある。更に、全ての加工が完了した後に、全ての図面指示部位が正確に加工されているかを確認する必要があるが、加工部位が多い場合などには、確認作業に時間がかかるといった課題や、未加工部位を見逃すといったリスクがある。   Machining by NC (Numerical Control) machine automatically proceeds according to NC program. Once machining starts, machining according to the NC program is advantageous from the viewpoint of improving machining efficiency, etc., but if there is a mistake in the NC program, machining proceeds without noticing the mistake. There are challenges. In addition, in order to perform accurate processing, the operator of the processing machine may input a correction value during the processing. In this case, if an incorrect value is input, the incorrect processing is performed as it is. There is a risk. In addition, it is necessary to check whether all drawing instruction parts are processed accurately after all the processing is completed. There is a risk of missing a processed part.

これらの課題に対し、レーザビームで設計情報をワークに投影し、人が投影されたレーザ軌跡を確認することにより、設計指示位置に、設計指示通りの加工が施されているかを確かめる方法および装置が提案されている。   In response to these problems, a method and apparatus for confirming whether or not a design instruction position is processed according to a design instruction by projecting design information onto a workpiece with a laser beam and confirming a laser locus projected by a person. Has been proposed.

例えば、Kaufmanらは、米国特許第6,547,397号(特許文献1)において、レーザビームを二つのガルバノミラーで走査するレーザ描画装置について述べている。また、同じく、Kaufmanらは、米国特許第7,306,339号(特許文献2)にて、レーザ描画装置のレーザビームをワークの特徴的な部位に投影し、該ワークの特徴部位から広がって反射されたレーザビームを検知することで、上記ワークの特徴部位の位置(ワーク上の基準点)を把握することより、ワークとレーザ描画装置の位置関係を把握して、ワークに設計情報などを描画する方法について述べている。   For example, Kaufman et al. In US Pat. No. 6,547,397 (Patent Document 1) describes a laser drawing apparatus that scans a laser beam with two galvanometer mirrors. Similarly, Kaufman et al., In US Pat. No. 7,306,339 (Patent Document 2), projects a laser beam of a laser drawing apparatus onto a characteristic part of a work and spreads from the characteristic part of the work. By detecting the reflected laser beam, it is possible to grasp the positional relationship between the workpiece and the laser drawing device by grasping the position of the characteristic part of the workpiece (reference point on the workpiece), and to provide design information etc. on the workpiece. Describes how to draw.

米国特許第6,547,397号US Pat. No. 6,547,397 米国特許第7,306,339号U.S. Patent No. 7,306,339

しかしながら、特許文献1、2で述べられている技術では、レーザ投影結果を人が目で判断する必要があり、加工漏れの判断程度であれば判断は可能であるが、加工位置が正しいか否かの判断を、また、加工寸法が正しいか否かの判断を正確に行うことは困難である。   However, in the techniques described in Patent Documents 1 and 2, it is necessary for a person to judge the laser projection result with his / her eyes, and the judgment can be made as long as the machining omission is judged, but whether or not the machining position is correct. It is difficult to accurately determine whether or not the processing dimensions are correct.

そこで、本発明の目的は、レーザビームを用いてワークに設計情報を投影するのみならず、設計情報とワーク上の加工結果との比較判断を簡易に行う方法、および、装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus that not only projects design information onto a workpiece using a laser beam, but also makes it easy to make a comparative judgment between the design information and a machining result on the workpiece. is there.

本発明は、レーザ投影部から計測対象であるワークに対して、複数のミラー角度を制御してレーザを照射する第1工程と、ステレオカメラによって前記ワークを撮影し、前記ワークの輪郭を抽出し、3次元座標を算出する第2工程と、前記第2工程で算出した前記ワーク輪郭の3次元座標と、前記ミラー角度を比較して、前記レーザ投影部と前記ワークの位置関係を求める第3工程と、前記第3工程で求めた前記レーザ投影部と前記ワークとの位置関係に基づいて、CADデータ情報を座標変換し、前記レーザ投影部から前記ワークへCADデータを描写する第4工程を備えることを特徴とする。   The present invention includes a first step of controlling a plurality of mirror angles and irradiating a laser to a workpiece to be measured from a laser projection unit, and imaging the workpiece with a stereo camera, and extracting the outline of the workpiece. A second step of calculating a three-dimensional coordinate, a three-dimensional coordinate of the workpiece contour calculated in the second step, and the mirror angle are compared to determine a positional relationship between the laser projection unit and the workpiece. And a fourth step of converting CAD data information based on the positional relationship between the laser projection unit and the workpiece obtained in the third step, and rendering CAD data from the laser projection unit to the workpiece. It is characterized by providing.

本発明によれば、レーザビームを用いてワークに設計情報を投影するのみならず、設計情報とワーク上の加工結果との比較判断を簡易に行う方法、および、装置を提供することが可能である。   According to the present invention, it is possible to provide a method and apparatus that not only projects design information onto a workpiece using a laser beam, but also makes it easy to compare and determine the design information and the machining result on the workpiece. is there.

本発明におけるシステム構成を示す図である。It is a figure which shows the system configuration | structure in this invention. 丸穴加工が施されたワークである。It is a work that has been subjected to round hole machining. 本発明における加工前のワークに、設計情報を投影した様子を示す図である。It is a figure which shows a mode that design information was projected on the workpiece | work before the process in this invention. 本発明における丸穴加工の途中の状態に、設計情報を投影した様子を示す図である。It is a figure which shows a mode that design information was projected on the state in the middle of the round hole processing in this invention. 本発明におけるポンチ痕に、十文字線を投影した様子を示す図である。It is a figure which shows a mode that the cross character line was projected on the punch trace in this invention. 本発明における罫書き始点と、罫書き終点位置に、十文字線を投影した様子を示す図である。It is a figure which shows a mode that the crossed line was projected on the ruled mark start point and ruled mark end point position in this invention. 本発明における実輪郭と投影輪郭を比較する手順を説明する図である。It is a figure explaining the procedure which compares the real outline and projection outline in this invention. 本発明における、残り量の定義を説明する図である。It is a figure explaining the definition of the remaining amount in this invention. 本発明における、ずれ量の定義を説明する図である。It is a figure explaining the definition of deviation | shift amount in this invention. 本発明における、円形輪郭を抽出するための画像処理アルゴリズムを説明する図である。It is a figure explaining the image processing algorithm for extracting a circular outline in this invention. 本発明における円形輪郭の抽出結果をステレオカメラ画像に重ね合わせて表示した様子を示す図である。It is a figure which shows a mode that the extraction result of the circular outline in this invention was superimposed and displayed on the stereo camera image. 本発明における円形輪郭の抽出結果をステレオカメラ画像に重ね合わせて表示した結果から、所望の輪郭のみを選択する様子を示す図である。It is a figure which shows a mode that only the desired outline is selected from the result of having overlapped and displayed the extraction result of the circular outline in this invention on a stereo camera image. 本発明における、残り量算出結果をワーク上に文字出教示する様子を示す図である。It is a figure which shows a mode that the character output teaching is carried out on the workpiece | work in the present invention. 本発明における、ずれ量算出結果をワーク上に文字出教示する様子を示すIn the present invention, the state of teaching the deviation amount calculation result on the workpiece is shown. 本発明におけるステレオカメラと、ワークと、レーザ投影機の位置関係を把握するための手順を説明する図である。It is a figure explaining the procedure for grasping | ascertaining the positional relationship of the stereo camera in this invention, a workpiece | work, and a laser projector. 本発明における、レーザ輝点3次元座標の算出結果をディスプレイ上に表示した様子を示す図である。It is a figure which shows a mode that the calculation result of the laser bright spot three-dimensional coordinate in this invention was displayed on the display. 本発明における円形基準マーカ、もしくは、投影レーザ輝点の3次元座標を算出するための手順(ソフト操作)を説明する図である。It is a figure explaining the procedure (software operation) for calculating the three-dimensional coordinate of the circular reference | standard marker or projection laser luminescent spot in this invention. 本発明における円形基準マーカ、もしくは、投影レーザ輝点の3次元座標を算出するための手順(ソフト操作)を説明する別の図である。It is another figure explaining the procedure (software operation) for calculating the circular reference marker in this invention, or the three-dimensional coordinate of a projection laser bright spot. 本発明におけるワークの基準位置(特徴形状)の3次元座標を算出するための手順(ソフト操作)を説明する図である。It is a figure explaining the procedure (software operation) for calculating the three-dimensional coordinate of the reference | standard position (characteristic shape) of the workpiece | work in this invention. 本発明における、ステレオカメラによりワークの基準位置を求めた結果をディスプレイ上に表示した様子を示す図である。It is a figure which shows a mode that the result which calculated | required the reference position of the workpiece | work with the stereo camera in this invention was displayed on the display. 本発明における、ステレオカメラによりワークの基準位置を求めた結果をレーザ投影部からみ基準位置変換した結果をディスプレイ上に表示した様子を示す図である。It is a figure which shows a mode that the result of having calculated | required the reference position of the workpiece | work with the stereo camera in this invention from the laser projection part was displayed on the display.

本発明は、レーザビームを用いて設計情報をワークに描画する方法に関する。以下、本発明の実施例について、図1から図20を用いて説明する。   The present invention relates to a method for drawing design information on a workpiece using a laser beam. Embodiments of the present invention will be described below with reference to FIGS.

図1に、本発明における座標検知機能付きレーザ投影システムの全体構成を示す。レーザ源1は、レーザ制御部10と接続されており、レーザ制御部10を介してレーザ用電源23から電源が供給される。また、ミラー位置指示・検知部15からの指令に従い、発振と停止が行われる。具体的な例として、例えば、二つの円を描画する際に、一つ目の円から二つ目の円に移動している最中は、レーザの発振を停止し、二つの円が個別に描かれるようにする。   FIG. 1 shows the overall configuration of a laser projection system with a coordinate detection function in the present invention. The laser source 1 is connected to the laser control unit 10, and power is supplied from the laser power source 23 via the laser control unit 10. Further, oscillation and stop are performed in accordance with a command from the mirror position instruction / detection unit 15. As a specific example, for example, when drawing two circles, while moving from the first circle to the second circle, the laser oscillation is stopped and the two circles are individually To be drawn.

レーザ源1から発振されたレーザビーム200は、フォーカシングレンズ3により、所望の距離でビームがフォーカシングされる。所望の距離でビームをフォーカシングするために、フォーカシングレンズ3は、光軸方向に直動する直動ステージ2に搭載されている。直動ステージ2の位置は、直動ステージ制御部11により制御される。具体的には、後述する、CADデータ変換部21にて決定されるレーザ描画位置でレーザビームがフォーカシングされるように、直動ステージ位置指示・検知部14にて直動ステージの位置を算出し、算出された位置に直動ステージが移動するように制御される。なお、直動ステージ2には、直動ステージ制御部11を介して、モータ駆動用電源25からの電力が供給される。また、直動ステージ制御部11には、回路用電源24からも電力が供給される。   The laser beam 200 oscillated from the laser source 1 is focused at a desired distance by the focusing lens 3. In order to focus the beam at a desired distance, the focusing lens 3 is mounted on a linear motion stage 2 that linearly moves in the optical axis direction. The position of the linear motion stage 2 is controlled by the linear motion stage control unit 11. Specifically, the position of the linear motion stage is calculated by the linear motion stage position instruction / detection unit 14 so that the laser beam is focused at a laser drawing position determined by the CAD data conversion unit 21, which will be described later. The linear motion stage is controlled to move to the calculated position. The linear motion stage 2 is supplied with electric power from the motor driving power source 25 via the linear motion stage control unit 11. The linear motion stage control unit 11 is also supplied with power from the circuit power supply 24.

フォーカシングレンズ3から出射された集光ビーム201は、第1ガルバノミラー4と第2ガルバノミラー5を介してワークに投影される。第1ガルバノミラー4、および、第2ガルバノミラー5の角度は、それぞれ、第1角度制御部12、および、第2角度制御部13により制御される。具体的には、後述する、CADデータ変換部21にて決定されるレーザ描画位置に集光ビーム201が向かうように、ミラー位置指示・検知部15にて第1の角度、および、第2の角度を算出し、算出された角度に、第1ガルバノミラー4、および、第2ガルバノミラー5が回転するように制御される。第1ガルバノミラー4、および、第2ガルバノミラー5には、第1角度制御部12、および、第2角度制御部13を、介して、モータ駆動用電源25からの電力が供給される。また、第1角度制御部12、および、第2角度制御部13には、回路用電源24からの電力も供給される。   The focused beam 201 emitted from the focusing lens 3 is projected onto the workpiece via the first galvanometer mirror 4 and the second galvanometer mirror 5. The angles of the first galvanometer mirror 4 and the second galvanometer mirror 5 are controlled by the first angle control unit 12 and the second angle control unit 13, respectively. Specifically, the mirror position instruction / detection unit 15 uses a first angle and a second angle so that the focused beam 201 is directed to a laser drawing position determined by the CAD data conversion unit 21 described later. The angle is calculated, and the first galvanometer mirror 4 and the second galvanometer mirror 5 are controlled to rotate to the calculated angle. The first galvanometer mirror 4 and the second galvanometer mirror 5 are supplied with electric power from the motor driving power supply 25 via the first angle control unit 12 and the second angle control unit 13. The first angle control unit 12 and the second angle control unit 13 are also supplied with power from the circuit power supply 24.

次に、座標検知部について説明する。本実施例では、座標検知部はステレオカメラで構成される。ステレオカメラ8は、左カメラ6と右カメラ7により構成される。左カメラ6と右カメラ7により撮影された画像は、画像取込み部17を介してコンピュータ23に取り込まれる。取り込まれた画像は、画像処理部18にて処理され、後述する輪郭の抽出などが行われる。その後、座標算出部19にて、抽出された輪郭の3次元座標が算出される。   Next, the coordinate detection unit will be described. In this embodiment, the coordinate detection unit is constituted by a stereo camera. The stereo camera 8 includes a left camera 6 and a right camera 7. Images captured by the left camera 6 and the right camera 7 are captured by the computer 23 via the image capturing unit 17. The captured image is processed by the image processing unit 18 to perform contour extraction described later. Thereafter, the coordinate calculation unit 19 calculates the three-dimensional coordinates of the extracted contour.

ここで、第1角度制御部12、および、第2角度制御部13の現在位置(角度)は、常時、ミラー位置指示・検知部15にて検知されている。相対位置関係算出部20では、座標算出部19にて抽出された3次元座標と、ミラー位置指示・検知部15にて検知された角度を比較することで、レーザ投影部9とステレオカメラ8の相対位置関係、ステレオカカメラ8とワーク26の位置関係が、更には、レーザ投影部9とワーク26の位置関係が求められる。CADデータ変換部21では、相対位置関係算出部20で算出されたレーザ投影部9とワーク26の相対位置関係に基づき、CADデータ22の情報を座標変換し、レーザ投影部9でワーク上に描画するためのデータを生成する。   Here, the current positions (angles) of the first angle control unit 12 and the second angle control unit 13 are always detected by the mirror position instruction / detection unit 15. The relative positional relationship calculation unit 20 compares the three-dimensional coordinates extracted by the coordinate calculation unit 19 with the angles detected by the mirror position instruction / detection unit 15, so that the laser projection unit 9 and the stereo camera 8 can be compared. The relative positional relationship, the positional relationship between the stereo camera 8 and the workpiece 26, and the positional relationship between the laser projection unit 9 and the workpiece 26 are obtained. The CAD data conversion unit 21 performs coordinate conversion on the information of the CAD data 22 based on the relative positional relationship between the laser projection unit 9 and the workpiece 26 calculated by the relative positional relationship calculation unit 20, and draws on the workpiece by the laser projection unit 9. Data to generate.

次に、図2から図14を用いて、本実施例について説明する。   Next, this embodiment will be described with reference to FIGS.

図2は二つの円筒穴が2箇所に加工されたワーク26である。円筒穴の輪郭を、ワーク輪郭24a、および、24bとする。   FIG. 2 shows a workpiece 26 in which two cylindrical holes are machined in two places. The outlines of the cylindrical holes are workpiece outlines 24a and 24b.

図3は、円筒穴が加工される前のワーク26である。このワーク26に設計データを投影したものが投影輪郭25である。このように、加工前に設計データを実ワークに投影することで、加工前に加工の最終イメージを実ワーク上にて確認することが可能となることが、本実施例の効果の一つである。   FIG. 3 shows the work 26 before the cylindrical hole is machined. A projection contour 25 is obtained by projecting design data onto the workpiece 26. As described above, one of the effects of this embodiment is that the final image of machining can be confirmed on the actual workpiece before machining by projecting the design data onto the actual workpiece before machining. is there.

図4は、円筒穴が途中まで加工されたワーク26である。ワーク輪郭24bと投影輪郭25を比較することで、実ワーク上で、加工残り量を視覚的に確認することが可能となることが、本実施例の効果の一つである。   FIG. 4 shows a work 26 in which a cylindrical hole is machined halfway. One of the effects of the present embodiment is that by comparing the workpiece contour 24b and the projected contour 25, it is possible to visually confirm the processing remaining amount on the actual workpiece.

図5は、加工位置を示すポンチ跡28に、十文字線27を描画した様子である。NC加工機では、加工前にNC加工機自身によりポンチが打たれる。図5に示すように、加工ポンチ跡28に、設計上の加工位置、例えば、円筒穴加工であれば円の中心に十文字線27を投影することで、加工ポンチ位置、すなわち、NCプログラムに入力された加工位置が、設計支持位置と一致しているか否かを、加工前に事前に確認することができ、異なる位置に加工を施してしまう誤切削を、未然に防ぐことが可能となる。   FIG. 5 shows a state in which a cross line 27 is drawn on the punch mark 28 indicating the processing position. In an NC machine, a punch is punched by the NC machine itself before machining. As shown in FIG. 5, the machining punch position 28, that is, a cylindrical punching line 27 is projected on the center of a circle in the case of a cylindrical hole machining, thereby inputting the machining punch position, that is, the NC program. Whether or not the processed position matches the design support position can be confirmed in advance before processing, and it is possible to prevent erroneous cutting that causes processing at different positions.

図6は、機械加工の基準となるケガキ線の始点28aと終点28bに、各々、十文字線27aと27bを描画した様子である。この十文字線27aと27bの二つの交点を目安に罫書くことで、設計支持位置に対し正しい位置に罫書くことが可能となる。もしくは、罫書いた後に、十文字線27aと27bの二つの交点がケガキ線上にあるか否かを確認することで、設計指示位置に対し正しい位置に罫書いたか否かを確認することが可能となる。   FIG. 6 shows a state in which cross-shaped lines 27a and 27b are drawn at the start point 28a and the end point 28b of the marking line, which is a reference for machining. By marking with the two intersections of the cross lines 27a and 27b as a guideline, it is possible to write the ruled line at the correct position with respect to the design support position. Alternatively, it is possible to confirm whether or not the ruled line has been marked at the correct position by checking whether or not the two intersections of the crossed lines 27a and 27b are on the marking line after marking. Become.

図7に、加工残り量と、加工位置ずれ量を検知する具体的な手順について説明する。先ず、レーザ描画がOFFの状態で左カメラと右カメラで画像を取得する(L1,R1)。そして、ワークの輪郭を抽出し(L2,R2)、視差補正(L3,R3)後にステレオマッチングを行い(LR1)、ワーク輪郭の3次元座標を算出する(LR2)。次に、レーザ描画がOFFの状態で、かつ、描画がONの状態で左カメラと右カメラで画像を取得する(L4,R4)。そして、レーザ描画がOFFの状態で取得した画像との差画像を生成し(L5,R5)、視差補正(L6,R6)後にステレオマッチング(LR3)を行いレーザ描画軌跡の3次元座標を算出する(LR4)。最後に、算出されたワーク輪郭の3次元座標とレーザ描画軌跡の3次元座標を比較する(LR5)ことにより、残り量や加工位置ずれ量が求まる(LR6)。   FIG. 7 illustrates a specific procedure for detecting the remaining machining amount and the machining position deviation amount. First, an image is acquired with the left camera and the right camera with the laser drawing turned off (L1, R1). Then, the contour of the workpiece is extracted (L2, R2), stereo matching is performed after parallax correction (L3, R3) (LR1), and the three-dimensional coordinates of the workpiece contour are calculated (LR2). Next, an image is acquired with the left camera and the right camera while the laser drawing is OFF and the drawing is ON (L4, R4). Then, a difference image from the image acquired with the laser drawing turned off is generated (L5, R5), and after the parallax correction (L6, R6), stereo matching (LR3) is performed to calculate the three-dimensional coordinates of the laser drawing locus. (LR4). Finally, by comparing the calculated three-dimensional coordinates of the workpiece contour with the three-dimensional coordinates of the laser drawing trajectory (LR5), the remaining amount and the machining position deviation amount are obtained (LR6).

残り量は、例えば、図8に示すように定義すればよい。また、加工位置ずれ量は、図9に示すように定義すればよい。   The remaining amount may be defined, for example, as shown in FIG. The machining position deviation amount may be defined as shown in FIG.

ここで、円筒穴の円弧輪郭を抽出するには、例えば、図10に示す処理を行えばよい。具体的には、先ず、取得画像(A)を二値化し(図10−(B))、続いて、連結成分を計算する (図10−(C))。具体的には、形状特徴量(本実施例では楕円弧)に基づく領域選択を行うことになる。次に、選択された領域を最小外接円に形状変換する(図10−(D))。さらに、円形構造要素により領域を膨張する(図10−(E))。なお、図10−(E)では、二つの円弧しか表現されていないが、実際には、図10−(C)では、細かく領域選択されているため、実際には、選択された領域と同じ数の円形構造要素がある。そこで、全ての領域の和領域を求める(図10−(F))。すると、図10−(G)のように、所望のワーク輪郭が含まれる領域(解析領域)が絞り込まれる。その後、該解析領域内でしきい値処理により画像を分割し(図10−(H))、線分、楕円弧(円弧含む)に分割し(図10−(I))、同じ円に輪郭を結合しする(図10−(J))。具体的には、分割された線分、円弧に楕円を当てはめ、中心位置と半径がある一定の範囲にあるものを同じ円とみなす処理を行う。以上の処理により、所望のワーク輪郭を抽出できる。   Here, in order to extract the arc outline of the cylindrical hole, for example, the processing shown in FIG. 10 may be performed. Specifically, first, the acquired image (A) is binarized (FIG. 10- (B)), and then connected components are calculated (FIG. 10- (C)). Specifically, the region selection is performed based on the shape feature amount (elliptical arc in the present embodiment). Next, the selected region is transformed into a minimum circumscribed circle (FIG. 10- (D)). Further, the region is expanded by the circular structural element (FIG. 10- (E)). In FIG. 10- (E), only two arcs are represented. Actually, however, in FIG. 10- (C), since the area is finely selected, it is actually the same as the selected area. There are a number of circular structural elements. Therefore, the sum area of all the areas is obtained (FIG. 10- (F)). Then, as shown in FIG. 10- (G), a region (analysis region) including a desired workpiece contour is narrowed down. Thereafter, the image is divided by threshold processing within the analysis region (FIG. 10- (H)), divided into line segments and elliptical arcs (including arcs) (FIG. 10- (I)), and the same circle is outlined. They are coupled (FIG. 10- (J)). Specifically, an ellipse is applied to the divided line segments and arcs, and processing is performed in which the center position and the radius within a certain range are regarded as the same circle. With the above processing, a desired workpiece contour can be extracted.

このような処理をオペレータが行うためには、例えば、図11に示すように、モニタ29上に画像を表示し、オペレータが輪郭抽出ボタン107を押下すると、上記の輪郭抽出処理を行い、抽出結果を画像に重ね合わせて表示するようにすれば良い。ここで、所望のワーク輪郭が複数(図11の例でいうと二個)抽出された場合には、図12に示すように、マウスポインタ102aで所望の輪郭を選択するようにすれば良い。   In order for the operator to perform such processing, for example, as shown in FIG. 11, when an image is displayed on the monitor 29 and the operator presses the contour extraction button 107, the contour extraction processing described above is performed, and the extraction result May be displayed superimposed on the image. Here, when a plurality of desired workpiece contours (two in the example of FIG. 11) are extracted, the desired contour may be selected with the mouse pointer 102a as shown in FIG.

レーザ投影部では、文字を描画することもできるため、図13、図14に示すように、残り量やずれ量をワークに直接描画し、作業者に視覚的に教示することもできる。このように、作業者に視覚的に残り量やずれ量を示すことで、レーザビームを用いてワークに設計情報を投影するのみならず、設計情報とワーク上の加工結果との比較判断を簡易に行うことが可能である。   Since the laser projection unit can also draw characters, as shown in FIGS. 13 and 14, the remaining amount and the deviation amount can be directly drawn on the work and visually taught to the operator. In this way, by visually indicating the remaining amount and deviation amount to the operator, not only can the design information be projected onto the workpiece using a laser beam, but also the comparison judgment between the design information and the machining result on the workpiece can be simplified. Can be done.

次に、図15を用いて、ステレオカメラ8とレーザ投影部9の相対位置関係を求める方法について説明する。   Next, a method for obtaining the relative positional relationship between the stereo camera 8 and the laser projection unit 9 will be described with reference to FIG.

先ず、ワーク上の適当な位置にレーザビームを投影する(図15−(a))。このとき、第1、第2ガルバノミラーの角度をミラー位置指示・検知部15にて把握しておく(図15−(b))。そして、ステレオカメラ8にて、ワーク上のレーザ輝点の3次元座標を測定する(図15−(c))。この作業(Step1)を3回繰り返す。必要に応じ、4回以上実施しても良い。すると、図16に示すように、3点以上の位置において、ステレオカメラ原点からみた座標と、レーザ投影部9からみた座標の関係が求まる。ここで、ステレオカメラ8の原点は、例えば、左カメラ6のレンズ中心とする。また、レーザ投影部の原点は、第1ガルバノミラーのミラー中心とする。ここで、第1ガルバノミラーと第2ガルバノミラーの回転中心はずれているが、すれを考慮した2角度指定の投影方法については、特許文献2に定式化されているので、詳細な説明は省略する。   First, a laser beam is projected to an appropriate position on the workpiece (FIG. 15- (a)). At this time, the angles of the first and second galvanometer mirrors are grasped by the mirror position instruction / detection unit 15 (FIG. 15- (b)). Then, the three-dimensional coordinates of the laser bright spot on the workpiece are measured with the stereo camera 8 (FIG. 15- (c)). This operation (Step 1) is repeated three times. You may carry out 4 times or more as needed. Then, as shown in FIG. 16, the relationship between the coordinates viewed from the stereo camera origin and the coordinates viewed from the laser projection unit 9 is obtained at three or more positions. Here, the origin of the stereo camera 8 is, for example, the lens center of the left camera 6. The origin of the laser projection unit is the mirror center of the first galvanometer mirror. Here, although the rotation centers of the first galvanometer mirror and the second galvanometer mirror are deviated, the two-angle designation projection method that takes into account the blur is formulated in Patent Document 2, and thus detailed description thereof is omitted. .

レーザ投影部9では、第1の角度θnと第2の角度φmの二つの角度しか指定しないため、投影したレーザビームが、どの距離でワークに照射されたかを把握することはできない。すなわち、点P1(θ1、φ1)(r1は不定)、点P2(θ2、φ2)(r2は不定)、点P3(θ3、φ3)(r3は不定)の情報だけでは、ワーク面が何処にあるかを決定することはできない。しかしながら、同時にステレオカメラ8で点P1、P2、P3の3次元座標をP1(x1、y1、z1)、P2(x2、y2、z2)、P3(x3、y3、z3)を把握しているので、これらの関係を用いれば、r1、r2、および、r3が一意に求まる。これにより、同時に、ステレオカメラ8とレーザ投影部9の相対位置関係も求まる(図7−(f))。   Since the laser projection unit 9 designates only two angles, the first angle θn and the second angle φm, it is impossible to grasp at which distance the projected laser beam is irradiated onto the workpiece. That is, where the work surface is determined only by the information of point P1 (θ1, φ1) (r1 is undefined), point P2 (θ2, φ2) (r2 is undefined), and point P3 (θ3, φ3) (r3 is undefined). It is not possible to determine if there is. However, since the stereo camera 8 simultaneously grasps the three-dimensional coordinates of the points P1, P2, and P3 as P1 (x1, y1, z1), P2 (x2, y2, z2), and P3 (x3, y3, z3). Using these relationships, r1, r2, and r3 are uniquely determined. As a result, the relative positional relationship between the stereo camera 8 and the laser projection unit 9 is also obtained (FIG. 7- (f)).

具体的には、先ず、(θn、φn、rn)を直交座標系に変換する
P1:(θ1、φ1、r1)→(r1・cosθ1・cosφ1、r1・cosθ1・sinφ1、r1・sinφ1)
P2:(θ2、φ2、r2)→(r2・cosθ2・cosφ2、r2・cosθ2・sinφ2、r2・sinφ2)
P3:(θ3、φ3、r3)→(r3・cosθ3・cosφ3、r3・cosθ3・sinφ3、r1・sinφ3)
ここで、未知数はr1、r2、r3である。
一方で、ステレオカメラからみたレーザ輝点の座標は、以下の通りである。
P1:(x1、y1、z1)
P2:(x2、y2、z2)
P3:(x3、y3、z3)
ここで、レーザプロジェクタの座標系でも、ステレオカメラの座標系でも、各々の点間距離は変わらないので、以下の式が成り立つ。
|P1-P2|=|p1-p2|
|P2-P3|=|p2-p3|
|P3-P1|=|p3-p1|
以上の通り、未知数3に対し、3つの式があるので、これにより、未知数はr1、r2、r3は一意に求まる。今、ステレオカメラ座標系でのレーザ輝点の座標を、(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3) とし、レーザプロジェクタ座標系でのレーザ輝点の座標を、(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)とする。そして、(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)の外心を求め、これを(x0,y0,z0) とする。次に(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)の外心を求め、これを(X0,Y0,Z0)する。ここで、ステレオカメラ座標系の原点から外心(x0,y0,z0)に向かうベクトルをAとする。また、レーザプロジェクタ座標系の原点から外心(X0,Y0,Z0)に向かうベクトルをBとする。異なる座標系からみているが、世界座標系では(x0,y0,z0)も(X0,Y0,Z0)も同じ点である。そこで、この点を世界座標系の原点とする。すると、世界座標系の原点からステレオカメラ座標系の原点に向かうベクトルは−A、世界座標系の原点からレーザプロジェクタ座標系の原点に向かうベクトルは-Bとなる。したがって、ステレオカメラ座標系とレーザプロジェクタ座標系の位置関係は、ベクトル-Aとベクトル-Bから容易に求まる。なお、レーザ輝点を、ステレオカメラとレーザプロジェクタから見たときに、2点以上が同一直線上に乗ってしまうと、互いの位置関係が求まらなくなるため、いずれの座標系から見ても、レーザ輝点は同一直線上に載ってはいけないことに留意されたい。
Specifically, first, (θn, φn, rn) is converted into an orthogonal coordinate system.
P1: (θ1, φ1, r1) → (r1, cos θ1, cos φ1, r1, cos θ1, sin φ1, r1, sin φ1)
P2: (θ2, φ2, r2) → (r2, cos θ2, cos φ2, r2, cos θ2, sin φ2, r2, sin φ2)
P3: (θ3, φ3, r3) → (r3 ・ cosθ3 ・ cosφ3, r3 ・ cosθ3 ・ sinφ3, r1 ・ sinφ3)
Here, the unknowns are r1, r2, and r3.
On the other hand, the coordinates of the laser bright spot viewed from the stereo camera are as follows.
P1: (x1, y1, z1)
P2: (x2, y2, z2)
P3: (x3, y3, z3)
Here, since the distance between the points does not change in the coordinate system of the laser projector or the coordinate system of the stereo camera, the following equation holds.
| P1-P2 | = | p1-p2 |
| P2-P3 | = | p2-p3 |
| P3-P1 | = | p3-p1 |
As described above, there are three formulas for the unknown number 3, so that the unknowns are uniquely determined as r1, r2, and r3. Now, let the coordinates of the laser bright spot in the stereo camera coordinate system be (x1, y1, z1), (x2, y2, z2), (x3, y3, z3), and the laser bright spot coordinate in the laser projector coordinate system The coordinates are (X1, Y1, Z1), (X2, Y2, Z2), and (X3, Y3, Z3). Then, the outer centers of (x1, y1, z1), (x2, y2, z2), and (x3, y3, z3) are obtained and set as (x0, y0, z0). Next, the outer center of (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3) is obtained, and this is (X0, Y0, Z0). Here, let A be a vector from the origin of the stereo camera coordinate system to the outer center (x0, y0, z0). Also, let B be the vector from the origin of the laser projector coordinate system to the outer center (X0, Y0, Z0). From the viewpoint of different coordinate systems, (x0, y0, z0) and (X0, Y0, Z0) are the same point in the world coordinate system. Therefore, this point is set as the origin of the world coordinate system. Then, the vector from the origin of the world coordinate system to the origin of the stereo camera coordinate system is -A, and the vector from the origin of the world coordinate system to the origin of the laser projector coordinate system is -B. Therefore, the positional relationship between the stereo camera coordinate system and the laser projector coordinate system can be easily obtained from the vector-A and the vector-B. In addition, when two or more points are on the same straight line when the laser bright spot is viewed from the stereo camera and the laser projector, the mutual positional relationship cannot be obtained. Note that the laser bright spots should not be on the same line.

次に、ステレオカメラ8でワーク上のレーザ輝点位置の3次元座標を求める具体的な手順について、図17、図18を用いて説明する。先ず、モニタ29上に、例えば、左カメラ6の画像を表示する。ワーク26の基準マーカ(レーザ起点)101の近傍をマウスポインタ102aで指定すると、拡大ウインドウ103aが表示される。予め、円抽出ボタン105を押下しておけば、画像処理部18では、拡大表示された領域(解析領域)においてレーザ輝点(丸形状)を抽出し、丸の重心を求める。所望の重心が求まったことを確認するために、例えば、円と十文字線104aなどで丸の重心位置を表示するとよい。本システムでは、ステレオカメラの構成をとっているので、座標算出部19では、ステレオマッチングの手法を用いて、レーザ輝点の位置の3次元座標を算出する。算出された3次元座標は、108aのように、算出された座標値を表示しても良い。あわせて、109aのように第1、第2の角度値を表示しても良い。   Next, a specific procedure for obtaining the three-dimensional coordinates of the laser bright spot position on the workpiece with the stereo camera 8 will be described with reference to FIGS. First, for example, an image of the left camera 6 is displayed on the monitor 29. When the vicinity of the reference marker (laser starting point) 101 of the workpiece 26 is designated by the mouse pointer 102a, an enlarged window 103a is displayed. If the circle extraction button 105 is pressed in advance, the image processing unit 18 extracts a laser bright spot (round shape) in the enlarged display area (analysis area) and obtains the center of gravity of the circle. In order to confirm that the desired center of gravity has been obtained, for example, the position of the center of gravity of a circle may be displayed with a circle and a cross line 104a. Since this system has a stereo camera configuration, the coordinate calculation unit 19 calculates the three-dimensional coordinates of the position of the laser bright spot using a stereo matching technique. As the calculated three-dimensional coordinates, the calculated coordinate values may be displayed as in 108a. In addition, the first and second angle values may be displayed as in 109a.

図17では、基準マーカ101近傍をマウスでクリックすることによって解析領域を絞り込んだが、図18に示すように、マウスで四角110を描画することで解析領域を絞り込んでも良い。   In FIG. 17, the analysis region is narrowed down by clicking the vicinity of the reference marker 101 with the mouse. However, as shown in FIG. 18, the analysis region may be narrowed down by drawing a square 110 with the mouse.

次に、ステレオカメラ8でワーク上の基準となる位置、例えば、基準マーカ、角などの特徴点の3次元座標を求める具体的な手順について、同じく、図17、図18、さらに、図19を用いて説明する。先ず、モニタ29上に、例えば、左カメラ6の画像を表示する。今回は、図17、図18における丸101を基準マーカと読み変える。基準マーカ101の近傍をマウスポインタ102aで指定すると、拡大ウインドウ103aが表示される。予め、円抽出ボタン105を押下しておけば、画像処理部18では、拡大表示された領域(解析領域)において基準マーカ101(丸形状)を抽出し、丸の重心を求める。所望の重心が求まったことを確認するために、例えば、円と十文字線104aなどで丸の重心位置を表示するとよい。本システムでは、ステレオカメラの構成をとっているので、座標算出部19では、ステレオマッチングの手法を用いて、基準マーカの3次元座標を算出する。算出された3次元座標は、108aのように、算出された座標値を表示しても良い。あわせて、109aのように第1、第2の角度値を表示しても良い。   Next, with respect to a specific procedure for obtaining the reference position on the work, for example, the three-dimensional coordinates of the feature points such as the reference marker and the corner, by the stereo camera 8, FIG. 17, FIG. 18, and FIG. It explains using. First, for example, an image of the left camera 6 is displayed on the monitor 29. This time, the circle 101 in FIGS. 17 and 18 is read as a reference marker. When the vicinity of the reference marker 101 is designated by the mouse pointer 102a, an enlarged window 103a is displayed. If the circle extraction button 105 is pressed in advance, the image processing unit 18 extracts the reference marker 101 (round shape) in the enlarged display area (analysis area) and obtains the center of gravity of the circle. In order to confirm that the desired center of gravity has been obtained, for example, the position of the center of gravity of a circle may be displayed with a circle and a cross line 104a. Since the present system has a stereo camera configuration, the coordinate calculation unit 19 calculates the three-dimensional coordinates of the reference marker using a stereo matching technique. As the calculated three-dimensional coordinates, the calculated coordinate values may be displayed as in 108a. In addition, the first and second angle values may be displayed as in 109a.

図19に示すように、基準マーカ101がない場合でも、ワーク自体に座標が把握されている場所、例えば、コーナ114などがあれば、事前にコーナ抽出ボタン106を押下して、マウスでコーナ近傍を選ぶことで、コーナを自動認識し、コーナの3次元座標を算出するといった方法もある。   As shown in FIG. 19, even if there is no reference marker 101, if there is a place where the coordinates of the workpiece itself are known, for example, the corner 114, the corner extraction button 106 is pressed in advance and the vicinity of the corner is selected with the mouse. By selecting, there is also a method of automatically recognizing the corner and calculating the three-dimensional coordinates of the corner.

以上の処理により、図20に示すように、ワーク26とステレオカメラ8の位置関係が求まる。その後、把握済みのステレオカメラ8とレーザ投影部9の位置関係を用いれば、ワーク26とレーザ投影部9の位置関係も一意に求まる。   With the above processing, as shown in FIG. 20, the positional relationship between the work 26 and the stereo camera 8 is obtained. Thereafter, if the positional relationship between the stereo camera 8 and the laser projection unit 9 that has been grasped is used, the positional relationship between the workpiece 26 and the laser projection unit 9 can also be obtained uniquely.

このワーク26とレーザ投影部9の位置関係に従い、CADデータ22を、CADデータ変換部21で座標変換することにより、レーザ投影用のデータが生成される。このレーザ投影用のデータに基づき、ステージ位置指示・検知部14、および、ミラー位置指示・検知部15が、それぞれ、直動ステージ制御部11、第1角度制御部12、第2角度制御部13を介して、直動ステージ2、第1ガルバノミラー、第2ガルバノミラーを駆動することで、描画が行われる。
According to the positional relationship between the workpiece 26 and the laser projection unit 9, the CAD data 22 is coordinate-converted by the CAD data conversion unit 21 to generate data for laser projection. Based on the laser projection data, the stage position instruction / detection unit 14 and the mirror position instruction / detection unit 15 are respectively converted into a linear motion stage control unit 11, a first angle control unit 12, and a second angle control unit 13. Drawing is performed by driving the linear motion stage 2, the first galvanometer mirror, and the second galvanometer mirror via.

機械加工における、誤切削の未然防止、加工状況確認、加工抜けチェックを行うためのレーザ投影技術に関する。
The present invention relates to laser projection technology for performing prevention of erroneous cutting, machining status confirmation, and machining omission check in machining.

1…レーザ源
2…直動ステージ、
3…フォーカシングレンズ、
4…第1ガルバノミラー、
5…第2ガルバノミラー、
6…左カメラ、
7…右カメラ、
8…ステレオカメラ、
9…レーザ投影部、
10…レーザ制御部、
11…直動ステージ制御部、
12、13…角度制御部、
14…直動ステージ位置指示・検知部、
15…ミラー位置指示・検知部、
17…画像取込み部、
18…画像処理部、
19…座標算出部、
20…相対位置関係算出部、
21…CADデータ変換部、
22…CADデータ、
23…コンピュータ、
24a…ワーク輪郭
25…投影輪郭、
26…ワーク、
27、27a、27b…十文字線
29…モニタ、
101…基準マーカ、
105…円抽出ボタン、
106…コーナ抽出ボタン、
107…輪郭抽出ボタン
1 ... Laser source
2 ... linear motion stage,
3. Focusing lens,
4 ... 1st galvanometer mirror,
5 ... Second galvanometer mirror,
6 ... Left camera,
7 ... Right camera,
8 ... Stereo camera,
9 ... Laser projection unit,
10 ... Laser control unit,
11 ... Linear motion stage controller,
12, 13 ... Angle control unit,
14… Linear stage position indication / detection unit,
15 ... Mirror position indication / detection unit,
17 ... Image capture unit,
18: Image processing unit,
19 ... coordinate calculation unit,
20: Relative positional relationship calculation unit,
21 ... CAD data conversion unit,
22 ... CAD data,
23 ... computer,
24a… Work contour
25 ... projection contour,
26… Work,
27, 27a, 27b ... crossed lines
29… Monitor,
101 ... Reference marker,
105 ... circle extraction button,
106 ... Corner extraction button,
107… Outline extraction button

Claims (4)

レーザ投影部から計測対象であるワークに対して、複数のミラー角度を制御してレーザを照射する第1工程と、
ステレオカメラによって前記ワークを撮影し、前記ワークの輪郭を抽出し、3次元座標を算出する第2工程と、
前記第2工程で算出した前記ワーク輪郭の3次元座標と、前記ミラー角度を比較して、前記レーザ投影部と前記ワークの位置関係を求める第3工程と、
前記第3工程で求めた前記レーザ投影部と前記ワークとの位置関係に基づいて、CADデータ情報を座標変換し、前記レーザ投影部から前記ワークへCADデータを描写する第4工程を備えることを特徴とするレーザ投影方法。
A first step of controlling a plurality of mirror angles and irradiating a laser on a workpiece to be measured from a laser projection unit;
A second step of photographing the workpiece with a stereo camera, extracting a contour of the workpiece, and calculating three-dimensional coordinates;
A third step of determining the positional relationship between the laser projection unit and the workpiece by comparing the mirror angle with the three-dimensional coordinates of the workpiece contour calculated in the second step;
Based on the positional relationship between the laser projection unit and the workpiece obtained in the third step, comprising a fourth step of coordinate-converting CAD data information and rendering the CAD data from the laser projection unit to the workpiece. A laser projection method.
請求項1記載のレーザ投影方法であって、前記CADデータの3次元座標と前記ワークの実輪郭の3次元座標を比較し、該比較結果を教示する第5工程を含むことを特徴とするレーザ投影方法。   2. The laser projection method according to claim 1, further comprising a fifth step of comparing the three-dimensional coordinates of the CAD data with the three-dimensional coordinates of the actual contour of the workpiece and teaching the comparison result. Projection method. 請求項2記載のレーザ投影方法であって、前記第5工程ではディスプレイ上で前記比較結果を教示することを特徴とするレーザ投影方法。   3. The laser projection method according to claim 2, wherein the comparison result is taught on a display in the fifth step. 計測対象であるワークに対して、複数のミラー角度を制御してレーザを照射するレーザ投影部と、
ステレオカメラによって前記ワークを撮影し、撮影画像を取り込む画像取込部と、前記画像から前記ワークの輪郭を抽出する画像処理部と、3次元座標を算出する座標算出部と、
算出した前記ワーク輪郭の3次元座標と、前記ミラー角度を比較して、前記レーザ投影部と前記ワークの位置関係を求める相対位置関係算出部と、
前記相対位置関係算出部で求めた前記レーザ投影部と前記ワークとの位置関係に基づいて、CADデータ情報を座標変換するCADデータ変換部を備えることを特徴とするレーザ投影装置。
A laser projection unit that irradiates a workpiece to be measured with a laser by controlling a plurality of mirror angles;
An image capturing unit that captures the workpiece by a stereo camera and captures a captured image; an image processing unit that extracts an outline of the workpiece from the image; and a coordinate calculation unit that calculates three-dimensional coordinates;
A relative positional relationship calculation unit that compares the calculated three-dimensional coordinates of the workpiece contour with the mirror angle to obtain a positional relationship between the laser projection unit and the workpiece;
A laser projection apparatus comprising: a CAD data conversion unit that coordinates-converts CAD data information based on a positional relationship between the laser projection unit and the workpiece obtained by the relative positional relationship calculation unit.
JP2012260466A 2012-11-29 2012-11-29 Laser projection method and laser projection apparatus Expired - Fee Related JP6114015B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012260466A JP6114015B2 (en) 2012-11-29 2012-11-29 Laser projection method and laser projection apparatus
US14/079,515 US9644942B2 (en) 2012-11-29 2013-11-13 Method and apparatus for laser projection, and machining method
EP13192864.0A EP2738516B1 (en) 2012-11-29 2013-11-14 Machining method
CN201310566097.8A CN103846739B (en) 2012-11-29 2013-11-14 Laser projection method and laser projection device
US15/166,394 US10094652B2 (en) 2012-11-29 2016-05-27 Method and apparatus for laser projection, and machining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012260466A JP6114015B2 (en) 2012-11-29 2012-11-29 Laser projection method and laser projection apparatus

Publications (2)

Publication Number Publication Date
JP2014106167A true JP2014106167A (en) 2014-06-09
JP6114015B2 JP6114015B2 (en) 2017-04-12

Family

ID=51027774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012260466A Expired - Fee Related JP6114015B2 (en) 2012-11-29 2012-11-29 Laser projection method and laser projection apparatus

Country Status (1)

Country Link
JP (1) JP6114015B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6151814B1 (en) * 2016-03-25 2017-06-21 株式会社シンテックホズミ Position display system
CN117288459A (en) * 2023-11-24 2023-12-26 齐鲁工业大学(山东省科学院) Butterfly valve detection method and system based on underwater vehicle in pipeline

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165638A (en) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd Device and method for providing three-dimensional model
JP2001523828A (en) * 1997-11-14 2001-11-27 ヴァーテック ヴィジョン コーポレイション Laser scanning method and system
JP2007333457A (en) * 2006-06-13 2007-12-27 Yokohama Rubber Co Ltd:The Inspection method and inspection system for tire mold side plate, decision method and decision system for the tire mold side plate, and inspection method and inspection system for tire mold processing process
WO2008153127A1 (en) * 2007-06-15 2008-12-18 Kabushiki Kaisha Toshiba Instrument for examining/measuring object to be measured
WO2012033892A1 (en) * 2010-09-08 2012-03-15 Faro Technologies, Inc. A laser scanner or laser tracker having a projector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001523828A (en) * 1997-11-14 2001-11-27 ヴァーテック ヴィジョン コーポレイション Laser scanning method and system
JP2001165638A (en) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd Device and method for providing three-dimensional model
JP2007333457A (en) * 2006-06-13 2007-12-27 Yokohama Rubber Co Ltd:The Inspection method and inspection system for tire mold side plate, decision method and decision system for the tire mold side plate, and inspection method and inspection system for tire mold processing process
WO2008153127A1 (en) * 2007-06-15 2008-12-18 Kabushiki Kaisha Toshiba Instrument for examining/measuring object to be measured
WO2012033892A1 (en) * 2010-09-08 2012-03-15 Faro Technologies, Inc. A laser scanner or laser tracker having a projector
JP2013539541A (en) * 2010-09-08 2013-10-24 ファロ テクノロジーズ インコーポレーテッド Laser scanner or laser tracking device having a projector

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6151814B1 (en) * 2016-03-25 2017-06-21 株式会社シンテックホズミ Position display system
JP2017170497A (en) * 2016-03-25 2017-09-28 株式会社シンテックホズミ Position display system
CN117288459A (en) * 2023-11-24 2023-12-26 齐鲁工业大学(山东省科学院) Butterfly valve detection method and system based on underwater vehicle in pipeline
CN117288459B (en) * 2023-11-24 2024-02-02 齐鲁工业大学(山东省科学院) Butterfly valve detection method and system based on underwater vehicle in pipeline

Also Published As

Publication number Publication date
JP6114015B2 (en) 2017-04-12

Similar Documents

Publication Publication Date Title
US10094652B2 (en) Method and apparatus for laser projection, and machining method
CN110977931B (en) Robot control device and display device using augmented reality and mixed reality
US7724380B2 (en) Method and system for three-dimensional measurement
JP5525953B2 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP2004508954A (en) Positioning device and system
JP2005300230A (en) Measuring instrument
JP2012159409A (en) Dimension measuring device, dimension measuring method, and program for dimension measuring device
US20210237278A1 (en) Method for checking a safety area of a robot
US11045918B2 (en) Method for determining an X-Y-Z reference coordinate of a workpiece, and machine tool
US20230214083A1 (en) Measurement program selection assisting apparatus and measurement control apparatus
US10591289B2 (en) Method for measuring an artefact
JP5467962B2 (en) Measurement setting data creation device, measurement setting data creation method, program for measurement setting data creation device, and dimension measurement device
CN109862989B (en) Image-based technique selection during laser welding
Ng et al. Intuitive robot tool path teaching using laser and camera in augmented reality environment
JP2010060556A (en) System and method for measuring curved member
JP6114015B2 (en) Laser projection method and laser projection apparatus
JP4932202B2 (en) Part program generating apparatus for image measuring apparatus, part program generating method for image measuring apparatus, and part program generating program for image measuring apparatus
KR20150066845A (en) Process inspection device, method and system for assembling process in product manufacturing using depth map sensors
JP2018176185A (en) Deformation processing support system and deformation processing support method
US11630436B2 (en) Measurement program selection assisting apparatus and measurement control apparatus
US11826908B2 (en) Process agnostic robot teaching using 3D scans
JP2020126461A (en) Machine controller
CN114527471A (en) Non-contact type layering positioning instrument positioning method
Ailisto et al. 3D measurement controlled by a CAD model-based measurement planning and vision system
JP2004078988A (en) Instrument for measuring image, and method for displaying measured result

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140828

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170316

R150 Certificate of patent or registration of utility model

Ref document number: 6114015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees