JP2019163980A - Image processing device, laser irradiation device, and target position specifying method - Google Patents

Image processing device, laser irradiation device, and target position specifying method Download PDF

Info

Publication number
JP2019163980A
JP2019163980A JP2018051107A JP2018051107A JP2019163980A JP 2019163980 A JP2019163980 A JP 2019163980A JP 2018051107 A JP2018051107 A JP 2018051107A JP 2018051107 A JP2018051107 A JP 2018051107A JP 2019163980 A JP2019163980 A JP 2019163980A
Authority
JP
Japan
Prior art keywords
image
laser
target
difference
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018051107A
Other languages
Japanese (ja)
Other versions
JP6956659B2 (en
Inventor
徹 梅澤
Toru Umezawa
徹 梅澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2018051107A priority Critical patent/JP6956659B2/en
Publication of JP2019163980A publication Critical patent/JP2019163980A/en
Application granted granted Critical
Publication of JP6956659B2 publication Critical patent/JP6956659B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To obtain an image processing device with which it is possible to suppress a reduction in the accuracy of specifying the position of a target even when irradiating it with a repeating laser.SOLUTION: An image processing device 20-1 for specifying the position of a target irradiated with a first laser comprises: an image acquisition unit 21 for acquiring a first image captured while the target is irradiated with a second laser and a second image captured while the target is not irradiated with the second laser; a difference processing unit 22 for generating a difference image that indicates a difference between the first and the second images; and a verification unit 23 for specifying the position of the target on the basis of the difference image.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理を用いて、レーザを照射する目標物の位置を特定する画像処理装置、レーザ照射装置および目標物の位置特定方法に関する。   The present invention relates to an image processing apparatus, a laser irradiation apparatus, and a target position specifying method for specifying a position of a target to be irradiated with laser using image processing.

予め定められた目標物に対してレーザを照射する際には、レーザを照射する目標物の位置を把握する必要がある。特許文献1には、レーザを照射する目標物の位置を、可視画像または赤外画像を用いて特定することが記載されている。   When irradiating a predetermined target with laser, it is necessary to grasp the position of the target to be irradiated with laser. Patent Document 1 describes that the position of a target to be irradiated with a laser is specified using a visible image or an infrared image.

特開2014−126468号公報JP 2014-126468 A

しかしながら、上記特許文献1に記載の技術によれば、1つの目標物に繰り返しレーザを照射する場合、以下に述べるように目標物の位置特定精度が低下する場合があるという問題があった。画像を用いて目標物の位置を特定する場合、予め準備された目標物の形状を示す照合用画像と、取得した画像とを照合する方法がある。しかしながら、例えば目標物を熱破壊することが可能なレーザが目標物に照射されると、目標物は照射点の付近が加熱されて高温になり、照射点を中心とする熱輻射が発生する。したがって取得する画像には、目標物の形状に加えて、熱輻射成分が含まれてしまう。この場合、熱輻射成分の分だけ誤差が生じ、目標物の位置特定精度が低下してしまう。   However, according to the technique described in Patent Document 1, when a single target is repeatedly irradiated with a laser, there is a problem that the position specifying accuracy of the target may decrease as described below. When the position of a target is specified using an image, there is a method of collating a collation image indicating the shape of a target prepared in advance with an acquired image. However, for example, when the target is irradiated with a laser capable of thermally destroying the target, the target is heated in the vicinity of the irradiation point and becomes high temperature, and thermal radiation is generated around the irradiation point. Therefore, the acquired image includes a heat radiation component in addition to the shape of the target. In this case, an error is generated by the amount of the heat radiation component, and the position specifying accuracy of the target object is lowered.

本発明は、上記に鑑みてなされたものであって、繰り返しレーザを照射する場合であっても、目標物の位置特定精度の低下を抑制することが可能な画像処理装置、レーザ照射装置および目標物の位置特定方法を得ることを目的とする。   The present invention has been made in view of the above, and an image processing apparatus, a laser irradiation apparatus, and a target capable of suppressing a decrease in position specifying accuracy of a target even when repeatedly irradiating a laser. The object is to obtain a method for locating an object.

上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、第1レーザを照射する目標物の位置を特定する画像処理装置であって、第2レーザを目標物に照射した状態で撮影された第1画像と、第2レーザを目標物に照射しない状態で撮影された第2画像とを取得する画像取得部と、第1画像および第2画像の差分を示す差分画像を生成する差分処理部と、差分画像に基づいて、目標物の位置を特定する照合部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention is an image processing apparatus that specifies a position of a target to be irradiated with a first laser, and uses the second laser as a target. An image acquisition unit that acquires a first image captured in the irradiated state and a second image captured in a state where the target is not irradiated with the second laser, and a difference indicating a difference between the first image and the second image The image processing apparatus includes: a difference processing unit that generates an image; and a collation unit that specifies a position of the target based on the difference image.

本発明によれば、繰り返しレーザを照射する場合であっても、目標物の位置特定精度の低下を抑制することが可能であるという効果を奏する。   According to the present invention, there is an effect that it is possible to suppress a decrease in target position specifying accuracy even when laser irradiation is repeatedly performed.

本発明の実施の形態1に係るレーザ照射装置の構成を示す図The figure which shows the structure of the laser irradiation apparatus which concerns on Embodiment 1 of this invention. 図1に示すレーザ照射装置の動作を示すフローチャートThe flowchart which shows operation | movement of the laser irradiation apparatus shown in FIG. 図1に示す画像処理装置の機能構成を示す図The figure which shows the function structure of the image processing apparatus shown in FIG. 図3に示す画像処理装置の行う画像処理についての説明図Explanatory drawing about the image processing which the image processing apparatus shown in FIG. 3 performs 図3に示す画像処理装置の動作を示すフローチャート3 is a flowchart showing the operation of the image processing apparatus shown in FIG. 本発明の実施の形態2にかかる画像処理装置の機能構成を示す図FIG. 3 is a diagram showing a functional configuration of an image processing apparatus according to a second embodiment of the present invention. 図6に示す画像処理装置の行う画像処理についての説明図Explanatory drawing about the image processing which the image processing apparatus shown in FIG. 6 performs 図6に示す画像処理装置の動作を示すフローチャートFlowchart showing the operation of the image processing apparatus shown in FIG. 本発明の実施の形態3にかかる画像処理装置の機能構成を示す図The figure which shows the function structure of the image processing apparatus concerning Embodiment 3 of this invention. 図9に示す画像処理装置の行う画像処理についての説明図Explanatory drawing about the image processing which the image processing apparatus shown in FIG. 9 performs 図9に示す画像処理装置の動作を示すフローチャート9 is a flowchart showing the operation of the image processing apparatus shown in FIG. 本発明の実施の形態1〜3にかかる画像処理装置の機能をソフトウェアを用いて実現するハードウェア構成を示す図1 is a diagram illustrating a hardware configuration that implements the functions of an image processing apparatus according to first to third embodiments of the present invention using software. 本発明の実施の形態1〜3にかかる画像処理装置の機能を専用のハードウェアを用いて実現する構成を示す図The figure which shows the structure which implement | achieves the function of the image processing apparatus concerning Embodiment 1-3 of this invention using exclusive hardware.

以下に、本発明の実施の形態に係る画像処理装置、レーザ照射装置および目標物の位置特定方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Hereinafter, an image processing apparatus, a laser irradiation apparatus, and a target position specifying method according to an embodiment of the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

なお、本明細書中において、同様の機能、性質などを有する複数の構成要素のそれぞれを区別しない場合、複数の構成要素のそれぞれに共通する符号を付する。また複数の構成要素のそれぞれを区別する場合、共通の符号の後にハイフンとハイフンに続く数字とを付して区別する。   Note that in this specification, in the case where a plurality of constituent elements having the same function, property, and the like are not distinguished from each other, a common reference numeral is assigned to each of the plurality of constituent elements. When distinguishing each of a plurality of constituent elements, a hyphen and a number following the hyphen are added after a common code.

実施の形態1.
図1は、本発明の実施の形態1に係るレーザ照射装置1−1の構成を示す図である。レーザ照射装置1−1は、第1レーザ装置11と、移動装置12と、第2レーザ装置13と、撮像機14と、同期回路15と、画像処理装置20−1とを有する。
Embodiment 1 FIG.
FIG. 1 is a diagram showing a configuration of a laser irradiation apparatus 1-1 according to Embodiment 1 of the present invention. The laser irradiation device 1-1 includes a first laser device 11, a moving device 12, a second laser device 13, an imaging device 14, a synchronization circuit 15, and an image processing device 20-1.

第1レーザ装置11は、第1レーザを出射する。第1レーザは、目標物2を熱破壊することが可能な波長の光である。移動装置12は、画像処理装置20−1から入力される指向信号に従って、第1レーザ装置11が第1レーザ3を出射する向きを変化させる。第2レーザ装置13は、第2レーザ4aを出射する。第2レーザは、撮像機14が感度を有する波長の光であり、目標物2に照射したとき、撮像機14が目標物2の形状を撮像することが可能になる。撮像機14は、同期回路15からの間欠同期信号に従ったタイミングで、第2レーザ装置13が第2レーザ4aを照射する照明範囲の画像を撮影する。第2レーザ装置13の照明範囲には、目標物が含まれ、撮像機14は目標物を含む画像を撮影する。   The first laser device 11 emits a first laser. The first laser is light having a wavelength capable of thermally destroying the target 2. The moving device 12 changes the direction in which the first laser device 11 emits the first laser 3 in accordance with the directivity signal input from the image processing device 20-1. The second laser device 13 emits the second laser 4a. The second laser is light having a wavelength with which the imaging device 14 has sensitivity, and when the target 2 is irradiated, the imaging device 14 can capture the shape of the target 2. The imaging device 14 captures an image of the illumination range in which the second laser device 13 irradiates the second laser 4 a at a timing according to the intermittent synchronization signal from the synchronization circuit 15. The illumination range of the second laser device 13 includes a target, and the imaging device 14 captures an image including the target.

同期回路15は、第2レーザ装置13が第2レーザ4aを出射したタイミングを取込んで、取込んだタイミングに基づいて、撮像機14が画像を取得するタイミングを示す間欠同期信号を撮像機14に入力する。撮像機14が画像を取得するタイミングは、第2レーザ装置13が出射した第2レーザ4aの反射光4bが撮像機14に到達するタイミングに基づいて決定される。具体的には、撮像機14は、第2レーザ4aが目標物2に照射されている状態の画像と、第2レーザ4aが目標物2に照射されていない状態の画像とを取得する。撮像機14は、取得した画像を示す画像信号を画像処理装置20−1に入力する。   The synchronization circuit 15 captures the timing when the second laser device 13 emits the second laser 4a, and based on the captured timing, the synchronization circuit 15 generates an intermittent synchronization signal indicating the timing at which the imaging device 14 acquires an image. To enter. The timing at which the imaging device 14 acquires an image is determined based on the timing at which the reflected light 4b of the second laser 4a emitted from the second laser device 13 reaches the imaging device 14. Specifically, the imaging device 14 acquires an image in a state where the second laser 4 a is irradiated on the target 2 and an image in a state where the second laser 4 a is not irradiated on the target 2. The imaging device 14 inputs an image signal indicating the acquired image to the image processing device 20-1.

画像処理装置20−1は、撮像機14が取得する画像に基づいて、目標物2の位置を特定する。画像処理装置20−1は、目標物2の位置を特定すると、特定した目標物2の位置に基づいて、第1レーザ3の照射点を決定し、第1レーザ装置11を照射点の方向に指向させる指向信号を生成する。画像処理装置20−1は、生成した指向信号を移動装置12に入力する。   The image processing device 20-1 specifies the position of the target 2 based on the image acquired by the imaging device 14. When the position of the target 2 is specified, the image processing device 20-1 determines the irradiation point of the first laser 3 based on the specified position of the target 2, and moves the first laser device 11 in the direction of the irradiation point. A directional signal to be directed is generated. The image processing device 20-1 inputs the generated directional signal to the moving device 12.

図2は、図1に示すレーザ照射装置1−1の動作を示すフローチャートである。まず、第2レーザ装置13は、第2レーザ4aを目標物2に照射する(ステップS101)。同期回路15は、第2レーザ装置13が第2レーザ4aを出射したタイミングを取込み、取込んだタイミングに基づいて、撮像機14が画像を取得するタイミングを示す間欠同期信号を発生させる(ステップS102)。   FIG. 2 is a flowchart showing the operation of the laser irradiation apparatus 1-1 shown in FIG. First, the second laser device 13 irradiates the target 2 with the second laser 4a (step S101). The synchronization circuit 15 captures the timing at which the second laser device 13 emits the second laser 4a, and generates an intermittent synchronization signal indicating the timing at which the imaging device 14 acquires an image based on the captured timing (step S102). ).

撮像機14は、間欠同期信号に基づいたタイミングで動作する。これにより撮像機14は、まず、目標物2に第2レーザ4aを照射した状態で撮影する画像である第1画像を取得する(ステップS103)。続いて撮像機14は、目標物2に第2レーザ4aを照射していない状態で撮影する画像である第2画像を取得する(ステップS104)。撮像機14は、取得した第1画像および第2画像を示す画像信号を画像処理装置20−1に出力する。   The imaging device 14 operates at a timing based on the intermittent synchronization signal. Thereby, the imaging device 14 first acquires a first image that is an image to be captured in a state where the target 2 is irradiated with the second laser 4a (step S103). Subsequently, the imaging device 14 acquires a second image that is an image to be captured in a state where the target 2 is not irradiated with the second laser 4a (step S104). The imaging device 14 outputs an image signal indicating the acquired first image and second image to the image processing device 20-1.

画像処理装置20−1は、撮像機14が取得した第1画像および第2画像を用いて、目標物2の位置を特定し、特定した位置に基づいて、第1レーザ3の照射位置を決定し、第1レーザ装置11が第1レーザ3を出射する方向を示す指向信号を生成する画像処理を行う(ステップS105)。画像処理の詳細な内容については後述する。   The image processing apparatus 20-1 specifies the position of the target 2 using the first image and the second image acquired by the imaging device 14, and determines the irradiation position of the first laser 3 based on the specified position. Then, image processing for generating a directivity signal indicating the direction in which the first laser device 11 emits the first laser 3 is performed (step S105). Detailed contents of the image processing will be described later.

指向信号に基づいて移動装置12が第1レーザ装置11の向きを変化させると、第1レーザ装置11は、目標物2に第1レーザ3を照射する(ステップS106)。レーザ照射装置1−1は、図2に示す処理を、目標物2が破壊されるまで繰り返し実行する。   When the moving device 12 changes the direction of the first laser device 11 based on the directivity signal, the first laser device 11 irradiates the target 2 with the first laser 3 (step S106). The laser irradiation apparatus 1-1 repeatedly performs the process shown in FIG. 2 until the target 2 is destroyed.

図3は、図1に示す画像処理装置20−1の機能構成を示す図である。図4は、図3に示す画像処理装置20−1の行う画像処理についての説明図である。以下、図4に示す例を用いて、画像処理装置20−1の機能構成について説明する。   FIG. 3 is a diagram illustrating a functional configuration of the image processing apparatus 20-1 illustrated in FIG. FIG. 4 is an explanatory diagram of image processing performed by the image processing apparatus 20-1 illustrated in FIG. Hereinafter, the functional configuration of the image processing apparatus 20-1 will be described using the example illustrated in FIG.

画像処理装置20−1は、画像取得部21と、差分処理部22と、照合部23と、指向信号生成部24とを有する。画像取得部21は、第2レーザ4aを目標物2に照射して目標物2を照明した状態で撮影された第1画像31−1,31−2と、第2レーザ4aを目標物2に照射しない状態で撮影された第2画像32−1,32−2とを示す画像信号を撮像機14から取得する。画像取得部21は、取得した第1画像31−1,31−2および第2画像32−1,32−2を示す画像信号を差分処理部22に入力する。   The image processing device 20-1 includes an image acquisition unit 21, a difference processing unit 22, a collation unit 23, and a directional signal generation unit 24. The image acquisition unit 21 irradiates the target 2 with the second laser 4a to illuminate the target 2 and the first images 31-1 and 31-2 and the second laser 4a to the target 2. Image signals indicating the second images 32-1 and 32-2 photographed without irradiation are acquired from the imaging device 14. The image acquisition unit 21 inputs image signals indicating the acquired first images 31-1 and 31-2 and second images 32-1 and 32-2 to the difference processing unit 22.

差分処理部22は、画像取得部21から入力される画像信号を用いて、第1画像31と第2画像32との差分を示す差分画像33を生成する。図4に示す例では、差分処理部22は、第1画像31−1と第2画像32−1との差分を示す差分画像33−1、および、第1画像31−2と第2画像32−2との差分を示す差分画像33−2を生成する。図4に示すように、目標物2に第1レーザが照射された後に撮影された第1画像31−2は、目標物の形状2aと、熱輻射成分Pとを含む。熱輻射は様々な波長成分を含んでおり、第2レーザの波長も含んでいる。このため目標物2に第1レーザが照射された後に撮影された第2画像32−2は、目標物の形状2aを含まず、熱輻射成分Pを含む。また、目標物2に第1レーザが照射される前に撮影された第1画像31−1は、目標物の形状2aを含み、熱輻射成分Pを含まない。目標物2に第1レーザが照射される前に撮影された第2画像32−1は、目標物の形状2aも熱輻射成分Pも含まない。第1画像31−2を取得する時刻と第2画像32−2を取得する時刻とが十分に近い場合、第1画像31−2に含まれる熱輻射成分Pと第2画像32−2に含まれる熱輻射成分Pとは概ね同一となる。このため、第1画像31−2の画像信号から第2画像32−2の画像信号を減算すると、熱輻射成分Pを低減することができる。差分処理部22は、生成した差分画像33−1,33−2を照合部23に入力する。   The difference processing unit 22 uses the image signal input from the image acquisition unit 21 to generate a difference image 33 that indicates the difference between the first image 31 and the second image 32. In the example illustrated in FIG. 4, the difference processing unit 22 includes a difference image 33-1 indicating a difference between the first image 31-1 and the second image 32-1, and a first image 31-2 and the second image 32. A difference image 33-2 showing a difference from -2. As shown in FIG. 4, the first image 31-2 photographed after the target 2 is irradiated with the first laser includes the target shape 2a and the thermal radiation component P. The thermal radiation includes various wavelength components, and includes the wavelength of the second laser. Therefore, the second image 32-2 taken after the target 2 is irradiated with the first laser does not include the target shape 2a but includes the heat radiation component P. The first image 31-1 photographed before the target 2 is irradiated with the first laser includes the target shape 2 a and does not include the heat radiation component P. The second image 32-1 captured before the target 2 is irradiated with the first laser does not include the target shape 2a or the thermal radiation component P. When the time for acquiring the first image 31-2 and the time for acquiring the second image 32-2 are close enough, the heat radiation component P included in the first image 31-2 and the second image 32-2 are included. The heat radiation component P is substantially the same. For this reason, the heat radiation component P can be reduced by subtracting the image signal of the second image 32-2 from the image signal of the first image 31-2. The difference processing unit 22 inputs the generated difference images 33-1 and 33-2 to the matching unit 23.

照合部23は、差分処理部22が出力する差分画像33−1,33−2に基づいて、目標物2の位置を特定する。具体的には、照合部23は、差分画像33−1,33−2のそれぞれと、予め取得された目標物2の画像である照合用画像30とを照合して、目標物2の位置を特定する。照合部23は、特定した目標物2の位置を示す情報を指向信号生成部24に出力する。   The collation unit 23 specifies the position of the target 2 based on the difference images 33-1 and 33-2 output from the difference processing unit 22. Specifically, the collation unit 23 collates each of the difference images 33-1 and 33-2 with a collation image 30 that is an image of the target 2 acquired in advance, and determines the position of the target 2. Identify. The collation unit 23 outputs information indicating the position of the identified target 2 to the directional signal generation unit 24.

指向信号生成部24は、目標物2の位置に基づいて、第1レーザ3の照射位置を決定し、第1レーザ装置11が第1レーザ3を出射する方向を示す指向信号を生成し、生成した指向信号を移動装置12に入力する。   The directivity signal generator 24 determines the irradiation position of the first laser 3 based on the position of the target 2, generates a directivity signal indicating the direction in which the first laser device 11 emits the first laser 3, and generates the directivity signal The directed signal is input to the mobile device 12.

図5は、図3に示す画像処理装置20−1の動作を示すフローチャートである。なおここでは図4に示す第1画像31−2、第2画像32−2を示す画像信号が画像処理装置20−1に入力される例を使用して説明する。   FIG. 5 is a flowchart showing the operation of the image processing apparatus 20-1 shown in FIG. Here, description will be made using an example in which image signals indicating the first image 31-2 and the second image 32-2 illustrated in FIG. 4 are input to the image processing device 20-1.

画像取得部21は、撮像機14から入力される画像信号から、第1画像31−2および第2画像32−2を取得する(ステップS201)。画像取得部21は、取得した第1画像31−2および第2画像32−2を差分処理部22に入力する。   The image acquisition unit 21 acquires the first image 31-2 and the second image 32-2 from the image signal input from the imaging device 14 (step S201). The image acquisition unit 21 inputs the acquired first image 31-2 and second image 32-2 to the difference processing unit 22.

差分処理部22は、第1画像31−2から第2画像32−2を減算する差分処理を行い、第1画像31−2と第2画像32−2との差分を示す差分画像33−2を生成し、生成した差分画像33−2を照合部23に入力する差分処理を行う(ステップS202)。   The difference processing unit 22 performs a difference process for subtracting the second image 32-2 from the first image 31-2, and a difference image 33-2 indicating a difference between the first image 31-2 and the second image 32-2. And the difference process of inputting the generated difference image 33-2 to the collation unit 23 is performed (step S202).

照合部23は、差分処理部22から入力される差分画像33−2と、予め取得された画像であって目標物2の形状を示す画像である照合用画像30とを照合して、目標物2の位置を特定する照合処理を行う。照合部23は、特定した目標物2の位置を示す情報を指向信号生成部24に入力する(ステップS203)。   The collation unit 23 collates the difference image 33-2 input from the difference processing unit 22 with a collation image 30 that is an image acquired in advance and indicating the shape of the target object 2, and the target object The collation process which specifies the position of 2 is performed. The collation unit 23 inputs information indicating the position of the identified target 2 to the directional signal generation unit 24 (step S203).

指向信号生成部24は、照合部23から入力される情報に基づいて、第1レーザ3の照射位置を決定し、第1レーザ装置11が第1レーザ3を出射する方向を示す指向信号を生成し、生成した指向信号を移動装置12に入力する(ステップS204)。   The directivity signal generator 24 determines the irradiation position of the first laser 3 based on the information input from the collator 23 and generates a directivity signal indicating the direction in which the first laser device 11 emits the first laser 3. Then, the generated directional signal is input to the mobile device 12 (step S204).

以上説明したように、本実施の形態によれば、熱輻射成分Pの影響を低減した差分画像33−2を用いて、目標物2の位置が特定される。このため、目標物2の位置特定精度の低下を抑制することが可能になる。   As described above, according to the present embodiment, the position of the target 2 is specified using the difference image 33-2 in which the influence of the heat radiation component P is reduced. For this reason, it becomes possible to suppress the fall of the position specific accuracy of the target 2.

実施の形態2.
本発明の実施の形態2にかかるレーザ照射装置1−2は、図1に示すレーザ照射装置1−1の画像処理装置20−1の代わりに、画像間の位置合わせ機能を備えた画像処理装置20−2を有する。その他の構成はレーザ照射装置1−1と同様であるため、ここでは説明を省略する。
Embodiment 2. FIG.
A laser irradiation apparatus 1-2 according to a second embodiment of the present invention is an image processing apparatus having an alignment function between images instead of the image processing apparatus 20-1 of the laser irradiation apparatus 1-1 illustrated in FIG. 20-2. Since other configurations are the same as those of the laser irradiation apparatus 1-1, description thereof is omitted here.

第1画像31の取得時刻と第2画像32の取得時刻が離れていたり、目標物2の動きまたは移動装置12の動きが速かったりすると、第1画像31中の熱輻射成分Pの位置と第2画像32中の熱輻射成分Pの位置とにずれが生じることがある。このため、本実施の形態にかかる画像処理装置20−2は、画像間で熱輻射成分Pの位置を合わせる位置合わせ機能を備える。   If the acquisition time of the first image 31 is different from the acquisition time of the second image 32, or if the movement of the target 2 or the movement of the moving device 12 is fast, the position of the thermal radiation component P in the first image 31 and the first There may be a shift in the position of the heat radiation component P in the two images 32. For this reason, the image processing apparatus 20-2 according to the present embodiment includes a positioning function for aligning the position of the heat radiation component P between images.

図6は、本発明の実施の形態2にかかる画像処理装置20−2の機能構成を示す図である。図7は、図6に示す画像処理装置20−2の行う画像処理についての説明図である。以下、図7に示す例を用いて、画像処理装置20−2の機能について説明する。   FIG. 6 is a diagram illustrating a functional configuration of the image processing apparatus 20-2 according to the second embodiment of the present invention. FIG. 7 is an explanatory diagram of image processing performed by the image processing apparatus 20-2 illustrated in FIG. Hereinafter, the function of the image processing apparatus 20-2 will be described using the example shown in FIG.

画像処理装置20−2は、画像取得部21と、加工部25と、位置合わせ部26と、差分処理部22−1と、照合部23と、指向信号生成部24とを有する。画像処理装置20−2は、画像処理装置20−1に加えて、加工部25と位置合わせ部26とを有する。   The image processing device 20-2 includes an image acquisition unit 21, a processing unit 25, an alignment unit 26, a difference processing unit 22-1, a collation unit 23, and a directional signal generation unit 24. The image processing device 20-2 includes a processing unit 25 and an alignment unit 26 in addition to the image processing device 20-1.

画像取得部21は、第1画像31−3および第2画像32−3を取得し、取得した第1画像31−3および第2画像32−3を加工部25に入力する。加工部25は、第2画像32−3から位置合わせの基準とする基準位置を含む基準画像34を切出す。基準位置は、画像中の熱輻射成分Pの位置を示すことが可能な位置であればよく、例えば熱輻射成分Pが含まれる領域の中心である。また加工部25は、第2画像32−3中の基準位置CP2を特定し、基準位置CP2の情報を含む加工後の第2画像35を生成する。加工部25は、加工後の第2画像35と、基準画像34とを位置合わせ部26に入力する。   The image acquisition unit 21 acquires the first image 31-3 and the second image 32-3, and inputs the acquired first image 31-3 and second image 32-3 to the processing unit 25. The processing unit 25 cuts out a reference image 34 including a reference position that is used as a reference for alignment from the second image 32-3. The reference position may be any position that can indicate the position of the heat radiation component P in the image, and is, for example, the center of the region including the heat radiation component P. Further, the processing unit 25 identifies the reference position CP2 in the second image 32-3, and generates a processed second image 35 including information on the reference position CP2. The processing unit 25 inputs the processed second image 35 and the reference image 34 to the alignment unit 26.

位置合わせ部26は、第1画像31−3および第2画像32−3の位置合わせを行う。具体的には、位置合わせ部26は、基準画像34を用いて第1画像31中の基準位置CP1を特定する位置合わせ処理を行う。位置合わせ部26は、基準画像34と第1画像31−3とを照合して、第1画像31−3の中で基準画像34と最も一致する位置に基づいて、第1画像31中の基準位置CP1を特定し、基準位置CP1の情報を含む加工後の第1画像36を生成する。位置合わせ部26は、加工後の第1画像36と加工後の第2画像35とを差分処理部22−1に入力する。   The alignment unit 26 aligns the first image 31-3 and the second image 32-3. Specifically, the alignment unit 26 performs alignment processing for specifying the reference position CP1 in the first image 31 using the reference image 34. The alignment unit 26 collates the reference image 34 and the first image 31-3, and based on the position that most closely matches the reference image 34 in the first image 31-3, the reference in the first image 31. The position CP1 is specified, and a processed first image 36 including information on the reference position CP1 is generated. The alignment unit 26 inputs the processed first image 36 and the processed second image 35 to the difference processing unit 22-1.

差分処理部22−1は、位置合わせ部26が行った位置合わせ処理の結果に基づいて、加工後の第1画像36中の基準位置CP1と加工後の第2画像35中の基準位置CP2とを一致させた状態で差分画像33−3を生成する。基準位置同士を一致させることで、第1画像31中の熱輻射成分Pの位置と、第2画像32中の熱輻射成分Pの位置とを合わせることができる。差分処理部22−1は、生成した差分画像33−3を照合部23に入力する。照合部23および指向信号生成部24の機能は、実施の形態1と同様である。照合部23は、入力される差分画像33−3を照合用画像30と照合する。   Based on the result of the alignment process performed by the alignment unit 26, the difference processing unit 22-1 includes the reference position CP1 in the first image 36 after processing and the reference position CP2 in the second image 35 after processing. The difference image 33-3 is generated in a state in which the two are matched. By matching the reference positions, the position of the thermal radiation component P in the first image 31 and the position of the thermal radiation component P in the second image 32 can be matched. The difference processing unit 22-1 inputs the generated difference image 33-3 to the matching unit 23. The functions of the collation unit 23 and the directional signal generation unit 24 are the same as those in the first embodiment. The collation unit 23 collates the input difference image 33-3 with the collation image 30.

図8は、図6に示す画像処理装置20−2の動作を示すフローチャートである。以下、図7に示す例を用いて画像処理装置20−2の動作を説明する。まず画像取得部21は、撮像機14から入力される画像信号から第1画像31−3および第2画像32−3を取得し、取得した第1画像31−3および第2画像32−3を加工部25に入力する(ステップS201)。加工部25は、第2画像32−3から基準画像34を生成する(ステップS301)。加工部25は、第2画像32−3中の基準位置CP2を特定し、基準位置CP2の情報を含む加工後の第2画像35を生成する。加工部25は、基準画像34および加工後の第2画像35を位置合わせ部26に入力する。   FIG. 8 is a flowchart showing the operation of the image processing apparatus 20-2 shown in FIG. Hereinafter, the operation of the image processing apparatus 20-2 will be described using the example shown in FIG. First, the image acquisition unit 21 acquires the first image 31-3 and the second image 32-3 from the image signal input from the imaging device 14, and acquires the acquired first image 31-3 and second image 32-3. Input to the processing section 25 (step S201). The processing unit 25 generates the reference image 34 from the second image 32-3 (step S301). The processing unit 25 specifies the reference position CP2 in the second image 32-3, and generates a processed second image 35 including information on the reference position CP2. The processing unit 25 inputs the reference image 34 and the processed second image 35 to the alignment unit 26.

位置合わせ部26は、基準画像34と、第1画像31−3とを照合して第1画像31−3中の基準位置CP1を特定する位置合わせ処理を行う(ステップS302)。差分処理部22−1は、第1画像31−3中の基準位置CP1と第2画像32−3中の基準位置CP2とを一致させた状態で差分画像33−3を生成する差分処理を行う(ステップS303)。照合処理(ステップS203)および指向信号を生成する処理(ステップS204)は、実施の形態1と同様であるためここでは説明を省略する。   The alignment unit 26 collates the reference image 34 and the first image 31-3, and performs alignment processing for specifying the reference position CP1 in the first image 31-3 (step S302). The difference processing unit 22-1 performs difference processing for generating a difference image 33-3 in a state where the reference position CP1 in the first image 31-3 and the reference position CP2 in the second image 32-3 are matched. (Step S303). Since the collation process (step S203) and the process for generating the directivity signal (step S204) are the same as those in the first embodiment, description thereof is omitted here.

以上説明したように、本発明の実施の形態2にかかる画像処理装置20−2は、第1画像31−3および第2画像32−3の位置合わせ機能を有する。このため、第1画像31−3の取得時刻と第2画像32−3の取得時刻とが離れていたり、目標物2の動きまたは移動装置12の動きが速かったりして、第1画像31−3中の熱輻射成分Pの位置と第2画像32−3中の熱輻射成分Pの位置とにずれが生じている場合であっても、目標物2の位置特定精度の低下を抑制することが可能である。   As described above, the image processing apparatus 20-2 according to the second embodiment of the present invention has a function of aligning the first image 31-3 and the second image 32-3. For this reason, the acquisition time of the first image 31-3 is different from the acquisition time of the second image 32-3, the movement of the target 2 or the movement of the moving device 12 is fast, and the first image 31- 3, even if there is a deviation between the position of the thermal radiation component P in 3 and the position of the thermal radiation component P in the second image 32-3, the deterioration of the position specifying accuracy of the target 2 is suppressed. Is possible.

実施の形態3.
本発明の実施の形態3にかかるレーザ照射装置1−3は、図1に示すレーザ照射装置1−1の画像処理装置20−1の代わりに、画像処理装置20−3を有する。その他の構成はレーザ照射装置1−1と同様であるため、ここでは説明を省略する。
Embodiment 3 FIG.
A laser irradiation apparatus 1-3 according to the third embodiment of the present invention includes an image processing apparatus 20-3 instead of the image processing apparatus 20-1 of the laser irradiation apparatus 1-1 illustrated in FIG. Since other configurations are the same as those of the laser irradiation apparatus 1-1, description thereof is omitted here.

図9は、本発明の実施の形態3にかかる画像処理装置20−3の機能構成を示す図である。画像処理装置20−3は、複数の差分画像33を生成して、複数の差分画像33のうち最も熱輻射成分Pが低減された差分画像33を用いて目標物2の位置を特定する機能を有する。図10は、図9に示す画像処理装置20−3の行う画像処理についての説明図である。以下、図10に示す例を用いて、画像処理装置20−3の機能について説明する。   FIG. 9 is a diagram illustrating a functional configuration of the image processing apparatus 20-3 according to the third embodiment of the present invention. The image processing device 20-3 has a function of generating a plurality of difference images 33 and specifying the position of the target 2 using the difference image 33 in which the thermal radiation component P is most reduced among the plurality of difference images 33. Have. FIG. 10 is an explanatory diagram of image processing performed by the image processing apparatus 20-3 illustrated in FIG. Hereinafter, the function of the image processing apparatus 20-3 will be described using the example shown in FIG.

画像処理装置20−3は、画像取得部21と、差分処理部22−2と、照合部23−1と、選択部27と、指向信号生成部24とを有する。画像取得部21は、第1画像31−4と、第2画像32−4とを取得し、取得した第1画像31−4および第2画像32−4を差分処理部22−2に入力する。   The image processing device 20-3 includes an image acquisition unit 21, a difference processing unit 22-2, a collation unit 23-1, a selection unit 27, and a directional signal generation unit 24. The image acquisition unit 21 acquires the first image 31-4 and the second image 32-4, and inputs the acquired first image 31-4 and second image 32-4 to the difference processing unit 22-2. .

差分処理部22−2は、第1画像31−4と第2画像32−4との間のずれ量の複数の候補のそれぞれを用いて、複数の差分画像33−4を生成する。ずれ量の複数の候補は、それぞれずれ量の値が異なる。このため、差分処理部22−2が差分画像33−4を生成するときに、第1画像31−4中の熱輻射成分Pと第2画像32−4中の熱輻射成分Pとの一致度合が、ずれ量の候補ごとに異なる。差分処理部22−2は、生成した複数の差分画像33−4を照合部23−1に入力する。   The difference processing unit 22-2 generates a plurality of difference images 33-4 using each of a plurality of candidates for the amount of deviation between the first image 31-4 and the second image 32-4. The plurality of deviation amount candidates have different deviation amount values. For this reason, when the difference processing unit 22-2 generates the difference image 33-4, the degree of coincidence between the heat radiation component P in the first image 31-4 and the heat radiation component P in the second image 32-4. However, it differs for each candidate amount of deviation. The difference processing unit 22-2 inputs the generated plurality of difference images 33-4 to the matching unit 23-1.

照合部23−1は、入力される複数の差分画像33−4のそれぞれと、照合用画像30とを照合する。照合部23−1は、複数の照合結果を選択部27に出力する。選択部27は、複数の差分画像33−4のそれぞれと照合用画像30との一致度合に基づいて、照合結果のうちの1つを選択する。選択部27は、例えば、複数の差分画像33−4のそれぞれと照合用画像30との一致度合を示す評価値を用いて、照合結果のうちの1つを選択することができる。選択部27は、選択した照合結果が示す目標物2の位置を示す情報を、指向信号生成部24に出力する。   The collation unit 23-1 collates each of the plurality of input difference images 33-4 with the collation image 30. The collation unit 23-1 outputs a plurality of collation results to the selection unit 27. The selection unit 27 selects one of the matching results based on the degree of matching between each of the plurality of difference images 33-4 and the matching image 30. For example, the selection unit 27 can select one of the matching results using an evaluation value indicating the degree of matching between each of the plurality of difference images 33-4 and the matching image 30. The selection unit 27 outputs information indicating the position of the target 2 indicated by the selected matching result to the directional signal generation unit 24.

図11は、図9に示す画像処理装置20−3の動作を示すフローチャートである。以下、図10に示す例を用いて画像処理装置20−3の動作を説明する。まず画像取得部21は、撮像機14から入力される画像信号から第1画像31−4および第2画像32−4を取得し、取得した第1画像31−4および第2画像32−4を差分処理部22−2に入力する(ステップS201)。   FIG. 11 is a flowchart showing the operation of the image processing apparatus 20-3 shown in FIG. Hereinafter, the operation of the image processing apparatus 20-3 will be described using the example shown in FIG. First, the image acquisition unit 21 acquires the first image 31-4 and the second image 32-4 from the image signal input from the imaging device 14, and acquires the acquired first image 31-4 and second image 32-4. The difference is input to the difference processing unit 22-2 (step S201).

差分処理部22−2は、第1画像31−4および第2画像32−4を用いて差分処理を行う。このとき差分処理部22−2は、複数のずれ量の候補のそれぞれを用いて、複数の差分画像33−4を生成し、生成した複数の差分画像33−4を照合部23−1に入力する(ステップS401)。   The difference processing unit 22-2 performs difference processing using the first image 31-4 and the second image 32-4. At this time, the difference processing unit 22-2 generates a plurality of difference images 33-4 using each of the plurality of deviation amount candidates, and inputs the generated plurality of difference images 33-4 to the matching unit 23-1. (Step S401).

照合部23−1は、複数の差分画像33−4のそれぞれと照合用画像30とを用いて照合処理を行い、照合結果を選択部27に入力する(ステップS402)。選択部27は、照合結果を用いて、複数の差分画像33−4のそれぞれと照合用画像30との一致度合を示す評価値の算出処理を行う(ステップS403)。選択部27は、評価値に基づいて、複数の照合結果のうちの1つを選択する選択処理を行う。例えば、評価値が大きいほど差分画像33−4と照合用画像30との一致度合が高い場合、選択部27は、評価値が最も大きい照合結果を選択する(ステップS404)。指向信号を生成する処理(ステップS204)は、実施の形態1と同様である。   The collation unit 23-1 performs collation processing using each of the plurality of difference images 33-4 and the collation image 30, and inputs the collation result to the selection unit 27 (step S402). Using the collation result, the selection unit 27 performs an evaluation value calculation process indicating the degree of coincidence between each of the plurality of difference images 33-4 and the collation image 30 (step S403). The selection unit 27 performs a selection process for selecting one of a plurality of matching results based on the evaluation value. For example, if the degree of coincidence between the difference image 33-4 and the matching image 30 is higher as the evaluation value is larger, the selection unit 27 selects a matching result having the largest evaluation value (step S404). The process for generating the directional signal (step S204) is the same as that in the first embodiment.

以上説明したように、本発明の実施の形態3にかかる画像処理装置20−3は、目標物の形状2aおよび熱輻射成分Pを含む第1画像31−4と、熱輻射成分Pを含む第2画像32−4とのずれ量の候補を複数想定し、ずれ量の複数の候補を用いて複数の差分画像33−4を生成する。そして複数の差分画像33−4を用いて照合処理を行い、複数の照合結果のうちの1つを選択し、選択した照合結果に基づいて目標物2の位置を特定する。これにより、第1画像31−4の取得時刻と第2画像32−4の取得時刻とが離れていたり、目標物2の動きまたは移動装置12の動きが速かったりして、第1画像31−4中の熱輻射成分Pの位置と第2画像32−4中の熱輻射成分Pの位置とにずれが生じている場合であっても、目標物2の位置特定精度の低下を抑制することが可能である。   As described above, the image processing apparatus 20-3 according to the third embodiment of the present invention includes the first image 31-4 including the target shape 2a and the heat radiation component P, and the first image including the heat radiation component P. A plurality of candidates for the amount of deviation from the two images 32-4 are assumed, and a plurality of difference images 33-4 are generated using the plurality of candidates for the amount of deviation. And collation processing is performed using a plurality of difference images 33-4, one of a plurality of collation results is selected, and the position of target 2 is specified based on the selected collation results. Thereby, the acquisition time of the first image 31-4 and the acquisition time of the second image 32-4 are separated from each other, or the movement of the target 2 or the movement of the moving device 12 is fast. 4, even if there is a deviation between the position of the heat radiation component P in 4 and the position of the heat radiation component P in the second image 32-4, it is possible to suppress a decrease in the position specifying accuracy of the target 2. Is possible.

続いて、画像処理装置20−1〜20−3の機能を実現するためのハードウェア構成について説明する。図12は、本発明の実施の形態1〜3にかかる画像処理装置20−1〜20−3の機能をソフトウェアを用いて実現するハードウェア構成を示す図である。   Next, a hardware configuration for realizing the functions of the image processing apparatuses 20-1 to 20-3 will be described. FIG. 12 is a diagram illustrating a hardware configuration that implements the functions of the image processing apparatuses 20-1 to 20-3 according to the first to third embodiments of the present invention using software.

画像処理装置20−1〜20−3に備わる各機能は、図12に示すプロセッサ91およびメモリ92を用いて実現することができる。プロセッサ91は、CPU(Central Processing Unit)であり、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる。メモリ92は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)等の、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)などである。   Each function provided in the image processing apparatuses 20-1 to 20-3 can be realized by using the processor 91 and the memory 92 shown in FIG. The processor 91 is a CPU (Central Processing Unit), and is also called a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, and a DSP (Digital Signal Processor). The memory 92 is nonvolatile or volatile such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). Such as a semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD (Digital Versatile Disk).

プロセッサ91がメモリ92に記憶されるコンピュータプログラムを読み出して、読み出したコンピュータプログラムを実行することにより、画像処理装置20−1〜20−3の各機能を実現することができる。またメモリ92は、プロセッサ91が実行する各処理における一時メモリとしても使用される。   The processor 91 reads out the computer program stored in the memory 92 and executes the read-out computer program, whereby each function of the image processing apparatuses 20-1 to 20-3 can be realized. The memory 92 is also used as a temporary memory in each process executed by the processor 91.

図13は、本発明の実施の形態1〜3にかかる画像処理装置20−1〜20−3の機能を専用のハードウェアを用いて実現する構成を示す図である。画像処理装置20−1〜20−3に備わる各機能は、図13に示す処理回路93のような専用のハードウェアを用いて実現することもできる。処理回路93は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものである。   FIG. 13 is a diagram illustrating a configuration in which the functions of the image processing apparatuses 20-1 to 20-3 according to the first to third embodiments of the present invention are realized using dedicated hardware. Each function provided in the image processing apparatuses 20-1 to 20-3 can also be realized by using dedicated hardware such as a processing circuit 93 shown in FIG. The processing circuit 93 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof.

画像処理装置20−1〜20−3に備わる各機能は、一部が図12に示すプロセッサ91およびメモリ92を用いて実現され、一部が図13に示す処理回路93を用いて実現されてもよい。   Each function provided in the image processing apparatuses 20-1 to 20-3 is partly realized by using the processor 91 and the memory 92 shown in FIG. 12, and partly realized by using the processing circuit 93 shown in FIG. Also good.

以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。   The configuration described in the above embodiment shows an example of the contents of the present invention, and can be combined with another known technique, and can be combined with other configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

1−1,1−2,1−3 レーザ照射装置、2 目標物、2a 目標物の形状、3 第1レーザ、4a 第2レーザ、4b 反射光、11 第1レーザ装置、12 移動装置、13 第2レーザ装置、14 撮像機、15 同期回路、20−1,20−2,20−3 画像処理装置、21 画像取得部、22,22−1,22−2 差分処理部、23,23−1 照合部、24 指向信号生成部、25 加工部、26 位置合わせ部、27 選択部、30 照合用画像、31−1,31−2,31−3,31−4,36 第1画像、32−1,32−2,32−3,32−4,35 第2画像、33−1,33−2,33−3,33−4 差分画像、34 基準画像、91 プロセッサ、92 メモリ、93 処理回路、CP1,CP2 基準位置、P 熱輻射成分。   1-1, 1-2, 1-3 Laser irradiation device, 2 target, 2a shape of target, 3 1st laser, 4a 2nd laser, 4b reflected light, 11 1st laser device, 12 moving device, 13 Second laser device, 14 image pickup device, 15 synchronization circuit, 20-1, 20-2, 20-3 image processing device, 21 image acquisition unit, 22, 22-1, 22-2 difference processing unit, 23, 23- DESCRIPTION OF SYMBOLS 1 Collation part, 24 Directional signal production | generation part, 25 Processing part, 26 Position alignment part, 27 Selection part, 30 Collation image, 31-1, 31-2, 31-3, 31-4, 36 1st image, 32 −1, 32-2, 32-3, 32-4, 35 Second image, 33-1, 33-2, 33-3, 33-4 Difference image, 34 Reference image, 91 Processor, 92 Memory, 93 Processing Circuit, CP1, CP2 Reference position, P Thermal radiation generation Minutes.

Claims (6)

第1レーザを照射する目標物の位置を特定する画像処理装置であって、
第2レーザを前記目標物に照射した状態で撮影された第1画像と、前記第2レーザを前記目標物に照射しない状態で撮影された第2画像とを取得する画像取得部と、
前記第1画像および前記第2画像の差分を示す差分画像を生成する差分処理部と、
前記差分画像に基づいて、前記目標物の位置を特定する照合部と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for specifying a position of a target to be irradiated with a first laser,
An image acquisition unit that acquires a first image captured in a state where the target is irradiated with a second laser and a second image captured in a state where the target is not irradiated with the second laser;
A difference processing unit that generates a difference image indicating a difference between the first image and the second image;
A collation unit that identifies the position of the target based on the difference image;
An image processing apparatus comprising:
前記第2画像から位置合わせの基準とする基準位置を含む基準画像を生成し、前記第2画像中の前記基準位置を特定する加工部と、
前記基準画像を用いて、前記第1画像中の前記基準位置を特定し、前記第1画像および前記第2画像の位置合わせを行う位置合わせ部と、
をさらに備え、
前記差分処理部は、前記第1画像中の前記基準位置と前記第2画像中の前記基準位置とを一致させた状態で前記差分画像を生成することを特徴とする請求項1に記載の画像処理装置。
A processing unit that generates a reference image including a reference position as a reference for alignment from the second image, and specifies the reference position in the second image;
An alignment unit that identifies the reference position in the first image using the reference image and aligns the first image and the second image;
Further comprising
The image according to claim 1, wherein the difference processing unit generates the difference image in a state where the reference position in the first image and the reference position in the second image are matched. Processing equipment.
前記基準位置は、前記第1レーザが照射された領域に含まれる熱輻射成分の位置を示すことを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the reference position indicates a position of a heat radiation component included in a region irradiated with the first laser. 前記差分処理部は、前記第1画像と前記第2画像との間のずれ量の複数の候補のそれぞれを用いて、複数の前記差分画像を生成し、
前記照合部は、複数の前記差分画像のそれぞれと予め取得された前記目標物の画像である照合用画像とを照合し、
複数の前記差分画像のそれぞれと前記照合用画像との一致度合に基づいて、照合結果のうちの1つを選択する選択部、
をさらに備えることを特徴とする請求項1に記載の画像処理装置。
The difference processing unit generates a plurality of the difference images using each of a plurality of candidates for the amount of deviation between the first image and the second image,
The collation unit collates each of the plurality of difference images with a collation image that is an image of the target acquired in advance,
A selection unit that selects one of the matching results based on the degree of matching between each of the plurality of difference images and the matching image;
The image processing apparatus according to claim 1, further comprising:
第1レーザを出射する第1レーザ装置と、
前記第1レーザ装置が前記第1レーザを出射する向きを変化させる移動装置と、
第2レーザを出射する第2レーザ装置と、
前記目標物を撮像する撮像機と、
前記第2レーザ装置が前記第2レーザを出射するタイミングに基づいて、前記撮像機が撮像するタイミングを示す間欠同期信号を生成し、前記目標物に前記第2レーザを照射した状態の第1画像と前記目標物に前記第2レーザを照射しない状態の第2画像とを前記撮像機に撮像させる同期回路と、
請求項1から4のいずれか1項に記載の画像処理装置と、
を備えることを特徴とするレーザ照射装置。
A first laser device for emitting a first laser;
A moving device for changing a direction in which the first laser device emits the first laser;
A second laser device for emitting a second laser;
An imager for imaging the target;
Based on the timing at which the second laser device emits the second laser, an intermittent synchronization signal indicating the timing at which the imaging device captures an image is generated, and the first image in a state in which the target is irradiated with the second laser And a synchronization circuit that causes the imaging device to capture a second image in a state in which the target is not irradiated with the second laser,
An image processing apparatus according to any one of claims 1 to 4,
A laser irradiation apparatus comprising:
第1レーザを照射する目標物の位置を特定する目標物の位置特定方法であって、
前記目標物を照明する第2レーザを前記目標物に照射した状態で撮影された第1画像を取得するステップと、
前記第2レーザを前記目標物に照射しない状態で撮影された第2画像を取得するステップと、
前記第1画像および前記第2画像の差分を示す差分画像を生成するステップと、
予め取得された前記目標物の画像である照合用画像と、前記差分画像とを照合して前記目標物の位置を特定するステップと、
を含むことを特徴とする目標物の位置特定方法。
A target position specifying method for specifying a position of a target to be irradiated with a first laser,
Obtaining a first image taken in a state in which the target is irradiated with a second laser that illuminates the target;
Obtaining a second image taken without irradiating the target with the second laser;
Generating a difference image indicating a difference between the first image and the second image;
Collating an image for collation that is an image of the target acquired in advance and the difference image to identify the position of the target;
A method for specifying a position of a target object.
JP2018051107A 2018-03-19 2018-03-19 Image processing equipment and laser irradiation equipment Active JP6956659B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018051107A JP6956659B2 (en) 2018-03-19 2018-03-19 Image processing equipment and laser irradiation equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018051107A JP6956659B2 (en) 2018-03-19 2018-03-19 Image processing equipment and laser irradiation equipment

Publications (2)

Publication Number Publication Date
JP2019163980A true JP2019163980A (en) 2019-09-26
JP6956659B2 JP6956659B2 (en) 2021-11-02

Family

ID=68065513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018051107A Active JP6956659B2 (en) 2018-03-19 2018-03-19 Image processing equipment and laser irradiation equipment

Country Status (1)

Country Link
JP (1) JP6956659B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490693B2 (en) 2022-02-25 2024-05-27 日本電子株式会社 Charged particle beam equipment

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05164529A (en) * 1991-12-16 1993-06-29 Shinko Electric Co Ltd Vision apparatus for vibration feeder
JPH09296999A (en) * 1996-05-02 1997-11-18 Toshiba Corp Device for recognizing specific position of flying member
JPH10227609A (en) * 1997-02-14 1998-08-25 Yaskawa Electric Corp Distance measuring device for outdoor
JPH11287861A (en) * 1997-12-15 1999-10-19 Trw Inc Shared aperture dichroic active tracker with background subtraction function
JP2000304499A (en) * 1999-04-22 2000-11-02 Mitsubishi Electric Corp Image processor and processing method for launching vehicle
JP2001256474A (en) * 2000-03-10 2001-09-21 Mitsubishi Electric Corp Device and method for calculating reference point of flying object
JP2010183560A (en) * 2008-12-16 2010-08-19 Casio Computer Co Ltd Image capturing apparatus, image processing method, and program
JP2010270947A (en) * 2009-05-20 2010-12-02 Mitsubishi Electric Corp Guidance device and target determining device
JP2013083510A (en) * 2011-10-07 2013-05-09 Toshiba Corp Laser radar device and imaging target selection device using the same
JP2017072557A (en) * 2015-10-09 2017-04-13 三菱重工業株式会社 Flight object detection system and flight object detection method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05164529A (en) * 1991-12-16 1993-06-29 Shinko Electric Co Ltd Vision apparatus for vibration feeder
JPH09296999A (en) * 1996-05-02 1997-11-18 Toshiba Corp Device for recognizing specific position of flying member
JPH10227609A (en) * 1997-02-14 1998-08-25 Yaskawa Electric Corp Distance measuring device for outdoor
JPH11287861A (en) * 1997-12-15 1999-10-19 Trw Inc Shared aperture dichroic active tracker with background subtraction function
JP2000304499A (en) * 1999-04-22 2000-11-02 Mitsubishi Electric Corp Image processor and processing method for launching vehicle
JP2001256474A (en) * 2000-03-10 2001-09-21 Mitsubishi Electric Corp Device and method for calculating reference point of flying object
JP2010183560A (en) * 2008-12-16 2010-08-19 Casio Computer Co Ltd Image capturing apparatus, image processing method, and program
JP2010270947A (en) * 2009-05-20 2010-12-02 Mitsubishi Electric Corp Guidance device and target determining device
JP2013083510A (en) * 2011-10-07 2013-05-09 Toshiba Corp Laser radar device and imaging target selection device using the same
JP2017072557A (en) * 2015-10-09 2017-04-13 三菱重工業株式会社 Flight object detection system and flight object detection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安藤道則 馬場美也子 二宮芳樹: "アクティブ照明制御による乗員検知技術", 画像ラボ, vol. 第18巻 第10号, JPN6021007860, 1 October 2007 (2007-10-01), JP, pages 58 - 61, ISSN: 0004462262 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490693B2 (en) 2022-02-25 2024-05-27 日本電子株式会社 Charged particle beam equipment

Also Published As

Publication number Publication date
JP6956659B2 (en) 2021-11-02

Similar Documents

Publication Publication Date Title
JP6394005B2 (en) Projection image correction apparatus, method and program for correcting original image to be projected
KR101241175B1 (en) Mounting boards inspection apparatus and method thereof
JP6904263B2 (en) Image processing system
JP2008256454A (en) Optical characteristic measuring device and method
WO2018173720A1 (en) Electromagnetic-wave detection device, program, and electromagnetic-wave detection system
JP2019163980A (en) Image processing device, laser irradiation device, and target position specifying method
JP2015230229A (en) Noncontact laser scanning spectral image acquisition device and spectral image acquisition method
CN109635619A (en) The coding distance topology of structured light pattern for three-dimensional reconstruction
JP2020524819A5 (en)
US20190285401A1 (en) Determining the arrangement of a sample object by means of angle-selective illumination
US10163240B2 (en) Microscope and image pasting method
US10627519B2 (en) Information processing device and information processing method
US11194021B2 (en) Electromagnetic wave detection apparatus, program, and electromagnetic wave detection system comprising a controller to update related information associating an emission direction and two elements defining two points on a path of electromagnetic waves
JP2011080843A (en) Three-dimensional shape measuring system and three-dimensional shape measuring method
KR101089590B1 (en) Method for processing multi-image and measurement device of three dimensional shape
TWI566324B (en) Capping system
KR20230011982A (en) Systems, methods and targets for wafer alignment
KR102063568B1 (en) Apparatus for measuring sub-aperture surface profile
JP2010109921A (en) Image synthesizing apparatus
JP2016142645A (en) Imaging system
JP6219911B2 (en) Two-dimensional code, image reading apparatus, image reading method and program
JP2015226127A (en) Image reading apparatus, image connecting method and program
JP6098975B2 (en) Marker, object identification device, and object identification method
JP6256132B2 (en) Imaging system
US20230410548A1 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211005

R150 Certificate of patent or registration of utility model

Ref document number: 6956659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150