JP2021071464A - Detection device and detection method - Google Patents

Detection device and detection method Download PDF

Info

Publication number
JP2021071464A
JP2021071464A JP2019200338A JP2019200338A JP2021071464A JP 2021071464 A JP2021071464 A JP 2021071464A JP 2019200338 A JP2019200338 A JP 2019200338A JP 2019200338 A JP2019200338 A JP 2019200338A JP 2021071464 A JP2021071464 A JP 2021071464A
Authority
JP
Japan
Prior art keywords
straight line
boundary
acquired
row pixel
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019200338A
Other languages
Japanese (ja)
Inventor
琢 工藤
Taku Kudo
琢 工藤
光正 本田
Mitsumasa Honda
光正 本田
和雄 菊地
Kazuo Kikuchi
和雄 菊地
剛 白坂
Takeshi Shirasaka
剛 白坂
小沢 利亮
Toshiaki Ozawa
利亮 小沢
聡 宮澤
Satoshi Miyazawa
聡 宮澤
広明 遠藤
Hiroaki Endo
広明 遠藤
岩本 正美
Masami Iwamoto
正美 岩本
道晴 菅原
Michiharu Sugawara
道晴 菅原
憲太郎 堀内
Kentaro Horiuchi
憲太郎 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Latest System Co Ltd
Latest-System Co Ltd
TAKUMI SOLUTIONS Ltd
TOHTO C TECH CORP
TOHTO C-TECH CORP
Alps Alpine Co Ltd
Original Assignee
Latest System Co Ltd
Latest-System Co Ltd
TAKUMI SOLUTIONS Ltd
TOHTO C TECH CORP
TOHTO C-TECH CORP
Alps Alpine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Latest System Co Ltd, Latest-System Co Ltd, TAKUMI SOLUTIONS Ltd, TOHTO C TECH CORP, TOHTO C-TECH CORP, Alps Alpine Co Ltd filed Critical Latest System Co Ltd
Priority to JP2019200338A priority Critical patent/JP2021071464A/en
Publication of JP2021071464A publication Critical patent/JP2021071464A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

To provide a detection device that can detect a vibration with a comparatively short cycle.SOLUTION: A detection device 1 includes an imaging unit 13 and a detection unit 14. The imaging unit photographs an object TG to output an image. The image includes a plurality of row pixel groups having different positions from each other in a first direction. Each of the row pixel groups has a plurality of different positions from each other in a second direction orthogonal to the first direction and includes a plurality of pixels that represent an amount of light incident in a processing period allocated to the row pixel group. In the output image, the detection unit acquires boundary positions, which are positions of a boundary among a plurality of areas in which amounts of light represented by pixels included in the image are different from each other and which are adjacent to each other for each of the row pixel groups, and detects a vibration of the object based on the plurality of acquired boundary positions.SELECTED DRAWING: Figure 1

Description

本発明は、検出装置、及び、検出方法に関する。 The present invention relates to a detection device and a detection method.

対象物を撮影することにより画像を出力する撮像部を備え、出力された画像に基づいて対象物の振動を検出する検出装置が知られている。例えば、特許文献1に記載の検出装置は、対象物を互いに異なる複数の時点にて撮影することによりそれぞれ出力された複数の画像に基づいて対象物の振動を検出する。 A detection device is known that includes an imaging unit that outputs an image by photographing an object and detects vibration of the object based on the output image. For example, the detection device described in Patent Document 1 detects the vibration of an object based on a plurality of images output by photographing the object at a plurality of different time points.

特開2003−156389号公報Japanese Unexamined Patent Publication No. 2003-156389

撮像部が用いる撮影方式として、グローバルシャッター方式と、ローリングシャッター方式と、が知られている。グローバルシャッター方式において、画像に含まれるすべての画素は、同一の処理期間にて入射する光の量を表す。一方、ローリングシャッター方式において、画像に含まれるとともに、列方向にて互いに異なる複数の位置をそれぞれ有する複数の行画素群は、互いに異なる複数の処理期間にてそれぞれ入射する光の量を表す。各行画素群は、行方向にて互いに異なる複数の位置をそれぞれ有する複数の画素を含む。 As a photographing method used by the imaging unit, a global shutter method and a rolling shutter method are known. In the global shutter method, all the pixels included in the image represent the amount of light incident in the same processing period. On the other hand, in the rolling shutter method, a plurality of row pixel groups included in the image and having a plurality of positions different from each other in the column direction represent the amount of light incident on each of the plurality of processing periods different from each other. Each row pixel group includes a plurality of pixels each having a plurality of positions different from each other in the row direction.

グローバルシャッター方式を用いる撮像部においては、連続して撮影可能な2つの時点の間隔である撮影間隔を十分に短くすることができれば、比較的短い周期を有する振動を検出できる。しかしながら、グローバルシャッター方式において、撮影間隔を短縮することは困難であることが多い。そこで、ローリングシャッター方式を用いることが考えられる。しかしながら、撮影間隔は、ローリングシャッター方式の方がグローバルシャッター方式よりも長くなりやすい。従って、上記検出装置において、ローリングシャッター方式を用いた場合、比較的短い周期を有する振動を検出することができない、という課題があった。なお、この種の課題は、ローリングシャッター方式と異なる方式を用いる場合にも同様に生じ得る。 In the imaging unit using the global shutter method, if the imaging interval, which is the interval between two time points capable of continuous imaging, can be sufficiently shortened, vibration having a relatively short period can be detected. However, in the global shutter method, it is often difficult to shorten the shooting interval. Therefore, it is conceivable to use the rolling shutter method. However, the shooting interval tends to be longer in the rolling shutter method than in the global shutter method. Therefore, when the rolling shutter method is used in the above detection device, there is a problem that vibration having a relatively short period cannot be detected. It should be noted that this kind of problem can occur similarly when a method different from the rolling shutter method is used.

本発明の目的の一つは、比較的短い周期を有する振動を検出することである。 One of the objects of the present invention is to detect vibration having a relatively short period.

一つの側面では、検出装置は、
対象物を撮影することにより画像を出力し、上記画像が、第1方向にて互いに異なる複数の位置をそれぞれ有する複数の行画素群を含み、上記複数の行画素群に互いに異なる複数の処理期間がそれぞれ割り当てられ、且つ、上記複数の行画素群のそれぞれが、上記第1方向に直交する第2方向にて互いに異なる複数の位置をそれぞれ有するとともに当該行画素群に割り当てられた処理期間にて入射する光の量を表す複数の画素を含む撮像部と、
上記出力された画像において、当該画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である境界位置を、上記複数の行画素群のそれぞれに対して取得し、上記取得された複数の境界位置に基づいて上記対象物の振動を検出する検出部と、
を備える。
On one side, the detector
An image is output by photographing an object, and the image includes a plurality of row pixel groups having a plurality of positions different from each other in the first direction, and a plurality of processing periods different from each other in the plurality of row pixel groups. Are allotted, and each of the plurality of row pixel groups has a plurality of positions different from each other in the second direction orthogonal to the first direction, and in the processing period assigned to the row pixel group. An image pickup unit containing a plurality of pixels representing the amount of incident light,
In the output image, the amount of light represented by the pixels included in the image is different from each other, and the boundary position, which is the position of the boundary of a plurality of regions adjacent to each other, is acquired for each of the plurality of row pixel groups. Then, the detection unit that detects the vibration of the object based on the acquired plurality of boundary positions, and the detection unit.
To be equipped.

他の一つの側面では、検出方法は、
対象物を撮影することにより画像を出力し、上記画像が、第1方向にて互いに異なる複数の位置をそれぞれ有する複数の行画素群を含み、上記複数の行画素群に互いに異なる複数の処理期間がそれぞれ割り当てられ、且つ、上記複数の行画素群のそれぞれが、上記第1方向に直交する第2方向にて互いに異なる複数の位置をそれぞれ有するとともに当該行画素群に割り当てられた処理期間にて入射する光の量を表す複数の画素を含み、
上記出力された画像において、当該画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である境界位置を、上記複数の行画素群のそれぞれに対して取得し、上記取得された複数の境界位置に基づいて上記対象物の振動を検出する、
ことを含む。
In one other aspect, the detection method
An image is output by photographing an object, and the image includes a plurality of row pixel groups having a plurality of positions different from each other in the first direction, and a plurality of processing periods different from each other in the plurality of row pixel groups. Are allotted, and each of the plurality of row pixel groups has a plurality of positions different from each other in the second direction orthogonal to the first direction, and in the processing period assigned to the row pixel group. Contains multiple pixels representing the amount of incident light
In the output image, the amount of light represented by the pixels included in the image is different from each other, and the boundary position, which is the position of the boundary of a plurality of regions adjacent to each other, is acquired for each of the plurality of row pixel groups. Then, the vibration of the object is detected based on the obtained plurality of boundary positions.
Including that.

比較的短い周期を有する振動を検出することができる。 Vibrations with a relatively short period can be detected.

第1実施形態の検出装置の構成を表すブロック図である。It is a block diagram which shows the structure of the detection apparatus of 1st Embodiment. 第1実施形態のマーカ部の構成を表す図である。It is a figure which shows the structure of the marker part of 1st Embodiment. 第1実施形態の検出部の構成を表すブロック図である。It is a block diagram which shows the structure of the detection part of 1st Embodiment. 第1実施形態の検出部の機能を表すブロック図である。It is a block diagram which shows the function of the detection part of 1st Embodiment. 第1実施形態の検出部が、対象物が振動している場合にx軸方向における振動を検出する機能を説明する図である。It is a figure explaining the function which the detection part of 1st Embodiment detects the vibration in the x-axis direction when the object is vibrating. 第1実施形態の検出部が、対象物が振動している場合にy軸方向における振動を検出する機能を説明する図である。It is a figure explaining the function which the detection part of 1st Embodiment detects a vibration in a y-axis direction when an object is vibrating. z軸方向にて対象物が変動した場合における、マーカ部と撮像部との間の距離と、マーカ部内の領域の、画像における大きさと、の関係を説明する図である。It is a figure explaining the relationship between the distance between a marker part and an image pickup part, and the size of the area in a marker part in an image, when an object fluctuates in the z-axis direction. 第1実施形態の検出部が、対象物が振動している場合にz軸方向における振動を検出する機能を説明する図である。It is a figure explaining the function which the detection part of 1st Embodiment detects the vibration in the z-axis direction when an object is vibrating. 第1実施形態の検出装置がx軸方向における振動を検出するための処理を表すフローチャートである。It is a flowchart which shows the process for detecting the vibration in the x-axis direction by the detection apparatus of 1st Embodiment. 第1実施形態の検出装置がy軸方向における振動を検出するための処理を表すフローチャートである。It is a flowchart which shows the process for detecting the vibration in the y-axis direction by the detection apparatus of 1st Embodiment. 第1実施形態の検出装置がz軸方向における振動を検出するための処理を表すフローチャートである。It is a flowchart which shows the process for detecting the vibration in the z-axis direction by the detection apparatus of 1st Embodiment. 第2実施形態のマーカ部の構成を表す図である。It is a figure which shows the structure of the marker part of the 2nd Embodiment. 第2実施形態の検出部の機能を表すブロック図である。It is a block diagram which shows the function of the detection part of 2nd Embodiment. 第2実施形態の検出装置がx軸方向における振動を検出するための処理を表すフローチャートである。It is a flowchart which shows the process for detecting the vibration in the x-axis direction by the detection apparatus of 2nd Embodiment. 第2実施形態の第1変形例のマーカ部の構成を表す図である。It is a figure which shows the structure of the marker part of the 1st modification of 2nd Embodiment. 第3実施形態のマーカ部の構成を表す図である。It is a figure which shows the structure of the marker part of 3rd Embodiment. 第3実施形態の検出部の機能を表すブロック図である。It is a block diagram which shows the function of the detection part of 3rd Embodiment. 第3実施形態の検出部が、対象物が振動している場合にy軸方向における振動を検出する機能を説明する図である。It is a figure explaining the function which the detection part of 3rd Embodiment detects the vibration in the y-axis direction when the object is vibrating. 第3実施形態の検出装置がy軸方向における振動を検出するための処理を表すフローチャートである。It is a flowchart which shows the process for detecting the vibration in the y-axis direction by the detection apparatus of 3rd Embodiment. 第3実施形態の検出装置がx軸方向における振動を検出するための処理を表すフローチャートである。It is a flowchart which shows the process for detecting the vibration in the x-axis direction by the detection apparatus of 3rd Embodiment. 第3実施形態の第1変形例のマーカ部の構成を表す図である。It is a figure which shows the structure of the marker part of the 1st modification of 3rd Embodiment. 第3実施形態の第1変形例の検出部の機能を表すブロック図である。It is a block diagram which shows the function of the detection part of the 1st modification of 3rd Embodiment.

例えば、ローリングシャッター方式においては、画像の全体が1つの処理期間にて入射する光の量を表すのではなく、行画素群毎に異なる処理期間にて入射する光の量を表す。従って、高速に移動する対象物を撮影した場合、行画素群毎に対象の移動量が異なるため、画像における対象物が歪む。 For example, in the rolling shutter method, the entire image does not represent the amount of light incident in one processing period, but represents the amount of light incident in different processing periods for each row pixel group. Therefore, when an object moving at high speed is photographed, the amount of movement of the object differs for each row pixel group, so that the object in the image is distorted.

一方、グローバルシャッター方式においては、画像の全体が1つの処理期間にて入射する光の量を表す。従って、高速に移動する対象を撮影した場合であっても、画像における対象物が歪まない。このため、高速に移動する対象物を撮影する場合、グローバルシャッター方式を用いる撮像部が用いられることが多かった。 On the other hand, in the global shutter method, the entire image represents the amount of light incident in one processing period. Therefore, even when an object moving at high speed is photographed, the object in the image is not distorted. For this reason, when photographing an object moving at high speed, an imaging unit using a global shutter method is often used.

しかしながら、グローバルシャッター方式においては、撮影間隔に対して十分に速く移動する対象物を撮影した場合、対象物の移動を検出できない。ところで、撮影間隔が短くなるほど、撮像部の製造コストが高くなりやすい。従って、グローバルシャッター方式においては、製造コストを抑制しながら、対象物の振動を高い精度にて検出することが困難であった。 However, in the global shutter method, when an object moving sufficiently fast with respect to the shooting interval is photographed, the movement of the object cannot be detected. By the way, the shorter the shooting interval, the higher the manufacturing cost of the imaging unit tends to be. Therefore, in the global shutter method, it is difficult to detect the vibration of the object with high accuracy while suppressing the manufacturing cost.

ところで、ローリングシャッター方式において用いられる、行画素群毎の処理期間の間隔は、比較的短い。そこで、発明者らは、鋭意検討した結果、行画素群毎に異なる処理期間にて入射する光の量を表す画像に基づいて、対象物の振動を検出する検出装置を想到した。 By the way, the interval of the processing period for each row pixel group used in the rolling shutter method is relatively short. Therefore, as a result of diligent studies, the inventors have come up with a detection device that detects the vibration of an object based on an image showing the amount of light incident on each row pixel group in a different processing period.

以下、本発明の、検出装置、及び、検出方法に関する各実施形態について図1乃至図22を参照しながら説明する。 Hereinafter, embodiments of the present invention relating to the detection device and the detection method will be described with reference to FIGS. 1 to 22.

<第1実施形態>
(概要)
第1実施形態の検出装置は、撮像部と、検出部と、を備える。
撮像部は、対象物を撮影することにより画像を出力する。
画像は、第1方向にて互いに異なる複数の位置をそれぞれ有する複数の行画素群を含む。複数の行画素群には、互いに異なる複数の処理期間がそれぞれ割り当てられる。複数の行画素群のそれぞれは、第1方向に直交する第2方向にて互いに異なる複数の位置をそれぞれ有するとともに当該行画素群に割り当てられた処理期間にて入射する光の量を表す複数の画素を含む。
<First Embodiment>
(Overview)
The detection device of the first embodiment includes an imaging unit and a detection unit.
The image pickup unit outputs an image by photographing the object.
The image includes a plurality of row pixel groups each having a plurality of positions different from each other in the first direction. A plurality of processing periods different from each other are assigned to the plurality of row pixel groups. Each of the plurality of row pixel groups has a plurality of positions different from each other in the second direction orthogonal to the first direction, and a plurality of light rays incident on the row pixel group during the processing period assigned to the row pixel group. Includes pixels.

検出部は、出力された画像において、当該画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である境界位置を、複数の行画素群のそれぞれに対して取得し、取得された複数の境界位置に基づいて対象物の振動を検出する。 In the output image, the detection unit sets the boundary position, which is the position of the boundary of a plurality of regions adjacent to each other while the amount of light represented by the pixels contained in the image is different from each other, with respect to each of the plurality of row pixel groups. And detect the vibration of the object based on the acquired multiple boundary positions.

これによれば、画像に含まれる複数の行画素群は、互いに異なる複数の処理期間にてそれぞれ入射する光の量を表す。ところで、連続する2つの処理期間の間隔は、撮影間隔よりも短い。従って、複数の行画素群に対してそれぞれ取得される複数の境界位置は、撮影間隔に対して十分に短い周期を有する振動を反映できる。この結果、上記検出装置によれば、撮影間隔に対して十分に短い周期を有する振動を検出できる。
次に、第1実施形態の検出装置について、より詳細に説明する。
According to this, the plurality of row pixel groups included in the image represent the amount of light incident on each of the plurality of processing periods different from each other. By the way, the interval between two consecutive processing periods is shorter than the imaging interval. Therefore, the plurality of boundary positions acquired for each of the plurality of row pixel groups can reflect the vibration having a sufficiently short period with respect to the shooting interval. As a result, according to the detection device, it is possible to detect vibration having a period sufficiently short with respect to the shooting interval.
Next, the detection device of the first embodiment will be described in more detail.

(構成)
図1に表されるように、x軸、y軸及びz軸を有する右手系の直交座標系を用いて、第1実施形態の検出装置1を説明する。以下、他の図においても、図1と同じ直交座標系が用いられる。
検出装置1は、マーカ部11と、光源部12と、撮像部13と、検出部14と、を備える。
(Constitution)
As shown in FIG. 1, the detection device 1 of the first embodiment will be described using a right-handed Cartesian coordinate system having an x-axis, a y-axis, and a z-axis. Hereinafter, the same Cartesian coordinate system as in FIG. 1 is used in other figures.
The detection device 1 includes a marker unit 11, a light source unit 12, an imaging unit 13, and a detection unit 14.

マーカ部11は、シート状、又は、平板状である。本例では、マーカ部11は、z軸方向に直交する平面(換言すると、xy平面)を形成する。
マーカ部11は、対象物TGに固定される。例えば、対象物TGは、機械、器具、機器、又は、装置等である。例えば、対象物TGは、動力を用いて駆動される機械である。
本例では、マーカ部11は、接着剤を用いて固定される。なお、マーカ部11は、取り外し可能に固定されてもよい。また、マーカ部11は、螺子、釘、又は、ボルト及びナット等の固定具を用いて固定されていてもよい。本例では、マーカ部11は、1つの構成体により構成される。なお、マーカ部11は、複数の構成体により構成されていてもよい。この場合、複数の構成体は、互いに異なる複数の位置にそれぞれ固定されてよい。
The marker portion 11 has a sheet shape or a flat plate shape. In this example, the marker portion 11 forms a plane (in other words, an xy plane) orthogonal to the z-axis direction.
The marker portion 11 is fixed to the object TG. For example, the object TG is a machine, an instrument, an apparatus, an apparatus, or the like. For example, the object TG is a machine driven by power.
In this example, the marker portion 11 is fixed using an adhesive. The marker portion 11 may be removably fixed. Further, the marker portion 11 may be fixed by using a screw, a nail, or a fixing tool such as a bolt and a nut. In this example, the marker unit 11 is composed of one component. The marker unit 11 may be composed of a plurality of components. In this case, the plurality of components may be fixed at a plurality of positions different from each other.

図2に表されるように、マーカ部11は、正方形状である。なお、マーカ部11は、正方形状と異なる形状(例えば、長方形状、円形状、楕円形状、又は、多角形状等)であってもよい。 As shown in FIG. 2, the marker portion 11 has a square shape. The marker portion 11 may have a shape different from the square shape (for example, a rectangular shape, a circular shape, an elliptical shape, a polygonal shape, or the like).

マーカ部11は、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成する。本例では、マーカ部11は、第1領域111と、第1領域111に囲まれるように第1領域111に隣接する第2領域112と、を有する。第1領域111は、第2領域112よりも反射される光の量が大きい。 The marker unit 11 forms a plurality of regions adjacent to each other while the amount of reflected light is different from each other. In this example, the marker unit 11 has a first region 111 and a second region 112 adjacent to the first region 111 so as to be surrounded by the first region 111. The first region 111 reflects a larger amount of light than the second region 112.

本例では、第1領域111は、再帰性反射材からなる。本例では、第2領域112は、再帰性反射材と異なる材料(例えば、紙、布、樹脂、金属、又は、セラミクス等)からなる。本例では、第2領域112は、黒色を有する。なお、第2領域112は、黒色と異なる色を有していてもよい。
また、第1領域111は、再帰性反射材からなっていなくてもよい。この場合、例えば、第1領域111は、白色を有するとともに、第2領域112は、白色と異なる色(例えば、黒色)を有していてもよい。
また、第1領域111、及び、第2領域112のうちの少なくとも1つは、対象物TGの表面であってもよい。例えば、第2領域112は、対象物TGの表面であってもよい。
In this example, the first region 111 is made of a retroreflective material. In this example, the second region 112 is made of a material different from the retroreflective material (eg, paper, cloth, resin, metal, ceramics, etc.). In this example, the second region 112 has a black color. The second region 112 may have a color different from black.
Further, the first region 111 does not have to be made of a retroreflective material. In this case, for example, the first region 111 may have white color, and the second region 112 may have a color different from white (for example, black).
Further, at least one of the first region 111 and the second region 112 may be the surface of the object TG. For example, the second region 112 may be the surface of the object TG.

第2領域112は、所定の幅を有する線状である。本例では、第2領域112は、N字状である。第2領域112は、第1直線部1121と、第2直線部1122と、第3直線部1123と、を含む。 The second region 112 is linear with a predetermined width. In this example, the second region 112 is N-shaped. The second region 112 includes a first straight line portion 1121, a second straight line portion 1122, and a third straight line portion 1123.

第1直線部1121は、マーカ部11のうちの、x軸の負方向における端部において、y軸方向にて延びる。従って、第2領域112の第1直線部1121と第1領域111との境界は、y軸方向にて延びる直線を形成する。 The first straight line portion 1121 extends in the y-axis direction at the end portion of the marker portion 11 in the negative direction of the x-axis. Therefore, the boundary between the first straight line portion 1121 of the second region 112 and the first region 111 forms a straight line extending in the y-axis direction.

第2直線部1122は、マーカ部11のうちの、x軸の正方向における端部において、y軸方向にて延びる。従って、第2領域112の第2直線部1122と第1領域111との境界は、y軸方向にて延びる直線を形成する。 The second straight line portion 1122 extends in the y-axis direction at the end portion of the marker portion 11 in the positive direction of the x-axis. Therefore, the boundary between the second straight line portion 1122 of the second region 112 and the first region 111 forms a straight line extending in the y-axis direction.

このように、第2領域112の第1直線部1121と第1領域111との境界、及び、第2領域112の第2直線部1122と第1領域111との境界は、x軸方向と異なる方向(本例では、y軸方向)にて延びるとともに互いに平行である一対の直線を形成する。 As described above, the boundary between the first straight line portion 1121 and the first region 111 of the second region 112 and the boundary between the second straight line portion 1122 and the first region 111 of the second region 112 are different from those in the x-axis direction. It forms a pair of straight lines that extend in the direction (in this example, the y-axis direction) and are parallel to each other.

第3直線部1123は、y軸方向に対して傾斜する方向にて延びる。従って、第2領域112の第3直線部1123と第1領域111との境界は、y軸方向に対して傾斜する直線である傾斜直線を形成する。本例では、第3直線部1123は、第1直線部1121のうちの、y軸の正方向における端部と、第2直線部1122のうちの、y軸の負方向における端部と、を連結するように延びる。 The third straight line portion 1123 extends in a direction inclined with respect to the y-axis direction. Therefore, the boundary between the third straight line portion 1123 and the first region 111 of the second region 112 forms an inclined straight line which is a straight line inclined with respect to the y-axis direction. In this example, the third straight line portion 1123 includes the end portion of the first straight line portion 1121 in the positive direction of the y-axis and the end portion of the second straight line portion 1122 in the negative direction of the y-axis. Extend to connect.

光源部12は、マーカ部11を照射する光を生成する。本例では、光源部12は、LED(Light Emitting Diode)を備える。なお、光源部12は、LEDと異なる光源を備えていてもよい。本例では、光源部12は、撮像部13の近傍に位置する。なお、検出装置1が備える光源部12の数は、2つ以上であってもよい。また、光源部12は、マーカ部11の近傍に位置していてもよい。また、マーカ部11は、光源部12を備えていてもよい。この場合、マーカ部11の第1領域111は、光を透過するように構成されていてもよい。 The light source unit 12 generates light that irradiates the marker unit 11. In this example, the light source unit 12 includes an LED (Light Emitting Diode). The light source unit 12 may include a light source different from that of the LED. In this example, the light source unit 12 is located in the vicinity of the imaging unit 13. The number of light source units 12 included in the detection device 1 may be two or more. Further, the light source unit 12 may be located in the vicinity of the marker unit 11. Further, the marker unit 11 may include a light source unit 12. In this case, the first region 111 of the marker unit 11 may be configured to transmit light.

撮像部13は、マーカ部11を含む対象物TGの少なくとも一部を撮影することにより画像を出力する。本例では、撮像部13は、CMOS(Complementary Metal−Oxide−Semiconductor)を用いた固体撮像素子(換言すると、CMOSイメージセンサ)を含む。 The imaging unit 13 outputs an image by photographing at least a part of the object TG including the marker unit 11. In this example, the image pickup unit 13 includes a solid-state image sensor (in other words, a CMOS image sensor) using CMOS (Complementary Metal-Oxide-Semiconductor).

撮像部13により出力される画像は、y軸方向にて互いに異なるM個の位置をそれぞれ有するM個の行画素群を含む。本例では、M個の行画素群は、y軸方向において等間隔にて位置する。Mは、2以上の整数(本例では、2048)を表す。
M個の行画素群のそれぞれは、y軸方向に直交するx軸方向にて互いに異なる複数の位置をそれぞれ有するN個の画素を含む。Nは、2以上の整数(本例では、2048)を表す。本例では、各行画素群に含まれるN個の画素は、x軸方向において等間隔にて位置する。
The image output by the imaging unit 13 includes M row pixel groups having M positions different from each other in the y-axis direction. In this example, the M row pixel groups are located at equal intervals in the y-axis direction. M represents an integer of 2 or more (2048 in this example).
Each of the M row pixel groups includes N pixels having a plurality of positions different from each other in the x-axis direction orthogonal to the y-axis direction. N represents an integer of 2 or more (2048 in this example). In this example, the N pixels included in each row pixel group are located at equal intervals in the x-axis direction.

従って、本例では、撮像部13により出力される画像の画素数は、略4メガピクセルである。例えば、撮像部13により出力される画像の画素数は、数メガピクセルであってよい。 Therefore, in this example, the number of pixels of the image output by the imaging unit 13 is approximately 4 megapixels. For example, the number of pixels of the image output by the imaging unit 13 may be several megapixels.

M個の行画素群には、互いに異なるM個の処理期間がそれぞれ割り当てられる。本例では、M個の行画素群には、M個の行画素群がy軸の正方向へ向かって並ぶ順序にて、処理期間が開始する時点が、所定の遅延時間ずつ遅くなるように、M個の処理期間がそれぞれ割り当てられる。 Each of the M row pixel groups is assigned M different processing periods. In this example, in the M row pixel group, the time point at which the processing period starts is delayed by a predetermined delay time in the order in which the M row pixel groups are arranged in the positive direction of the y-axis. , M processing periods are assigned respectively.

なお、M個の行画素群には、M個の行画素群がy軸の負方向へ向かって並ぶ順序にて、処理期間が開始する時点が、所定の遅延時間ずつ遅くなるように、M個の処理期間がそれぞれ割り当てられてもよい。また、M個の行画素群には、M個の行画素群がy軸方向にて並ぶ順序と異なる順序にて、処理期間が開始する時点が、所定の遅延時間ずつ遅くなるように、M個の処理期間がそれぞれ割り当てられてもよい。 In addition, in the M row pixel group, the time point at which the processing period starts is delayed by a predetermined delay time in the order in which the M row pixel group is arranged in the negative direction of the y-axis. Each processing period may be assigned. Further, in the M row pixel group, the time point at which the processing period starts is delayed by a predetermined delay time in an order different from the order in which the M row pixel groups are arranged in the y-axis direction. Each processing period may be assigned.

M個の行画素群のそれぞれに含まれるN個の画素は、当該行画素群に割り当てられた処理期間にて入射する光の量を表す。本例では、各画素は、輝度を表す値を有する。なお、各画素は、明度を表す値を有してもよい。また、各画素は、赤色、青色、及び、緑色の少なくとも1つの強度を表す値を有してもよい。
本例では、撮像部13が画像を出力するために用いる方式は、ローリングシャッター方式と表されてもよい。
The N pixels included in each of the M row pixel groups represent the amount of light incident on the row pixel group during the processing period assigned to the row pixel group. In this example, each pixel has a value representing the brightness. In addition, each pixel may have a value representing lightness. Further, each pixel may have a value representing at least one intensity of red, blue, and green.
In this example, the method used by the imaging unit 13 to output an image may be expressed as a rolling shutter method.

本例では、撮像部13が、連続して撮影可能な2つの時点の間隔である撮影間隔は、略33ミリ秒である。換言すると、撮像部13のフレームレートは、30フレーム/秒である。例えば、撮像部13のフレームレートは、数十フレーム/秒であってよい。 In this example, the imaging interval, which is the interval between two time points during which the imaging unit 13 can continuously photograph, is approximately 33 milliseconds. In other words, the frame rate of the imaging unit 13 is 30 frames / sec. For example, the frame rate of the imaging unit 13 may be several tens of frames / sec.

検出部14は、撮像部13により出力された画像において、M個の行画素群の少なくとも一部のそれぞれに対して境界位置を取得する。境界位置は、画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である。検出部14は、取得された複数の境界位置に基づいて対象物TGの振動を検出する。検出部14の機能の詳細は、後述される。 The detection unit 14 acquires the boundary position for each of at least a part of the M row pixel group in the image output by the imaging unit 13. The boundary position is the position of the boundary of a plurality of regions adjacent to each other while the amount of light represented by the pixels included in the image is different from each other. The detection unit 14 detects the vibration of the object TG based on the acquired plurality of boundary positions. Details of the function of the detection unit 14 will be described later.

図3に表されるように、検出部14は、バスBUを介して互いに接続された、処理装置141、記憶装置142、及び、出力装置143を備える。 As shown in FIG. 3, the detection unit 14 includes a processing device 141, a storage device 142, and an output device 143 connected to each other via a bus BU.

処理装置141は、記憶装置142に記憶されているプログラムを実行することにより、記憶装置142、及び、出力装置143を制御する。これにより、処理装置141は、後述の機能を実現する。 The processing device 141 controls the storage device 142 and the output device 143 by executing the program stored in the storage device 142. As a result, the processing device 141 realizes the functions described later.

本例では、処理装置141は、CPU(Central Processing Unit)である。なお、処理装置141は、CPUに代えて、又は、CPUに加えて、MPU(Micro Processing Unit)、又は、DSP(Digital Signal Processor)を含んでもよい。 In this example, the processing device 141 is a CPU (Central Processing Unit). The processing device 141 may include an MPU (Micro Processing Unit) or a DSP (Digital Signal Processor) in place of the CPU or in addition to the CPU.

本例では、記憶装置142は、揮発性メモリと不揮発性メモリとを含む。例えば、記憶装置142は、RAM(Random Access Memory)、ROM(Read Only Memory)、半導体メモリ、有機メモリ、HDD(Hard Disk Drive)、及び、SSD(Solid State Drive)の少なくとも1つを含む。 In this example, the storage device 142 includes a volatile memory and a non-volatile memory. For example, the storage device 142 includes at least one of a RAM (Random Access Memory), a ROM (Read Only Memory), a semiconductor memory, an organic memory, an HDD (Hard Disk Drive), and an SSD (Solid State Drive).

出力装置143は、検出装置1の外部に情報を出力する。本例では、出力装置143は、ディスプレイを備える。なお、出力装置143は、スピーカを備えてもよい。 The output device 143 outputs information to the outside of the detection device 1. In this example, the output device 143 includes a display. The output device 143 may include a speaker.

(機能)
図4に表されるように、検出部14の機能は、y方向直線境界位置取得部1401と、y方向直線基準値取得部1402と、x方向変動量取得部1403と、スペクトル解析部1404と、振動検出部1405と、傾斜直線境界位置取得部1406と、傾斜直線基準値取得部1407と、y方向変動量取得部1408と、平行直線境界位置取得部1409と、距離基準値取得部1410と、z方向変動量取得部1411と、を含む。
(function)
As shown in FIG. 4, the functions of the detection unit 14 include the y-direction straight line boundary position acquisition unit 1401, the y-direction linear reference value acquisition unit 1402, the x-direction fluctuation amount acquisition unit 1403, and the spectrum analysis unit 1404. , Vibration detection unit 1405, inclined straight line boundary position acquisition unit 1406, inclined straight line reference value acquisition unit 1407, y-direction fluctuation amount acquisition unit 1408, parallel straight line boundary position acquisition unit 1409, distance reference value acquisition unit 1410. , Z-direction fluctuation amount acquisition unit 1411 and.

本例では、検出部14は、撮像部13により出力された画像に対して、規格化処理、及び、二値化処理を行う。本例では、検出部14は、規格化処理、及び、二値化処理が行われた後の画像(換言すると、補正後の画像)に対して、図4に表される各部1401〜1411の機能を実行する。 In this example, the detection unit 14 performs standardization processing and binarization processing on the image output by the imaging unit 13. In this example, the detection unit 14 refers to each unit 1401 to 1411 shown in FIG. 4 with respect to the image after the standardization processing and the binarization processing (in other words, the corrected image). Perform the function.

規格化処理は、画像に含まれるM・N個の画素のそれぞれに対して、当該画素が表す値を規格化する処理である。本例では、検出部14は、M・N個の画素がそれぞれ表す、M・N個の値のうちの最大値を取得し、M・N個の画素がそれぞれ表す、M・N個の値のそれぞれを、当該取得した最大値により除した値に所定の係数(本例では、0よりも大きい値、例えば、255)を乗じることにより、当該値を規格化する。規格化は、正規化と表されてもよい。 The standardization process is a process of standardizing the value represented by each of the MN pixels included in the image. In this example, the detection unit 14 acquires the maximum value among the MN values represented by the MN pixels, and the MN values represented by the MN pixels, respectively. Each of the above is standardized by multiplying the value obtained by dividing by the acquired maximum value by a predetermined coefficient (in this example, a value larger than 0, for example, 255). Normalization may be expressed as normalization.

二値化処理において、検出部14は、画像に含まれるM・N個の画素のそれぞれに対して、当該画素が表し且つ規格化された値が、所定の補正閾値以上である場合、当該値を第1値に補正し、一方、当該画素が表し且つ規格化された値が、当該補正閾値よりも小さい場合、当該値を第2値に補正する。本例では、第1値は、第2値よりも大きい。第1値及び第2値は、予め定められる。 In the binarization process, the detection unit 14 sets the value for each of the MN pixels included in the image when the value represented and standardized by the pixel is equal to or more than a predetermined correction threshold value. On the other hand, when the value represented and standardized by the pixel is smaller than the correction threshold value, the value is corrected to the second value. In this example, the first value is larger than the second value. The first value and the second value are predetermined.

なお、検出部14は、二値化処理に代えて、画像に含まれる所定の領域毎に補正閾値を決定する適応二値化処理を行ってもよい。また、検出部14は、規格化処理、及び、二値化処理の少なくとも一方を行わなくてもよい。 In addition, instead of the binarization process, the detection unit 14 may perform an adaptive binarization process for determining a correction threshold value for each predetermined region included in the image. Further, the detection unit 14 does not have to perform at least one of the standardization process and the binarization process.

y方向直線境界位置取得部1401は、M個の行画素群から、マーカ部11のうちの、y軸方向における両端部(本例では、第1直線部1121のy軸方向における両端部を含む部分)を除いた部分に対応する、P個の行画素群を抽出する。Pは、Mよりも小さい整数を表す。 The y-direction linear boundary position acquisition unit 1401 includes both ends of the marker unit 11 in the y-axis direction (in this example, both ends of the first straight-line unit 1121 in the y-axis direction) from the M row pixel group. A group of P row pixels corresponding to the portion excluding the portion) is extracted. P represents an integer smaller than M.

y方向直線境界位置取得部1401は、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、y方向直線境界位置を取得する。本例では、y方向直線境界位置は、第1直線部1121のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置に対応する。 The y-direction linear boundary position acquisition unit 1401 acquires the y-direction linear boundary position for each of the P row pixel groups based on the N pixels included in the row pixel group. In this example, the y-direction straight line boundary position corresponds to the position of the boundary between the end side of the first straight line portion 1121 in the negative direction of the x-axis and the second region 112.

なお、y方向直線境界位置は、第1直線部1121のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置に対応してもよい。また、y方向直線境界位置は、第1直線部1121のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置と、第1直線部1121のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置と、の中点の位置に対応してもよい。また、y方向直線境界位置取得部1401は、第1直線部1121に代えて、又は、第1直線部1121に加えて、第2直線部1122を用いてもよい。 The straight line boundary position in the y direction may correspond to the position of the boundary between the end side of the first straight line portion 1121 in the positive direction of the x-axis and the second region 112. Further, the y-direction straight line boundary position is the position of the boundary between the end side of the first straight line portion 1121 in the negative direction of the x-axis and the second region 112, and the x of the first straight line portion 1121. It may correspond to the position of the boundary between the end side in the positive direction of the axis and the second region 112, and the position of the midpoint. Further, the y-direction straight line boundary position acquisition unit 1401 may use the second straight line portion 1122 in place of the first straight line portion 1121 or in addition to the first straight line portion 1121.

本例では、y方向直線境界位置取得部1401は、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、第2値が連続する第2値領域と、当該第2値領域に、当該第2値領域よりもx軸の正方向の位置にて隣接し且つ第1値が連続する第1値領域と、の境界の中で、x軸の負方向における端からx軸の正方向へ向かって1番目の境界の位置をy方向直線境界位置として取得する。 In this example, the y-direction linear boundary position acquisition unit 1401 has a second value in which the second value of the N pixels included in the row pixel group is continuous with respect to each of the P row pixel groups. Within the boundary between the region and the first value region that is adjacent to the second value region at a position in the positive direction of the x-axis from the second value region and the first value is continuous, the x-axis The position of the first boundary from the end in the negative direction toward the positive direction of the x-axis is acquired as the linear boundary position in the y direction.

y方向直線基準値取得部1402は、y方向直線境界位置取得部1401により取得されたP個のy方向直線境界位置に基づいて、P個の行画素群のそれぞれに対するy方向直線基準値を取得する。 The y-direction straight line reference value acquisition unit 1402 acquires the y-direction straight line reference value for each of the P row pixel groups based on the P y-direction straight line boundary positions acquired by the y-direction straight line boundary position acquisition unit 1401. To do.

本例では、y方向直線基準値取得部1402は、y軸方向にて延びるとともに、y方向直線境界位置取得部1401により取得されたP個のy方向直線境界位置に対する距離の総和が最小である直線を基準直線として取得する。なお、y方向直線基準値取得部1402は、y軸方向にて延びるとともに、y方向直線境界位置取得部1401により取得されたP個のy方向直線境界位置に対する距離の二乗の総和が最小である直線を基準直線として取得してもよい。 In this example, the y-direction linear reference value acquisition unit 1402 extends in the y-axis direction, and the total distance to the P y-direction linear boundary positions acquired by the y-direction linear boundary position acquisition unit 1401 is the minimum. Get a straight line as a reference straight line. The y-direction linear reference value acquisition unit 1402 extends in the y-axis direction, and the sum of the squares of the distances with respect to the P y-direction linear boundary positions acquired by the y-direction linear boundary position acquisition unit 1401 is the minimum. A straight line may be acquired as a reference straight line.

y方向直線基準値取得部1402は、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、取得された基準直線と交差する画素の位置を、y方向直線基準値として取得する。 The y-direction straight line reference value acquisition unit 1402 determines the positions of the pixels intersecting the acquired reference line among the N pixels included in the row pixel group for each of the P row pixel groups. Obtained as a linear reference value in the y direction.

x方向変動量取得部1403は、y方向直線境界位置取得部1401により取得されたP個のy方向直線境界位置と、y方向直線基準値取得部1402により取得されたP個のy方向直線基準値と、に基づいて、P個の行画素群のそれぞれに対するx方向変動量を取得する。本例では、x方向変動量は、y方向直線境界位置とy方向直線基準値との、x軸方向における位置の差である。 The x-direction fluctuation amount acquisition unit 1403 has P y-direction linear boundary positions acquired by the y-direction linear boundary position acquisition unit 1401 and P y-direction linear reference units acquired by the y-direction linear reference value acquisition unit 1402. Based on the value, the amount of variation in the x-direction for each of the P row pixel groups is acquired. In this example, the amount of fluctuation in the x direction is the difference in position between the y-direction straight line boundary position and the y-direction straight line reference value in the x-axis direction.

スペクトル解析部1404は、x方向変動量取得部1403により取得されたP個のx方向変動量に対してスペクトル解析を行う。本例では、各画素のy軸方向における位置は、当該画素が表す値の基となった光が撮像部13に入射する時間に対応する。従って、本例では、x方向変動量の、y軸方向における変化は、x方向変動量の時間に対する変化に対応する。 The spectrum analysis unit 1404 performs spectrum analysis on the P x-direction fluctuation amounts acquired by the x-direction fluctuation amount acquisition unit 1403. In this example, the position of each pixel in the y-axis direction corresponds to the time when the light on which the value represented by the pixel is based is incident on the imaging unit 13. Therefore, in this example, the change in the x-direction fluctuation amount in the y-axis direction corresponds to the change in the x-direction fluctuation amount with time.

例えば、図5に表されるように、対象物TGがx軸方向にて振動している場合を想定する。この場合、例えば、y方向直線境界位置は、曲線L11により表されるように、x軸方向にて変動する波線上に位置する。従って、直線L10により表される基準直線上のy方向直線基準値と、y方向直線境界位置と、のx軸方向における位置の差であるx方向変動量の、y軸方向における変化は、対象物TGのx軸方向における振動を高い精度にて反映する。 For example, as shown in FIG. 5, it is assumed that the object TG vibrates in the x-axis direction. In this case, for example, the linear boundary position in the y direction is located on a wavy line that fluctuates in the x-axis direction as represented by the curve L11. Therefore, the change in the y-axis direction of the x-direction fluctuation amount, which is the difference between the y-direction straight line reference value on the reference straight line represented by the straight line L10 and the y-direction straight line boundary position in the x-axis direction, is a target. Reflects the vibration of the object TG in the x-axis direction with high accuracy.

また、対象物TGがy軸方向にて振動している場合であっても、基準直線がy軸方向にて延びているので、y軸方向における振動は、x方向変動量に反映されにくい。従って、x方向変動量の、y軸方向における変化は、対象物TGのx軸方向における振動を高い精度にて反映できる。 Further, even when the object TG vibrates in the y-axis direction, the reference straight line extends in the y-axis direction, so that the vibration in the y-axis direction is not easily reflected in the amount of fluctuation in the x-direction. Therefore, the change in the amount of fluctuation in the x-direction in the y-axis direction can reflect the vibration of the object TG in the x-axis direction with high accuracy.

本例では、スペクトル解析部1404は、P個のx方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことにより、x方向変動量の時間に対する変化の周波数成分であるx方向変動周波数成分を取得する。 In this example, the spectrum analysis unit 1404 performs Fourier transform processing, wavelet transform processing, or the like on P x-direction fluctuation amounts, so that the x-direction fluctuation frequency is a frequency component of the change of the x-direction fluctuation amount with respect to time. Get the ingredients.

振動検出部1405は、スペクトル解析部1404により取得されたx方向変動周波数成分に基づいて、対象物TGのx軸方向における振動を検出する。例えば、振動検出部1405は、所定の周波数成分の強度が、所定の閾値強度以上である場合、対象物TGがx軸方向において振動していると検出してよい。 The vibration detection unit 1405 detects the vibration of the object TG in the x-axis direction based on the x-direction fluctuation frequency component acquired by the spectrum analysis unit 1404. For example, the vibration detection unit 1405 may detect that the object TG is vibrating in the x-axis direction when the intensity of the predetermined frequency component is equal to or higher than the predetermined threshold intensity.

振動検出部1405は、対象物TGがx軸方向において振動していると検出された場合、対象物TGがx軸方向において振動していることを表す情報を出力する。なお、振動検出部1405は、当該情報の出力に加えて、又は、当該情報の出力に代えて、スペクトル解析部1404により取得されたx方向変動周波数成分を出力してもよい。 When it is detected that the object TG is vibrating in the x-axis direction, the vibration detection unit 1405 outputs information indicating that the object TG is vibrating in the x-axis direction. The vibration detection unit 1405 may output the x-direction fluctuation frequency component acquired by the spectrum analysis unit 1404 in addition to or instead of the output of the information.

傾斜直線境界位置取得部1406は、M個の行画素群から、マーカ部11のうちの、y軸方向における両端部(本例では、第1直線部1121のy軸方向における両端部を含む部分)を除いた部分に対応する、Q個の行画素群を抽出する。Qは、Mよりも小さい整数を表す。本例では、Qが表す整数は、Pが表す整数と等しい。なお、Qが表す整数は、Pが表す整数と異なっていてもよい。 The inclined straight line boundary position acquisition unit 1406 is a portion of the marker unit 11 including both ends in the y-axis direction (in this example, both ends of the first straight line unit 1121 in the y-axis direction) from the group of M row pixels. ) Is excluded, and Q row pixel groups corresponding to the portion are extracted. Q represents an integer smaller than M. In this example, the integer represented by Q is equal to the integer represented by P. The integer represented by Q may be different from the integer represented by P.

傾斜直線境界位置取得部1406は、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、傾斜直線境界位置を取得する。本例では、傾斜直線境界位置は、第3直線部1123のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置に対応する。 The inclined straight line boundary position acquisition unit 1406 acquires the inclined straight line boundary position for each of the Q row pixel groups based on the N pixels included in the row pixel group. In this example, the inclined straight line boundary position corresponds to the position of the boundary between the end side of the third straight line portion 1123 in the negative direction of the x-axis and the second region 112.

なお、傾斜直線境界位置は、第3直線部1123のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置に対応してもよい。また、傾斜直線境界位置は、第3直線部1123のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置と、第3直線部1123のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置と、の中点の位置に対応してもよい。 The inclined straight line boundary position may correspond to the position of the boundary between the end side of the third straight line portion 1123 in the positive direction of the x-axis and the second region 112. Further, the inclined straight line boundary position is the position of the boundary between the end side in the negative direction of the x-axis of the third straight line portion 1123 and the second region 112, and the x-axis of the third straight line portion 1123. It may correspond to the position of the boundary between the end edge in the positive direction and the second region 112 and the position of the midpoint.

本例では、傾斜直線境界位置取得部1406は、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、第2値が連続する第2値領域と、当該第2値領域に、当該第2値領域よりもx軸の正方向の位置にて隣接し且つ第1値が連続する第1値領域と、の境界の中で、x軸の負方向における端からx軸の正方向へ向かって2番目の境界の位置を傾斜直線境界位置として取得する。 In this example, the inclined straight line boundary position acquisition unit 1406 has a second value region in which the second value of the N pixels included in the row pixel group is continuous with respect to each of the Q row pixel groups. And the negative of the x-axis within the boundary between the second value region and the first value region which is adjacent to the second value region at a position in the positive direction of the x-axis and the first value is continuous. The position of the second boundary from the end in the direction toward the positive direction of the x-axis is acquired as the inclined straight line boundary position.

傾斜直線境界位置取得部1406は、取得されたQ個の傾斜直線境界位置を、x方向変動量取得部1403により取得されたx方向変動量に基づいて補正する。本例では、傾斜直線境界位置取得部1406は、Q個の行画素群のそれぞれに対して、取得された傾斜直線境界位置を、x方向変動量取得部1403により取得されたx方向変動量が表す方向と逆の方向へ、当該x方向変動量が表す大きさだけ移動させるように、当該傾斜直線境界位置を補正する。換言すると、傾斜直線境界位置取得部1406は、Q個の行画素群のそれぞれに対して、x方向変動量を打ち消すように傾斜直線境界位置を補正する。 The inclined straight line boundary position acquisition unit 1406 corrects the acquired Q inclined straight line boundary positions based on the x-direction fluctuation amount acquired by the x-direction fluctuation amount acquisition unit 1403. In this example, the inclined straight line boundary position acquisition unit 1406 obtains the acquired inclined straight line boundary position for each of the Q row pixel groups, and the x-direction fluctuation amount acquired by the x-direction fluctuation amount acquisition unit 1403 is used. The inclined straight line boundary position is corrected so as to move in the direction opposite to the expressed direction by the amount indicated by the x-direction fluctuation amount. In other words, the inclined straight line boundary position acquisition unit 1406 corrects the inclined straight line boundary position so as to cancel the amount of fluctuation in the x direction for each of the Q row pixel groups.

傾斜直線基準値取得部1407は、傾斜直線境界位置取得部1406により補正されたQ個の傾斜直線境界位置に基づいて、Q個の行画素群のそれぞれに対する傾斜直線基準値を取得する。 The inclined straight line reference value acquisition unit 1407 acquires the inclined straight line reference value for each of the Q row pixel groups based on the Q inclined straight line boundary positions corrected by the inclined straight line boundary position acquisition unit 1406.

本例では、傾斜直線基準値取得部1407は、所定の傾斜方向にて延びるとともに、傾斜直線境界位置取得部1406により補正されたQ個の傾斜直線境界位置に対する距離の総和が最小である直線を基準直線として取得する。傾斜方向は、y軸方向に対して傾斜する方向である。本例では、傾斜方向は、y軸方向に対して45度だけ傾斜する方向である。なお、傾斜直線基準値取得部1407は、傾斜方向にて延びるとともに、傾斜直線境界位置取得部1406により補正されたQ個の傾斜直線境界位置に対する距離の二乗の総和が最小である直線を基準直線として取得してもよい。 In this example, the tilt straight line reference value acquisition unit 1407 extends in a predetermined tilt direction and draws a straight line having the minimum total distance to the Q tilt straight line boundary positions corrected by the tilt straight line boundary position acquisition unit 1406. Obtained as a reference straight line. The tilting direction is a direction of tilting with respect to the y-axis direction. In this example, the tilting direction is a direction that is tilted by 45 degrees with respect to the y-axis direction. The tilt straight line reference value acquisition unit 1407 extends in the tilt direction and uses a straight line having the smallest sum of squares of distances with respect to the Q tilt straight line boundary positions corrected by the tilt straight line boundary position acquisition unit 1406 as a reference straight line. May be obtained as.

傾斜直線基準値取得部1407は、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、取得された基準直線と交差する画素の位置を、傾斜直線基準値として取得する。 The tilt straight line reference value acquisition unit 1407 tilts the positions of the pixels intersecting the acquired reference straight line among the N pixels included in the row pixel group with respect to each of the Q row pixel groups. Obtained as a straight line reference value.

y方向変動量取得部1408は、傾斜直線境界位置取得部1406により補正されたQ個の傾斜直線境界位置と、傾斜直線基準値取得部1407により取得されたQ個の傾斜直線基準値と、に基づいて、Q個の行画素群のそれぞれに対するy方向変動量を取得する。 The y-direction fluctuation amount acquisition unit 1408 includes Q tilt straight line boundary positions corrected by the tilt straight line boundary position acquisition unit 1406 and Q tilt straight line reference values acquired by the tilt straight reference value acquisition unit 1407. Based on this, the amount of fluctuation in the y direction for each of the Q row pixel groups is acquired.

本例では、y方向変動量は、傾斜直線境界位置と傾斜直線基準値との、x軸方向における位置の差に、取得された基準直線とx軸方向とにより形成される角度の正接を乗じた値である。換言すると、y方向変動量は、傾斜直線境界位置取得部1406により補正されたQ個の傾斜直線境界位置のx軸方向における変動量に対応する。 In this example, the amount of fluctuation in the y direction is obtained by multiplying the difference in position between the inclined straight line boundary position and the inclined straight line reference value in the x-axis direction by the tangent of the angle formed by the acquired reference straight line and the x-axis direction. Value. In other words, the amount of fluctuation in the y direction corresponds to the amount of fluctuation in the x-axis direction of the Q inclined straight line boundary positions corrected by the inclined straight line boundary position acquisition unit 1406.

スペクトル解析部1404は、y方向変動量取得部1408により取得されたQ個のy方向変動量に対してスペクトル解析を行う。本例では、各画素のy軸方向における位置は、当該画素が表す値の基となった光が撮像部13に入射する時間に対応する。従って、本例では、y方向変動量の、y軸方向における変化は、y方向変動量の時間に対する変化に対応する。 The spectrum analysis unit 1404 performs spectrum analysis on the Q y-direction fluctuation amounts acquired by the y-direction fluctuation amount acquisition unit 1408. In this example, the position of each pixel in the y-axis direction corresponds to the time when the light on which the value represented by the pixel is based is incident on the imaging unit 13. Therefore, in this example, the change in the y-direction fluctuation amount in the y-axis direction corresponds to the change in the y-direction fluctuation amount with time.

例えば、図6に表されるように、対象物TGがy軸方向にて振動している場合を想定する。この場合、例えば、傾斜直線境界位置は、曲線L21により表されるように、x軸方向にて変動する波線上に位置する。従って、直線L20により表される基準直線上の傾斜直線基準値と、傾斜直線境界位置と、のx軸方向における位置の差を表すy方向変動量の、y軸方向における変化は、対象物TGのy軸方向における振動を高い精度にて反映する。 For example, as shown in FIG. 6, it is assumed that the object TG vibrates in the y-axis direction. In this case, for example, the inclined straight line boundary position is located on a wavy line that fluctuates in the x-axis direction as represented by the curve L21. Therefore, the change in the y-axis direction of the y-direction fluctuation amount representing the difference in position between the inclined straight line reference value on the reference straight line represented by the straight line L20 and the inclined straight line boundary position in the x-axis direction is the object TG. Reflects the vibration in the y-axis direction with high accuracy.

本例では、スペクトル解析部1404は、Q個のy方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことにより、y方向変動量の時間に対する変化の周波数成分であるy方向変動周波数成分を取得する。 In this example, the spectrum analysis unit 1404 performs Fourier transform processing, wavelet transform processing, or the like on Q y-direction fluctuation amounts, so that the y-direction fluctuation frequency is a frequency component of the change of the y-direction fluctuation amount with respect to time. Get the ingredients.

振動検出部1405は、スペクトル解析部1404により取得されたy方向変動周波数成分に基づいて、対象物TGのy軸方向における振動を検出する。例えば、振動検出部1405は、所定の周波数成分の強度が、所定の閾値強度以上である場合、対象物TGがy軸方向において振動していると検出してよい。 The vibration detection unit 1405 detects the vibration of the object TG in the y-axis direction based on the y-direction fluctuation frequency component acquired by the spectrum analysis unit 1404. For example, the vibration detection unit 1405 may detect that the object TG is vibrating in the y-axis direction when the intensity of the predetermined frequency component is equal to or higher than the predetermined threshold intensity.

振動検出部1405は、対象物TGがy軸方向において振動していると検出された場合、対象物TGがy軸方向において振動していることを表す情報を出力する。なお、振動検出部1405は、当該情報の出力に加えて、又は、当該情報の出力に代えて、スペクトル解析部1404により取得されたy方向変動周波数成分を出力してもよい。 When it is detected that the object TG is vibrating in the y-axis direction, the vibration detection unit 1405 outputs information indicating that the object TG is vibrating in the y-axis direction. The vibration detection unit 1405 may output the y-direction fluctuation frequency component acquired by the spectrum analysis unit 1404 in addition to or instead of the output of the information.

平行直線境界位置取得部1409は、M個の行画素群から、マーカ部11のうちの、y軸方向における両端部(本例では、第1直線部1121のy軸方向における両端部を含む部分)を除いた部分に対応する、R個の行画素群を抽出する。Rは、Mよりも小さい整数を表す。本例では、Rが表す整数は、Pが表す整数と等しい。なお、Rが表す整数は、Pが表す整数と異なっていてもよい。 The parallel straight line boundary position acquisition unit 1409 is a portion of the marker unit 11 including both ends in the y-axis direction (in this example, both ends of the first straight line unit 1121 in the y-axis direction) from the M row pixel group. ) Is extracted, and R row pixel groups corresponding to the portion excluding) are extracted. R represents an integer smaller than M. In this example, the integer represented by R is equal to the integer represented by P. The integer represented by R may be different from the integer represented by P.

平行直線境界位置取得部1409は、R個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、一対の平行直線境界位置を取得する。本例では、一対の平行直線境界位置は、第1直線部1121のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置、及び、第2直線部1122のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置に対応する。 The parallel straight line boundary position acquisition unit 1409 acquires a pair of parallel straight line boundary positions for each of the R row pixel groups based on the N pixels included in the row pixel group. In this example, the pair of parallel straight line boundary positions is the position of the boundary between the end side of the first straight line portion 1121 in the negative direction of the x-axis and the second region 112, and the second straight line portion 1122. It corresponds to the position of the boundary between the end edge in the negative direction of the x-axis and the second region 112.

なお、一対の平行直線境界位置は、第1直線部1121のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置、及び、第2直線部1122のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置に対応してもよい。 The pair of parallel straight line boundary positions is the position of the boundary between the end side of the first straight line portion 1121 in the positive direction of the x-axis and the second region 112, and the second straight line portion 1122. , It may correspond to the position of the boundary between the end side in the positive direction of the x-axis and the second region 112.

また、一対の平行直線境界位置は、第1直線部1121のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置と、第1直線部1121のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置と、の中点の位置、及び、第2直線部1122のうちの、x軸の負方向における端辺と、第2領域112と、の境界の位置と、第2直線部1122のうちの、x軸の正方向における端辺と、第2領域112と、の境界の位置と、の中点の位置に対応してもよい。 Further, the pair of parallel straight line boundary positions are the positions of the boundaries between the end side of the first straight line portion 1121 in the negative direction of the x-axis and the second region 112, and the first straight line portion 1121. The position of the boundary between the end in the positive direction of the x-axis and the second region 112, the position of the midpoint, and the end of the second straight line portion 1122 in the negative direction of the x-axis, and the second Corresponds to the position of the boundary between the two regions 112, the end of the second straight line portion 1122 in the positive direction of the x-axis, the position of the boundary between the second region 112, and the position of the midpoint. You may.

本例では、平行直線境界位置取得部1409は、R個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、第2値が連続する第2値領域と、当該第2値領域に、当該第2値領域よりもx軸の正方向の位置にて隣接し且つ第1値が連続する第1値領域と、の境界の中で、x軸の負方向における端からx軸の正方向へ向かって、1番目の境界の位置、及び、3番目の境界の位置を一対の平行直線境界位置として取得する。 In this example, the parallel straight line boundary position acquisition unit 1409 has a second value region in which the second value of the N pixels included in the row pixel group is continuous with respect to each of the R row pixel groups. And the negative of the x-axis within the boundary between the second value region and the first value region which is adjacent to the second value region at a position in the positive direction of the x-axis and the first value is continuous. The position of the first boundary and the position of the third boundary are acquired as a pair of parallel straight line boundary positions from the end in the direction toward the positive direction of the x-axis.

平行直線境界位置取得部1409は、取得されたR組の一対の平行直線境界位置を、x方向変動量取得部1403により取得されたx方向変動量と、y方向変動量取得部1408により取得されたy方向変動量と、に基づいて補正する。 The parallel straight line boundary position acquisition unit 1409 acquires the acquired pair of parallel straight line boundary positions of the R group by the x-direction fluctuation amount acquired by the x-direction fluctuation amount acquisition unit 1403 and the y-direction fluctuation amount acquisition unit 1408. Correction is made based on the amount of fluctuation in the y direction.

本例では、平行直線境界位置取得部1409は、R個の行画素群のそれぞれに対して、取得された一対の平行直線境界位置を、x方向変動量取得部1403により取得されたx方向変動量が表す方向と逆の方向へ、当該x方向変動量が表す大きさだけ移動させるとともに、当該一対の平行直線境界位置を、y方向変動量取得部1408により取得されたy方向変動量に、y方向変動量取得部1408により取得された基準直線とx軸方向とにより形成される角度の余接を乗じた値が表す方向と逆の方向へ、当該値が表す大きさだけ移動させるように、当該一対の平行直線境界位置を補正する。換言すると、本例では、平行直線境界位置取得部1409は、R個の行画素群のそれぞれに対して、x方向変動量、及び、y方向変動量が取得される基となった傾斜直線境界位置のx軸方向における変動量を打ち消すように一対の平行直線境界位置を補正する。 In this example, the parallel straight line boundary position acquisition unit 1409 changes the acquired pair of parallel straight line boundary positions for each of the R row pixel groups in the x-direction, which is acquired by the x-direction fluctuation amount acquisition unit 1403. The pair of parallel straight line boundary positions are moved in the direction opposite to the direction indicated by the amount by the magnitude indicated by the x-direction fluctuation amount, and the y-direction fluctuation amount acquired by the y-direction fluctuation amount acquisition unit 1408 is set. Move by the amount represented by the value in the direction opposite to the direction represented by the value obtained by multiplying the margin of the angle formed by the reference straight line acquired by the y-direction fluctuation amount acquisition unit 1408 and the x-axis direction. , Correct the pair of parallel straight line boundary positions. In other words, in this example, the parallel straight line boundary position acquisition unit 1409 is the inclined straight line boundary from which the x-direction fluctuation amount and the y-direction fluctuation amount are acquired for each of the R row pixel groups. The pair of parallel straight line boundary positions are corrected so as to cancel the fluctuation amount of the position in the x-axis direction.

距離基準値取得部1410は、平行直線境界位置取得部1409により補正されたR組の一対の平行直線境界位置に基づいて、R個の行画素群のそれぞれに対する距離基準値を取得する。 The distance reference value acquisition unit 1410 acquires the distance reference value for each of the R row pixel groups based on the pair of parallel straight line boundary positions of the R group corrected by the parallel straight line boundary position acquisition unit 1409.

本例では、距離基準値取得部1410は、平行直線境界位置取得部1409により補正されたR組の一対の平行直線境界位置のそれぞれに対して、当該一対の平行直線境界位置の間の距離を取得する。距離基準値取得部1410は、取得されたR個の距離の平均値を、R個の行画素群のそれぞれに対する距離基準値として取得する。 In this example, the distance reference value acquisition unit 1410 determines the distance between the pair of parallel straight line boundary positions for each of the pair of parallel straight line boundary positions of the R group corrected by the parallel straight line boundary position acquisition unit 1409. get. The distance reference value acquisition unit 1410 acquires the average value of the acquired R distances as the distance reference value for each of the R row pixel groups.

z方向変動量取得部1411は、平行直線境界位置取得部1409により補正されたR組の一対の平行直線境界位置のそれぞれに対して、当該一対の平行直線境界位置の間の距離を取得する。z方向変動量取得部1411は、取得されたR個の距離と、距離基準値取得部1410により取得された距離基準値と、に基づいて、R個の行画素群のそれぞれに対するz方向変動量を取得する。 The z-direction fluctuation amount acquisition unit 1411 acquires the distance between the pair of parallel straight line boundary positions for each of the pair of parallel straight line boundary positions of the R group corrected by the parallel straight line boundary position acquisition unit 1409. The z-direction fluctuation amount acquisition unit 1411 has the z-direction fluctuation amount for each of the R row pixel groups based on the acquired R distances and the distance reference value acquired by the distance reference value acquisition unit 1410. To get.

図7に表されるように、マーカ部11のz軸方向における位置が基準位置P0から変動位置P1へ変動した場合を想定する。本例では、変動位置P1と撮像部13との間の距離hは、基準位置P0と撮像部13との間の距離hよりも長い。従って、マーカ部11のうちの所定の領域VAの画像における大きさは、マーカ部11の位置が基準位置P0から変動位置P1へ変動することにより、縮小する。 As shown in FIG. 7, it is assumed that the position of the marker portion 11 in the z-axis direction fluctuates from the reference position P0 to the fluctuating position P1. In this example, the distance h 1 between the fluctuating position P1 and the imaging unit 13 is longer than the distance h 0 between the reference position P0 and the imaging unit 13. Therefore, the size of the predetermined region VA in the marker portion 11 in the image is reduced by changing the position of the marker portion 11 from the reference position P0 to the fluctuation position P1.

マーカ部11の位置が変動位置P1である場合において取得される、一対の平行直線境界位置の間の距離dは、数式1により表される。ここで、dは、マーカ部11の位置が基準位置P0である場合において取得される、一対の平行直線境界位置の間の距離を表す。

Figure 2021071464
The distance d 1 between the pair of parallel straight line boundary positions acquired when the position of the marker portion 11 is the variable position P1 is expressed by the mathematical formula 1. Here, d 0 represents the distance between the pair of parallel straight line boundary positions acquired when the position of the marker portion 11 is the reference position P0.
Figure 2021071464

z方向変動量Δzは、基準位置P0と撮像部13との間の距離hと、変動位置P1と撮像部13との間の距離hと、の差である。従って、z方向変動量Δzは、数式1を用いて、数式2により表される。

Figure 2021071464
z-direction variation amount Δz is the distance h 0 between the reference position P0 and the imaging unit 13, which is the difference between the distance h 1, between the change position P1 and the imaging unit 13. Therefore, the amount of variation Δz in the z direction is expressed by the mathematical formula 2 using the mathematical formula 1.
Figure 2021071464

本例では、z方向変動量取得部1411は、R個の行画素群のそれぞれに対して、対象物TGが振動していない状態において測定されたマーカ部11と撮像部13との間の距離hと、距離基準値取得部1410により取得された距離基準値dと、当該行画素群に対して取得された、一対の平行直線境界位置の間の距離dと、数式2と、に基づいて、z方向変動量Δzを取得する。 In this example, the z-direction fluctuation amount acquisition unit 1411 is the distance between the marker unit 11 and the imaging unit 13 measured in a state where the object TG is not vibrating for each of the R row pixel groups. h 0 , the distance reference value d 0 acquired by the distance reference value acquisition unit 1410 , the distance d 1 between the pair of parallel straight line boundary positions acquired for the row pixel group, the equation 2 and Based on, the amount of variation Δz in the z direction is acquired.

スペクトル解析部1404は、z方向変動量取得部1411により取得されたR個のz方向変動量Δzに対してスペクトル解析を行う。本例では、各画素のy軸方向における位置は、当該画素が表す値の基となった光が撮像部13に入射する時間に対応する。従って、本例では、z方向変動量Δzの、y軸方向における変化は、z方向変動量Δzの時間に対する変化に対応する。 The spectrum analysis unit 1404 performs spectrum analysis on the R z-direction fluctuation amounts Δz acquired by the z-direction fluctuation amount acquisition unit 1411. In this example, the position of each pixel in the y-axis direction corresponds to the time when the light on which the value represented by the pixel is based is incident on the imaging unit 13. Therefore, in this example, the change in the z-direction fluctuation amount Δz in the y-axis direction corresponds to the change in the z-direction fluctuation amount Δz with respect to time.

例えば、図8に表されるように、対象物TGがz軸方向にて振動している場合を想定する。この場合、例えば、一対の平行直線境界位置は、一対の曲線L31により表されるように、x軸方向における当該一対の平行直線境界位置の間の距離dが変動する一対の波線上にそれぞれ位置する。従って、距離基準値dと、一対の平行直線境界位置の間の距離dと、数式2と、に基づいて取得されるz方向変動量Δzの、y軸方向における変化は、対象物TGのz軸方向における振動を高い精度にて反映する。 For example, as shown in FIG. 8, it is assumed that the object TG vibrates in the z-axis direction. In this case, for example, the pair of parallel straight line boundary positions are on a pair of wavy lines in which the distance d 1 between the pair of parallel straight line boundary positions in the x-axis direction varies, as represented by the pair of curves L31. To position. Therefore, the change in the z-direction fluctuation amount Δz obtained based on the distance reference value d 0 , the distance d 1 between the pair of parallel straight line boundary positions, and the mathematical formula 2 in the y-axis direction is the object TG. Reflects the vibration in the z-axis direction with high accuracy.

本例では、スペクトル解析部1404は、R個のz方向変動量Δzに対してフーリエ変換処理又はウェーブレット変換処理等を行うことにより、z方向変動量Δzの時間に対する変化の周波数成分であるz方向変動周波数成分を取得する。 In this example, the spectrum analysis unit 1404 performs Fourier transform processing, wavelet transform processing, or the like on R z-direction fluctuation amounts Δz, thereby performing z-direction fluctuation amount Δz, which is a frequency component of the change with time. Get the fluctuating frequency component.

振動検出部1405は、スペクトル解析部1404により取得されたz方向変動周波数成分に基づいて、対象物TGのz軸方向における振動を検出する。例えば、振動検出部1405は、所定の周波数成分の強度が、所定の閾値強度以上である場合、対象物TGがz軸方向において振動していると検出してよい。 The vibration detection unit 1405 detects the vibration of the object TG in the z-axis direction based on the z-direction fluctuation frequency component acquired by the spectrum analysis unit 1404. For example, the vibration detection unit 1405 may detect that the object TG is vibrating in the z-axis direction when the intensity of the predetermined frequency component is equal to or higher than the predetermined threshold intensity.

振動検出部1405は、対象物TGがz軸方向において振動していると検出された場合、対象物TGがz軸方向において振動していることを表す情報を出力する。なお、振動検出部1405は、当該情報の出力に加えて、又は、当該情報の出力に代えて、スペクトル解析部1404により取得されたz方向変動周波数成分を出力してもよい。 When it is detected that the object TG is vibrating in the z-axis direction, the vibration detection unit 1405 outputs information indicating that the object TG is vibrating in the z-axis direction. The vibration detection unit 1405 may output the z-direction fluctuation frequency component acquired by the spectrum analysis unit 1404 in addition to or instead of the output of the information.

本例では、y方向直線境界位置、傾斜直線境界位置、及び、一対の平行直線境界位置のそれぞれは、境界位置に対応する。本例では、y方向直線基準値、傾斜直線基準値、及び、距離基準値のそれぞれは、基準値に対応する。 In this example, the y-direction straight line boundary position, the inclined straight line boundary position, and the pair of parallel straight line boundary positions each correspond to the boundary position. In this example, the y-direction straight line reference value, the inclined straight line reference value, and the distance reference value each correspond to the reference value.

(動作)
次に、検出装置1の動作について、図9乃至図11を参照しながら説明する。
光源部12は、光を生成する。光源部12により生成された光は、マーカ部11を照射する。次いで、撮像部13は、マーカ部11を含む対象物TGの少なくとも一部を撮影することにより画像を出力する。次いで、検出部14は、撮像部13により出力された画像に対して、規格化処理、及び、二値化処理を行う。
(motion)
Next, the operation of the detection device 1 will be described with reference to FIGS. 9 to 11.
The light source unit 12 generates light. The light generated by the light source unit 12 irradiates the marker unit 11. Next, the imaging unit 13 outputs an image by photographing at least a part of the object TG including the marker unit 11. Next, the detection unit 14 performs standardization processing and binarization processing on the image output by the imaging unit 13.

次いで、検出部14は、図9にフローチャートにより表される処理を実行する。以下、図9の処理について説明を加える。
検出部14は、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、y方向直線境界位置を取得する(図9のステップS101)。
Next, the detection unit 14 executes the process represented by the flowchart in FIG. Hereinafter, the processing of FIG. 9 will be described.
The detection unit 14 acquires a linear boundary position in the y direction for each of the P row pixel groups based on the N pixels included in the row pixel group (step S101 in FIG. 9).

次いで、検出部14は、ステップS101にて取得されたP個のy方向直線境界位置に基づいて、P個の行画素群のそれぞれに対するy方向直線基準値を取得する(図9のステップS102)。 Next, the detection unit 14 acquires y-direction linear reference values for each of the P row pixel groups based on the P y-direction linear boundary positions acquired in step S101 (step S102 in FIG. 9). ..

次いで、検出部14は、ステップS101にて取得されたP個のy方向直線境界位置と、ステップS102にて取得されたP個のy方向直線基準値と、に基づいて、P個の行画素群のそれぞれに対するx方向変動量を取得する(図9のステップS103)。 Next, the detection unit 14 has P row pixels based on the P y-direction straight line boundary positions acquired in step S101 and the P y-direction linear reference values acquired in step S102. The amount of variation in the x-direction for each of the groups is acquired (step S103 in FIG. 9).

次いで、検出部14は、ステップS103にて取得されたP個のx方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことによりx方向変動周波数成分を取得する(図9のステップS104)。
次いで、検出部14は、ステップS104にて取得されたx方向変動周波数成分に基づいて、対象物TGのx軸方向における振動を検出する(図9のステップS105)。
このようにして、検出部14は、図9の処理を実行する。
Next, the detection unit 14 acquires the x-direction fluctuation frequency component by performing Fourier transform processing, wavelet transform processing, or the like on the P x-direction fluctuation amounts acquired in step S103 (step S104 in FIG. 9). ).
Next, the detection unit 14 detects the vibration of the object TG in the x-axis direction based on the x-direction fluctuation frequency component acquired in step S104 (step S105 in FIG. 9).
In this way, the detection unit 14 executes the process shown in FIG.

次いで、検出部14は、図10にフローチャートにより表される処理を実行する。以下、図10の処理について説明を加える。
検出部14は、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、傾斜直線境界位置を取得する(図10のステップS201)。
Next, the detection unit 14 executes the process represented by the flowchart in FIG. Hereinafter, the processing of FIG. 10 will be described.
The detection unit 14 acquires the inclined straight line boundary position for each of the Q row pixel groups based on the N pixels included in the row pixel group (step S201 in FIG. 10).

次いで、検出部14は、ステップS201にて取得されたQ個の傾斜直線境界位置を、図9のステップS103にて取得されたx方向変動量に基づいて補正する(図10のステップS202)。
次いで、検出部14は、ステップS202にて補正されたQ個の傾斜直線境界位置に基づいて、Q個の行画素群のそれぞれに対する傾斜直線基準値を取得する(図10のステップS203)。
Next, the detection unit 14 corrects the Q inclined straight line boundary positions acquired in step S201 based on the amount of fluctuation in the x direction acquired in step S103 of FIG. 9 (step S202 of FIG. 10).
Next, the detection unit 14 acquires the tilt straight line reference value for each of the Q row pixel groups based on the Q tilt straight line boundary positions corrected in step S202 (step S203 in FIG. 10).

次いで、検出部14は、ステップS202にて補正されたQ個の傾斜直線境界位置と、ステップS203にて取得されたQ個の傾斜直線基準値と、に基づいて、Q個の行画素群のそれぞれに対するy方向変動量を取得する(図10のステップS204)。 Next, the detection unit 14 sets the Q row pixel group based on the Q tilt straight line boundary positions corrected in step S202 and the Q tilt straight line reference values acquired in step S203. The amount of fluctuation in the y direction for each is acquired (step S204 in FIG. 10).

次いで、検出部14は、ステップS204にて取得されたQ個のy方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことによりy方向変動周波数成分を取得する(図10のステップS205)。
次いで、検出部14は、ステップS205にて取得されたy方向変動周波数成分に基づいて、対象物TGのy軸方向における振動を検出する(図10のステップS206)。
このようにして、検出部14は、図10の処理を実行する。
Next, the detection unit 14 acquires the y-direction fluctuation frequency component by performing Fourier transform processing, wavelet transform processing, or the like on the Q y-direction fluctuation amounts acquired in step S204 (step S205 in FIG. 10). ).
Next, the detection unit 14 detects the vibration of the object TG in the y-axis direction based on the y-direction fluctuation frequency component acquired in step S205 (step S206 in FIG. 10).
In this way, the detection unit 14 executes the process shown in FIG.

次いで、検出部14は、図11にフローチャートにより表される処理を実行する。以下、図11の処理について説明を加える。
検出部14は、R個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、一対の平行直線境界位置を取得する(図11のステップS301)。
Next, the detection unit 14 executes the process represented by the flowchart in FIG. Hereinafter, the processing of FIG. 11 will be described.
The detection unit 14 acquires a pair of parallel linear boundary positions for each of the R row pixel groups based on the N pixels included in the row pixel group (step S301 in FIG. 11).

次いで、検出部14は、ステップS301にて取得されたR組の一対の平行直線境界位置を、図9のステップS103にて取得されたx方向変動量と、図10のステップS202にて取得されたy方向変動量と、に基づいて補正する(図11のステップS302)。
次いで、検出部14は、ステップS302にて補正されたR組の一対の平行直線境界位置に基づいて、R個の行画素群のそれぞれに対する距離基準値を取得する(図11のステップS303)。
Next, the detection unit 14 acquires the pair of parallel straight line boundary positions of the R group acquired in step S301 with the x-direction fluctuation amount acquired in step S103 of FIG. 9 and in step S202 of FIG. The correction is made based on the amount of fluctuation in the y-direction (step S302 in FIG. 11).
Next, the detection unit 14 acquires a distance reference value for each of the R row pixel groups based on the pair of parallel straight line boundary positions of the R group corrected in step S302 (step S303 in FIG. 11).

次いで、検出部14は、ステップS302にて補正されたR組の一対の平行直線境界位置と、ステップS303にて取得されたR個の距離基準値と、に基づいて、R個の行画素群のそれぞれに対するz方向変動量を取得する(図11のステップS304)。 Next, the detection unit 14 has R row pixel groups based on the pair of parallel straight line boundary positions of the R set corrected in step S302 and the R distance reference values acquired in step S303. The amount of variation in the z-direction for each of the above is acquired (step S304 in FIG. 11).

次いで、検出部14は、ステップS304にて取得されたR個のz方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことによりz方向変動周波数成分を取得する(図11のステップS305)。
次いで、検出部14は、ステップS305にて取得されたz方向変動周波数成分に基づいて、対象物TGのz軸方向における振動を検出する(図11のステップS306)。
このようにして、検出部14は、図11の処理を実行する。
Next, the detection unit 14 acquires the z-direction fluctuation frequency component by performing Fourier transform processing, wavelet transform processing, or the like on the R z-direction fluctuation amounts acquired in step S304 (step S305 in FIG. 11). ).
Next, the detection unit 14 detects the vibration of the object TG in the z-axis direction based on the z-direction fluctuation frequency component acquired in step S305 (step S306 in FIG. 11).
In this way, the detection unit 14 executes the process shown in FIG.

次いで、検出部14は、対象物TGが、x軸方向、y軸方向、及び、z軸方向の少なくとも1つの方向において振動していると検出された場合、対象物TGが当該方向において振動していることを表す情報を出力する。 Next, when the detection unit 14 detects that the object TG vibrates in at least one of the x-axis direction, the y-axis direction, and the z-axis direction, the object TG vibrates in that direction. Outputs information indicating that the device is running.

以上、説明したように、第1実施形態の検出装置1は、撮像部13と、検出部14と、を備える。撮像部13は、対象物TGを撮影することにより画像を出力する。画像は、第1方向(本例では、y軸方向)にて互いに異なる複数の位置をそれぞれ有する複数の行画素群を含む。複数の行画素群には、互いに異なる複数の処理期間がそれぞれ割り当てられる。複数の行画素群のそれぞれは、第1方向に直交する第2方向(本例では、x軸方向)にて互いに異なる複数の位置をそれぞれ有するとともに当該行画素群に割り当てられた処理期間にて入射する光の量を表す複数の画素を含む。 As described above, the detection device 1 of the first embodiment includes an imaging unit 13 and a detection unit 14. The imaging unit 13 outputs an image by photographing the object TG. The image includes a plurality of row pixel groups each having a plurality of positions different from each other in the first direction (in this example, the y-axis direction). A plurality of processing periods different from each other are assigned to the plurality of row pixel groups. Each of the plurality of row pixel groups has a plurality of positions different from each other in the second direction (in this example, the x-axis direction) orthogonal to the first direction, and at the processing period assigned to the row pixel group. Includes a plurality of pixels representing the amount of incident light.

検出部14は、撮像部13により出力された画像において、当該画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である境界位置を、上記複数の行画素群のそれぞれに対して取得し、取得された複数の境界位置に基づいて対象物TGの振動を検出する。 In the image output by the imaging unit 13, the detection unit 14 sets the boundary position, which is the position of the boundary of a plurality of regions adjacent to each other while the amount of light represented by the pixels included in the image is different from each other, in the plurality of rows. It is acquired for each of the pixel groups, and the vibration of the object TG is detected based on the acquired plurality of boundary positions.

これによれば、画像に含まれる複数の行画素群は、互いに異なる複数の処理期間にてそれぞれ入射する光の量を表す。ところで、連続する2つの処理期間の間隔は、撮影間隔よりも短い。従って、複数の行画素群に対してそれぞれ取得される複数の境界位置は、撮影間隔に対して十分に短い周期を有する振動を反映できる。この結果、検出装置1によれば、撮影間隔に対して十分に短い周期を有する振動を検出できる。 According to this, the plurality of row pixel groups included in the image represent the amount of light incident on each of the plurality of processing periods different from each other. By the way, the interval between two consecutive processing periods is shorter than the imaging interval. Therefore, the plurality of boundary positions acquired for each of the plurality of row pixel groups can reflect the vibration having a sufficiently short period with respect to the shooting interval. As a result, according to the detection device 1, vibration having a period sufficiently short with respect to the photographing interval can be detected.

ところで、グローバルシャッター方式を用いる撮像部において振動を検出するためには、撮影間隔は、ナイキスト周波数の制約に従って、当該振動の周期の1/2倍以下である必要があることが知られている。従って、例えば、数kHzの周波数を有する振動を検出するためには、1万フレーム毎秒に近いフレームレートを有する撮像部が必要とされる。このような撮像部を製造することは困難であることが多いため、高価であることが多い。 By the way, in order to detect vibration in an imaging unit using the global shutter method, it is known that the shooting interval needs to be 1/2 times or less of the period of the vibration according to the restriction of the Nyquist frequency. Therefore, for example, in order to detect vibration having a frequency of several kHz, an imaging unit having a frame rate close to 10,000 frames per second is required. Since it is often difficult to manufacture such an imaging unit, it is often expensive.

これに対し、検出装置1によれば、例えば、安価であり、且つ、一般に流通する工業用カメラを用いることにより、対象物TGの振動を検出できる。また、検出装置1によれば、例えば、数Hz乃至数kHzの周波数を有する振動を検出できる。また、検出装置1によれば、例えば、数十μm乃至数mmの振幅を有する振動を検出できる。 On the other hand, according to the detection device 1, for example, the vibration of the object TG can be detected by using an inexpensive and generally distributed industrial camera. Further, according to the detection device 1, for example, vibration having a frequency of several Hz to several kHz can be detected. Further, according to the detection device 1, for example, vibration having an amplitude of several tens of μm to several mm can be detected.

また、例えば、検出装置1によれば、対象物TGに配線を行うことなく、対象物TGの振動を検出できる。 Further, for example, according to the detection device 1, the vibration of the object TG can be detected without wiring the object TG.

更に、第1実施形態の検出装置1において、検出部14は、取得された複数の境界位置の少なくとも一部に基づいて、複数の行画素群の少なくとも一部のそれぞれに対して基準値を取得し、取得された基準値と、取得された複数の境界位置と、に基づいて対象物TGの振動を検出する。 Further, in the detection device 1 of the first embodiment, the detection unit 14 acquires a reference value for at least a part of each of the plurality of row pixel groups based on at least a part of the acquired plurality of boundary positions. Then, the vibration of the object TG is detected based on the acquired reference value and the acquired plurality of boundary positions.

例えば、対象物TGに対する撮像部13の位置を特定できない場合、対象物TGが振動していない状態における境界位置を特定できない。このため、対象物TGの振動を高い精度にて検出できない虞があった。
これに対し、検出装置1によれば、取得された複数の境界位置に基づいて、対象物TGが振動していない状態における行画素群毎の基準値を取得できる。従って、対象物TGに対する撮像部13の位置を特定できない場合であっても、対象物TGの振動を高い精度にて検出できる。
なお、第1実施形態の変形例の検出装置1において、検出部14は、取得された複数の境界位置に基づいて基準値を取得することなく、予め定められた基準値を用いてもよい。
For example, when the position of the imaging unit 13 with respect to the object TG cannot be specified, the boundary position in the state where the object TG is not vibrating cannot be specified. Therefore, there is a possibility that the vibration of the object TG cannot be detected with high accuracy.
On the other hand, according to the detection device 1, it is possible to acquire a reference value for each row pixel group in a state where the object TG is not vibrating, based on the acquired plurality of boundary positions. Therefore, even when the position of the imaging unit 13 with respect to the object TG cannot be specified, the vibration of the object TG can be detected with high accuracy.
In the detection device 1 of the modified example of the first embodiment, the detection unit 14 may use a predetermined reference value without acquiring the reference value based on the acquired plurality of boundary positions.

更に、第1実施形態の検出装置1は、対象物TGに固定され、且つ、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成するマーカ部11を備える。撮像部13は、マーカ部11を撮影することにより画像を出力する。検出部14は、対象物TGの振動を検出する。 Further, the detection device 1 of the first embodiment includes a marker unit 11 which is fixed to the object TG, has different amounts of reflected light, and forms a plurality of regions adjacent to each other. The imaging unit 13 outputs an image by photographing the marker unit 11. The detection unit 14 detects the vibration of the object TG.

対象物TGの表面において互いに隣接する複数の領域にて反射される光の量が、略同じであることがある。この場合、境界位置を高い精度にて取得できない虞があった。
これに対し、検出装置1によれば、反射される光の量が互いに異なる複数の領域を形成するマーカ部11が対象物TGに固定される。従って、マーカ部11が撮影されることにより出力された画像を用いることにより、境界位置を高い精度にて取得できる。この結果、対象物TGの振動を高い精度にて検出できる。
The amount of light reflected by a plurality of regions adjacent to each other on the surface of the object TG may be substantially the same. In this case, there is a risk that the boundary position cannot be obtained with high accuracy.
On the other hand, according to the detection device 1, the marker portion 11 forming a plurality of regions in which the amount of reflected light is different from each other is fixed to the object TG. Therefore, the boundary position can be acquired with high accuracy by using the image output by photographing the marker unit 11. As a result, the vibration of the object TG can be detected with high accuracy.

更に、第1実施形態の検出装置1において、マーカ部11は、複数の領域のうちの少なくとも1つが再帰性反射材からなる。 Further, in the detection device 1 of the first embodiment, at least one of the plurality of regions of the marker unit 11 is made of a retroreflective material.

これによれば、再帰性反射材からなる領域にて反射される光の量を大きくすることができる。この結果、境界位置を高い精度にて取得できるので、対象物TGの振動を高い精度にて検出できる。 According to this, the amount of light reflected in the region made of the retroreflective material can be increased. As a result, since the boundary position can be acquired with high accuracy, the vibration of the object TG can be detected with high accuracy.

更に、第1実施形態の検出装置1において、マーカ部11は、複数の領域の境界の少なくとも一部が、第1方向(本例では、y軸方向)にて延びる直線を形成する。検出部14は、取得された複数の境界位置の少なくとも一部の第2方向(本例では、x軸方向)における変動量の、第1方向における変化に基づいて、第2方向における対象物TGの振動を検出する。 Further, in the detection device 1 of the first embodiment, the marker unit 11 forms a straight line in which at least a part of the boundary between the plurality of regions extends in the first direction (in this example, the y-axis direction). The detection unit 14 determines the object TG in the second direction based on the change in the first direction of the fluctuation amount in the second direction (in this example, the x-axis direction) of at least a part of the acquired plurality of boundary positions. Detects vibration.

第1方向にて延びる直線を形成する境界の境界位置の第2方向における変動量は、第2方向における対象物TGの振動を高い精度にて反映する。従って、検出装置1によれば、第2方向における対象物TGの振動を高い精度にて検出できる。 The amount of fluctuation in the second direction of the boundary position of the boundary forming the straight line extending in the first direction reflects the vibration of the object TG in the second direction with high accuracy. Therefore, according to the detection device 1, the vibration of the object TG in the second direction can be detected with high accuracy.

更に、第1実施形態の検出装置1において、マーカ部11は、複数の領域の境界の少なくとも一部が、第1方向に対して傾斜する直線である傾斜直線を形成する。検出部14は、取得された複数の境界位置の少なくとも一部の第2方向における変動量の、第1方向における変化に基づいて、第1方向における対象物TGの振動を検出する。 Further, in the detection device 1 of the first embodiment, the marker unit 11 forms an inclined straight line in which at least a part of the boundary between the plurality of regions is a straight line inclined with respect to the first direction. The detection unit 14 detects the vibration of the object TG in the first direction based on the change in the first direction of the fluctuation amount in the second direction of at least a part of the acquired plurality of boundary positions.

傾斜直線を形成する境界の境界位置の第2方向における変動量は、第1方向における対象物TGの振動を高い精度にて反映する。従って、検出装置1によれば、第1方向における対象物TGの振動を高い精度にて検出できる。 The amount of fluctuation in the second direction of the boundary position of the boundary forming the inclined straight line reflects the vibration of the object TG in the first direction with high accuracy. Therefore, according to the detection device 1, the vibration of the object TG in the first direction can be detected with high accuracy.

更に、第1実施形態の検出装置1において、マーカ部11は、複数の領域の境界の少なくとも一部が、第2方向と異なる方向(本例では、第1方向)にて延びるとともに互いに平行である一対の直線を形成する。検出部14は、複数の行画素群の少なくとも一部のそれぞれに対して、2つの境界位置を取得し、取得された2つの境界位置の間の距離を取得し、取得された複数の距離の、第1方向における変化に基づいて、第1方向及び第2方向に直交する第3方向(本例では、z軸方向)における対象物TGの振動を検出する。 Further, in the detection device 1 of the first embodiment, in the marker unit 11, at least a part of the boundary between the plurality of regions extends in a direction different from the second direction (in this example, the first direction) and is parallel to each other. Form a pair of straight lines. The detection unit 14 acquires two boundary positions for each of at least a part of the plurality of row pixel groups, acquires the distance between the acquired two boundary positions, and obtains the acquired distances of the plurality of distances. , The vibration of the object TG in the third direction (in this example, the z-axis direction) orthogonal to the first direction and the second direction is detected based on the change in the first direction.

互いに平行である一対の直線を形成する境界の境界位置の間の第2方向における距離は、第3方向における対象物TGの振動を高い精度にて反映する。従って、検出装置1によれば、第3方向における対象物TGの振動を高い精度にて検出できる。 The distance in the second direction between the boundary positions of the boundaries forming a pair of straight lines parallel to each other reflects the vibration of the object TG in the third direction with high accuracy. Therefore, according to the detection device 1, the vibration of the object TG in the third direction can be detected with high accuracy.

更に、第1実施形態の検出装置1において、検出部14は、取得された複数の境界位置の少なくとも一部を、第2方向における変動量に基づいて補正し、補正された境界位置に基づいて、第1方向又は第3方向における対象物TGの振動を検出する。 Further, in the detection device 1 of the first embodiment, the detection unit 14 corrects at least a part of the acquired plurality of boundary positions based on the amount of fluctuation in the second direction, and based on the corrected boundary position. , The vibration of the object TG in the first direction or the third direction is detected.

これによれば、第1方向又は第3方向における対象物TGの振動をより一層高い精度にて検出できる。 According to this, the vibration of the object TG in the first direction or the third direction can be detected with higher accuracy.

なお、第1実施形態の変形例の検出装置1は、光源部12を備えなくてもよい。
また、第1実施形態の変形例の検出装置1は、マーカ部11を備えなくてもよい。この場合、検出装置1は、マーカ部11に代えて、対象物TGの一部(例えば、ボルト、ナット、タグ、プレート、又は、意匠等)を用いて、対象物TGの振動を検出してもよい。
The detection device 1 of the modified example of the first embodiment does not have to include the light source unit 12.
Further, the detection device 1 of the modified example of the first embodiment does not have to include the marker unit 11. In this case, the detection device 1 detects the vibration of the object TG by using a part of the object TG (for example, a bolt, a nut, a tag, a plate, a design, etc.) instead of the marker portion 11. May be good.

また、第1実施形態の変形例の検出装置1は、x軸方向、y軸方向、及び、z軸方向のうちの少なくとも1つにおける対象物TGの振動を検出するとともに、他の方向における対象物TGの振動を検出しなくてもよい。 Further, the detection device 1 of the modified example of the first embodiment detects the vibration of the object TG in at least one of the x-axis direction, the y-axis direction, and the z-axis direction, and also detects the vibration of the object TG in the other direction. It is not necessary to detect the vibration of the object TG.

また、第1実施形態の変形例の検出装置1は、複数の対象物TGにそれぞれ固定された複数のマーカ部11を備えるとともに、撮像部13が複数のマーカ部11を撮影することにより画像を出力し、検出部14が複数の対象物TGのそれぞれの振動を検出してもよい。この場合、複数の対象物TGは、互いに異なる複数の装置をそれぞれ構成してもよい。また、複数の対象物TGは、1つの装置を構成する複数の構成部材をそれぞれ構成してもよい。 Further, the detection device 1 of the modified example of the first embodiment includes a plurality of marker units 11 fixed to each of the plurality of object TGs, and the imaging unit 13 captures an image by photographing the plurality of marker units 11. It may be output and the detection unit 14 may detect the vibration of each of the plurality of object TGs. In this case, the plurality of object TGs may form a plurality of devices different from each other. Further, the plurality of object TGs may each constitute a plurality of constituent members constituting one device.

また、第1実施形態の変形例の検出装置1は、複数の撮像部13を備えるとともに、複数の撮像部13のそれぞれがマーカ部11を撮影することにより画像を出力し、検出部14が複数の画像に基づいて、マーカ部11が固定された対象物TGの振動を検出してもよい。 Further, the detection device 1 of the modified example of the first embodiment includes a plurality of imaging units 13, and each of the plurality of imaging units 13 outputs an image by photographing the marker unit 11, and the plurality of detection units 14 are present. The vibration of the object TG to which the marker portion 11 is fixed may be detected based on the image of.

また、第1実施形態の変形例の検出装置1は、撮像部13により出力される画像に含まれる複数の画素の一部に基づいて、対象物TGの振動を検出してもよい。例えば、画像が、複数の行画素群からなるブロックを複数含むとともに、複数のブロックに、互いに異なる複数の処理期間がそれぞれ割り当てられる場合、検出部14は、各ブロックを代表する行画素群に基づいて対象物TGの振動を検出してもよい。 Further, the detection device 1 of the modified example of the first embodiment may detect the vibration of the object TG based on a part of a plurality of pixels included in the image output by the imaging unit 13. For example, when the image includes a plurality of blocks composed of a plurality of row pixel groups and a plurality of different processing periods are assigned to the plurality of blocks, the detection unit 14 is based on the row pixel group representing each block. The vibration of the object TG may be detected.

<第2実施形態>
次に、第2実施形態の検出装置について説明する。第2実施形態の検出装置は、第1実施形態の検出装置に対して、マーカ部の領域の形状が相違している。以下、相違点を中心として説明する。なお、第2実施形態の説明において、第1実施形態にて使用した符号と同じ符号を付したものは、同一又は略同様のものである。
<Second Embodiment>
Next, the detection device of the second embodiment will be described. The detection device of the second embodiment has a different shape of the area of the marker portion from the detection device of the first embodiment. Hereinafter, the differences will be mainly described. In the description of the second embodiment, those having the same reference numerals as those used in the first embodiment are the same or substantially the same.

(構成)
図12に表されるように、第2実施形態のマーカ部11Aは、正方形状である。なお、マーカ部11Aは、正方形状と異なる形状(例えば、長方形状、円形状、楕円形状、又は、多角形状等)であってもよい。
本例では、マーカ部11Aは、x軸方向における両端辺が、y軸方向に対して、45度よりも小さい角度だけ傾斜する方向にて延びる。なお、マーカ部11Aは、x軸方向における両端辺がy軸方向にて延びていてもよい。
本例では、マーカ部11Aは、1つの構成体により構成される。なお、マーカ部11Aは、複数の構成体により構成されていてもよい。この場合、複数の構成体は、互いに異なる複数の位置にそれぞれ固定されてよい。
(Constitution)
As shown in FIG. 12, the marker portion 11A of the second embodiment has a square shape. The marker portion 11A may have a shape different from the square shape (for example, a rectangular shape, a circular shape, an elliptical shape, a polygonal shape, or the like).
In this example, the marker portion 11A extends in a direction in which both ends in the x-axis direction are inclined by an angle smaller than 45 degrees with respect to the y-axis direction. In the marker portion 11A, both ends in the x-axis direction may extend in the y-axis direction.
In this example, the marker portion 11A is composed of one component. The marker portion 11A may be composed of a plurality of components. In this case, the plurality of components may be fixed at a plurality of positions different from each other.

マーカ部11Aは、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成する。本例では、マーカ部11Aは、第1領域111Aと、第1領域111Aに囲まれるように第1領域111Aに隣接する第2領域112Aと、第2領域112Aに囲まれるように第2領域112Aに隣接する第3領域113Aと、第3領域113Aに囲まれるように第3領域113Aに隣接する第4領域114Aと、を有する。 The marker portion 11A forms a plurality of regions adjacent to each other while the amount of reflected light is different from each other. In this example, the marker portion 11A is surrounded by the first region 111A, the second region 112A adjacent to the first region 111A so as to be surrounded by the first region 111A, and the second region 112A so as to be surrounded by the second region 112A. It has a third region 113A adjacent to the third region 113A and a fourth region 114A adjacent to the third region 113A so as to be surrounded by the third region 113A.

本例では、第1領域111Aは、反射される光の量が第3領域113Aと等しい。第2領域112Aは、反射される光の量が第4領域114Aと等しい。第1領域111A、及び、第3領域113Aは、反射される光の量が、第2領域112A、及び、第4領域114Aよりも小さい。 In this example, the amount of reflected light in the first region 111A is equal to that in the third region 113A. The amount of reflected light in the second region 112A is equal to that in the fourth region 114A. The amount of reflected light in the first region 111A and the third region 113A is smaller than that in the second region 112A and the fourth region 114A.

本例では、第2領域112A、及び、第4領域114Aは、再帰性反射材からなる。本例では、第1領域111A、及び、第3領域113Aは、再帰性反射材と異なる材料(例えば、紙、布、樹脂、金属、又は、セラミクス等)からなる。本例では、第1領域111A、及び、第3領域113Aは、黒色を有する。なお、第1領域111A、及び、第3領域113Aは、黒色と異なる色を有していてもよい。 In this example, the second region 112A and the fourth region 114A are made of a retroreflective material. In this example, the first region 111A and the third region 113A are made of a material different from the retroreflective material (for example, paper, cloth, resin, metal, ceramics, etc.). In this example, the first region 111A and the third region 113A have a black color. The first region 111A and the third region 113A may have a color different from black.

また、第2領域112A、及び、第4領域114Aは、再帰性反射材からなっていなくてもよい。この場合、例えば、第2領域112A、及び、第4領域114Aは、白色を有するとともに、第1領域111A、及び、第3領域113Aは、白色と異なる色(例えば、黒色)を有していてもよい。
また、第1領域111A、第2領域112A、第3領域113A、及び、第4領域114Aのうちの少なくとも1つは、対象物TGの表面であってもよい。例えば、第1領域111A、及び、第3領域113Aは、対象物TGの表面であってもよい。
Further, the second region 112A and the fourth region 114A do not have to be made of a retroreflective material. In this case, for example, the second region 112A and the fourth region 114A have white color, and the first region 111A and the third region 113A have a color different from white (for example, black). May be good.
Further, at least one of the first region 111A, the second region 112A, the third region 113A, and the fourth region 114A may be the surface of the object TG. For example, the first region 111A and the third region 113A may be the surfaces of the object TG.

第2領域112Aは、マーカ部11Aのうちの中央部に中心を有する円形状である。従って、第2領域112Aと第1領域111Aとの境界は、円を形成する。 The second region 112A has a circular shape having a center in the central portion of the marker portion 11A. Therefore, the boundary between the second region 112A and the first region 111A forms a circle.

第3領域113Aは、所定の幅を有する帯状である。第3領域113Aは、第2領域112Aの内部に位置する長方形に沿って延びる。本例では、第3領域113Aの4つの端辺は、マーカ部11Aの4つの端辺とそれぞれ平行である。 The third region 113A has a strip shape having a predetermined width. The third region 113A extends along a rectangle located inside the second region 112A. In this example, the four ends of the third region 113A are parallel to the four ends of the marker portion 11A, respectively.

第3領域113Aは、第3領域113Aのうちの、y軸方向における両端辺をそれぞれ形成する一対の辺部1131Aと、第3領域113Aのうちの、x軸方向における両端辺をそれぞれ形成する一対の辺部1132Aと、を有する。 The third region 113A is a pair of side portions 1131A forming both end sides in the y-axis direction of the third region 113A and a pair forming both end sides of the third region 113A in the x-axis direction. The side portion 1132A and the like.

本例では、一対の辺部1131A、及び、一対の辺部1132Aのそれぞれは、y軸方向に対して傾斜する方向にて延びる。従って、第3領域113Aと、第2領域112A又は第4領域114Aと、の境界は、y軸方向に対して傾斜する直線である傾斜直線を形成する。 In this example, each of the pair of side portions 1131A and the pair of side portions 1132A extends in a direction inclined with respect to the y-axis direction. Therefore, the boundary between the third region 113A and the second region 112A or the fourth region 114A forms an inclined straight line which is a straight line inclined with respect to the y-axis direction.

また、本例では、一対の辺部1131Aは、互いに平行に延びる。従って、一対の辺部1131Aと、第2領域112A又は第4領域114Aと、の境界は、x軸方向と異なる方向にて延びるとともに互いに平行である一対の直線を形成する。 Further, in this example, the pair of side portions 1131A extend in parallel with each other. Therefore, the boundary between the pair of side portions 1131A and the second region 112A or the fourth region 114A extends in a direction different from the x-axis direction and forms a pair of straight lines parallel to each other.

同様に、一対の辺部1132Aは、互いに平行に延びる。従って、一対の辺部1132Aと、第2領域112A又は第4領域114Aと、の境界は、x軸方向と異なる方向にて延びるとともに互いに平行である一対の直線を形成する。 Similarly, the pair of sides 1132A extend parallel to each other. Therefore, the boundary between the pair of side portions 1132A and the second region 112A or the fourth region 114A extends in a direction different from the x-axis direction and forms a pair of straight lines parallel to each other.

本例では、一対の辺部1131Aのそれぞれの幅は、一対の辺部1132Aのそれぞれの幅よりも僅かに大きい。なお、一対の辺部1131Aのそれぞれの幅は、一対の辺部1132Aのそれぞれの幅以下であってもよい。 In this example, the width of each of the pair of side portions 1131A is slightly larger than the width of each of the pair of side portions 1132A. The width of each of the pair of side portions 1131A may be equal to or less than the width of each of the pair of side portions 1132A.

第3領域113Aは、長方形の一対の隅部にて、当該一対の隅部と第1領域とをそれぞれ連結する一対の連結部1133Aを有する。一対の連結部1133Aのそれぞれは、所定の幅を有する帯状である。 The third region 113A has a pair of connecting portions 1133A that connect the pair of corner portions and the first region at a pair of rectangular corners. Each of the pair of connecting portions 1133A has a strip shape having a predetermined width.

第4領域114Aは、第3領域113Aの内部に位置する長方形状である。本例では、第4領域114Aの4つの端辺は、マーカ部11Aの4つの端辺とそれぞれ平行である。 The fourth region 114A has a rectangular shape located inside the third region 113A. In this example, the four ends of the fourth region 114A are parallel to the four ends of the marker portion 11A, respectively.

(機能)
図13に表されるように、第2実施形態の検出部14Aの機能は、第1実施形態の検出部14の機能のうちの、y方向直線境界位置取得部1401、y方向直線基準値取得部1402、及び、x方向変動量取得部1403に代えて、円境界位置取得部1412A、中心直線基準値取得部1413A、及び、x方向変動量取得部1414Aを備える点を除いて、第1実施形態の検出部14の機能と同じである。
(function)
As shown in FIG. 13, the functions of the detection unit 14A of the second embodiment include the y-direction straight line boundary position acquisition unit 1401 and the y-direction straight line reference value acquisition among the functions of the detection unit 14 of the first embodiment. First implementation, except that the circular boundary position acquisition unit 1412A, the central straight line reference value acquisition unit 1413A, and the x-direction fluctuation amount acquisition unit 1414A are provided in place of the unit 1402 and the x-direction fluctuation amount acquisition unit 1403. This is the same as the function of the form detection unit 14.

円境界位置取得部1412Aは、M個の行画素群から、マーカ部11のうちの、y軸方向における両端部(本例では、マーカ部11Aのうちの、第1領域111Aのみが存在する部分)を除いた部分に対応する、P個の行画素群を抽出する。Pは、Mよりも小さい整数を表す。 The circular boundary position acquisition unit 1412A is a portion of the marker unit 11 where only the first region 111A of the marker unit 11A exists (in this example, the portion of the marker unit 11A where only the first region 111A exists) from the group of M row pixels. ) Is excluded, and P row pixel groups corresponding to the portions are extracted. P represents an integer smaller than M.

円境界位置取得部1412Aは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、一対の円境界位置を取得する。本例では、一対の円境界位置は、第2領域112Aと、第1領域111Aと、の境界の位置に対応する。 The circular boundary position acquisition unit 1412A acquires a pair of circular boundary positions for each of the P row pixel groups based on the N pixels included in the row pixel group. In this example, the pair of circular boundary positions correspond to the positions of the boundaries between the second region 112A and the first region 111A.

本例では、円境界位置取得部1412Aは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、第1値が連続する第1値領域と、当該第1値領域に、当該第1値領域よりもx軸の正方向の位置にて隣接し且つ第2値が連続する第2値領域と、の境界の中で、x軸の負方向における端からx軸の正方向へ向かって1番目の境界の位置と、第1値が連続する第1値領域と、当該第1値領域に、当該第1値領域よりもx軸の負方向の位置にて隣接し且つ第2値が連続する第2値領域と、の境界の中で、x軸の正方向における端からx軸の負方向へ向かって1番目の境界の位置と、を一対の円境界位置として取得する。 In this example, the circular boundary position acquisition unit 1412A sets the first value region in which the first value is continuous among the N pixels included in the row pixel group for each of the P row pixel groups. , In the negative direction of the x-axis within the boundary between the first value region and the second value region which is adjacent to the first value region at a position in the positive direction of the x-axis and the second value is continuous. The position of the first boundary from the end to the positive direction of the x-axis, the first-value region where the first values are continuous, and the first-value region in the negative direction of the x-axis from the first-value region. Within the boundary between the second value region, which is adjacent at the position of and the second value is continuous, the position of the first boundary from the end in the positive direction of the x-axis toward the negative direction of the x-axis. Obtained as a pair of circular boundary positions.

中心直線基準値取得部1413Aは、円境界位置取得部1412Aにより取得されたP組の一対の円境界位置に基づいて、P個の行画素群のそれぞれに対する中心直線基準値を取得する。 The center line reference value acquisition unit 1413A acquires the center line reference value for each of the P row pixel groups based on the pair of circle boundary positions of the P set acquired by the circle boundary position acquisition unit 1412A.

本例では、中心直線基準値取得部1413Aは、P個の行画素群のそれぞれに対して、円境界位置取得部1412Aにより取得された一対の円境界位置の中点である中点位置を取得する。中心直線基準値取得部1413Aは、y軸方向にて延びるとともに、取得されたP個の中点位置に対する距離の総和が最小である直線を基準直線として取得する。なお、中心直線基準値取得部1413Aは、y軸方向にて延びるとともに、取得されたP個の中点位置に対する距離の二乗の総和が最小である直線を基準直線として取得してもよい。 In this example, the central straight line reference value acquisition unit 1413A acquires the midpoint position, which is the midpoint of the pair of circular boundary positions acquired by the circular boundary position acquisition unit 1412A, for each of the P row pixel groups. To do. The central straight line reference value acquisition unit 1413A extends in the y-axis direction and acquires a straight line having the minimum total distance to the acquired P midpoint positions as a reference straight line. The central straight line reference value acquisition unit 1413A may extend in the y-axis direction and acquire a straight line having the smallest sum of squares of distances with respect to the acquired P midpoint positions as a reference straight line.

中心直線基準値取得部1413Aは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、取得された基準直線と交差する画素の位置を、中心直線基準値として取得する。 The center straight line reference value acquisition unit 1413A centers on each of the P row pixel groups with the positions of the pixels intersecting the acquired reference straight line among the N pixels included in the row pixel group. Obtained as a straight line reference value.

x方向変動量取得部1414Aは、円境界位置取得部1412Aにより取得されたP組の一対の円境界位置と、中心直線基準値取得部1413Aにより取得されたP個の中心直線基準値と、に基づいて、P個の行画素群のそれぞれに対するx方向変動量を取得する。本例では、x方向変動量は、一対の円境界位置の中点である中点位置と、中心直線基準値と、のx軸方向における位置の差である。 The x-direction fluctuation amount acquisition unit 1414A includes a pair of P-group circular boundary positions acquired by the circular boundary position acquisition unit 1412A and P central straight line reference values acquired by the central straight line reference value acquisition unit 1413A. Based on this, the amount of variation in the x-direction for each of the P row pixel groups is acquired. In this example, the amount of fluctuation in the x-direction is the difference between the midpoint position, which is the midpoint of the pair of circular boundary positions, and the center line reference value in the x-axis direction.

スペクトル解析部1404は、x方向変動量取得部1414Aにより取得されたP個のx方向変動量に対してスペクトル解析を行う。本例では、各画素のy軸方向における位置は、当該画素が表す値の基となった光が撮像部13に入射する時間に対応する。従って、本例では、x方向変動量の、y軸方向における変化は、x方向変動量の時間に対する変化に対応する。 The spectrum analysis unit 1404 performs spectrum analysis on the P x-direction fluctuation amounts acquired by the x-direction fluctuation amount acquisition unit 1414A. In this example, the position of each pixel in the y-axis direction corresponds to the time when the light on which the value represented by the pixel is based is incident on the imaging unit 13. Therefore, in this example, the change in the x-direction fluctuation amount in the y-axis direction corresponds to the change in the x-direction fluctuation amount with time.

例えば、図5に表されるように、対象物TGがx軸方向にて振動している場合を想定する。この場合、例えば、中点位置は、曲線L11により表されるように、x軸方向にて変動する波線上に位置する。従って、直線L10により表される基準直線上の中心直線基準値と、中点位置と、のx軸方向における位置の差であるx方向変動量の、y軸方向における変化は、対象物TGのx軸方向における振動を高い精度にて反映する。 For example, as shown in FIG. 5, it is assumed that the object TG vibrates in the x-axis direction. In this case, for example, the midpoint position is located on a wavy line that fluctuates in the x-axis direction, as represented by the curve L11. Therefore, the change in the x-direction fluctuation amount, which is the difference between the center straight line reference value on the reference straight line represented by the straight line L10 and the midpoint position in the x-axis direction, is the change in the y-axis direction of the object TG. Reflects vibration in the x-axis direction with high accuracy.

また、対象物TGがy軸方向にて振動している場合であっても、基準直線がy軸方向にて延びているので、y軸方向における振動は、x方向変動量に反映されにくい。更に、対象物TGがz軸方向にて振動している場合であっても、当該振動に伴って基準直線が移動しにくいので、z軸方向における振動は、x方向変動量に反映されにくい。従って、x方向変動量の、y軸方向における変化は、対象物TGのx軸方向における振動を高い精度にて反映できる。 Further, even when the object TG vibrates in the y-axis direction, the reference straight line extends in the y-axis direction, so that the vibration in the y-axis direction is not easily reflected in the amount of fluctuation in the x-direction. Further, even when the object TG vibrates in the z-axis direction, the reference straight line does not easily move with the vibration, so that the vibration in the z-axis direction is not easily reflected in the amount of fluctuation in the x-direction. Therefore, the change in the amount of fluctuation in the x-direction in the y-axis direction can reflect the vibration of the object TG in the x-axis direction with high accuracy.

本例では、円境界位置は、境界位置に対応する。本例では、中心直線基準値は、基準値に対応する。 In this example, the circle boundary position corresponds to the boundary position. In this example, the central straight line reference value corresponds to the reference value.

(動作)
次に、第2実施形態の検出装置1の動作について、図14を参照しながら説明する。
第2実施形態の検出装置1は、図9の処理に代えて、図14の処理を実行する点を除いて、第1実施形態の検出装置1と同様に動作する。
(motion)
Next, the operation of the detection device 1 of the second embodiment will be described with reference to FIG.
The detection device 1 of the second embodiment operates in the same manner as the detection device 1 of the first embodiment except that the process of FIG. 14 is executed instead of the process of FIG.

以下、図14の処理について説明を加える。
検出部14Aは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、一対の円境界位置を取得する(図14のステップS101A)。
Hereinafter, the processing of FIG. 14 will be described.
The detection unit 14A acquires a pair of circular boundary positions for each of the P row pixel groups based on the N pixels included in the row pixel group (step S101A in FIG. 14).

次いで、検出部14Aは、ステップS101Aにて取得されたP組の一対の円境界位置に基づいて、P個の行画素群のそれぞれに対する中心直線基準値を取得する(図14のステップS102A)。 Next, the detection unit 14A acquires the center straight line reference value for each of the P row pixel groups based on the pair of circular boundary positions of the P set acquired in step S101A (step S102A in FIG. 14).

次いで、検出部14Aは、ステップS101Aにて取得されたP組の一対の円境界位置と、ステップS102Aにて取得されたP個の中心直線基準値と、に基づいて、P個の行画素群のそれぞれに対するx方向変動量を取得する(図14のステップS103A)。 Next, the detection unit 14A has P row pixel groups based on the pair of circle boundary positions of the P set acquired in step S101A and the P center straight line reference values acquired in step S102A. The amount of variation in the x-direction for each of the above is acquired (step S103A in FIG. 14).

次いで、検出部14Aは、ステップS103Aにて取得されたP個のx方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことによりx方向変動周波数成分を取得する(図14のステップS104A)。
次いで、検出部14Aは、ステップS104Aにて取得されたx方向変動周波数成分に基づいて、対象物TGのx軸方向における振動を検出する(図14のステップS105A)。
このようにして、検出部14Aは、図14の処理を実行する。
Next, the detection unit 14A acquires the x-direction fluctuation frequency component by performing Fourier transform processing, wavelet transform processing, or the like on the P x-direction fluctuation amounts acquired in step S103A (step S104A in FIG. 14). ).
Next, the detection unit 14A detects the vibration of the object TG in the x-axis direction based on the x-direction fluctuation frequency component acquired in step S104A (step S105A in FIG. 14).
In this way, the detection unit 14A executes the process shown in FIG.

以上、説明したように、第2実施形態の検出装置1によれば、第1実施形態の検出装置1と同様の作用及び効果が奏される。
更に、第2実施形態の検出装置1において、マーカ部11Aは、複数の領域の境界の少なくとも一部が、円の少なくとも一部を形成する。検出部14Aは、複数の行画素群の少なくとも一部のそれぞれに対して、2つの境界位置を取得し、取得された2つの境界位置の中点である中点位置を取得し、取得された複数の中点位置の第2方向(本例では、x軸方向)における変動量の、第1方向(本例では、y軸方向)における変化に基づいて、第2方向における対象物TGの振動を検出する。
As described above, according to the detection device 1 of the second embodiment, the same operations and effects as those of the detection device 1 of the first embodiment are exhibited.
Further, in the detection device 1 of the second embodiment, in the marker unit 11A, at least a part of the boundary of the plurality of regions forms at least a part of the circle. The detection unit 14A acquires two boundary positions for each of at least a part of the plurality of row pixel groups, acquires the midpoint position which is the midpoint of the acquired two boundary positions, and acquires the midpoint position. Vibration of the object TG in the second direction based on the change in the amount of fluctuation of the plurality of midpoint positions in the second direction (x-axis direction in this example) in the first direction (y-axis direction in this example). Is detected.

例えば、複数の領域の境界が直線を形成し、この直線を形成する境界の境界位置を取得する場合、この直線が第2方向に平行である状態に近づくにつれて、境界位置を取得可能な行画素群の数が少なくなる。このため、第2方向における対象物TGの振動を高い精度にて検出できないことがある。 For example, when the boundary of a plurality of regions forms a straight line and the boundary position of the boundary forming the straight line is acquired, the row pixel whose boundary position can be acquired as the straight line approaches the state of being parallel to the second direction. The number of groups is reduced. Therefore, the vibration of the object TG in the second direction may not be detected with high accuracy.

これに対し、検出装置1によれば、対象物TGに対するマーカ部11Aの回転角度に関わらず、複数の行画素群のそれぞれに対して中点位置を取得できる。これにより、例えば、マーカ部11の固定、又は、撮像部13の設置に伴って生じ得る、マーカ部11と撮像部13との位置関係の相違が、対象物TGの振動の検出に対する精度に及ぼす影響を抑制できる。更に、複数の行画素群に対してそれぞれ取得された複数の中点位置の第2方向における変動量は、第2方向における対象物TGの振動を高い精度にて反映する。従って、第2方向における対象物TGの振動を高い精度にて検出できる。 On the other hand, according to the detection device 1, the midpoint position can be acquired for each of the plurality of row pixel groups regardless of the rotation angle of the marker unit 11A with respect to the object TG. As a result, for example, the difference in the positional relationship between the marker unit 11 and the imaging unit 13, which may occur due to the fixing of the marker unit 11 or the installation of the imaging unit 13, affects the accuracy of the vibration detection of the object TG. The effect can be suppressed. Further, the amount of fluctuation in the second direction of the plurality of midpoint positions acquired for each of the plurality of row pixel groups reflects the vibration of the object TG in the second direction with high accuracy. Therefore, the vibration of the object TG in the second direction can be detected with high accuracy.

<第2実施形態の第1変形例>
次に、第2実施形態の第1変形例の検出装置について説明する。第2実施形態の第1変形例の検出装置は、第2実施形態の検出装置に対して、マーカ部の領域の形状が相違している。以下、相違点を中心として説明する。なお、第2実施形態の第1変形例の説明において、第2実施形態にて使用した符号と同じ符号を付したものは、同一又は略同様のものである。
<First modification of the second embodiment>
Next, the detection device of the first modification of the second embodiment will be described. The detection device of the first modification of the second embodiment has a different shape of the area of the marker portion from the detection device of the second embodiment. Hereinafter, the differences will be mainly described. In the description of the first modification of the second embodiment, those having the same reference numerals as those used in the second embodiment are the same or substantially the same.

(構成)
図15に表されるように、第2実施形態の第1変形例のマーカ部11Bは、円形状である。
本例では、マーカ部11Bは、1つの構成体により構成される。なお、マーカ部11Bは、複数の構成体により構成されていてもよい。この場合、複数の構成体は、互いに異なる複数の位置にそれぞれ固定されてよい。
マーカ部11Bは、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成する。本例では、マーカ部11Bは、第1領域111Bと、第1領域111Bに囲まれるように第1領域111Bに隣接する、一対の第2領域112Bと、を有する。
(Constitution)
As shown in FIG. 15, the marker portion 11B of the first modification of the second embodiment has a circular shape.
In this example, the marker portion 11B is composed of one component. The marker portion 11B may be composed of a plurality of components. In this case, the plurality of components may be fixed at a plurality of positions different from each other.
The marker portion 11B forms a plurality of regions adjacent to each other while the amount of reflected light is different from each other. In this example, the marker portion 11B has a first region 111B and a pair of second regions 112B adjacent to the first region 111B so as to be surrounded by the first region 111B.

更に、マーカ部11Bは、対象物TGに固定されることにより、マーカ部11Bの外部の領域を形成する。従って、本例では、第1領域111Bと、マーカ部11Bの外部の領域と、の境界は、円を形成する。 Further, the marker portion 11B is fixed to the object TG to form an outer region of the marker portion 11B. Therefore, in this example, the boundary between the first region 111B and the region outside the marker portion 11B forms a circle.

本例では、第1領域111Bは、反射される光の量が、第2領域112Bよりも小さい。更に、本例では、第1領域111Bは、反射される光の量が、マーカ部11Bの外部の領域よりも小さい。 In this example, the amount of reflected light in the first region 111B is smaller than that in the second region 112B. Further, in this example, the amount of reflected light in the first region 111B is smaller than that in the region outside the marker portion 11B.

本例では、一対の第2領域112Bは、再帰性反射材からなる。本例では、第1領域111Bは、再帰性反射材と異なる材料(例えば、紙、布、樹脂、金属、又は、セラミクス等)からなる。本例では、第1領域111Bは、黒色を有する。なお、第1領域111Bは、黒色と異なる色を有していてもよい。 In this example, the pair of second regions 112B are made of retroreflective material. In this example, the first region 111B is made of a material different from the retroreflective material (for example, paper, cloth, resin, metal, ceramics, etc.). In this example, the first region 111B has a black color. The first region 111B may have a color different from black.

また、一対の第2領域112Bは、再帰性反射材からなっていなくてもよい。この場合、例えば、一対の第2領域112Bは、白色を有するとともに、第1領域111Bは、白色と異なる色(例えば、黒色)を有していてもよい。本例では、マーカ部11Bの外部の領域は、光沢を有する金属からなる。本例では、マーカ部11Bの外部の領域は、対象物TGの表面である。
なお、一対の第2領域112Bのうちの少なくとも1つは、対象物TGの表面であってもよい。
Further, the pair of second regions 112B may not be made of a retroreflective material. In this case, for example, the pair of second regions 112B may have white color, and the first region 111B may have a color different from white (for example, black). In this example, the outer region of the marker portion 11B is made of a glossy metal. In this example, the region outside the marker portion 11B is the surface of the object TG.
At least one of the pair of second regions 112B may be the surface of the object TG.

一対の第2領域112Bのそれぞれは、所定の幅を有する帯状である。一対の第2領域112Bのそれぞれは、L字状である。一対の第2領域112Bは、第1領域111Bの内部に位置する長方形に沿って延びる。一対の第2領域112Bは、x軸方向における両端辺が、y軸方向に対して、45度よりも小さい角度だけ傾斜する方向にて延びる。 Each of the pair of second regions 112B is strip-shaped with a predetermined width. Each of the pair of second regions 112B is L-shaped. The pair of second regions 112B extend along a rectangle located inside the first region 111B. The pair of second regions 112B extend in a direction in which both ends in the x-axis direction are inclined by an angle smaller than 45 degrees with respect to the y-axis direction.

一対の第2領域112Bは、一対の第2領域112Bのうちの、y軸方向における両端辺をそれぞれ形成する一対の辺部1121Bと、一対の第2領域112Bのうちの、x軸方向における両端辺をそれぞれ形成する一対の辺部1122Bと、を有する。 The pair of second regions 112B includes a pair of side portions 1121B forming both end sides in the y-axis direction of the pair of second regions 112B and both ends of the pair of second regions 112B in the x-axis direction. It has a pair of side portions 1122B, each of which forms a side.

本例では、一対の辺部1121B、及び、一対の辺部1122Bのそれぞれは、y軸方向に対して傾斜する方向にて延びる。従って、一対の辺部1121B、及び、一対の辺部1122Bのそれぞれと、第1領域111Bと、の境界は、y軸方向に対して傾斜する直線である傾斜直線を形成する。 In this example, each of the pair of side portions 1121B and the pair of side portions 1122B extends in a direction inclined with respect to the y-axis direction. Therefore, the boundary between each of the pair of side portions 1121B and the pair of side portions 1122B and the first region 111B forms an inclined straight line which is a straight line inclined with respect to the y-axis direction.

また、本例では、一対の辺部1121Bは、互いに平行に延びる。従って、一対の辺部1121Bと、第1領域111Bと、の境界は、x軸方向と異なる方向にて延びるとともに互いに平行である一対の直線を形成する。 Further, in this example, the pair of side portions 1121B extend in parallel with each other. Therefore, the boundary between the pair of side portions 1121B and the first region 111B extends in a direction different from the x-axis direction and forms a pair of straight lines parallel to each other.

同様に、一対の辺部1122Bは、互いに平行に延びる。従って、一対の辺部1122Bと、第1領域111Bと、の境界は、x軸方向と異なる方向にて延びるとともに互いに平行である一対の直線を形成する。 Similarly, the pair of sides 1122B extend parallel to each other. Therefore, the boundary between the pair of side portions 1122B and the first region 111B extends in a direction different from the x-axis direction and forms a pair of straight lines parallel to each other.

本例では、一対の辺部1121Bのそれぞれの幅は、一対の辺部1122Bのそれぞれの幅よりも僅かに大きい。なお、一対の辺部1121Bのそれぞれの幅は、一対の辺部1122Bのそれぞれの幅以下であってもよい。 In this example, the width of each of the pair of side portions 1121B is slightly larger than the width of each of the pair of side portions 1122B. The width of each of the pair of side portions 1121B may be equal to or less than the width of each of the pair of side portions 1122B.

以上、説明したように、第2実施形態の第1変形例の検出装置1によれば、第2実施形態の検出装置1と同様の作用及び効果が奏される。 As described above, according to the detection device 1 of the first modification of the second embodiment, the same operations and effects as those of the detection device 1 of the second embodiment are exhibited.

<第3実施形態>
次に、第3実施形態の検出装置について説明する。第3実施形態の検出装置は、第1実施形態の検出装置に対して、マーカ部の領域の形状が相違している。以下、相違点を中心として説明する。なお、第3実施形態の説明において、第1実施形態にて使用した符号と同じ符号を付したものは、同一又は略同様のものである。
<Third Embodiment>
Next, the detection device of the third embodiment will be described. The detection device of the third embodiment has a different shape of the area of the marker portion from the detection device of the first embodiment. Hereinafter, the differences will be mainly described. In the description of the third embodiment, those having the same reference numerals as those used in the first embodiment are the same or substantially the same.

(構成)
図16に表されるように、第3実施形態のマーカ部11Cは、長方形状である。なお、マーカ部11Cは、長方形状と異なる形状(例えば、正方形状、円形状、楕円形状、又は、多角形状等)であってもよい。
本例では、マーカ部11Cは、1つの構成体により構成される。なお、マーカ部11Cは、複数の構成体により構成されていてもよい。この場合、複数の構成体は、互いに異なる複数の位置にそれぞれ固定されてよい。
本例では、マーカ部11Cは、x軸方向における両端辺が、y軸方向に対して、45度よりも小さい角度だけ傾斜する方向にて延びる。なお、マーカ部11Cは、x軸方向における両端辺がy軸方向にて延びていてもよい。
(Constitution)
As shown in FIG. 16, the marker portion 11C of the third embodiment has a rectangular shape. The marker portion 11C may have a shape different from the rectangular shape (for example, a square shape, a circular shape, an elliptical shape, a polygonal shape, or the like).
In this example, the marker unit 11C is composed of one component. The marker unit 11C may be composed of a plurality of components. In this case, the plurality of components may be fixed at a plurality of positions different from each other.
In this example, the marker portion 11C extends in a direction in which both ends in the x-axis direction are inclined by an angle smaller than 45 degrees with respect to the y-axis direction. In the marker portion 11C, both ends in the x-axis direction may extend in the y-axis direction.

マーカ部11Cは、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成する。本例では、マーカ部11Cは、第1領域111Cと、第1領域111Cに囲まれるように第1領域111Cに隣接する第2領域112Cと、を有する。第1領域111Cは、第2領域112Cよりも反射される光の量が大きい。 The marker unit 11C forms a plurality of regions adjacent to each other while the amount of reflected light is different from each other. In this example, the marker portion 11C has a first region 111C and a second region 112C adjacent to the first region 111C so as to be surrounded by the first region 111C. The first region 111C has a larger amount of reflected light than the second region 112C.

本例では、第1領域111Cは、再帰性反射材からなる。本例では、第2領域112Cは、再帰性反射材と異なる材料(例えば、紙、布、樹脂、金属、又は、セラミクス等)からなる。本例では、第2領域112Cは、黒色を有する。なお、第2領域112Cは、黒色と異なる色を有していてもよい。
また、第1領域111Cは、再帰性反射材からなっていなくてもよい。この場合、例えば、第1領域111Cは、白色を有するとともに、第2領域112Cは、白色と異なる色(例えば、黒色)を有していてもよい。
また、第1領域111C、及び、第2領域112Cのうちの少なくとも1つは、対象物TGの表面であってもよい。例えば、第2領域112Cは、対象物TGの表面であってもよい。
In this example, the first region 111C is made of a retroreflective material. In this example, the second region 112C is made of a material different from the retroreflective material (eg, paper, cloth, resin, metal, ceramics, etc.). In this example, the second region 112C has a black color. The second region 112C may have a color different from black.
Further, the first region 111C does not have to be made of a retroreflective material. In this case, for example, the first region 111C may have white color, and the second region 112C may have a color different from white (for example, black).
Further, at least one of the first region 111C and the second region 112C may be the surface of the object TG. For example, the second region 112C may be the surface of the object TG.

第2領域112Cは、所定の幅を有する線状である。本例では、第2領域112Cは、N字状である。第2領域112Cは、第1直線部1121Cと、第2直線部1122Cと、第3直線部1123Cと、を含む。 The second region 112C is linear with a predetermined width. In this example, the second region 112C is N-shaped. The second region 112C includes a first straight line portion 1121C, a second straight line portion 1122C, and a third straight line portion 1123C.

第1直線部1121Cは、マーカ部11Cのうちの、x軸の負方向における端部において、マーカ部11Cのうちの、x軸の負方向における端辺との間の距離が、y軸の正方向へ向かって長くなるように、当該端辺に対して傾斜する方向にて延びる。従って、第2領域112Cの第1直線部1121Cと第1領域111Cとの境界は、x軸方向と異なる方向にて延びる第1直線を形成する。 In the first straight line portion 1121C, the distance between the end portion of the marker portion 11C in the negative direction of the x-axis and the end portion of the marker portion 11C in the negative direction of the x-axis is the positive axis of the y-axis. It extends in a direction that is inclined with respect to the edge so as to become longer in the direction. Therefore, the boundary between the first straight line portion 1121C and the first region 111C of the second region 112C forms a first straight line extending in a direction different from the x-axis direction.

第2直線部1122Cは、マーカ部11Cのうちの、x軸方向における中央部において、マーカ部11Cのうちの、x軸の負方向における端辺との間の距離が、y軸の負方向へ向かって長くなるように、当該端辺に対して傾斜する方向にて延びる。従って、第2領域112Cの第2直線部1122Cと第1領域111Cとの境界は、x軸方向と異なる方向にて延びるとともに第1直線と異なる方向にて延びる第2直線を形成する。 In the second straight line portion 1122C, the distance between the central portion of the marker portion 11C in the x-axis direction and the end edge of the marker portion 11C in the negative direction of the x-axis is in the negative direction of the y-axis. It extends in a direction that is inclined with respect to the edge so as to become longer toward the end. Therefore, the boundary between the second straight line portion 1122C and the first region 111C of the second region 112C forms a second straight line extending in a direction different from the x-axis direction and extending in a direction different from the first straight line.

本例では、第2直線部1122Cは、第1直線部1121Cのうちの、y軸の正方向における端部と、第3直線部1123Cのうちの、y軸の負方向における端部と、を連結するように延びる。 In this example, the second straight line portion 1122C has the end portion of the first straight line portion 1121C in the positive direction of the y-axis and the end portion of the third straight line portion 1123C in the negative direction of the y-axis. Extend to connect.

第3直線部1123Cは、マーカ部11Cのうちの、x軸の正方向における端部において、マーカ部11Cのうちの、x軸の負方向における端辺との間の距離が、y軸の正方向へ向かって長くなるように、当該端辺に対して傾斜する方向にて延びる。従って、第2領域112Cの第3直線部1123Cと第1領域111Cとの境界は、x軸方向と異なる方向にて延びる第3直線を形成する。 In the third straight line portion 1123C, the distance between the end portion of the marker portion 11C in the positive direction of the x-axis and the end portion of the marker portion 11C in the negative direction of the x-axis is the positive axis of the y-axis. It extends in a direction that is inclined with respect to the edge so as to become longer in the direction. Therefore, the boundary between the third straight line portion 1123C and the first region 111C of the second region 112C forms a third straight line extending in a direction different from the x-axis direction.

本例では、第3直線部1123Cは、第1直線部1121Cと平行である。従って、第3直線は、第1直線と平行である。
このように、第1直線部1121Cと第1領域111Cとの境界、及び、第3直線部1123Cと第1領域111Cとの境界は、x軸方向と異なる方向(本例では、y軸方向に対して僅かに傾斜する方向)にて延びるとともに互いに平行である一対の直線を形成する。
In this example, the third straight line portion 1123C is parallel to the first straight line portion 1121C. Therefore, the third straight line is parallel to the first straight line.
As described above, the boundary between the first straight line portion 1121C and the first region 111C and the boundary between the third straight line portion 1123C and the first region 111C are in a direction different from the x-axis direction (in this example, in the y-axis direction). It extends in the direction of slight inclination) and forms a pair of straight lines that are parallel to each other.

(機能)
図17に表されるように、第3実施形態の検出部14Cの機能は、第1実施形態の検出部14の機能のうちの、y方向直線境界位置取得部1401、y方向直線基準値取得部1402、x方向変動量取得部1403、傾斜直線境界位置取得部1406、傾斜直線基準値取得部1407、及び、y方向変動量取得部1408に代えて、直線境界位置群取得部1421C、距離比基準値取得部1422C、y方向変動量取得部1423C、直線境界位置取得部1424C、直線基準値取得部1425C、及び、x方向変動量取得部1426Cを備える点を除いて、第1実施形態の検出部14の機能と同じである。
(function)
As shown in FIG. 17, the functions of the detection unit 14C of the third embodiment include the y-direction straight line boundary position acquisition unit 1401 and the y-direction straight line reference value acquisition among the functions of the detection unit 14 of the first embodiment. In place of the unit 1402, the x-direction fluctuation amount acquisition unit 1403, the inclined straight line boundary position acquisition unit 1406, the inclined straight line reference value acquisition unit 1407, and the y-direction fluctuation amount acquisition unit 1408, the linear boundary position group acquisition unit 1421C, the distance ratio Detection of the first embodiment except that the reference value acquisition unit 1422C, the y-direction fluctuation amount acquisition unit 1423C, the linear boundary position acquisition unit 1424C, the linear reference value acquisition unit 1425C, and the x-direction fluctuation amount acquisition unit 1426C are provided. It is the same as the function of the part 14.

直線境界位置群取得部1421Cは、M個の行画素群から、マーカ部11Cのうちの、y軸方向における両端部を除いた部分(本例では、マーカ部11Cのうちの、第1直線部1121C、第2直線部1122C、及び、第3直線部1123Cのすべてが存在する部分)に対応する、P個の行画素群を抽出する。Pは、Mよりも小さい整数を表す。 The straight line boundary position group acquisition unit 1421C is a portion of the marker unit 11C excluding both ends in the y-axis direction from the M row pixel group (in this example, the first straight line portion of the marker unit 11C). A group of P row pixels corresponding to 1121C, a portion in which all of the second straight line portion 1122C and the third straight line portion 1123C are present) is extracted. P represents an integer smaller than M.

直線境界位置群取得部1421Cは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、直線境界位置群を取得する。本例では、直線境界位置群は、第1直線境界位置、第2直線境界位置、及び、第3直線境界位置を含む。 The linear boundary position group acquisition unit 1421C acquires a linear boundary position group for each of the P row pixel groups based on N pixels included in the row pixel group. In this example, the straight line boundary position group includes the first straight line boundary position, the second straight line boundary position, and the third straight line boundary position.

本例では、第1直線境界位置は、第1直線部1121Cのうちの、x軸の負方向における端辺と、第1領域111Cと、の境界の位置に対応する。第2直線境界位置は、第2直線部1122Cのうちの、x軸の負方向における端辺と、第1領域111Cと、の境界の位置に対応する。第3直線境界位置は、第3直線部1123Cのうちの、x軸の負方向における端辺と、第1領域111Cと、の境界の位置に対応する。 In this example, the first straight line boundary position corresponds to the position of the boundary between the end side of the first straight line portion 1121C in the negative direction of the x-axis and the first region 111C. The second straight line boundary position corresponds to the position of the boundary between the end side of the second straight line portion 1122C in the negative direction of the x-axis and the first region 111C. The third straight line boundary position corresponds to the position of the boundary between the end side of the third straight line portion 1123C in the negative direction of the x-axis and the first region 111C.

なお、第1直線境界位置は、第1直線部1121Cのうちの、x軸の正方向における端辺と、第1領域111Cと、の境界の位置に対応してもよい。第2直線境界位置は、第2直線部1122Cのうちの、x軸の正方向における端辺と、第1領域111Cと、の境界の位置に対応してもよい。第3直線境界位置は、第3直線部1123Cのうちの、x軸の正方向における端辺と、第1領域111Cと、の境界の位置に対応してもよい。 The first straight line boundary position may correspond to the position of the boundary between the end side of the first straight line portion 1121C in the positive direction of the x-axis and the first region 111C. The second straight line boundary position may correspond to the position of the boundary between the end side of the second straight line portion 1122C in the positive direction of the x-axis and the first region 111C. The third straight line boundary position may correspond to the position of the boundary between the end side of the third straight line portion 1123C in the positive direction of the x-axis and the first region 111C.

また、第1直線境界位置は、第1直線部1121Cのうちの、x軸の負方向における端辺と、第1領域111Cと、の境界の位置と、第1直線部1121Cのうちの、x軸の正方向における端辺と、第1領域111Cと、の境界の位置と、の中点の位置に対応してもよい。第2直線境界位置は、第2直線部1122Cのうちの、x軸の負方向における端辺と、第1領域111Cと、の境界の位置と、第2直線部1122Cのうちの、x軸の正方向における端辺と、第1領域111Cと、の境界の位置と、の中点の位置に対応してもよい。第3直線境界位置は、第3直線部1123Cのうちの、x軸の負方向における端辺と、第1領域111Cと、の境界の位置と、第3直線部1123Cのうちの、x軸の正方向における端辺と、第1領域111Cと、の境界の位置と、の中点の位置に対応してもよい。 Further, the first straight line boundary position is the position of the boundary between the end side of the first straight line portion 1121C in the negative direction of the x-axis and the first region 111C, and the x of the first straight line portion 1121C. It may correspond to the position of the midpoint between the end side in the positive direction of the axis and the position of the boundary between the first region 111C. The second straight line boundary position is the position of the boundary between the end side in the negative direction of the x-axis of the second straight line portion 1122C and the first region 111C, and the x-axis of the second straight line portion 1122C. It may correspond to the position of the boundary between the end side in the positive direction and the first region 111C and the position of the midpoint. The third straight line boundary position is the position of the boundary between the end side in the negative direction of the x-axis of the third straight line portion 1123C and the first region 111C, and the x-axis of the third straight line portion 1123C. It may correspond to the position of the boundary between the end side in the positive direction and the first region 111C and the position of the midpoint.

本例では、直線境界位置群取得部1421Cは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、第2値が連続する第2値領域と、当該第2値領域に、当該第2値領域よりもx軸の正方向の位置にて隣接し且つ第1値が連続する第1値領域と、の境界の中で、x軸の負方向における端からx軸の正方向へ向かって、1番目乃至3番目の境界の位置を、第1直線境界位置、第2直線境界位置、及び、第3直線境界位置としてそれぞれ取得する。 In this example, the linear boundary position group acquisition unit 1421C has a second value region in which the second value of the N pixels included in the row pixel group is continuous with respect to each of the P row pixel groups. And the negative of the x-axis within the boundary between the second value region and the first value region which is adjacent to the second value region at a position in the positive direction of the x-axis and the first value is continuous. The positions of the first to third boundaries are acquired as the first straight line boundary position, the second straight line boundary position, and the third straight line boundary position from the end in the direction toward the positive direction of the x-axis.

距離比基準値取得部1422Cは、直線境界位置群取得部1421Cにより取得されたP個の直線境界位置群に基づいて、P個の行画素群のそれぞれに対する距離比基準値を取得する。 The distance ratio reference value acquisition unit 1422C acquires the distance ratio reference value for each of the P row pixel groups based on the P linear boundary position group acquired by the linear boundary position group acquisition unit 1421C.

本例では、距離比基準値取得部1422Cは、直線境界位置群取得部1421Cにより取得されたP個の第1直線境界位置に対する距離の総和が最小である直線を第1基準直線として取得する。なお、距離比基準値取得部1422Cは、直線境界位置群取得部1421Cにより取得されたP個の第1直線境界位置に対する距離の二乗の総和が最小である直線を第1基準直線として取得してもよい。 In this example, the distance ratio reference value acquisition unit 1422C acquires a straight line having the smallest total distance with respect to the P first straight line boundary positions acquired by the straight line boundary position group acquisition unit 1421C as the first reference straight line. The distance ratio reference value acquisition unit 1422C acquires a straight line having the smallest sum of squares of distances with respect to the P first straight line boundary positions acquired by the straight line boundary position group acquisition unit 1421C as the first reference straight line. May be good.

距離比基準値取得部1422Cは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、取得された第1基準直線と交差する画素の位置を、第1直線基準値として取得する。 The distance ratio reference value acquisition unit 1422C determines the positions of the pixels intersecting the acquired first reference line among the N pixels included in the row pixel group for each of the P row pixel groups. , Obtained as the first straight line reference value.

距離比基準値取得部1422Cは、第1直線境界位置に基づいて第1直線基準値を取得する方法と同様の方法を用いて、第2直線境界位置に基づいて第2直線基準値を取得するとともに、第3直線境界位置に基づいて第3直線基準値を取得する。 The distance ratio reference value acquisition unit 1422C acquires the second straight line reference value based on the second straight line boundary position by using the same method as the method of acquiring the first straight line reference value based on the first straight line boundary position. At the same time, the third straight line reference value is acquired based on the third straight line boundary position.

距離比基準値取得部1422Cは、P個の行画素群のそれぞれに対して、取得された、第1直線基準値、第2直線基準値、及び、第3直線基準値に基づいて、距離比基準値を取得する。 The distance ratio reference value acquisition unit 1422C transfers the distance ratio to each of the P row pixel groups based on the acquired first straight line reference value, second straight line reference value, and third straight line reference value. Get the reference value.

距離比基準値は、第1直線基準値、第2直線基準値、及び、第3直線基準値のうちの、2個の直線基準値からなる第1位置ペアの間の第1距離と、第1直線基準値、第2直線基準値、及び、第3直線基準値のうちの、第1位置ペアと異なる2個の直線基準値からなる第2位置ペアの間の第2距離と、の比である。 The distance ratio reference value is the first distance between the first position pair consisting of two straight line reference values among the first straight line reference value, the second straight line reference value, and the third straight line reference value, and the first. The ratio of the 1st straight line reference value, the 2nd straight line reference value, and the 3rd straight line reference value to the 2nd distance between the 2nd position pair consisting of 2 straight line reference values different from the 1st position pair. Is.

本例では、距離比基準値は、第1直線基準値、及び、第2直線基準値からなる第1位置ペアの間の第1距離の、第2直線基準値、及び、第3直線基準値からなる第2位置ペアの間の第2距離に対する比である。なお、第1位置ペアが、第1直線基準値、及び、第2直線基準値からなるとともに、第2位置ペアが、第1直線基準値、及び、第3直線基準値からなっていてもよい。また、第1位置ペアが、第1直線基準値、及び、第3直線基準値からなるとともに、第2位置ペアが、第2直線基準値、及び、第3直線基準値からなっていてもよい。 In this example, the distance ratio reference value is the second straight line reference value and the third straight line reference value of the first distance between the first straight line reference value and the first position pair consisting of the second straight line reference value. A ratio to a second distance between a second position pair consisting of. The first position pair may consist of the first straight line reference value and the second straight line reference value, and the second position pair may consist of the first straight line reference value and the third straight line reference value. .. Further, the first position pair may be composed of the first straight line reference value and the third straight line reference value, and the second position pair may be composed of the second straight line reference value and the third straight line reference value. ..

y方向変動量取得部1423Cは、直線境界位置群取得部1421Cにより取得されたP個の直線境界位置群と、距離比基準値取得部1422Cにより取得されたP個の距離比基準値と、に基づいて、P個の行画素群のそれぞれに対するy方向変動量を取得する。本例では、y方向変動量取得部1423Cは、P個の行画素群のそれぞれに対して、直線境界位置群取得部1421Cにより取得された、第1直線境界位置、第2直線境界位置、及び、第3直線境界位置に基づいて、距離比を取得する。 The y-direction fluctuation amount acquisition unit 1423C includes P linear boundary position groups acquired by the linear boundary position group acquisition unit 1421C and P distance ratio reference values acquired by the distance ratio reference value acquisition unit 1422C. Based on this, the amount of fluctuation in the y direction for each of the P row pixel groups is acquired. In this example, the y-direction fluctuation amount acquisition unit 1423C has the first linear boundary position, the second linear boundary position, and the linear boundary position acquired by the linear boundary position group acquisition unit 1421C for each of the P row pixel groups. , The distance ratio is acquired based on the third straight line boundary position.

本例では、距離比は、第1直線基準値、第2直線基準値、及び、第3直線基準値に代えて、第1直線境界位置、第2直線境界位置、及び、第3直線境界位置を用いる点を除いて、距離比基準値と同じ方法を用いて取得される。従って、本例では、距離比は、第1直線境界位置、及び、第2直線境界位置からなる第1位置ペアの間の第1距離の、第2直線境界位置、及び、第3直線境界位置からなる第2位置ペアの間の第2距離に対する比である。 In this example, the distance ratio is the first straight line boundary position, the second straight line boundary position, and the third straight line boundary position instead of the first straight line reference value, the second straight line reference value, and the third straight line reference value. Is obtained using the same method as the distance ratio reference value, except that. Therefore, in this example, the distance ratio is the second straight line boundary position and the third straight line boundary position of the first distance between the first straight line boundary position and the first position pair consisting of the second straight line boundary position. The ratio to the second distance between the second position pairs consisting of.

y方向変動量取得部1423Cは、P個の行画素群のそれぞれに対して、当該行画素群と、当該行画素群に対して取得された距離比と最も近い値を有する距離比基準値が取得された行画素群と、のy軸方向における位置の差を、y方向変動量として取得する。 The y-direction fluctuation amount acquisition unit 1423C has a distance ratio reference value having a value closest to the distance ratio acquired for the row pixel group and the row pixel group for each of the P row pixel groups. The difference between the acquired row pixel group and the position in the y-axis direction is acquired as the amount of fluctuation in the y-direction.

スペクトル解析部1404は、y方向変動量取得部1423Cにより取得されたP個のy方向変動量に対してスペクトル解析を行う。本例では、各画素のy軸方向における位置は、当該画素が表す値の基となった光が撮像部13に入射する時間に対応する。従って、本例では、y方向変動量の、y軸方向における変化は、y方向変動量の時間に対する変化に対応する。 The spectrum analysis unit 1404 performs spectrum analysis on P Y-direction fluctuation amounts acquired by the y-direction fluctuation amount acquisition unit 1423C. In this example, the position of each pixel in the y-axis direction corresponds to the time when the light on which the value represented by the pixel is based is incident on the imaging unit 13. Therefore, in this example, the change in the y-direction fluctuation amount in the y-axis direction corresponds to the change in the y-direction fluctuation amount with time.

例えば、図18に表されるように、対象物TGがy軸方向にて振動している場合を想定する。この場合、例えば、第1直線境界位置、第2直線境界位置、及び、第3直線境界位置のそれぞれは、曲線L41により表されるように、x軸方向にて変動する波線上に位置する。また、第1直線基準値、第2直線基準値、及び、第3直線基準値のそれぞれは、直線L40により表されるように、3本の基準直線上に位置する。 For example, as shown in FIG. 18, it is assumed that the object TG vibrates in the y-axis direction. In this case, for example, each of the first straight line boundary position, the second straight line boundary position, and the third straight line boundary position is located on a wavy line that fluctuates in the x-axis direction as represented by the curve L41. Further, each of the first straight line reference value, the second straight line reference value, and the third straight line reference value is located on three reference straight lines as represented by the straight line L40.

従って、ある行画素群と、当該行画素群に対する、第1直線境界位置、第2直線境界位置、及び、第3直線境界位置に基づく距離比と最も近い値を有する距離比基準値が取得された行画素群と、のy軸方向における位置の差を表すy方向変動量の、y軸方向における変化は、対象物TGのy軸方向における振動を高い精度にて反映する。 Therefore, a distance ratio reference value having a value closest to a certain row pixel group and the distance ratio based on the first straight line boundary position, the second straight line boundary position, and the third straight line boundary position with respect to the row pixel group is acquired. The change in the y-axis direction of the y-direction fluctuation amount representing the difference in position between the row pixel group and the y-axis direction reflects the vibration of the object TG in the y-axis direction with high accuracy.

本例では、距離比γは、数式3により表される。ここで、sは、第1直線境界位置、及び、第2直線境界位置からなる第1位置ペアの間の第1距離を表す。sは、第2直線境界位置、及び、第3直線境界位置からなる第2位置ペアの間の第2距離を表す。

Figure 2021071464
In this example, the distance ratio γ is expressed by Equation 3. Here, s 1 represents the first distance between the first straight line boundary position and the first position pair consisting of the second straight line boundary position. s 2 represents the second distance between the second straight line boundary position and the second position pair consisting of the third straight line boundary position.
Figure 2021071464

また、対象物TGがx軸方向にて振動している場合であっても、当該振動に伴って距離比が変化しにくいので、x軸方向における振動は、y方向変動量に反映されにくい。更に、対象物TGがz軸方向にて振動している場合であっても、当該振動に伴って距離比が変化しにくいので、z軸方向における振動は、y方向変動量に反映されにくい。従って、y方向変動量の、y軸方向における変化は、対象物TGのy軸方向における振動を高い精度にて反映できる。 Further, even when the object TG vibrates in the x-axis direction, the distance ratio does not easily change with the vibration, so that the vibration in the x-axis direction is not easily reflected in the amount of fluctuation in the y-direction. Further, even when the object TG vibrates in the z-axis direction, the distance ratio does not easily change with the vibration, so that the vibration in the z-axis direction is not easily reflected in the amount of fluctuation in the y-direction. Therefore, the change in the y-direction fluctuation amount in the y-axis direction can reflect the vibration of the object TG in the y-axis direction with high accuracy.

直線境界位置取得部1424Cは、M個の行画素群から、マーカ部11Cのうちの、y軸方向における両端部(本例では、第1直線部1121Cのy軸方向における両端部を含む部分)を除いた部分に対応する、Q個の行画素群を抽出する。Qは、Mよりも小さい整数を表す。本例では、Qが表す整数は、Pが表す整数と等しい。なお、Qが表す整数は、Pが表す整数と異なっていてもよい。 The linear boundary position acquisition unit 1424C is a portion of the marker unit 11C that includes both ends in the y-axis direction (in this example, a portion including both ends of the first linear unit 1121C in the y-axis direction) from the group of M row pixels. The Q row pixel group corresponding to the portion excluding is extracted. Q represents an integer smaller than M. In this example, the integer represented by Q is equal to the integer represented by P. The integer represented by Q may be different from the integer represented by P.

直線境界位置取得部1424Cは、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、直線境界位置を取得する。本例では、直線境界位置は、第1直線部1121Cのうちの、x軸の負方向における端辺と、第2領域112Cと、の境界の位置に対応する。 The linear boundary position acquisition unit 1424C acquires the linear boundary position for each of the Q row pixel groups based on the N pixels included in the row pixel group. In this example, the straight line boundary position corresponds to the position of the boundary between the end side of the first straight line portion 1121C in the negative direction of the x-axis and the second region 112C.

なお、直線境界位置は、第1直線部1121Cのうちの、x軸の正方向における端辺と、第2領域112Cと、の境界の位置に対応してもよい。また、直線境界位置は、第1直線部1121Cのうちの、x軸の負方向における端辺と、第2領域112Cと、の境界の位置と、第1直線部1121Cのうちの、x軸の正方向における端辺と、第2領域112Cと、の境界の位置と、の中点の位置に対応してもよい。 The straight line boundary position may correspond to the position of the boundary between the end side of the first straight line portion 1121C in the positive direction of the x-axis and the second region 112C. Further, the linear boundary position is the position of the boundary between the end side in the negative direction of the x-axis of the first straight portion 1121C and the second region 112C, and the x-axis of the first straight portion 1121C. It may correspond to the position of the boundary between the end edge in the positive direction and the second region 112C, and the position of the midpoint.

なお、検出部14Cは、第1直線部1121Cに代えて、第2直線部1122C、又は、第3直線部1123Cを用いて、x方向変動量を取得してもよい。また、検出部14Cは、第1直線部1121C、第2直線部1122C、及び、第3直線部1123Cの少なくとも2つを用いて、x方向変動量を取得してもよい。この場合、例えば、検出部14Cは、第1直線部1121C、第2直線部1122C、及び、第3直線部1123Cの少なくとも2つのそれぞれに対して境界の位置を取得し、取得された複数の位置の平均値を直線境界位置として取得してもよい。 The detection unit 14C may acquire the amount of fluctuation in the x direction by using the second straight line portion 1122C or the third straight line portion 1123C instead of the first straight line portion 1121C. Further, the detection unit 14C may acquire the amount of fluctuation in the x direction by using at least two of the first straight line unit 1121C, the second straight line unit 1122C, and the third straight line unit 1123C. In this case, for example, the detection unit 14C acquires the position of the boundary with respect to at least two of the first straight line portion 1121C, the second straight line portion 1122C, and the third straight line portion 1123C, and the acquired plurality of positions. The average value of may be acquired as a linear boundary position.

本例では、直線境界位置取得部1424Cは、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、第2値が連続する第2値領域と、当該第2値領域に、当該第2値領域よりもx軸の正方向の位置にて隣接し且つ第1値が連続する第1値領域と、の境界の中で、x軸の負方向における端からx軸の正方向へ向かって1番目の境界の位置を直線境界位置として取得する。 In this example, the linear boundary position acquisition unit 1424C sets the second value region in which the second value is continuous among the N pixels included in the row pixel group for each of the Q row pixel groups. , In the negative direction of the x-axis within the boundary between the second value region and the first value region which is adjacent to the second value region at a position in the positive direction of the x-axis and the first value is continuous. The position of the first boundary from the end in the positive direction of the x-axis is acquired as the linear boundary position.

直線境界位置取得部1424Cは、取得されたQ個の直線境界位置を、y方向変動量取得部1423Cにより取得されたy方向変動量に基づいて補正する。 The linear boundary position acquisition unit 1424C corrects the acquired Q linear boundary positions based on the y-direction fluctuation amount acquired by the y-direction fluctuation amount acquisition unit 1423C.

本例では、直線境界位置取得部1424Cは、取得されたQ個の直線境界位置に基づいて、仮基準直線を取得する。本例では、直線境界位置取得部1424Cは、取得されたQ個の直線境界位置に対する距離の総和が最小である直線を仮基準直線として取得する。なお、直線境界位置取得部1424Cは、取得されたQ個の直線境界位置に対する距離の二乗の総和が最小である直線を仮基準直線として取得してもよい。 In this example, the straight line boundary position acquisition unit 1424C acquires a provisional reference straight line based on the acquired Q straight line boundary positions. In this example, the straight line boundary position acquisition unit 1424C acquires a straight line having the minimum total distance with respect to the acquired Q straight line boundary positions as a provisional reference straight line. The straight line boundary position acquisition unit 1424C may acquire a straight line having the smallest sum of squares of distances with respect to the acquired Q straight line boundary positions as a provisional reference straight line.

更に、本例では、直線境界位置取得部1424Cは、Q個の行画素群のそれぞれに対して、取得された直線境界位置を、y方向変動量取得部1423Cにより取得されたy方向変動量に、取得された仮基準直線とx軸方向とにより形成される角度の余接を乗じた値が表す方向と逆の方向へ、当該値が表す大きさだけ移動させるように、当該直線境界位置を補正する。換言すると、本例では、直線境界位置取得部1424Cは、Q個の行画素群のそれぞれに対して、y方向変動量を打ち消すように直線境界位置を補正する。 Further, in this example, the linear boundary position acquisition unit 1424C sets the acquired linear boundary position for each of the Q row pixel groups to the y-direction fluctuation amount acquired by the y-direction fluctuation amount acquisition unit 1423C. , The straight line boundary position is moved in the direction opposite to the direction represented by the value obtained by multiplying the margin of the angle formed by the acquired provisional reference straight line and the x-axis direction by the magnitude represented by the value. to correct. In other words, in this example, the linear boundary position acquisition unit 1424C corrects the linear boundary position for each of the Q row pixel groups so as to cancel the amount of fluctuation in the y direction.

直線基準値取得部1425Cは、直線境界位置取得部1424Cにより補正されたQ個の直線境界位置に基づいて、Q個の行画素群のそれぞれに対する直線基準値を取得する。 The linear reference value acquisition unit 1425C acquires linear reference values for each of the Q row pixel groups based on the Q linear boundary positions corrected by the linear boundary position acquisition unit 1424C.

本例では、直線基準値取得部1425Cは、直線境界位置取得部1424Cにより補正されたQ個の直線境界位置に対する距離の総和が最小である直線を基準直線として取得する。なお、直線基準値取得部1425Cは、直線境界位置取得部1424Cにより補正されたQ個の直線境界位置に対する距離の二乗の総和が最小である直線を基準直線として取得してもよい。 In this example, the straight line reference value acquisition unit 1425C acquires a straight line having the minimum total distance to the Q straight line boundary positions corrected by the straight line boundary position acquisition unit 1424C as a reference straight line. The straight line reference value acquisition unit 1425C may acquire a straight line having the smallest sum of squares of distances with respect to the Q straight line boundary positions corrected by the straight line boundary position acquisition unit 1424C as a reference straight line.

直線基準値取得部1425Cは、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素のうちの、取得された基準直線と交差する画素の位置を、直線基準値として取得する。 The linear reference value acquisition unit 1425C sets the position of the pixel intersecting the acquired reference straight line among the N pixels included in the row pixel group with respect to each of the Q row pixel groups as a linear reference. Get as a value.

x方向変動量取得部1426Cは、直線境界位置取得部1424Cにより補正されたQ個の直線境界位置と、直線基準値取得部1425Cにより取得されたQ個の直線基準値と、に基づいて、Q個の行画素群のそれぞれに対するx方向変動量を取得する。 The x-direction fluctuation amount acquisition unit 1426C has Q based on the Q linear boundary positions corrected by the linear boundary position acquisition unit 1424C and the Q linear reference values acquired by the linear reference value acquisition unit 1425C. The amount of variation in the x-direction for each of the row pixel groups is acquired.

本例では、x方向変動量は、直線境界位置と直線基準値との、x軸方向における位置の差である。換言すると、x方向変動量は、直線境界位置取得部1424Cにより補正されたQ個の直線境界位置のx軸方向における変動量に対応する。 In this example, the amount of fluctuation in the x direction is the difference in position between the straight line boundary position and the straight line reference value in the x-axis direction. In other words, the amount of fluctuation in the x-direction corresponds to the amount of fluctuation in the x-axis direction of the Q linear boundary positions corrected by the linear boundary position acquisition unit 1424C.

スペクトル解析部1404は、x方向変動量取得部1426Cにより取得されたQ個のx方向変動量に対してスペクトル解析を行う。本例では、各画素のy軸方向における位置は、当該画素が表す値の基となった光が撮像部13に入射する時間に対応する。従って、本例では、x方向変動量の、y軸方向における変化は、x方向変動量の時間に対する変化に対応する。 The spectrum analysis unit 1404 performs spectrum analysis on the Q x-direction fluctuation amounts acquired by the x-direction fluctuation amount acquisition unit 1426C. In this example, the position of each pixel in the y-axis direction corresponds to the time when the light on which the value represented by the pixel is based is incident on the imaging unit 13. Therefore, in this example, the change in the x-direction fluctuation amount in the y-axis direction corresponds to the change in the x-direction fluctuation amount with time.

本例では、第1直線境界位置、第2直線境界位置、第3直線境界位置、及び、直線境界位置のそれぞれは、境界位置に対応する。本例では、距離比基準値、及び、直線基準値のそれぞれは、基準値に対応する。 In this example, each of the first straight line boundary position, the second straight line boundary position, the third straight line boundary position, and the straight line boundary position corresponds to the boundary position. In this example, each of the distance ratio reference value and the linear reference value corresponds to the reference value.

(動作)
次に、第3実施形態の検出装置1の動作について、図19及び図20を参照しながら説明する。
第3実施形態の検出装置1は、図9の処理、及び、図10の処理に代えて、図19の処理、及び、図20の処理を実行する点を除いて、第1実施形態の検出装置1と同様に動作する。
(motion)
Next, the operation of the detection device 1 of the third embodiment will be described with reference to FIGS. 19 and 20.
The detection device 1 of the third embodiment detects the first embodiment except that the process of FIG. 19 and the process of FIG. 20 are executed instead of the process of FIG. 9 and the process of FIG. It operates in the same manner as the device 1.

以下、図19の処理について説明を加える。
検出部14Cは、P個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、直線境界位置群を取得する(図19のステップS401)。
Hereinafter, the processing of FIG. 19 will be described.
The detection unit 14C acquires a linear boundary position group for each of the P row pixel groups based on the N pixels included in the row pixel group (step S401 in FIG. 19).

次いで、検出部14Cは、ステップS401にて取得されたP個の直線境界位置群に基づいて、P個の行画素群のそれぞれに対する距離比基準値を取得する(図19のステップS402)。 Next, the detection unit 14C acquires a distance ratio reference value for each of the P row pixel groups based on the P linear boundary position group acquired in step S401 (step S402 in FIG. 19).

次いで、検出部14Cは、ステップS401にて取得されたP個の直線境界位置群と、ステップS402にて取得されたP個の距離比基準値と、に基づいて、P個の行画素群のそれぞれに対するy方向変動量を取得する(図19のステップS403)。 Next, the detection unit 14C sets the P row pixel group based on the P linear boundary position group acquired in step S401 and the P distance ratio reference value acquired in step S402. The amount of fluctuation in the y direction for each is acquired (step S403 in FIG. 19).

次いで、検出部14Cは、ステップS403にて取得されたP個のy方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことによりy方向変動周波数成分を取得する(図19のステップS404)。
次いで、検出部14Cは、ステップS404にて取得されたy方向変動周波数成分に基づいて、対象物TGのy軸方向における振動を検出する(図19のステップS405)。
このようにして、検出部14Cは、図19の処理を実行する。
Next, the detection unit 14C acquires the y-direction fluctuation frequency component by performing Fourier transform processing, wavelet transform processing, or the like on the P y-direction fluctuation amounts acquired in step S403 (step S404 in FIG. 19). ).
Next, the detection unit 14C detects the vibration of the object TG in the y-axis direction based on the y-direction fluctuation frequency component acquired in step S404 (step S405 in FIG. 19).
In this way, the detection unit 14C executes the process shown in FIG.

次に、図20の処理について説明を加える。
検出部14Cは、Q個の行画素群のそれぞれに対して、当該行画素群に含まれるN個の画素に基づいて、直線境界位置を取得する(図20のステップS501)。
Next, the process of FIG. 20 will be described.
The detection unit 14C acquires a linear boundary position for each of the Q row pixel groups based on the N pixels included in the row pixel group (step S501 in FIG. 20).

次いで、検出部14Cは、ステップS501にて取得されたQ個の直線境界位置を、図19のステップS403にて取得されたy方向変動量に基づいて補正する(図20のステップS502)。
次いで、検出部14Cは、ステップS502にて補正されたQ個の直線境界位置に基づいて、Q個の行画素群のそれぞれに対する直線基準値を取得する(図20のステップS503)。
Next, the detection unit 14C corrects the Q linear boundary positions acquired in step S501 based on the y-direction fluctuation amount acquired in step S403 of FIG. 19 (step S502 of FIG. 20).
Next, the detection unit 14C acquires a linear reference value for each of the Q row pixel groups based on the Q linear boundary positions corrected in step S502 (step S503 in FIG. 20).

次いで、検出部14Cは、ステップS502にて補正されたQ個の直線境界位置と、ステップS503にて取得されたQ個の直線基準値と、に基づいて、Q個の行画素群のそれぞれに対するx方向変動量を取得する(図20のステップS504)。 Next, the detection unit 14C with respect to each of the Q row pixel groups based on the Q linear boundary positions corrected in step S502 and the Q linear reference values acquired in step S503. The amount of fluctuation in the x direction is acquired (step S504 in FIG. 20).

次いで、検出部14Cは、ステップS504にて取得されたQ個のx方向変動量に対してフーリエ変換処理又はウェーブレット変換処理等を行うことによりx方向変動周波数成分を取得する(図20のステップS505)。
次いで、検出部14Cは、ステップS505にて取得されたx方向変動周波数成分に基づいて、対象物TGのx軸方向における振動を検出する(図20のステップS506)。
このようにして、検出部14Cは、図20の処理を実行する。
Next, the detection unit 14C acquires the x-direction fluctuation frequency component by performing Fourier transform processing, wavelet transform processing, or the like on the Q x-direction fluctuation amounts acquired in step S504 (step S505 in FIG. 20). ).
Next, the detection unit 14C detects the vibration of the object TG in the x-axis direction based on the x-direction fluctuation frequency component acquired in step S505 (step S506 in FIG. 20).
In this way, the detection unit 14C executes the process of FIG. 20.

以上、説明したように、第3実施形態の検出装置1は、撮像部13と、検出部14Cと、を備える。撮像部13は、対象物TGを撮影することにより画像を出力する。画像は、第1方向(本例では、y軸方向)にて互いに異なる複数の位置をそれぞれ有する複数の行画素群を含む。複数の行画素群には、互いに異なる複数の処理期間がそれぞれ割り当てられる。複数の行画素群のそれぞれは、第1方向に直交する第2方向(本例では、x軸方向)にて互いに異なる複数の位置をそれぞれ有するとともに当該行画素群に割り当てられた処理期間にて入射する光の量を表す複数の画素を含む。 As described above, the detection device 1 of the third embodiment includes an imaging unit 13 and a detection unit 14C. The imaging unit 13 outputs an image by photographing the object TG. The image includes a plurality of row pixel groups each having a plurality of positions different from each other in the first direction (in this example, the y-axis direction). A plurality of processing periods different from each other are assigned to the plurality of row pixel groups. Each of the plurality of row pixel groups has a plurality of positions different from each other in the second direction (in this example, the x-axis direction) orthogonal to the first direction, and at the processing period assigned to the row pixel group. Includes a plurality of pixels representing the amount of incident light.

検出部14Cは、撮像部13により出力された画像において、当該画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である境界位置を、上記複数の行画素群のそれぞれに対して取得し、取得された複数の境界位置に基づいて対象物TGの振動を検出する。 In the image output by the imaging unit 13, the detection unit 14C sets the boundary position, which is the position of the boundary of a plurality of regions adjacent to each other while the amount of light represented by the pixels included in the image is different from each other, in the plurality of rows. It is acquired for each of the pixel groups, and the vibration of the object TG is detected based on the acquired plurality of boundary positions.

これによれば、画像に含まれる複数の行画素群は、互いに異なる複数の処理期間にてそれぞれ入射する光の量を表す。ところで、連続する2つの処理期間の間隔は、撮影間隔よりも短い。従って、複数の行画素群に対してそれぞれ取得される複数の境界位置は、撮影間隔に対して十分に短い周期を有する振動を反映できる。この結果、検出装置1によれば、撮影間隔に対して十分に短い周期を有する振動を検出できる。 According to this, the plurality of row pixel groups included in the image represent the amount of light incident on each of the plurality of processing periods different from each other. By the way, the interval between two consecutive processing periods is shorter than the imaging interval. Therefore, the plurality of boundary positions acquired for each of the plurality of row pixel groups can reflect the vibration having a sufficiently short period with respect to the shooting interval. As a result, according to the detection device 1, vibration having a period sufficiently short with respect to the photographing interval can be detected.

更に、第3実施形態の検出装置1において、検出部14Cは、取得された複数の境界位置の少なくとも一部に基づいて、複数の行画素群の少なくとも一部のそれぞれに対して基準値を取得し、取得された基準値と、取得された複数の境界位置と、に基づいて対象物TGの振動を検出する。 Further, in the detection device 1 of the third embodiment, the detection unit 14C acquires a reference value for at least a part of each of the plurality of row pixel groups based on at least a part of the acquired plurality of boundary positions. Then, the vibration of the object TG is detected based on the acquired reference value and the acquired plurality of boundary positions.

例えば、対象物TGに対する撮像部13の位置を特定できない場合、対象物TGが振動していない状態における境界位置を特定できない。このため、対象物TGの振動を高い精度にて検出できない虞があった。
これに対し、検出装置1によれば、取得された複数の境界位置に基づいて、対象物TGが振動していない状態における行画素群毎の基準値を取得できる。従って、対象物TGに対する撮像部13の位置を特定できない場合であっても、対象物TGの振動を高い精度にて検出できる。
なお、第3実施形態の変形例の検出装置1において、検出部14Cは、取得された複数の境界位置に基づいて基準値を取得することなく、予め定められた基準値を用いてもよい。
For example, when the position of the imaging unit 13 with respect to the object TG cannot be specified, the boundary position in the state where the object TG is not vibrating cannot be specified. Therefore, there is a possibility that the vibration of the object TG cannot be detected with high accuracy.
On the other hand, according to the detection device 1, it is possible to acquire a reference value for each row pixel group in a state where the object TG is not vibrating, based on the acquired plurality of boundary positions. Therefore, even when the position of the imaging unit 13 with respect to the object TG cannot be specified, the vibration of the object TG can be detected with high accuracy.
In the detection device 1 of the modified example of the third embodiment, the detection unit 14C may use a predetermined reference value without acquiring the reference value based on the acquired plurality of boundary positions.

更に、第3実施形態の検出装置1は、対象物TGに固定され、且つ、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成するマーカ部11Cを備える。撮像部13は、マーカ部11Cを撮影することにより画像を出力する。検出部14Cは、対象物TGの振動を検出する。 Further, the detection device 1 of the third embodiment includes a marker unit 11C which is fixed to the object TG, has different amounts of reflected light, and forms a plurality of regions adjacent to each other. The imaging unit 13 outputs an image by photographing the marker unit 11C. The detection unit 14C detects the vibration of the object TG.

対象物TGの表面において互いに隣接する複数の領域にて反射される光の量が、略同じであることがある。この場合、境界位置を高い精度にて取得できない虞があった。
これに対し、検出装置1によれば、反射される光の量が互いに異なる複数の領域を形成するマーカ部11Cが対象物TGに固定される。従って、マーカ部11Cが撮影されることにより出力された画像を用いることにより、境界位置を高い精度にて取得できる。この結果、対象物TGの振動を高い精度にて検出できる。
The amount of light reflected by a plurality of regions adjacent to each other on the surface of the object TG may be substantially the same. In this case, there is a risk that the boundary position cannot be obtained with high accuracy.
On the other hand, according to the detection device 1, the marker portion 11C forming a plurality of regions in which the amount of reflected light is different from each other is fixed to the object TG. Therefore, the boundary position can be acquired with high accuracy by using the image output by photographing the marker unit 11C. As a result, the vibration of the object TG can be detected with high accuracy.

更に、第3実施形態の検出装置1において、マーカ部11Cは、複数の領域のうちの少なくとも1つが再帰性反射材からなる。 Further, in the detection device 1 of the third embodiment, at least one of the plurality of regions of the marker unit 11C is made of a retroreflective material.

これによれば、再帰性反射材からなる領域にて反射される光の量を大きくすることができる。この結果、境界位置を高い精度にて取得できるので、対象物TGの振動を高い精度にて検出できる。 According to this, the amount of light reflected in the region made of the retroreflective material can be increased. As a result, since the boundary position can be acquired with high accuracy, the vibration of the object TG can be detected with high accuracy.

更に、第3実施形態の検出装置1において、マーカ部11Cは、複数の領域の境界の少なくとも一部が、第2方向(本例では、x軸方向)と異なる方向にて延びる第1直線と、第2方向と異なる方向にて延びるとともに第1直線と異なる方向にて延びる第2直線と、第2方向と異なる方向にて延びる第3直線と、を形成する。 Further, in the detection device 1 of the third embodiment, the marker unit 11C has a first straight line in which at least a part of the boundary between the plurality of regions extends in a direction different from the second direction (x-axis direction in this example). , A second straight line extending in a direction different from the second direction and extending in a direction different from the first straight line, and a third straight line extending in a direction different from the second direction are formed.

検出部14Cは、複数の行画素群の少なくとも一部のそれぞれに対して、3つの境界位置を取得し、取得された3つの境界位置のうちの2つの境界位置からなる第1位置ペアの間の第1距離と、取得された3つの境界位置のうちの、第1位置ペアと異なる2つの境界位置からなる第2位置ペアの間の第2距離と、の比である距離比を取得し、取得された複数の距離比の、第1方向(本例では、y軸方向)における変化に基づいて、第1方向における対象物TGの振動を検出する。 The detection unit 14C acquires three boundary positions for each of at least a part of the plurality of row pixel groups, and is between a first position pair consisting of two boundary positions among the acquired three boundary positions. The distance ratio, which is the ratio between the first distance of the above and the second distance between the second position pair consisting of two boundary positions different from the first position pair among the acquired three boundary positions, is acquired. , The vibration of the object TG in the first direction is detected based on the change in the acquired plurality of distance ratios in the first direction (in this example, the y-axis direction).

3本の直線を形成する境界の境界位置の間の第2方向における距離の比である距離比は、第1方向における対象物TGの振動を高い精度にて反映する。従って、検出装置1によれば、第1方向における対象物TGの振動を高い精度にて検出できる。 The distance ratio, which is the ratio of the distances in the second direction between the boundary positions of the boundaries forming the three straight lines, reflects the vibration of the object TG in the first direction with high accuracy. Therefore, according to the detection device 1, the vibration of the object TG in the first direction can be detected with high accuracy.

更に、第3実施形態の検出装置1のマーカ部11Cにおいて、第3直線は、第1直線と平行である。検出部14Cは、複数の行画素群の少なくとも一部のそれぞれに対して、取得された3つの境界位置のうちの、第1直線及び第3直線にそれぞれ対応する2つの境界位置の間の距離を取得し、取得された複数の距離の、第1方向における変化に基づいて、第1方向及び第2方向に直交する第3方向(本例では、z軸方向)における対象物TGの振動を検出する。 Further, in the marker portion 11C of the detection device 1 of the third embodiment, the third straight line is parallel to the first straight line. The detection unit 14C is the distance between the two boundary positions corresponding to the first straight line and the third straight line of the three acquired boundary positions for each of at least a part of the plurality of row pixel groups. Is acquired, and based on the changes in the acquired distances in the first direction, the vibration of the object TG in the third direction (in this example, the z-axis direction) orthogonal to the first direction and the second direction is performed. To detect.

互いに平行である一対の直線を形成する境界の境界位置の間の第2方向における距離は、第3方向における対象物TGの振動を高い精度にて反映する。従って、検出装置1によれば、第3方向における対象物TGの振動を高い精度にて検出できる。 The distance in the second direction between the boundary positions of the boundaries forming a pair of straight lines parallel to each other reflects the vibration of the object TG in the third direction with high accuracy. Therefore, according to the detection device 1, the vibration of the object TG in the third direction can be detected with high accuracy.

更に、第3実施形態の検出装置1において、検出部14Cは、取得された複数の境界位置の少なくとも一部を、取得された複数の距離比に基づいて補正し、補正された境界位置に基づいて、第2方向又は第3方向における対象物TGの振動を検出する。 Further, in the detection device 1 of the third embodiment, the detection unit 14C corrects at least a part of the acquired plurality of boundary positions based on the acquired plurality of distance ratios, and is based on the corrected boundary positions. The vibration of the object TG in the second direction or the third direction is detected.

これによれば、第2方向又は第3方向における対象物TGの振動をより一層高い精度にて検出できる。 According to this, the vibration of the object TG in the second direction or the third direction can be detected with higher accuracy.

なお、第3実施形態の変形例の検出装置1は、光源部12を備えなくてもよい。
また、第3実施形態の変形例の検出装置1は、マーカ部11Cを備えなくてもよい。この場合、検出装置1は、マーカ部11Cに代えて、対象物TGの一部(例えば、ボルト、ナット、タグ、プレート、又は、意匠等)を用いて、対象物TGの振動を検出してもよい。
The detection device 1 of the modified example of the third embodiment does not have to include the light source unit 12.
Further, the detection device 1 of the modified example of the third embodiment does not have to include the marker unit 11C. In this case, the detection device 1 detects the vibration of the object TG by using a part of the object TG (for example, a bolt, a nut, a tag, a plate, a design, etc.) instead of the marker portion 11C. May be good.

また、第3実施形態の変形例の検出装置1は、x軸方向、y軸方向、及び、z軸方向のうちの少なくとも1つにおける対象物TGの振動を検出するとともに、他の方向における対象物TGの振動を検出しなくてもよい。 Further, the detection device 1 of the modified example of the third embodiment detects the vibration of the object TG in at least one of the x-axis direction, the y-axis direction, and the z-axis direction, and also detects the vibration of the object TG in the other direction. It is not necessary to detect the vibration of the object TG.

また、第3実施形態の変形例の検出装置1は、複数の対象物TGにそれぞれ固定された複数のマーカ部11Cを備えるとともに、撮像部13が複数のマーカ部11Cを撮影することにより画像を出力し、検出部14Cが複数の対象物TGのそれぞれの振動を検出してもよい。この場合、複数の対象物TGは、互いに異なる複数の装置をそれぞれ構成してもよい。また、複数の対象物TGは、1つの装置を構成する複数の構成部材をそれぞれ構成してもよい。 Further, the detection device 1 of the modified example of the third embodiment includes a plurality of marker units 11C fixed to each of the plurality of object TGs, and the imaging unit 13 captures the plurality of marker units 11C to capture an image. It may be output and the detection unit 14C may detect the vibration of each of the plurality of object TGs. In this case, the plurality of object TGs may form a plurality of devices different from each other. Further, the plurality of object TGs may each constitute a plurality of constituent members constituting one device.

また、第3実施形態の変形例の検出装置1は、複数の撮像部13を備えるとともに、複数の撮像部13のそれぞれがマーカ部11Cを撮影することにより画像を出力し、検出部14Cが複数の画像に基づいて、マーカ部11Cが固定された対象物TGの振動を検出してもよい。 Further, the detection device 1 of the modified example of the third embodiment includes a plurality of imaging units 13, and each of the plurality of imaging units 13 outputs an image by photographing the marker unit 11C, and the plurality of detection units 14C are present. The vibration of the object TG to which the marker portion 11C is fixed may be detected based on the image of.

また、第3実施形態の変形例の検出装置1は、撮像部13により出力される画像に含まれる複数の画素の一部に基づいて、対象物TGの振動を検出してもよい。例えば、画像が、複数の行画素群からなるブロックを複数含むとともに、複数のブロックに、互いに異なる複数の処理期間がそれぞれ割り当てられる場合、検出部14Cは、各ブロックを代表する行画素群に基づいて対象物TGの振動を検出してもよい。 Further, the detection device 1 of the modified example of the third embodiment may detect the vibration of the object TG based on a part of a plurality of pixels included in the image output by the imaging unit 13. For example, when the image includes a plurality of blocks composed of a plurality of row pixel groups and a plurality of different processing periods are assigned to the plurality of blocks, the detection unit 14C is based on the row pixel group representing each block. The vibration of the object TG may be detected.

<第3実施形態の第1変形例>
次に、第3実施形態の第1変形例の検出装置について説明する。第3実施形態の第1変形例の検出装置は、第3実施形態の検出装置に対して、マーカ部の領域の形状が相違している。以下、相違点を中心として説明する。なお、第3実施形態の第1変形例の説明において、第3実施形態にて使用した符号と同じ符号を付したものは、同一又は略同様のものである。
<First modification of the third embodiment>
Next, the detection device of the first modification of the third embodiment will be described. The detection device of the first modification of the third embodiment has a different shape of the area of the marker portion from the detection device of the third embodiment. Hereinafter, the differences will be mainly described. In the description of the first modification of the third embodiment, those having the same reference numerals as those used in the third embodiment are the same or substantially the same.

(構成)
図21に表されるように、第3実施形態の第1変形例のマーカ部11Dは、円形状である。
本例では、マーカ部11Dは、1つの構成体により構成される。なお、マーカ部11Dは、複数の構成体により構成されていてもよい。この場合、複数の構成体は、互いに異なる複数の位置にそれぞれ固定されてよい。
マーカ部11Dは、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成する。本例では、マーカ部11Dは、第1領域111Dと、第1領域111Dに囲まれるように第1領域111Dに隣接する第2領域112Dと、を有する。
(Constitution)
As shown in FIG. 21, the marker portion 11D of the first modification of the third embodiment has a circular shape.
In this example, the marker unit 11D is composed of one component. The marker unit 11D may be composed of a plurality of components. In this case, the plurality of components may be fixed at a plurality of positions different from each other.
The marker unit 11D forms a plurality of regions adjacent to each other while the amount of reflected light is different from each other. In this example, the marker unit 11D has a first region 111D and a second region 112D adjacent to the first region 111D so as to be surrounded by the first region 111D.

更に、マーカ部11Dは、対象物TGに固定されることにより、マーカ部11Dの外部の領域を形成する。従って、本例では、第1領域111Dと、マーカ部11Dの外部の領域と、の境界は、円を形成する。 Further, the marker portion 11D forms an outer region of the marker portion 11D by being fixed to the object TG. Therefore, in this example, the boundary between the first region 111D and the region outside the marker portion 11D forms a circle.

本例では、第1領域111Dは、反射される光の量が、第2領域112Dよりも小さい。更に、本例では、第1領域111Dは、反射される光の量が、マーカ部11Dの外部の領域よりも小さい。 In this example, the amount of reflected light in the first region 111D is smaller than that in the second region 112D. Further, in this example, the amount of reflected light in the first region 111D is smaller than that in the region outside the marker portion 11D.

本例では、第2領域112Dは、再帰性反射材からなる。本例では、第1領域111Dは、再帰性反射材と異なる材料(例えば、紙、布、樹脂、金属、又は、セラミクス等)からなる。本例では、第1領域111Dは、黒色を有する。なお、第1領域111Dは、黒色と異なる色を有していてもよい。 In this example, the second region 112D is made of a retroreflective material. In this example, the first region 111D is made of a material different from the retroreflective material (for example, paper, cloth, resin, metal, ceramics, etc.). In this example, the first region 111D has a black color. The first region 111D may have a color different from black.

また、第2領域112Dは、再帰性反射材からなっていなくてもよい。この場合、例えば、第2領域112Dは、白色を有するとともに、第1領域111Dは、白色と異なる色(例えば、黒色)を有していてもよい。本例では、マーカ部11Dの外部の領域は、光沢を有する金属からなる。本例では、マーカ部11Dの外部の領域は、対象物TGの表面である。
なお、第2領域112Dは、対象物TGの表面であってもよい。
Further, the second region 112D does not have to be made of a retroreflective material. In this case, for example, the second region 112D may have white color, and the first region 111D may have a color different from white (for example, black). In this example, the outer region of the marker portion 11D is made of a glossy metal. In this example, the region outside the marker portion 11D is the surface of the object TG.
The second region 112D may be the surface of the object TG.

第2領域112Dは、所定の幅を有する線状である。本例では、第2領域112Dは、N字状である。本例では、第2領域112Dは、第3実施形態の第2領域112Cと同じ形状を有する。第2領域112Dは、第3実施形態の第2領域112Cと同様に、第1直線部1121Dと、第2直線部1122Dと、第3直線部1123Dと、を含む。 The second region 112D is a linear shape having a predetermined width. In this example, the second region 112D is N-shaped. In this example, the second region 112D has the same shape as the second region 112C of the third embodiment. The second region 112D includes a first straight line portion 1121D, a second straight line portion 1122D, and a third straight line portion 1123D, similarly to the second region 112C of the third embodiment.

(機能)
図22に表されるように、第3実施形態の第1変形例の検出部14Dの機能は、第2実施形態の検出部14Aの機能のうちの、傾斜直線境界位置取得部1406、傾斜直線基準値取得部1407、及び、y方向変動量取得部1408に代えて、第3実施形態の検出部14Cのうちの、直線境界位置群取得部1421C、距離比基準値取得部1422C、及び、y方向変動量取得部1423Cを備える点を除いて、第2実施形態の検出部14Aの機能と同じである。
(function)
As shown in FIG. 22, the functions of the detection unit 14D of the first modification of the third embodiment are the inclination straight line boundary position acquisition unit 1406 and the inclination straight line among the functions of the detection unit 14A of the second embodiment. Instead of the reference value acquisition unit 1407 and the y-direction fluctuation amount acquisition unit 1408, the linear boundary position group acquisition unit 1421C, the distance ratio reference value acquisition unit 1422C, and y of the detection units 14C of the third embodiment. The function is the same as that of the detection unit 14A of the second embodiment except that the direction fluctuation amount acquisition unit 1423C is provided.

以上、説明したように、第3実施形態の第1変形例の検出装置1によれば、第3実施形態の検出装置1と同様の作用及び効果が奏される。
更に、第3実施形態の第1変形例の検出装置1において、マーカ部11Dは、複数の領域の境界の少なくとも一部が、円の少なくとも一部を形成する。検出部14Dは、複数の行画素群の少なくとも一部のそれぞれに対して、2つの境界位置を取得し、取得された2つの境界位置の中点である中点位置を取得し、取得された複数の中点位置の第2方向(本例では、x軸方向)における変動量の、第1方向(本例では、y軸方向)における変化に基づいて、第2方向における対象物TGの振動を検出する。
As described above, according to the detection device 1 of the first modification of the third embodiment, the same operations and effects as those of the detection device 1 of the third embodiment are exhibited.
Further, in the detection device 1 of the first modification of the third embodiment, in the marker unit 11D, at least a part of the boundary of the plurality of regions forms at least a part of the circle. The detection unit 14D acquires two boundary positions for each of at least a part of the plurality of row pixel groups, acquires the midpoint position which is the midpoint of the acquired two boundary positions, and acquires the midpoint position. Vibration of the object TG in the second direction based on the change in the amount of fluctuation of the plurality of midpoint positions in the second direction (x-axis direction in this example) in the first direction (y-axis direction in this example). Is detected.

これによれば、対象物TGに対するマーカ部11Dの回転角度に関わらず、複数の行画素群のそれぞれに対して中点位置を取得できる。更に、複数の行画素群に対してそれぞれ取得された複数の中点位置の第2方向における変動量は、第2方向における対象物TGの振動を高い精度にて反映する。従って、第2方向における対象物TGの振動を高い精度にて検出できる。 According to this, the midpoint position can be acquired for each of the plurality of row pixel groups regardless of the rotation angle of the marker unit 11D with respect to the object TG. Further, the amount of fluctuation in the second direction of the plurality of midpoint positions acquired for each of the plurality of row pixel groups reflects the vibration of the object TG in the second direction with high accuracy. Therefore, the vibration of the object TG in the second direction can be detected with high accuracy.

なお、本発明は、上述した実施形態に限定されない。例えば、上述した実施形態に、本発明の趣旨を逸脱しない範囲内において当業者が理解し得る様々な変更が加えられてよい。 The present invention is not limited to the above-described embodiment. For example, various modifications that can be understood by those skilled in the art may be made to the above-described embodiments without departing from the spirit of the present invention.

1 検出装置
11,11A〜11D マーカ部
111,111A〜111D 第1領域
112,112A〜112D 第2領域
1121,1121C,1121D 第1直線部
1121B 辺部
1122,1122C,1122D 第2直線部
1122B 辺部
1123,1123C,1123D 第3直線部
1131A,1132A 辺部
1133A 連結部
113A 第3領域
114A 第4領域
12 光源部
13 撮像部
14,14A,14C,14D 検出部
141 処理装置
142 記憶装置
143 出力装置
1401 y方向直線境界位置取得部
1402 y方向直線基準値取得部
1403 x方向変動量取得部
1404 スペクトル解析部
1405 振動検出部
1406 傾斜直線境界位置取得部
1407 傾斜直線基準値取得部
1408 y方向変動量取得部
1409 平行直線境界位置取得部
1410 距離基準値取得部
1411 z方向変動量取得部
1412A 円境界位置取得部
1413A 中心直線基準値取得部
1414A x方向変動量取得部
1421C 直線境界位置群取得部
1422C 距離比基準値取得部
1423C y方向変動量取得部
1424C 直線境界位置取得部
1425C 直線基準値取得部
1426C x方向変動量取得部
BU バス
P0 基準位置
P1 変動位置
TG 対象物

1 Detection device 11, 11A to 11D Marker part 111, 111A to 111D First area 112, 112A to 112D Second area 1121, 1121C, 1121D First straight line part 1121B Side part 1122, 1122C, 1122D Second straight line part 1122B Side part 1123, 1123C, 1123D 3rd straight line part 1131A, 1132A Side part 1133A Connecting part 113A 3rd area 114A 4th area 12 Light source part 13 Imaging part 14, 14A, 14C, 14D Detection part 141 Processing device 142 Storage device 143 Output device 1401 y-direction straight line boundary position acquisition unit 1402 y-direction straight line reference value acquisition unit 1403 x-direction fluctuation amount acquisition unit 1404 Spectrum analysis unit 1405 Vibration detection unit 1406 Inclined straight line boundary position acquisition unit 1407 Inclination straight line reference value acquisition unit 1408 y-direction fluctuation amount acquisition unit Part 1409 Parallel straight line boundary position acquisition part 1410 Distance reference value acquisition part 1411 z direction fluctuation amount acquisition part 1412A Circular boundary position acquisition part 1413A Central straight line reference value acquisition part 1414A x direction fluctuation amount acquisition part 1421C Straight line boundary position group acquisition part 1422C Distance Ratio reference value acquisition unit 1423C y direction fluctuation amount acquisition unit 1424C Straight line boundary position acquisition unit 1425C Straight line reference value acquisition unit 1426C x direction fluctuation amount acquisition unit BU bus P0 Reference position P1 Fluctuation position TG Object

Claims (14)

対象物を撮影することにより画像を出力し、前記画像が、第1方向にて互いに異なる複数の位置をそれぞれ有する複数の行画素群を含み、前記複数の行画素群に互いに異なる複数の処理期間がそれぞれ割り当てられ、且つ、前記複数の行画素群のそれぞれが、前記第1方向に直交する第2方向にて互いに異なる複数の位置をそれぞれ有するとともに当該行画素群に割り当てられた処理期間にて入射する光の量を表す複数の画素を含む撮像部と、
前記出力された画像において、当該画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である境界位置を、前記複数の行画素群のそれぞれに対して取得し、前記取得された複数の境界位置に基づいて前記対象物の振動を検出する検出部と、
を備える、検出装置。
An image is output by photographing an object, and the image includes a plurality of row pixel groups having a plurality of positions different from each other in the first direction, and a plurality of processing periods different from each other in the plurality of row pixel groups. Are allotted, and each of the plurality of row pixel groups has a plurality of positions different from each other in the second direction orthogonal to the first direction, and in the processing period assigned to the row pixel group. An image pickup unit containing a plurality of pixels representing the amount of incident light,
In the output image, the amount of light represented by the pixels included in the image is different from each other, and the boundary position, which is the position of the boundary of a plurality of regions adjacent to each other, is acquired for each of the plurality of row pixel groups. Then, the detection unit that detects the vibration of the object based on the acquired plurality of boundary positions, and the detection unit.
A detection device.
請求項1に記載の検出装置であって、
前記検出部は、前記取得された複数の境界位置の少なくとも一部に基づいて、前記複数の行画素群の少なくとも一部のそれぞれに対して基準値を取得し、前記取得された基準値と、前記取得された複数の境界位置と、に基づいて前記振動を検出する、検出装置。
The detection device according to claim 1.
The detection unit acquires a reference value for each of at least a part of the plurality of row pixel groups based on at least a part of the acquired plurality of boundary positions, and obtains the acquired reference value and the acquired reference value. A detection device that detects the vibration based on the acquired plurality of boundary positions.
請求項1又は請求項2に記載の検出装置であって、
対象物に固定され、且つ、反射される光の量が互いに異なるとともに互いに隣接する複数の領域を形成するマーカ部を備え、
前記撮像部は、前記マーカ部を撮影することにより前記画像を出力し、
前記検出部は、前記対象物の振動を検出する、検出装置。
The detection device according to claim 1 or 2.
It is provided with a marker portion which is fixed to an object and has different amounts of reflected light and forms a plurality of regions adjacent to each other.
The imaging unit outputs the image by photographing the marker unit.
The detection unit is a detection device that detects the vibration of the object.
請求項3に記載の検出装置であって、
前記マーカ部は、前記複数の領域のうちの少なくとも1つが再帰性反射材からなる、検出装置。
The detection device according to claim 3.
The marker unit is a detection device in which at least one of the plurality of regions is made of a retroreflective material.
請求項3又は請求項4に記載の検出装置であって、
前記マーカ部は、前記複数の領域の境界の少なくとも一部が、前記第1方向にて延びる直線を形成し、
前記検出部は、前記取得された複数の境界位置の少なくとも一部の前記第2方向における変動量の、前記第1方向における変化に基づいて、前記第2方向における前記振動を検出する、検出装置。
The detection device according to claim 3 or 4.
In the marker portion, at least a part of the boundary of the plurality of regions forms a straight line extending in the first direction.
The detection unit detects the vibration in the second direction based on the change in the first direction of the fluctuation amount in the second direction of at least a part of the acquired plurality of boundary positions. ..
請求項3又は請求項4に記載の検出装置であって、
前記マーカ部は、前記複数の領域の境界の少なくとも一部が、円の少なくとも一部を形成し、
前記検出部は、前記複数の行画素群の少なくとも一部のそれぞれに対して、2つの境界位置を取得し、前記取得された2つの境界位置の中点である中点位置を取得し、前記取得された複数の中点位置の前記第2方向における変動量の、前記第1方向における変化に基づいて、前記第2方向における前記振動を検出する、検出装置。
The detection device according to claim 3 or 4.
In the marker portion, at least a part of the boundary of the plurality of regions forms at least a part of a circle.
The detection unit acquires two boundary positions for each of at least a part of the plurality of row pixel groups, acquires the midpoint position which is the midpoint of the acquired two boundary positions, and obtains the midpoint position. A detection device that detects the vibration in the second direction based on the change in the acquired fluctuation amount of the plurality of midpoint positions in the second direction in the first direction.
請求項3乃至請求項6のいずれか一項に記載の検出装置であって、
前記マーカ部は、前記複数の領域の境界の少なくとも一部が、前記第1方向に対して傾斜する直線である傾斜直線を形成し、
前記検出部は、前記取得された複数の境界位置の少なくとも一部の前記第2方向における変動量の、前記第1方向における変化に基づいて、前記第1方向における前記振動を検出する、検出装置。
The detection device according to any one of claims 3 to 6.
The marker portion forms an inclined straight line in which at least a part of the boundary of the plurality of regions is a straight line inclined with respect to the first direction.
The detection unit detects the vibration in the first direction based on the change in the first direction of the fluctuation amount in the second direction of at least a part of the acquired plurality of boundary positions. ..
請求項3乃至請求項7のいずれか一項に記載の検出装置であって、
前記マーカ部は、前記複数の領域の境界の少なくとも一部が、前記第2方向と異なる方向にて延びるとともに互いに平行である一対の直線を形成し、
前記検出部は、前記複数の行画素群の少なくとも一部のそれぞれに対して、2つの境界位置を取得し、前記取得された2つの境界位置の間の距離を取得し、前記取得された複数の距離の、前記第1方向における変化に基づいて、前記第1方向及び前記第2方向に直交する第3方向における前記振動を検出する、検出装置。
The detection device according to any one of claims 3 to 7.
The marker portion forms a pair of straight lines in which at least a part of the boundary of the plurality of regions extends in a direction different from the second direction and is parallel to each other.
The detection unit acquires two boundary positions for each of at least a part of the plurality of row pixel groups, acquires the distance between the acquired two boundary positions, and obtains the acquired plurality of boundary positions. A detection device that detects the vibration in the first direction and the third direction orthogonal to the second direction based on the change in the distance in the first direction.
請求項5乃至請求項8のいずれか一項に記載の検出装置であって、
前記検出部は、前記取得された複数の境界位置の少なくとも一部を、前記第2方向における変動量に基づいて補正し、前記補正された境界位置に基づいて、前記第1方向又は前記第3方向における前記振動を検出する、検出装置。
The detection device according to any one of claims 5 to 8.
The detection unit corrects at least a part of the acquired plurality of boundary positions based on the amount of fluctuation in the second direction, and based on the corrected boundary position, the first direction or the third direction. A detection device that detects the vibration in a direction.
請求項3又は請求項4に記載の検出装置であって、
前記マーカ部は、前記複数の領域の境界の少なくとも一部が、前記第2方向と異なる方向にて延びる第1直線と、前記第2方向と異なる方向にて延びるとともに前記第1直線と異なる方向にて延びる第2直線と、前記第2方向と異なる方向にて延びる第3直線と、を形成し、
前記検出部は、前記複数の行画素群の少なくとも一部のそれぞれに対して、3つの境界位置を取得し、前記取得された3つの境界位置のうちの2つの境界位置からなる第1位置ペアの間の第1距離と、前記取得された3つの境界位置のうちの、前記第1位置ペアと異なる2つの境界位置からなる第2位置ペアの間の第2距離と、の比である距離比を取得し、前記取得された複数の距離比の、前記第1方向における変化に基づいて、前記第1方向における前記振動を検出する、検出装置。
The detection device according to claim 3 or 4.
In the marker portion, at least a part of the boundary of the plurality of regions extends in a direction different from the second direction and a direction different from the first straight line. A second straight line extending in and a third straight line extending in a direction different from the second direction are formed.
The detection unit acquires three boundary positions for each of at least a part of the plurality of row pixel groups, and is a first position pair consisting of two boundary positions out of the acquired three boundary positions. Distance between the first distance between and the second distance between the second position pair consisting of two boundary positions different from the first position pair among the three acquired boundary positions. A detection device that acquires a ratio and detects the vibration in the first direction based on a change in the acquired distance ratio in the first direction.
請求項10に記載の検出装置であって、
前記第3直線は、前記第1直線と平行であり、
前記検出部は、前記複数の行画素群の少なくとも一部のそれぞれに対して、前記取得された3つの境界位置のうちの、前記第1直線及び前記第3直線にそれぞれ対応する2つの境界位置の間の距離を取得し、前記取得された複数の距離の、前記第1方向における変化に基づいて、前記第1方向及び前記第2方向に直交する第3方向における前記振動を検出する、検出装置。
The detection device according to claim 10.
The third straight line is parallel to the first straight line and is parallel to the first straight line.
The detection unit has, for each of at least a part of the plurality of row pixel groups, two boundary positions corresponding to the first straight line and the third straight line among the three acquired boundary positions. The detection, which acquires the distance between the two, and detects the vibration in the third direction orthogonal to the first direction and the second direction based on the change in the acquired plurality of distances in the first direction. apparatus.
請求項10又は請求項11に記載の検出装置であって、
前記マーカ部は、前記複数の領域の境界の少なくとも一部が、円の少なくとも一部を形成し、
前記検出部は、前記複数の行画素群の少なくとも一部のそれぞれに対して、2つの境界位置を取得し、前記取得された2つの境界位置の中点である中点位置を取得し、前記取得された複数の中点位置の前記第2方向における変動量の、前記第1方向における変化に基づいて、前記第2方向における前記振動を検出する、検出装置。
The detection device according to claim 10 or 11.
In the marker portion, at least a part of the boundary of the plurality of regions forms at least a part of a circle.
The detection unit acquires two boundary positions for each of at least a part of the plurality of row pixel groups, acquires the midpoint position which is the midpoint of the acquired two boundary positions, and obtains the midpoint position. A detection device that detects the vibration in the second direction based on the change in the acquired fluctuation amount of the plurality of midpoint positions in the second direction in the first direction.
請求項10乃至請求項12のいずれか一項に記載の検出装置であって、
前記検出部は、前記取得された複数の境界位置の少なくとも一部を、前記取得された複数の距離比に基づいて補正し、前記補正された境界位置に基づいて、前記第2方向又は前記第3方向における前記振動を検出する、検出装置。
The detection device according to any one of claims 10 to 12.
The detection unit corrects at least a part of the acquired plurality of boundary positions based on the acquired plurality of distance ratios, and based on the corrected boundary position, the second direction or the first. A detection device that detects the vibration in three directions.
対象物を撮影することにより画像を出力し、前記画像が、第1方向にて互いに異なる複数の位置をそれぞれ有する複数の行画素群を含み、前記複数の行画素群に互いに異なる複数の処理期間がそれぞれ割り当てられ、且つ、前記複数の行画素群のそれぞれが、前記第1方向に直交する第2方向にて互いに異なる複数の位置をそれぞれ有するとともに当該行画素群に割り当てられた処理期間にて入射する光の量を表す複数の画素を含み、
前記出力された画像において、当該画像に含まれる画素が表す光の量が互いに異なるとともに互いに隣接する複数の領域の境界の位置である境界位置を、前記複数の行画素群のそれぞれに対して取得し、前記取得された複数の境界位置に基づいて前記対象物の振動を検出する、
ことを含む、検出方法。
An image is output by photographing an object, and the image includes a plurality of row pixel groups having a plurality of positions different from each other in the first direction, and a plurality of processing periods different from each other in the plurality of row pixel groups. Are allotted, and each of the plurality of row pixel groups has a plurality of positions different from each other in the second direction orthogonal to the first direction, and in the processing period assigned to the row pixel group. Contains multiple pixels representing the amount of incident light
In the output image, the amount of light represented by the pixels included in the image is different from each other, and the boundary position, which is the position of the boundary of a plurality of regions adjacent to each other, is acquired for each of the plurality of row pixel groups. Then, the vibration of the object is detected based on the acquired plurality of boundary positions.
Detection methods, including that.
JP2019200338A 2019-11-02 2019-11-02 Detection device and detection method Pending JP2021071464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019200338A JP2021071464A (en) 2019-11-02 2019-11-02 Detection device and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019200338A JP2021071464A (en) 2019-11-02 2019-11-02 Detection device and detection method

Publications (1)

Publication Number Publication Date
JP2021071464A true JP2021071464A (en) 2021-05-06

Family

ID=75712983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019200338A Pending JP2021071464A (en) 2019-11-02 2019-11-02 Detection device and detection method

Country Status (1)

Country Link
JP (1) JP2021071464A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283440A (en) * 2004-03-30 2005-10-13 Toshiba Corp Vibration measuring device and measuring method thereof
JP2007206066A (en) * 2006-02-01 2007-08-16 General Electric Co <Ge> System and method for remote monitoring of vibration in machine
JP2009020045A (en) * 2007-07-13 2009-01-29 Railway Technical Res Inst Paint bullet to form object plane for noncontact measurement
JP2013026994A (en) * 2011-07-26 2013-02-04 Canon Inc Image measurement device, image measurement method, program and recording medium
JP2015102423A (en) * 2013-11-25 2015-06-04 キヤノン株式会社 Three-dimensional shape measurement instrument and control method thereof
US20180018778A1 (en) * 2015-03-30 2018-01-18 Carl Zeiss Industrielle Messtechnik Gmbh Motion-measuring system of a machine and method for operating the motion-measuring system
JP2018141663A (en) * 2017-02-27 2018-09-13 日本電信電話株式会社 Condition measurement device, condition measurement system, and condition measurement method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283440A (en) * 2004-03-30 2005-10-13 Toshiba Corp Vibration measuring device and measuring method thereof
JP2007206066A (en) * 2006-02-01 2007-08-16 General Electric Co <Ge> System and method for remote monitoring of vibration in machine
JP2009020045A (en) * 2007-07-13 2009-01-29 Railway Technical Res Inst Paint bullet to form object plane for noncontact measurement
JP2013026994A (en) * 2011-07-26 2013-02-04 Canon Inc Image measurement device, image measurement method, program and recording medium
JP2015102423A (en) * 2013-11-25 2015-06-04 キヤノン株式会社 Three-dimensional shape measurement instrument and control method thereof
US20180018778A1 (en) * 2015-03-30 2018-01-18 Carl Zeiss Industrielle Messtechnik Gmbh Motion-measuring system of a machine and method for operating the motion-measuring system
JP2018141663A (en) * 2017-02-27 2018-09-13 日本電信電話株式会社 Condition measurement device, condition measurement system, and condition measurement method

Similar Documents

Publication Publication Date Title
CN1185464C (en) System for simultaneous projections of multiple phase-shifted patterns for the multiple phase-shifted patterns for the three-dimensional inspection of an object
KR101141345B1 (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium
KR101945662B1 (en) Shape measuring device and shape measuring method
CA2969289A1 (en) Position-determination system for an elevator
TW201042235A (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, and three-dimensional shape measuring program
TWI526671B (en) Board-warping measuring apparatus and board-warping measuring method thereof
WO2014106303A1 (en) Panoramic lens calibration for panoramic image and/or video capture apparatus
WO2022050279A1 (en) Three-dimensional measurement device
US20120212605A1 (en) Defect inspection apparatus and defect inspection method
JP2019190969A (en) Image processing apparatus, and image processing method
JP2014155063A (en) Chart for resolution measurement, resolution measurement method, positional adjustment method for camera module, and camera module manufacturing method
WO2014073590A1 (en) Three-dimensional measuring device and three-dimensional measuring method
JP2021071464A (en) Detection device and detection method
CN1825095A (en) Projection test device and method
JP6413648B2 (en) Measurement system, object extraction system, measurement method and program
WO2018061926A1 (en) Counter system and counting method
TW201835853A (en) Image processing method and image processing apparatus
JP2008145121A (en) Three-dimensional shape measuring apparatus
JP2012004664A (en) Image processing system, inspection equipment, image processing method, and image processing program
JP5708501B2 (en) Detection method and detection apparatus
TWI797759B (en) Test chart, camera manufacturing device, camera manufacturing method, and focus detection program
KR20200093099A (en) Stage alignment device for manufacturing a display device and method
JP2019007845A (en) Mtf measurement chart, image processing method and image processing device
JP2014035304A (en) Information acquisition device and object detection apparatus
JP6225719B2 (en) Straightness measuring device, straightness measuring method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240229