WO2019188194A1 - レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体 - Google Patents

レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体 Download PDF

Info

Publication number
WO2019188194A1
WO2019188194A1 PCT/JP2019/009712 JP2019009712W WO2019188194A1 WO 2019188194 A1 WO2019188194 A1 WO 2019188194A1 JP 2019009712 W JP2019009712 W JP 2019009712W WO 2019188194 A1 WO2019188194 A1 WO 2019188194A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
marker
pixel
unit
lens marker
Prior art date
Application number
PCT/JP2019/009712
Other languages
English (en)
French (fr)
Inventor
康幸 福田
満 川上
共啓 斉藤
Original Assignee
株式会社エンプラス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エンプラス filed Critical 株式会社エンプラス
Publication of WO2019188194A1 publication Critical patent/WO2019188194A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Definitions

  • the present invention relates to a method of determining the pattern center of a lens marker, an apparatus thereof, a program for causing a computer to execute the determination method, and a recording medium thereof.
  • VMP marker indicating a variable moire pattern
  • Patent Document 1 a marker in which a lenticular lens is arranged on a striped pattern in which black lines are arranged is reported.
  • the lenticular lens is generally a lens body in which a plurality of cylindrical lenses (hereinafter also referred to as lens portions) obtained by dividing a cylinder in the axial direction are continuously arranged so that the axial directions are parallel to each other. And the said lenticular lens is arrange
  • the VMP marker when the VMP marker is visually recognized by a detector such as a camera from the convex portion side of the lenticular lens, the black line projected onto the lenticular lens according to a viewing angle with respect to the VMP marker.
  • the virtual image is detected by moving or deforming. For this reason, the viewing angle can be determined by the detected virtual image.
  • the viewing angle indicates the inclination of the VMP marker, and thus, for example, the position and orientation of the object can be recognized.
  • the VMP marker if only one black line with strong contrast is projected as a virtual image on the lenticular lens, it is easy to determine the position of the black line.
  • the black line is projected simultaneously on a plurality of lenses, and as a result, the VMP marker is strong over a plurality of lens units. Contrast black and white lines are detected alternately. For this reason, it may be difficult to accurately determine the center position of the region where the black line over the plurality of lens portions is projected.
  • an object of the present invention is to provide a method capable of accurately determining the center of a virtual image pattern projected on a lens marker.
  • the method for determining the pattern center of the lens marker of the present invention comprises: Including pixel condition acquisition step, lens marker image acquisition step, pixel-by-pixel digitization step, lens unit averaging step, and lens marker pattern center determination step,
  • the lens marker is a marker in which a plurality of lens portions are continuously arranged
  • the pixel condition acquisition step includes: When the lens marker is imaged under a predetermined imaging condition, the position information of the pixel corresponding to each lens portion of the lens marker is acquired,
  • the lens marker image acquisition step includes: Obtain an image of the lens marker imaged under the imaging conditions,
  • the quantification process for each pixel is as follows: About the acquired image, the contrast is quantified for each pixel,
  • the averaging process for each lens part is as follows: Based on the position information of the pixels corresponding to each lens unit, an average contrast value is calculated from the contrast values of a plurality of pixels corresponding to each lens unit,
  • the pattern center determining step includes: The extreme value of the contrast value is calculated from the average
  • the apparatus for determining the pattern center of the lens marker of the present invention A pixel condition acquisition unit, an image acquisition unit of a lens marker, a digitization unit for each pixel, an averaging unit for each lens unit, and a determination unit for the pattern center of the lens marker,
  • the lens marker is a marker in which a plurality of lens portions are continuously arranged
  • the pixel condition acquisition unit When the lens marker is imaged under a predetermined imaging condition, the position information of the pixel corresponding to each lens portion of the lens marker is acquired,
  • the lens marker image acquisition unit includes: Obtain an image of the lens marker imaged under the imaging conditions,
  • the digitizing unit for each pixel is: About the acquired image, the contrast is quantified for each pixel,
  • the averaging unit for each lens unit is Based on the position information of the pixels corresponding to each lens unit, an average contrast value is calculated from the contrast values of a plurality of pixels corresponding to each lens unit,
  • the pattern center determining unit includes: The extreme value of the contrast value is calculated
  • the program of the present invention causes a computer to execute the lens marker pattern center determination method of the present invention.
  • the recording medium of the present invention is a computer-readable recording medium that records the program of the present invention.
  • the center of the virtual image pattern is determined with high accuracy. can do.
  • FIG. 1A is a top view illustrating an example of a lens marker
  • FIG. 1B is a cross-sectional view of the marker as viewed from the II direction in FIG. 1A.
  • FIG. 2 is a photograph of a part of a lens marker on which an image is projected.
  • 3A is a photograph of a part of a lens marker on which an image is projected
  • FIG. 3B is a schematic diagram illustrating a pixel arrangement of an image sensor
  • FIG. 3C is a diagram illustrating each pixel. It is the schematic which shows the contrast value.
  • FIG. 4 is a schematic diagram showing the relationship between the contrast value, threshold value, region, and center of each pixel.
  • FIG. 5 is a schematic diagram illustrating processing of each step in the determination method of the first embodiment.
  • FIG. 5 is a schematic diagram illustrating processing of each step in the determination method of the first embodiment.
  • FIG. 6 is a plan view showing a schematic diagram of the marker set.
  • FIG. 7 is a block diagram illustrating an example of a determination apparatus according to the second embodiment.
  • FIG. 8 is a block diagram illustrating an example of a hardware configuration of the determination apparatus according to the second embodiment.
  • the lens marker is disposed between a pair of reference markers
  • the pixel condition obtaining step includes a reference distance between the pair of reference markers, and the lens marker at the reference distance.
  • Position information of pixels corresponding to each lens portion of the lens marker is acquired from the position information of the lens marker, the number of lens portions of the lens marker, and the number of pixels of the reference distance.
  • the extreme value of the contrast value calculated in the pattern center determination step is one.
  • the lens marker is disposed between a pair of reference markers
  • the pixel condition acquisition unit includes a reference distance between the pair of reference markers, and the lens marker at the reference distance.
  • Position information of pixels corresponding to each lens portion of the lens marker is acquired from the position information of the lens marker, the number of lens portions of the lens marker, and the number of pixels of the reference distance.
  • the extreme value of the contrast value calculated in the pattern center determination step is one.
  • the type of the lens marker is not particularly limited, and examples thereof include those in which a virtual image appearing on the surface of the lens marker varies depending on the position and angle of the lens marker.
  • An example of the lens marker is a VMP marker.
  • a VMP marker is taken as an example of the lens marker, and a general method for determining the structure of the VMP marker and the center of the virtual image pattern projected by the VMP marker will be described.
  • FIG. 1A is a plan view seen from the viewing side of the lens marker 1
  • FIG. 1B is a cross-sectional view of the lens marker 1 seen from the II direction in FIG. 1A.
  • FIG. 1B hatching representing a cross section is omitted in consideration of easy viewing.
  • the arrow X is referred to as the width direction
  • the arrow Y is referred to as the length direction
  • the arrow Z is referred to as the thickness direction.
  • the lens marker 1 includes a lens body 10.
  • the lens body 10 has a plurality of lens portions 101 that are continuous in the plane direction on one surface, that is, the upper surface side (viewing side) in FIG.
  • the lens body 10 has a plurality of detected portions 11 projected onto the lens portion 101 on the other surface side, that is, on the lower surface side in FIG.
  • the detected portion 11 is a line extending along the length direction Y of the lens body 10, and a striped pattern is formed by a plurality of lines.
  • the plurality of detected portions 11 are, for example, projected onto the upper surface side of the lens body 10 as optically detectable images and can be detected optically.
  • the shape of the detected portion 11 is not particularly limited, and may be a shape in which dots (dots) are aligned along the length direction Y, for example.
  • the virtual image pattern projected on the surface of the lens unit 101 moves or changes depending on the inclination between the central axis and the optical axis.
  • FIG. 2 shows a photograph of a lens marker in which a virtual image is projected on the surface of the lens unit.
  • FIG. 2 is a photograph showing a part of the lens portion 101 of the lens marker 1.
  • a virtual image 21 is projected onto the plurality of lens portions 101A to 101H, and as a whole, a plurality of black line virtual image patterns having different thicknesses are formed.
  • the image of this lens marker is taken and the contrast value is calculated for each pixel. Specifically, when an image is obtained by imaging for the lens marker 1 in FIG. 3A, the image is divided into pixels as shown in FIG. 3B, and as shown in FIG. In addition, a contrast value for each pixel is obtained. In FIG. 3C, an arbitrary upper limit is set for the contrast value, and when it exceeds the upper limit, it is uniformly represented.
  • a lower limit threshold value of the contrast value used for determining the center position is set in advance.
  • an analysis region is determined with both pixel positions indicating a contrast value equal to or greater than the threshold as both ends.
  • the center position of the analysis region is set as the center of the virtual image pattern.
  • the center means the center position of an area having pixels having contrast values equal to or higher than a threshold at both ends.
  • FIGS. 4A to 4D are schematic diagrams showing a region and the center of the region when the lower threshold is changed to thresholds 1 to 4, respectively.
  • the regions (R1 to R4) change due to the change of the threshold value, and the determined centers (centers 1 to 4) also change accordingly.
  • the center has different results depending on how the threshold is set.
  • the center of the area is shifted by 0.5 pixel by simple calculation. For this reason, the center of the area can be determined only in units of 0.5 pixels.
  • the present inventors have found that the above-described problems can be solved by obtaining the center in units of the lens portion of the lens marker 1 instead of obtaining the center in units of pixels based on such knowledge.
  • the positional information of the pixels corresponding to the lens portions 101 of the lens marker 1 in the captured image is Can be obtained in advance. For example, as shown in FIG. 5A, in the captured image, how many pixels each lens unit 101 of the lens marker 1 is recognized (four pixels in the figure), and each lens unit 101. The position of the pixel corresponding to can be determined in advance. Accordingly, after the contrast of the lens marker 1 is digitized for each pixel, an average contrast value is calculated from the contrast values of a plurality of pixels for each lens unit 101 instead of for each pixel. Specifically, as shown in FIG.
  • the average contrast for each lens unit 101 is obtained from the contrast values of four pixels as shown in FIG. 5C. Find the value. Then, as shown in FIG. 5D, a center value is obtained from a histogram of average contrast values for each lens unit 101. According to this method, it is not necessary to set a threshold as in the prior art, the variation of the center value due to the setting of the threshold can be suppressed, and the minimum unit of position accuracy is not limited to a pixel unit. For this reason, it is possible to determine the center position with higher accuracy.
  • the pixel condition acquisition step acquires pixel position information corresponding to each lens portion of the lens marker when the lens marker is imaged under a predetermined imaging condition.
  • the pixel position information is, for example, a position corresponding to each lens unit in a continuous pixel, and includes information on the number of pixels per lens unit.
  • the position information of the pixel corresponding to each lens unit can be acquired in advance according to, for example, imaging conditions, conditions of the lens marker, and the like. That is, it can be calculated from the size of the lens marker, the number of lens parts in the lens marker, camera identification, the distance between the lens marker and the camera, and the like.
  • the number of pixels for recognizing each lens portion (0.4 mm) of the lens marker is four.
  • the length of the lens marker in the width direction X is 18.8 mm. Number of lens parts in the width direction X: 47 Lens pitch: 0.4 mm (2) Camera specific Lens focal length: 10mm Sensor size (horizontal x vertical): 10 mm x 6 mm Number of pixels (horizontal ⁇ vertical): 2000 ⁇ 1200 Pixel pitch: 5 ⁇ m (3) Distance between lens marker and camera: 200 mm
  • the pixel position information varies depending on, for example, the conditions of the lens marker, the imaging conditions, and the like. However, by acquiring the position information of the pixels in the assumed imaging conditions in advance, Can also respond.
  • the lens marker image acquisition step is a step of acquiring an image of the lens marker imaged under the imaging conditions.
  • the imaging conditions are preferably the same as the conditions used in the acquisition of pixel position information in advance.
  • the digitizing step for each pixel is a step for digitizing the contrast for each pixel of the acquired image.
  • the digitization of the contrast in the image is not particularly limited, and can be performed by normal image processing.
  • the digitization of the contrast may be, for example, an actual measurement value or a relative value with respect to an arbitrary reference.
  • the averaging step for each lens unit is a step of calculating an average contrast value from the contrast values of a plurality of pixels corresponding to each lens unit based on position information of pixels corresponding to each lens unit.
  • the method for obtaining the average contrast value is not particularly limited, and can be obtained by adding the contrast values of a plurality of pixels corresponding to the lens unit and dividing the result by the number of pixels.
  • the extreme value of the contrast value is calculated from the average contrast value of each lens unit, and the position of the extreme value in the lens marker is determined as the center of the virtual image pattern.
  • the extreme value means, for example, a vertex when the average contrast value of each lens unit is histogrammed and polynomial approximation is performed in the determination step.
  • the said extreme value is one, determination of the center position which is excellent in accuracy becomes possible.
  • the lens marker (VMP marker) 1 is used as a marker set 4 together with a reference marker 2 and a two-dimensional code 3, for example, as shown in FIG.
  • the two-dimensional code 3 is normally arranged at the center
  • the reference marker 2 is arranged at the four corners
  • the lens marker 1 is arranged between a pair of adjacent reference markers 2.
  • the angle of the marker set 4 is detected as follows. That is, first, the two-dimensional code 3 in the marker set 4 is detected by the camera, and the reference marker 2 is recognized by this detection. Next, when the reference marker 2 is recognized, the distance and angle from the camera to the marker set 4 are calculated based on the positional relationship of the reference marker 2.
  • the accurate angle of the marker set 4 is calculated by detecting the center position of the virtual image pattern projected onto the lens marker 1.
  • the detection method of the present invention can be used in the detection of the center position of the pattern projected on the lens marker 1.
  • examples of the two-dimensional code 3 include an AR marker and a QR marker.
  • examples of the AR marker include ARToolKit, Arteaga, Cybercide, ARToolKitPlus, and the like.
  • Embodiment 2 a lens marker pattern center determining apparatus according to the present invention will be described in detail. According to the determination apparatus of the present embodiment, for example, the determination method of the first embodiment can be executed. In this embodiment, the description of Embodiment 1 can be used unless otherwise indicated.
  • FIG. 7 is a block diagram illustrating an example of the determination apparatus according to the present embodiment.
  • the determining device 30 includes a pixel condition acquiring unit 31, a lens marker image acquiring unit 32, a contrast digitizing unit 33 for each pixel, an averaging unit 34 for each lens unit, and a lens marker pattern center determining unit 35.
  • the determination device 30 further includes a storage unit, for example.
  • the determination device 30 may be, for example, one device including the above-described units, or may be a device that can be connected to each unit via, for example, a communication line network.
  • the determination device 30 is also referred to as a determination system, for example.
  • the communication line network is not particularly limited, and a known communication line network can be used, which may be wired or wireless.
  • Examples of the communication line network include an Internet line, a telephone line, a LAN (Local Area Network), and a WiFi (Wireless Fidelity).
  • the pixel condition acquisition unit 31 acquires pixel position information corresponding to each lens unit of the lens marker when the lens marker is imaged under predetermined imaging conditions. According to the pixel condition acquisition unit 31, the pixel condition acquisition process in the first embodiment can be executed.
  • the lens marker image acquisition unit 32 acquires the lens marker image captured under the imaging conditions. According to the image acquisition part 32, the image acquisition process in the said Embodiment 1 can be performed.
  • the determination device 30 itself may capture an image of the lens marker, and in this case, the image acquisition unit 32 may be a camera such as a CCD. Further, the determination device 30 may acquire an image of the lens marker captured by an external device, for example. In this case, the image acquisition unit 32 can acquire the image from the external device by connecting to the external device, for example.
  • the determination device 30 and the external device may be connectable via the communication line network.
  • the communication may be wired or wireless, for example. Examples of the external device include the camera.
  • the pixel-by-pixel contrast digitizing unit 33 digitizes the contrast for each pixel in the acquired image. According to the digitizing unit 33, the digitizing step in the first embodiment can be executed.
  • the averaging unit 34 for each lens unit calculates an average contrast value from the contrast values of a plurality of pixels corresponding to each lens unit based on the positional information of the pixels corresponding to each lens unit. According to the averaging unit 34, the averaging process in the first embodiment can be executed.
  • the lens marker pattern center determination unit 35 calculates the extreme value of the contrast value from the average contrast value of each lens unit, and determines the position of the extreme value in the lens marker as the center of the virtual image pattern. According to the determination part 35, the determination process in the said Embodiment 1 can be performed.
  • the storage unit includes, for example, position information of the pixel, an image of the lens marker, a contrast value for each pixel, an average contrast value of each lens unit, an extreme value of the contrast value, a center of the virtual image pattern, and the like.
  • the pixel position information may be stored in the storage unit in advance in association with lens marker conditions, imaging conditions, and the like.
  • the pixel condition acquisition unit 31 may read and acquire the position information from the storage unit.
  • FIG. 8 illustrates a block diagram of the hardware configuration of the determination apparatus 30.
  • the determination device 30 includes, for example, a CPU (central processing unit) 102, a memory 103, a bus 104, an input device 105, a display 106, a communication device 107, a storage device 108, and the like.
  • Each unit in the hardware configuration of the determination device 30 is connected to each other via the bus 104 by, for example, a respective interface (I / F).
  • the CPU 102 is responsible for overall control of the determination device 30.
  • the program 109 (including the program of the present invention) is executed by the CPU 102, and various information is read and written.
  • the bus 104 connects the respective functional units such as the CPU 102 and the memory 103, for example.
  • the bus 104 can be connected to an external device.
  • the determination device 30 can be connected to a communication network via the communication device 107 connected to the bus 104, and can be connected to the external device via the communication network.
  • the external device include a personal computer (PC), a tablet, a smartphone, and a mobile phone in addition to the above-described camera.
  • the memory 103 includes, for example, a main memory, and the main memory is also referred to as a main storage device.
  • the main memory is, for example, a RAM (Random Access Memory).
  • the memory 103 further includes, for example, a ROM (read only memory).
  • the storage device 108 is also called a so-called auxiliary storage device for the main memory (main storage device), for example.
  • the storage device 108 includes, for example, a storage medium and a drive that reads from and writes to the storage medium.
  • the storage medium is not particularly limited, and may be, for example, a built-in type or an external type, such as HD (hard disk), FD (floppy (registered trademark) disk), CD-ROM, CD-R, CD-RW, MO,
  • Examples of the drive include a DVD, a flash memory, and a memory card, and the drive is not particularly limited.
  • Examples of the storage device 108 include a hard disk drive (HDD) in which a storage medium and a drive are integrated.
  • the storage device 108 is, for example, the storage unit, and may store information acquired by each unit as described above.
  • the determination device 30 may further include, for example, an input device 105, a display 106, and the like.
  • the input device 105 is, for example, a touch panel or a keyboard.
  • Examples of the display 106 include an LED display and a liquid crystal display.
  • the result obtained by the determination device 30 may be output to the display 106, for example, or may be output to the external device via the communication line network.
  • the external device is, for example, as described above.
  • the program of this embodiment is a program that can execute the determination method of the above-described embodiment on a computer. Or the program of this embodiment may be recorded on a computer-readable recording medium, for example.
  • the recording medium is not particularly limited, and examples thereof include the storage medium as described above.
  • the center of the virtual image pattern can be determined with high accuracy. it can.

Abstract

レンズマーカ等に投影された像の中心を精度よく決定できる方法を提供する。 本発明のレンズマーカのパターン中心の決定方法は、既定の撮像条件下でレンズマーカを撮像した場合の、レンズマーカの各レンズ部に対応するピクセルの位置情報を取得するピクセル条件取得工程、前記撮像条件下で撮像したレンズマーカの画像を取得するレンズマーカの画像取得工程、取得した画像についてピクセルごとにコントラストを数値化するピクセルごとの数値化工程、各レンズ部に対応するピクセルの位置情報に基づき、前記複数のピクセルのコントラスト値から平均コントラスト値を算出するレンズ部ごとの平均化工程、前記平均コントラスト値から前記コントラスト値の極値を算出し、前記レンズマーカにおける前記極値の位置を虚像パターンの中心と決定するパターン中心の決定工程を含み、前記レンズマーカは、連続的に複数のレンズ部が配置されたマーカであることを特徴とする。

Description

レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体
 本発明は、レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体に関する。
 拡張現実感(Augmented Reality、以下、「AR」ともいう)およびロボティクス等の分野において、物体の位置および姿勢等を認識するために、いわゆる視認マーカが使用されている。前記視認マーカとしては、例えば、可変モアレパターン(VMP)を示すVMPマーカがある。前記VMPマーカは、例えば、黒線が並ぶ縞模様の上に、レンチキュラレンズが配置されたマーカが報告されている(特許文献1)。
 前記レンチキュラレンズは、一般に、円柱を軸方向に分割した複数のシリンドリカルレンズ(以下、レンズ部ともいう)が、前記軸方向が平行となるように連続して配置された、レンズ体である。そして、前記レンチキュラレンズは、例えば、以下のような条件となるように、前記縞模様の上に配置されている。すなわち、前記複数のレンズ部の軸方向と前記縞模様の黒線方向とが平行となり、且つ、前記レンズ部のピッチと前記黒線のピッチとが異なるように、前記レンチキュラレンズが前記縞模様の上に配置されている。このような構造をとることによって、前記VMPマーカを、前記レンチキュラレンズの凸部側から、カメラ等の検出器により視認すると、前記VMPマーカに対する視認角度によって、前記レンチキュラレンズに投影される前記黒線の虚像が移動または変形して検出される。このため、検出される虚像により、視認角度が決定できる。例えば、前記検出器を固定した場合、前記視認角度は、前記VMPマーカの傾きを示すことから、例えば、物体の位置および姿勢等を認識することが可能となる。
 前記VMPマーカにおいて、前記レンチキュラレンズ上に強いコントラストの一本の黒線のみが虚像として投影されれば、その黒線の位置を決定することは容易である。しかしながら、実際には、前記黒線の虚像の投影は、各レンズ部において生じているため、複数のレンズにおいて同時に黒線が投影され、結果的に、前記VMPマーカにおいて、複数のレンズ部にわたって強いコントラストの白黒の線が交互に検出される。このため、前記複数のレンズ部にわたる黒線が投影された領域について、その中心位置を精度よく決定することが難しい状況が発生し得る。
特開2012-145559号公報
 そこで、本発明は、レンズマーカに投影された虚像パターンについて、精度よく、その中心を決定することができる方法の提供を目的とする。
 前記目的を達成するために、本発明のレンズマーカのパターン中心の決定方法は、
ピクセル条件取得工程、レンズマーカの画像取得工程、ピクセルごとの数値化工程、レンズ部ごとの平均化工程、およびレンズマーカのパターン中心の決定工程を含み、
前記レンズマーカは、連続的に複数のレンズ部が配置されたマーカであり、
前記ピクセル条件取得工程は、
  既定の撮像条件下で前記レンズマーカを撮像した場合における、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得し、
前記レンズマーカの画像取得工程は、
  前記撮像条件下で撮像した前記レンズマーカの画像を取得し、
前記ピクセルごとの数値化工程は、
  前記取得した画像について、ピクセルごとにコントラストを数値化し、
前記レンズ部ごとの平均化工程は、
  前記各レンズ部に対応するピクセルの位置情報に基づいて、各レンズ部に対応する複数のピクセルのコントラスト値から、平均コントラスト値を算出し、
前記パターン中心の決定工程は、
  前記各レンズ部の平均コントラスト値から前記コントラスト値の極値を算出し、前記レンズマーカにおける前記極値の位置を、虚像パターンの中心と決定することを特徴とする。
 本発明のレンズマーカのパターン中心の決定装置は、
ピクセル条件取得部、レンズマーカの画像取得部、ピクセルごとの数値化部、レンズ部ごとの平均化部、およびレンズマーカのパターン中心の決定部を含み、
前記レンズマーカは、連続的に複数のレンズ部が配置されたマーカであり、
前記ピクセル条件取得部は、
  既定の撮像条件下で前記レンズマーカを撮像した場合における、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得し、
前記レンズマーカの画像取得部は、
  前記撮像条件下で撮像した前記レンズマーカの画像を取得し、
前記ピクセルごとの数値化部は、
  前記取得した画像について、ピクセルごとにコントラストを数値化し、
前記レンズ部ごとの平均化部は、
  前記各レンズ部に対応するピクセルの位置情報に基づいて、各レンズ部に対応する複数のピクセルのコントラスト値から、平均コントラスト値を算出し、
前記パターン中心の決定部は、
  前記各レンズ部の前記平均コントラスト値から前記コントラスト値の極値を算出し、前記レンズマーカにおける前記極値の位置を、虚像パターンの中心と決定することを特徴とする。
 本発明のプログラムは、前記本発明のレンズマーカのパターン中心の決定方法をコンピュータに実行させることを特徴とする。
 本発明の記録媒体は、前記本発明のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
 本発明によれば、例えば、複数のレンズ部が配置されたレンズマーカにおいて、複数のレンズ部にわたって複数の虚像(例えば、黒線)が投影された場合でも、精度よく、虚像パターンの中心を決定することができる。
図1(A)は、レンズマーカの一例を示す上面図であり、図1(B)は、図1(A)のI-I方向から見たマーカの断面図である。 図2は、像が投影されたレンズマーカの一部の写真である。 図3(A)は、像が投影されたレンズマーカの一部の写真であり、図3(B)は、撮像素子のピクセル配置を示す概略図であり、図3(C)は、各ピクセルのコントラスト値を示す概略図である。 図4は、各ピクセルのコントラスト値と閾値と領域と中心との関係を示す概略図である。 図5は、実施形態1の決定方法における各工程の処理を示す概略図である。 図6は、マーカセットの概略図を示す平面図である。 図7は、実施形態2の決定装置の一例を示すブロック図である。 図8は、実施形態2の決定装置のハードウエア構成の一例を示すブロック図である。
 本発明の決定方法において、例えば、前記レンズマーカは、一対の基準マーカの間に配置されており、前記ピクセル条件取得工程は、前記一対の基準マーカ間の基準距離、前記基準距離における前記レンズマーカの位置情報、前記レンズマーカのレンズ部数、および、前記基準距離のピクセル数から、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得する。
 本発明の決定方法において、例えば、前記パターン中心の決定工程において算出される前記コントラスト値の極値が1つである。
 本発明の決定装置において、例えば、前記レンズマーカは、一対の基準マーカの間に配置されており、前記ピクセル条件取得部は、前記一対の基準マーカ間の基準距離、前記基準距離における前記レンズマーカの位置情報、前記レンズマーカのレンズ部数、および、前記基準距離のピクセル数から、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得する。
 本発明の決定装置において、例えば、前記パターン中心の決定工程において算出される前記コントラスト値の極値が1つである。
 本発明において、前記レンズマーカの種類は、特に制限されず、前記レンズマーカの位置や角度によって、前記レンズマーカの表面に現れる虚像が変動するものがあげられる。前記レンズマーカとしては、例えば、VMPマーカが例示できる。
 ここで、まず、前記レンズマーカとして、VMPマーカを例にあげ、前記VMPマーカの構造、および、前記VMPマーカにおいて投影された虚像パターンの中心を決定する一般的な方法について説明する。
 前記VMPマーカの一例を、図1に示す。図1(A)は、レンズマーカ1の視認側から見た平面図であり、図1(B)は、図1(A)のI-I方向から見たレンズマーカ1の断面図である。図1(B)においては、見やすさを考慮して、断面を表すハッチを省略している。図1において、便宜上、矢印Xを幅方向、矢印Yを長さ方向、矢印Zを厚み方向という。
 図1に示すとおり、レンズマーカ1は、レンズ本体10を含む。レンズ本体10は、一方の表面、すなわち、図1(B)における上面側(視認側)において、平面方向に連続する複数のレンズ部101を有する。また、レンズ本体10は、他方の表面側、すなわち、図1(B)における下面側において、レンズ部101に投影される複数の被検出部11を有する。図1において、被検出部11は、レンズ本体10の長さ方向Yに沿って伸びる線であり、複数の線により、縞模様が形成されている。複数の被検出部11は、例えば、光学的に検出可能な像として、レンズ本体10の上面側に投影され、光学的に検出できる。被検出部11の形状は、特に制限されず、例えば、点(ドット)が、長さ方向Yに沿って整列された形状でもよい。レンズマーカ1は、例えば、その中心軸と光軸との傾きによって、レンズ部101の表面に投影される虚像パターンが、移動したり変化する。
 つぎに、図2に、レンズ部の表面に虚像が投影されたレンズマーカの写真を示す。図2は、レンズマーカ1のレンズ部101の一部を示す写真である。図2に示すように、レンズマーカ1において、複数のレンズ部101A~101Hに、虚像21が投影され、全体として、太さの異なる複数の黒線の虚像パターンとなっている。
 このレンズマーカを撮像して、各ピクセルについて、コントラスト値を算出する。具体的には、図3(A)のレンズマーカ1について、撮像により画像を得ると、画像は、図3(B)に示すように、ピクセルごとに分割され、図3(C)に示すように、ピクセルごとのコントラスト値が得られる。図3(C)において、コントラスト値は、任意の上限を設定し、前記上限を超える場合は、一律で表している。
 このような複数の黒線の虚像パターンから、中心位置を決定する場合、例えば、以下のような処理が行われる。すなわち、予め、中心位置の決定に使用するコントラスト値の下限の閾値を設定する。そして、閾値以上のコントラスト値を示すピクセル位置を両端とする、分析領域を決定する。この分析領域の中心位置を、虚像パターンの中心とする。ここで中心とは、閾値以上のコントラスト値を示すピクセルを両端とした領域の中心位置を意味する。
 本発明者らは、この方法によると、前記下限の閾値の設定によって、中心がピクセル単位でずれてしまうという問題を見出した。これを図4(A)~(D)の模式図に示す。図4(A)~(D)は、それぞれ、下限の閾値を閾値1~4に変更した場合における、領域と前記領域の中心とを示す概略図である。図4に示すように、閾値の変更によって、領域(R1~R4)が変動し、それに伴い、決定される中心(中心1~4)も変動する。つまり、閾値をどのように設定するかによって、中心は異なる結果となる。また、前記領域の一端が1ピクセルずれると、前記領域の中心は、単純計算で、0.5ピクセルずれた結果となる。このことから、前記領域の中心は、0.5ピクセル単位でしか決定できないことになる。
 本発明者らは、このような知見に基づいて、ピクセル単位で中心を求めるのではなく、レンズマーカ1のレンズ部単位で中心を求めることで、前述のような問題を解消できることを見出した。
 一対の基準マーカ間の距離およびレンズマーカのレンズ配置が、それぞれ既知である場合、レンズマーカ1を撮像した際に、撮像画像において、レンズマーカ1の各レンズ部101と対応するピクセルの位置情報は、予め取得できる。例えば、図5(A)に示すように、撮像画像において、レンズマーカ1の各レンズ部101が、いくつの画素で認識されるか(同図においては4つの画素)、また、各レンズ部101に対応するピクセルの位置が、予め決定できる。そこで、レンズマーカ1の画像について、ピクセルごとにコントラストを数値化した後、ピクセルごとではなく、レンズ部101ごとに、複数のピクセルのコントラスト値から、平均コントラスト値を算出する。具体的には、図5(B)に示すように、ピクセルごとにコントラストを数値化した後、図5(C)に示すように、4つの画素のコントラスト値から、レンズ部101ごとに平均コントラスト値を求める。そして、図5(D)に示すように、レンズ部101ごとの平均コントラスト値のヒストグラムから、中心値を求める。この方法によれば、従来のように、閾値の設定が不要となり、閾値の設定による中心値のバラつきが抑制でき、また、位置精度の最小単位もピクセル単位には限定されない。このため、より精度に優れる中心位置の決定が可能になる。
 つぎに、本発明の実施形態について、図を用いて説明する。本発明は、下記の実施形態によって何ら限定および制限されない。各図において、同一箇所には同一符号を付している。なお、図においては、説明の便宜上、各部の構造は、適宜、簡略化して示す場合があり、各部の寸法比等は、図の条件には制限されない。
[実施形態1]
 本実施形態は、本発明のレンズマーカのパターン中心の決定方法について、具体的に説明する。
 本発明において、前記ピクセル条件取得工程は、既定の撮像条件下で前記レンズマーカを撮像した場合における、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得する。前記ピクセルの位置情報とは、例えば、連続するピクセルにおける各レンズ部に対応する位置であり、レンズ部一つあたりのピクセルの数の情報も含む。
 前記各レンズ部に対応するピクセルの位置情報は、例えば、撮像条件、前記レンズマーカの条件等によって、予め、取得できる。すなわち、前記レンズマーカの大きさ、前記レンズマーカにおける前記レンズ部数、カメラ特定、前記レンズマーカと前記カメラとの距離等から、算出できる。
 具体的には、例えば、以下のような特性の場合、前記レンズマーカの各レンズ部(0.4mm)を認識する画素数は、4個であると導き出すことができる。
(1)レンズマーカの特性
  レンズマーカの幅方向Xの長さ18.8mm
  幅方向Xにおけるレンズ部の数:47個
  レンズピッチ:0.4mm
(2)カメラ特定
  レンズ焦点距離:10mm
  センササイズ(水平×垂直):10mm×6mm
  画素数(水平×垂直):2000個×1200個
  画素ピッチ:5μm
(3)レンズマーカとカメラとの間の距離:200mm
 前記ピクセルの位置情報は、例えば、前記レンズマーカの条件、前記撮像条件等によって変動するが、予め、想定している撮像条件における前記ピクセルの位置情報を取得しておくことで、どのような条件にも対応することができる。
 前記レンズマーカの画像取得工程は、前記撮像条件下で撮像した前記レンズマーカの画像を取得する工程である。前記撮像条件は、予め、ピクセルの位置情報の取得で使用した条件と同一であることが好ましい。
 前記ピクセルごとの数値化工程は、前記取得した画像について、ピクセルごとにコントラストを数値化する工程である。前記画像におけるコントラストの数値化は、特に制限されず、通常の画像処理によって行うことができる。コントラストの数値化は、例えば、実測値でもよいし、任意の基準に対する相対値でもよい。
 前記レンズ部ごとの平均化工程は、前記各レンズ部に対応するピクセルの位置情報に基づいて、各レンズ部に対応する複数のピクセルのコントラスト値から、平均コントラスト値を算出する工程である。前記平均コントラスト値の求め方は、特に制限されず、レンズ部に対応する複数のピクセルのコントラスト値を足し、前記ピクセルの数で割ることにより求めることができる。
 前記パターン中心の決定工程は、前記各レンズ部の前記平均コントラスト値から前記コントラスト値の極値を算出し、前記レンズマーカにおける前記極値の位置を、虚像パターンの中心と決定する。なお、極値とは、前記決定工程において、例えば、前記各レンズ部の平均コントラスト値をヒストグラム化し、多項式近似した際の頂点を意味する。このように、本実施形態では、前記極値が1つであるため、より精度に優れる中心位置の決定が可能になる。
 レンズマーカ(VMPマーカ)1は、例えば、図6に示すように、基準マーカ2、および二次元コード3と共に、マーカセット4として使用される。マーカセット4は、通常、中央に二次元コード3が配置され、4隅に基準マーカ2が配置され、隣り合う一対の基準マーカ2の間に、レンズマーカ1が配置されている。マーカセット4を用いることで、例えば、以下のようにして、マーカセット4の角度が検出される。すなわち、まず、カメラによって、マーカセット4における二次元コード3が検出され、この検出により、基準マーカ2が認識される。つぎに、基準マーカ2が認識されると、基準マーカ2の位置関係に基づいて、カメラからマーカセット4までの距離および角度が算出される。さらに、前記算出結果に基づいて、マーカセット4を正対させた場合の画像を再構築する。そして、レンズマーカ1に投影された虚像パターンの中心位置を検出することで、マーカセット4の正確な角度が算出される。本発明の検出方法は、このレンズマーカ1に投影されたパターンの中心位置の検出において利用できる。
 マーカセット4において、2次元コード3は、例えば、ARマーカ、QRマーカ等があげられる。前記ARマーカは、例えば、ARToolKit、Arteaga、Cybercide、ARToolKitPlus等があげられる。
[実施形態2]
 本実施形態は、本発明のレンズマーカのパターン中心の決定装置について、具体的に説明する。本実施形態の決定装置によれば、例えば、前記実施形態1の決定方法を実行することができる。本実施形態は、特に示さない限り、前記実施形態1の記載を援用できる。
 図7は、本実施形態の決定装置の一例を示すブロック図である。決定装置30は、ピクセル条件取得部31、レンズマーカの画像取得部32、ピクセルごとのコントラストの数値化部33、レンズ部ごとの平均化部34、およびレンズマーカのパターン中心の決定部35を含む。また、決定装置30は、例えば、さらに、記憶部を有する。決定装置30は、例えば、前記各部を含む1つの装置でもよいし、前記各部が、例えば、通信回線網を介して接続可能な装置でもよい。決定装置30は、例えば、決定システムともいう。
 前記通信回線網は、特に制限されず、公知の通信回線網を使用でき、有線でも無線でもよい。前記通信回線網は、例えば、インターネット回線、電話回線、LAN(Local Area Network)、WiFi(Wireless Fidelity)等があげられる。
 ピクセル条件取得部31は、既定の撮像条件下で前記レンズマーカを撮像した場合における、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得する。ピクセル条件取得部31によれば、前記実施形態1におけるピクセル条件取得工程を実行できる。
 レンズマーカの画像取得部32は、前記撮像条件下で撮像した前記レンズマーカの画像を取得する。画像取得部32によれば、前記実施形態1における画像取得工程を実行できる。決定装置30は、例えば、それ自体が、前記レンズマーカの画像を撮像してもよく、この場合、画像取得部32は、例えば、CCD等のカメラがあげられる。また、決定装置30は、例えば、外部機器によって撮像された前記レンズマーカの画像を取得してもよい。この場合、画像取得部32は、例えば、前記外部機器との接続により、前記外部機器から前記画像を取得することができる。決定装置30と前記外部機器とは、例えば、前記通信回線網を介して、接続可能であってもよい。前記通信は、例えば、有線でも無線でもよい。前記外部機器は、例えば、前記カメラ等があげられる。
 ピクセルごとのコントラストの数値化部33は、前記取得した画像について、ピクセルごとにコントラストを数値化する。数値化部33によれば、前記実施形態1における数値化工程を実行できる。
 レンズ部ごとの平均化部34は、前記各レンズ部に対応するピクセルの位置情報に基づいて、各レンズ部に対応する複数のピクセルのコントラスト値から、平均コントラスト値を算出する。平均化部34によれば、前記実施形態1における平均化工程を実行できる。
 レンズマーカのパターン中心の決定部35は、前記各レンズ部の前記平均コントラスト値から前記コントラスト値の極値を算出し、前記レンズマーカにおける前記極値の位置を、虚像パターンの中心と決定する。決定部35によれば、前記実施形態1における決定工程を実行できる。
 前記記憶部は、例えば、前記ピクセルの位置情報、前記レンズマーカの画像、前記ピクセルごとのコントラスト値、前記各レンズ部の平均コントラスト値、前記コントラスト値の極値、前記虚像パターンの中心等、各部で取得した情報を記憶する。前記ピクセルの位置情報は、例えば、予め、レンズマーカの条件および撮像条件等に紐づけて、前記記憶部に記憶してもよい。ピクセル条件取得部31は、例えば、前記記憶部から、前記位置情報を読み出して取得してもよい。
 図8に、決定装置30のハードウエア構成のブロック図を例示する。決定装置30は、例えば、CPU(中央処理装置)102、メモリ103、バス104、入力装置105、ディスプレイ106、通信デバイス107、記憶装置108等を有する。決定装置30のハードウエア構成において各部は、例えば、それぞれのインターフェイス(I/F)により、バス104を介して、相互に接続されている。
 CPU102は、決定装置30の全体の制御を担う。決定装置30において、CPU102により、例えば、プログラム109(本発明のプログラムを含む)が実行され、また、各種情報の読み込みや書き込みが行われる。
 バス104は、例えば、CPU102、メモリ103等のそれぞれの機能部間を接続する。バス104は、例えば、外部機器とも接続できる。決定装置30は、例えば、バス104に接続された通信デバイス107により、通信回線網に接続でき、前記通信回線網を介して、前記外部機器と接続できる。前記外部機器は、前述のカメラに加え、例えば、パーソナルコンピュータ(PC)、タブレット、スマートフォン、携帯電話等があげられる。
 メモリ103は、例えば、メインメモリを含み、前記メインメモリは、主記憶装置ともいう。CPU102が処理を行う際には、例えば、後述する補助記憶装置に記憶されている、本発明のプログラム等の種々の動作プログラム109を、メモリ103が読み込み、CPU102は、メモリ103からデータを受け取って、プログラム109を実行する。前記メインメモリは、例えば、RAM(ランダムアクセスメモリ)である。メモリ103は、例えば、さらに、ROM(読み出し専用メモリ)を含む。
 記憶装置108は、例えば、前記メインメモリ(主記憶装置)に対して、いわゆる補助記憶装置ともいう。記憶装置108は、例えば、記憶媒体と、前記記憶媒体に読み書きするドライブとを含む。前記記憶媒体は、特に制限されず、例えば、内蔵型でも外付け型でもよく、HD(ハードディスク)、FD(フロッピー(登録商標)ディスク)、CD-ROM、CD-R、CD-RW、MO、DVD、フラッシュメモリー、メモリーカード等があげられ、前記ドライブは、特に制限されない。記憶装置108は、例えば、記憶媒体とドライブとが一体化されたハードディスクドライブ(HDD)も例示できる。記憶装置108は、例えば、前記記憶部であり、前述のような各部で取得された情報が格納されてもよい。
 決定装置30は、例えば、さらに、入力装置105、ディスプレイ106等を備えてもよい。入力装置105は、例えば、タッチパネル、キーボード等である。ディスプレイ106は、例えば、LEDディスプレイ、液晶ディスプレイ等があげられる。
 決定装置30で得られた結果は、例えば、ディスプレイ106に出力されてもよいし、前記通信回線網を介して、前記外部機器に出力されてもよい。前記外部機器は、例えば、前述の通りである。
[実施形態3]
 本実施形態のプログラムは、前記実施形態の決定方法を、コンピュータ上で実行可能なプログラムである。または、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されてもよい。前記記録媒体としては、特に限定されず、例えば、前述のような記憶媒体等があげられる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2018年3月28日に出願された日本出願特願2018―061102を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
 以上のように、本発明によれば、例えば、前記VMPマーカにおいて、複数のレンズ部にわたって複数の虚像(例えば、黒線)が生じた場合でも、精度よく、虚像パターンの中心を決定することができる。
1    レンズマーカ
10   レンズ本体
101  レンズ部
21   像
2    基準マーカ
3    二次元コード
4    マーカセット
30   決定装置
31   ピクセル条件取得部
32   画像取得部
33   コントラストの数値化部
34   平均化部
35   パターン中心の決定部
102  CPU
103  メモリ
104  バス
105  入力装置
106  ディスプレイ
107  通信デバイス
108  記憶装置
109  プログラム

Claims (8)

  1. ピクセル条件取得工程、レンズマーカの画像取得工程、ピクセルごとの数値化工程、レンズ部ごとの平均化工程、およびレンズマーカのパターン中心の決定工程を含み、
    前記レンズマーカは、連続的に複数のレンズ部が配置されたマーカであり、
    前記ピクセル条件取得工程は、
      既定の撮像条件下で前記レンズマーカを撮像した場合における、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得し、
    前記レンズマーカの画像取得工程は、
      前記撮像条件下で撮像した前記レンズマーカの画像を取得し、
    前記ピクセルごとの数値化工程は、
      前記取得した画像について、ピクセルごとにコントラストを数値化し、
    前記レンズ部ごとの平均化工程は、
      前記各レンズ部に対応するピクセルの位置情報に基づいて、各レンズ部に対応する複数のピクセルのコントラスト値から、平均コントラスト値を算出し、
    前記パターン中心の決定工程は、
      前記各レンズ部の前記平均コントラスト値から前記コントラスト値の極値を算出し、前記レンズマーカにおける前記極値の位置を、虚像パターンの中心と決定する
    ことを特徴とするレンズマーカのパターン中心の決定方法。
  2. 前記レンズマーカは、一対の基準マーカの間に配置されており、
    前記ピクセル条件取得工程は、
      前記一対の基準マーカ間の基準距離、前記基準距離における前記レンズマーカの位置情報、前記レンズマーカのレンズ部数、および、前記基準距離のピクセル数から、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得する、請求項1記載のパターン中心の決定方法。
  3. 前記パターン中心の決定工程において算出される前記コントラスト値の極値が1つである、請求項1または2記載のパターン中心の決定方法。
  4. ピクセル条件取得部、レンズマーカの画像取得部、ピクセルごとの数値化部、レンズ部ごとの平均化部、およびレンズマーカのパターン中心の決定部を含み、
    前記レンズマーカは、連続的に複数のレンズ部が配置されたマーカであり、
    前記ピクセル条件取得部は、
      既定の撮像条件下で前記レンズマーカを撮像した場合における、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得し、
    前記レンズマーカの画像取得部は、
      前記撮像条件下で撮像した前記レンズマーカの画像を取得し、
    前記ピクセルごとの数値化部は、
      前記取得した画像について、ピクセルごとにコントラストを数値化し、
    前記レンズ部ごとの平均化部は、
      前記各レンズ部に対応するピクセルの位置情報に基づいて、各レンズ部に対応する複数のピクセルのコントラスト値から、平均コントラスト値を算出し、
    前記パターン中心の決定部は、
      前記各レンズ部の前記平均コントラスト値から前記コントラスト値の極値を算出し、前記レンズマーカにおける前記極値の位置を、虚像パターンの中心と決定する
    ことを特徴とするレンズマーカのパターン中心の決定装置。
  5. 前記レンズマーカは、一対の基準マーカの間に配置されており、
    前記ピクセル条件取得部は、
      前記一対の基準マーカ間の基準距離、前記基準距離における前記レンズマーカの位置情報、前記レンズマーカのレンズ部数、および、前記基準距離のピクセル数から、前記レンズマーカの各レンズ部に対応するピクセルの位置情報を取得する、請求項4記載のパターン中心の決定装置。
  6. 前記パターン中心の決定工程において算出される前記コントラスト値の極値が1つである、請求項4または5記載のパターン中心の決定装置。
  7. 請求項1から3のいずれか一項に記載のレンズマーカのパターン中心の決定方法をコンピュータに実行させることを特徴とするプログラム。
  8. 請求項7記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。

     
PCT/JP2019/009712 2018-03-28 2019-03-11 レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体 WO2019188194A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-061102 2018-03-28
JP2018061102A JP2019174216A (ja) 2018-03-28 2018-03-28 レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体

Publications (1)

Publication Number Publication Date
WO2019188194A1 true WO2019188194A1 (ja) 2019-10-03

Family

ID=68061556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009712 WO2019188194A1 (ja) 2018-03-28 2019-03-11 レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体

Country Status (2)

Country Link
JP (1) JP2019174216A (ja)
WO (1) WO2019188194A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110376699A (zh) * 2019-07-26 2019-10-25 业成科技(成都)有限公司 镜片对位方法、镜头模组及成像装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012047882A (ja) * 2010-08-25 2012-03-08 Nlt Technologies Ltd 実装精度検査方法及びその検査方法を用いる検査装置
WO2017036531A1 (en) * 2015-09-03 2017-03-09 Ultra-D Coöperatief U.A. Measuring rotational position of lenticular lens sheet
WO2017212853A1 (ja) * 2016-06-09 2017-12-14 株式会社エンプラス マーカ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012047882A (ja) * 2010-08-25 2012-03-08 Nlt Technologies Ltd 実装精度検査方法及びその検査方法を用いる検査装置
WO2017036531A1 (en) * 2015-09-03 2017-03-09 Ultra-D Coöperatief U.A. Measuring rotational position of lenticular lens sheet
WO2017212853A1 (ja) * 2016-06-09 2017-12-14 株式会社エンプラス マーカ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110376699A (zh) * 2019-07-26 2019-10-25 业成科技(成都)有限公司 镜片对位方法、镜头模组及成像装置

Also Published As

Publication number Publication date
JP2019174216A (ja) 2019-10-10

Similar Documents

Publication Publication Date Title
CN107316047B (zh) 图像处理装置、图像处理方法以及存储介质
US9451132B2 (en) System for capturing a document in an image signal
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP3793100B2 (ja) 情報処理方法、装置および記録媒体
EP3081900B1 (en) Measurement devices and methods for measuring the shape of an object to be measured, and method of manufacturing an article
US20130155417A1 (en) Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
CN110519585B (zh) 一种应用于图像采集设备的成像校准方法及装置
US9946947B2 (en) System and method for finding saddle point-like structures in an image and determining information from the same
WO2014084181A1 (ja) 画像計測装置
US11210773B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JPWO2009088053A1 (ja) 測定装置および方法、並びに、プログラム
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
JP2014155063A (ja) 解像度測定用チャート、解像度測定方法、カメラモジュールにおける位置調整方法およびカメラモジュールの製造方法
KR101583423B1 (ko) 카메라에서 촬영된 영상의 왜곡을 보정하기 위한 영상 왜곡 보정 방법
JP2019179342A (ja) 画像処理装置および画像処理方法
US9739604B2 (en) Information processing apparatus, information processing method, and storage medium
JP6564136B2 (ja) 画像処理装置、画像処理方法、および、プログラム
WO2019188194A1 (ja) レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体
JP4182937B2 (ja) 撮影装置、撮影装置の画像処理方法及びプログラム
JP2014182637A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2014191685A (ja) 画像処理装置および画像処理方法
WO2020031980A1 (ja) レンズマーカ画像の補正方法、補正装置、プログラム、および記録媒体
JP2019178892A (ja) 画像処理装置、画像処理方法及びプログラム
JP4351090B2 (ja) 画像処理装置および画像処理方法
KR20120134962A (ko) 패턴시트 상의 좌표패턴으로부터 좌표를 인식하는 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19776452

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19776452

Country of ref document: EP

Kind code of ref document: A1