JP7024405B2 - Information processing equipment, programs and information processing methods - Google Patents

Information processing equipment, programs and information processing methods Download PDF

Info

Publication number
JP7024405B2
JP7024405B2 JP2017254500A JP2017254500A JP7024405B2 JP 7024405 B2 JP7024405 B2 JP 7024405B2 JP 2017254500 A JP2017254500 A JP 2017254500A JP 2017254500 A JP2017254500 A JP 2017254500A JP 7024405 B2 JP7024405 B2 JP 7024405B2
Authority
JP
Japan
Prior art keywords
coordinates
image data
target surface
coordinate
measurement target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017254500A
Other languages
Japanese (ja)
Other versions
JP2019121076A (en
Inventor
悠介 野中
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017254500A priority Critical patent/JP7024405B2/en
Publication of JP2019121076A publication Critical patent/JP2019121076A/en
Application granted granted Critical
Publication of JP7024405B2 publication Critical patent/JP7024405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、プログラム及び情報処理方法に関する。 The present invention relates to an information processing apparatus, a program and an information processing method.

従来、画像解析により被写体の測定を行うことができる測定装置が提案されている(例えば特許文献1参照)。 Conventionally, a measuring device capable of measuring a subject by image analysis has been proposed (see, for example, Patent Document 1).

特開2017-3399号公報Japanese Unexamined Patent Publication No. 2017-3399

しかしながら、従来の技術では、撮影中心点と画像内の任意の対象との実距離を予め測定しておく必要があり、簡易な計測を行うことができないという問題がある。 However, in the conventional technique, it is necessary to measure the actual distance between the shooting center point and an arbitrary object in the image in advance, and there is a problem that simple measurement cannot be performed.

一つの側面では、簡易計測を実現することが可能な情報処理装置等を提供することにある。 One aspect is to provide an information processing device or the like capable of realizing simple measurement.

一つの案では、計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得する取得部と、前記画像データ上の各レーザ光に対応する第1座標を特定する特定部と、特定した前記第1座標及び、該第1座標と前記撮像装置のカメラパラメータとから特定される前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する算出部とを備える。 In one proposal, an acquisition unit that acquires image data obtained by irradiating a measurement target surface with three or more laser beams from an image pickup device, and a specific unit that specifies first coordinates corresponding to each laser beam on the image data. , An equation for specifying the measurement target surface based on the specified first coordinate and the second coordinate of each laser beam on the measurement target surface specified from the first coordinate and the camera parameter of the image pickup device. It is equipped with a calculation unit for calculation.

一つの側面では、簡易計測を実現することが可能となる。 On one side, it is possible to realize simple measurement.

情報処理システムの概要を示す説明図である。It is explanatory drawing which shows the outline of an information processing system. コンピュータのハードウェア群を示すブロック図である。It is a block diagram which shows the hardware group of a computer. 第1座標の算出手順を示す説明図である。It is explanatory drawing which shows the calculation procedure of the 1st coordinate. 対象面に照射されるレーザ光のイメージを示す説明図である。It is explanatory drawing which shows the image of the laser beam which irradiates the object surface. 画像データと対象面との関係を示す説明図である。It is explanatory drawing which shows the relationship between image data and an object surface. 対象面方程式の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of the object plane equation. 距離算出手順を示すフローチャートである。It is a flowchart which shows the distance calculation procedure. 4点の選択処理を説明する説明図である。It is explanatory drawing explaining the selection process of 4 points. 撮影画像データを示す説明図である。It is explanatory drawing which shows the photographed image data. 射影変換処理の手順を示す説明図である。It is explanatory drawing which shows the procedure of a projective transformation process. 射影変換を示す説明図である。It is explanatory drawing which shows the projective transformation. 分解能を説明するための説明図である。It is explanatory drawing for demonstrating the resolution. 補正画像上での距離の算出手順を示す説明図である。It is explanatory drawing which shows the calculation procedure of the distance on a corrected image. 分解能算出手順を示すフローチャートである。It is a flowchart which shows the resolution calculation procedure. 距離の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of a distance. 上述した形態のコンピュータの機能ブロック図である。It is a functional block diagram of the computer of the above-mentioned form. 実施の形態2に係るコンピュータのハードウェア群を示すブロック図である。It is a block diagram which shows the hardware group of the computer which concerns on Embodiment 2. FIG.

実施の形態1
以下実施の形態を、図面を参照して説明する。図1は情報処理システムの概要を示す説明図である。情報処理システムは情報処理装置1及び計測装置2等を含む。情報処理装置1は例えば、サーバコンピュータ、パーソナルコンピュータ、タブレットまたはスマートフォン等である。実施の形態では情報処理装置1をコンピュータ1と読み替えて説明する。計測装置2は3以上のレーザ光を照射するレーザモジュール及び撮像装置を含む。なお、実施の形態では計測装置2とコンピュータ1とが分離した例を挙げて説明するがこれに限るものではない。計測装置2とコンピュータ1とを一体のものとしてもよい。
Embodiment 1
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 is an explanatory diagram showing an outline of an information processing system. The information processing system includes an information processing device 1, a measuring device 2, and the like. The information processing device 1 is, for example, a server computer, a personal computer, a tablet, a smartphone, or the like. In the embodiment, the information processing apparatus 1 will be referred to as the computer 1 and will be described. The measuring device 2 includes a laser module and an image pickup device that irradiate three or more laser beams. In the embodiment, an example in which the measuring device 2 and the computer 1 are separated will be described, but the present invention is not limited to this. The measuring device 2 and the computer 1 may be integrated.

橋梁、ビル、住宅、高架若しくはトンネル等の施設、または、飛行機、電車、自動車若しくは船舶等の移動体の計測対象面に向けて、レーザモジュールからレーザ光を照射する。併せて撮像装置にてレーザ光が照射された対象面の画像を取り込む。図1の例では4つのレーザモジュールからレーザ光が対象面に照射され、4つの照射スポットが撮像画像として取り込まれている。 Laser light is emitted from the laser module toward the measurement target surface of a facility such as a bridge, a building, a house, an elevated or a tunnel, or a moving object such as an airplane, a train, an automobile or a ship. At the same time, the image pickup device captures the image of the target surface irradiated with the laser beam. In the example of FIG. 1, laser light is irradiated to the target surface from four laser modules, and the four irradiation spots are captured as captured images.

コンピュータ1は、撮像装置から画像データを取り込み、各レーザ光に対応する座標を特定する。以下では、画像データ上の座標を第1座標といい、実空間における座標を第2座標という。コンピュータ1は対象面における各レーザ光の第2座標と、特定した第1座標とに基づき、対象面の方程式を算出する。コンピュータ1は、画像データ上から対象面の損傷の長さ等、計測を希望する2つの第1座標を受け付ける。コンピュータ1は受け付けた2つの第1座標及び方程式に基づき、対応する2つの第2座標を算出し、求めた2つの第2座標に基づき第2座標間の距離を算出する。以下詳細を説明する。 The computer 1 takes in image data from the image pickup apparatus and specifies the coordinates corresponding to each laser beam. In the following, the coordinates on the image data are referred to as the first coordinates, and the coordinates in the real space are referred to as the second coordinates. The computer 1 calculates the equation of the target surface based on the second coordinates of each laser beam on the target surface and the specified first coordinates. The computer 1 accepts two first coordinates desired to be measured, such as the length of damage to the target surface, from the image data. The computer 1 calculates the corresponding two second coordinates based on the two received first coordinates and the equation, and calculates the distance between the second coordinates based on the obtained two second coordinates. The details will be described below.

図2はコンピュータ1のハードウェア群を示すブロック図である。コンピュータ1は制御部としてのCPU(Central Processing Unit)11、RAM(Random Access Memory)12、入力部13、表示部14、記憶部15、時計部18、通信ポート19、及び、通信部16等を含む。CPU11は、バス17を介してハードウェア各部と接続されている。CPU11は記憶部15に記憶された制御プログラム15Pに従いハードウェア各部を制御する。なお、CPU11は複数のプロセッサコアを搭載したマルチコアプロセッサであっても良い。RAM12は例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモリ等である。RAM12は、記憶部としても機能し、CPU11による各種プログラムの実行時に発生する種々のデータを一時的に記憶する。 FIG. 2 is a block diagram showing a hardware group of the computer 1. The computer 1 includes a CPU (Central Processing Unit) 11 as a control unit, a RAM (Random Access Memory) 12, an input unit 13, a display unit 14, a storage unit 15, a clock unit 18, a communication port 19, a communication unit 16, and the like. include. The CPU 11 is connected to each part of the hardware via the bus 17. The CPU 11 controls each hardware unit according to the control program 15P stored in the storage unit 15. The CPU 11 may be a multi-core processor equipped with a plurality of processor cores. The RAM 12 is, for example, an SRAM (Static RAM), a DRAM (Dynamic RAM), a flash memory, or the like. The RAM 12 also functions as a storage unit, and temporarily stores various data generated when various programs are executed by the CPU 11.

入力部13はマウス、キーボード、タッチパネル、ボタン等の入力デバイスであり、受け付けた操作情報をCPU11へ出力する。表示部14は液晶ディスプレイまたは有機EL(electroluminescence)ディスプレイ等であり、CPU11の指示に従い各種情報を表示する。通信部16は通信モジュールであり、図示しない他のコンピュータ1等との間で情報のインターネット等の通信網を介して情報の送受信を行う。時計部18は日時情報をCPU11へ出力する。 The input unit 13 is an input device such as a mouse, a keyboard, a touch panel, and a button, and outputs the received operation information to the CPU 11. The display unit 14 is a liquid crystal display, an organic EL (electroluminescence) display, or the like, and displays various information according to the instructions of the CPU 11. The communication unit 16 is a communication module, and transmits / receives information to / from another computer 1 (not shown) via a communication network such as the Internet. The clock unit 18 outputs date and time information to the CPU 11.

記憶部15は大容量メモリまたはハードディスクであり、制御プログラム15P等を記憶している。通信ポート19は、例えばUSB(Universal Serial Bus)ポートであり、計測装置2のレーザモジュール(照射装置)22及び撮像装置21と、コンピュータ1との間で情報の送受信を行うインターフェースである。なお、Bluetooth(登録商標)等の近距離無線通信モジュールを用いて無線通信によりコンピュータ1と計測装置2との情報の送受信を行ってもよい。 The storage unit 15 is a large-capacity memory or a hard disk, and stores the control program 15P and the like. The communication port 19 is, for example, a USB (Universal Serial Bus) port, and is an interface for transmitting and receiving information between the laser module (irradiation device) 22 and the image pickup device 21 of the measuring device 2 and the computer 1. Information may be transmitted / received between the computer 1 and the measuring device 2 by wireless communication using a short-range wireless communication module such as Bluetooth (registered trademark).

各レーザモジュール22はCPU11の指示に従いレーザ光を出力する。実施の形態では説明を容易にするために、対象面は実質的に平らな面であるものとして説明する。撮像装置21は取得した画像データをCPU11へ出力する。なお、実施形態では、斜め方向から対象面を撮影する例を示すが、正面から撮影してもよい。CPU11は、取得した画像データをRAM12に一時的に記憶する。なお、コンピュータ1は1台で各種処理を実行するほか、複数のコンピュータ1、1・・・により分散して各種処理を実行してもよい。また各種処理をコンピュータ1の仮想マシン上で実行するようにしてもよい。またコンピュータ1と計測装置2とを一体化する場合、タブレットまたはスマートフォンのタッチパネル裏面中央部に撮影装置21を配置し、4隅にレーザモジュール22を配置すればよい。 Each laser module 22 outputs a laser beam according to the instruction of the CPU 11. In the embodiment, the target surface is assumed to be a substantially flat surface for ease of explanation. The image pickup apparatus 21 outputs the acquired image data to the CPU 11. In the embodiment, an example of photographing the target surface from an oblique direction is shown, but the image may be taken from the front. The CPU 11 temporarily stores the acquired image data in the RAM 12. In addition to executing various processes by one computer 1, the computer 1 may be distributed by a plurality of computers 1, 1, ... And execute various processes. Further, various processes may be executed on the virtual machine of the computer 1. When the computer 1 and the measuring device 2 are integrated, the photographing device 21 may be arranged at the center of the back surface of the touch panel of the tablet or smartphone, and the laser modules 22 may be arranged at the four corners.

図3は第1座標の算出手順を示す説明図である。CPU11は、取り込んだ画像データについて2値化処理を行う。これによりレーザ光の領域が特定される。次いでCPU11は、2値化により得られるエッジ領域の座標に対し、楕円近似を行う。CPU11は、近似した楕円の中心座標を第1座標として特定する。CPU11は、4つの第1座標をRAM12に記憶する。なお、実施の形態では楕円近似を用いる例を示すがこれに限るものではない。例えば、CPU11は、エッジ検出を行いエッジ領域のx軸方向の最大座標及び最小座標の平均値と、y軸方向の最大座標及び最小座標の平均値とに基づき、第1座標を算出するようにしてもよい。また正面から撮影した場合、エッジ検出により特定される円の中心を第1座標とすればよい。 FIG. 3 is an explanatory diagram showing a procedure for calculating the first coordinates. The CPU 11 performs binarization processing on the captured image data. This identifies the region of the laser beam. Next, the CPU 11 performs an elliptical approximation with respect to the coordinates of the edge region obtained by binarization. The CPU 11 specifies the center coordinates of the approximated ellipse as the first coordinates. The CPU 11 stores the four first coordinates in the RAM 12. In the embodiment, an example using ellipse approximation is shown, but the present invention is not limited to this. For example, the CPU 11 performs edge detection and calculates the first coordinate based on the average value of the maximum and minimum coordinates in the x-axis direction of the edge region and the average value of the maximum and minimum coordinates in the y-axis direction. You may. Further, when the image is taken from the front, the center of the circle specified by the edge detection may be set as the first coordinate.

図4は対象面に照射されるレーザ光のイメージを示す説明図である。計測装置2は撮像装置21及びレーザモジュール22を支持する支持板23を有する。レーザモジュール22、22・・・は相互にレーザ光が重複しないよう適宜距離を隔てて、照射面が平行となるよう配置されている。 FIG. 4 is an explanatory diagram showing an image of a laser beam applied to a target surface. The measuring device 2 has a support plate 23 that supports the image pickup device 21 and the laser module 22. The laser modules 22, 22 ... Are arranged so that the irradiation surfaces are parallel to each other at appropriate distances so that the laser beams do not overlap with each other.

撮像装置21は各レーザモジュール22から等距離の位置に配置されている。図4の例では正方形の支持板23の中央に撮像装置21が取り付けられており、支持板23の4隅にレーザモジュール22が同一方向に出射面を向けて取り付けられている。以下では説明の便宜上、カメラの撮影方向及びレーザ光の照射方向をz軸正方向、支持板23の平面をxy軸平面とし、xy軸平面において紙面下側をx軸正方向、紙面奥に向かう方向をy軸正方向とする。なお、実施の形態では4つのレーザモジュール22を用いる例を示すが、これに限るものではない。図4のレーザモジュール22を一つ削除した形態でもよい。また、5つまたは6つのレーザモジュール22を用いてもよい。この場合各レーザモジュール22で形成される多角形の中心点に撮像装置21を配置すればよい。 The image pickup apparatus 21 is arranged at a position equidistant from each laser module 22. In the example of FIG. 4, the image pickup apparatus 21 is attached to the center of the square support plate 23, and the laser modules 22 are attached to the four corners of the support plate 23 with the emission surfaces facing in the same direction. In the following, for convenience of explanation, the shooting direction of the camera and the irradiation direction of the laser beam are the z-axis positive direction, the plane of the support plate 23 is the xy-axis plane, and the lower side of the paper surface is the x-axis positive direction in the xy-axis plane toward the back of the paper surface. The direction is the positive y-axis direction. In the embodiment, an example in which the four laser modules 22 are used is shown, but the present invention is not limited to this. The laser module 22 of FIG. 4 may be deleted. Further, 5 or 6 laser modules 22 may be used. In this case, the image pickup device 21 may be arranged at the center point of the polygon formed by each laser module 22.

ここで、撮像装置21を原点とし、一のレーザモジュール22の座標を(x0,y0,0)、対象面の方程式をz=ax+by+cとした場合、当該レーザモジュール22が照射したレーザ光が対象面に照射される第2座標は(x0,y0,ax0+by0+c)となる。なお、レーザモジュール22の位置及び照射方向は既知とする。また、撮影画像データ上の座標軸は、右方向に向かう方向をu軸正方向、下方向に向かう方向をv軸正方向とする。ここで、上述した一のレーザモジュール22の画像データ上の第1座標(u0,v0)とする。 Here, when the image pickup device 21 is the origin, the coordinates of one laser module 22 are (x 0 , y 0 , 0), and the equation of the target surface is z = ax + by + c, the laser module 22 irradiates. The second coordinate at which the laser beam is applied to the target surface is (x 0 , y 0 , ax 0 + by 0 + c). The position and irradiation direction of the laser module 22 are known. Further, as for the coordinate axes on the captured image data, the direction toward the right is the u-axis positive direction, and the downward direction is the v-axis positive direction. Here, it is the first coordinate (u 0 , v 0 ) on the image data of one laser module 22 described above.

CPU11は、予め取得し記憶部15に記憶している撮像装置21のカメラパラメータを読み出す。CPU11は、画像データ上の第1座標(u0,v0)及びカメラパラメータに基づき、対象面の方程式z=ax+by+c から、未知数であるa,b及びcを算出する。少なくとも3つの第1座標が存在すれば3つの式を立てることができ、3つの未知数a,b,cを求めることができる。CPU11は、算出した係数を含む方程式をRAM12に記憶する。なお、レーザ点の数が多い場合、方程式の数が多くなるため、a,b,cを求める際に最小二乗法等により、楕円近似等に起因するノイズによる誤差を低減しながら精度よく対象面方程式の係数を算出することが可能となる。 The CPU 11 reads out the camera parameters of the image pickup apparatus 21 that have been acquired in advance and stored in the storage unit 15. The CPU 11 calculates unknowns a, b and c from the equation z = ax + by + c of the target surface based on the first coordinates (u 0 , v 0 ) on the image data and the camera parameters. If there are at least three first coordinates, three equations can be established and three unknowns a, b, and c can be obtained. The CPU 11 stores the equation including the calculated coefficient in the RAM 12. If the number of laser points is large, the number of equations will be large. Therefore, when calculating a, b, and c, the least squares method or the like is used to reduce errors due to noise caused by elliptic approximation, etc., and to accurately measure the target surface. It is possible to calculate the coefficients of the equation.

図5は画像データと対象面との関係を示す説明図である。CPU11は、入力部13を通じて、画像データ上の計測を希望する2点の第1座標の指定を受け付ける。図5ではv方向に延びる損傷の長さを計測する例を示している。ここで、第1座標は(u0,v0)、(u1,v1)、これら2つの第1座標に対応する対象面の第2座標はそれぞれ(x0,y0,z0)、(x1,y1,z1)であるものとする。 FIG. 5 is an explanatory diagram showing the relationship between the image data and the target surface. The CPU 11 accepts the designation of the first coordinates of two points desired to be measured on the image data through the input unit 13. FIG. 5 shows an example of measuring the length of damage extending in the v direction. Here, the first coordinates are (u 0 , v 0 ), (u 1 , v 1 ), and the second coordinates of the target surface corresponding to these two first coordinates are (x 0 , y 0 , z 0 ), respectively. , (X 1 , y 1 , z 1 ).

CPU11は、RAM12に記憶したカメラパラメータ及び対象面の方程式を読み出す。CPU11は、第1座標、カメラパラメータ及び方程式に基づき、対象面の第2座標を算出する。具体的には未知の三次元座標上の第2座標を(x,y,z)、既知の画像上の第1座標を(u,v)、既知のカメラパラメータをM、スケールをs(スケールファクタ)とした場合、以下の式(1)が成立する。 The CPU 11 reads out the camera parameters and the equations of the target surface stored in the RAM 12. The CPU 11 calculates the second coordinate of the target surface based on the first coordinate, the camera parameter and the equation. Specifically, the second coordinate on the unknown three-dimensional coordinate is (x, y, z), the first coordinate on the known image is (u, v), the known camera parameter is M, and the scale is s (scale). When the factor) is used, the following equation (1) holds.

Figure 0007024405000001
Figure 0007024405000001

3次元座標は既知の平面(z=ax+by+c)上に存在し、a,b,cは既知である。したがって未知数はx,y,z,sの4つであり、式も4つ存在するため、連立方程式を解くことで第2座標(x,y,z)を求めることができる。CPU11は、算出した2つの第2座標のユークリッド距離を算出することで、2点間の実寸を求める。 The three-dimensional coordinates exist on a known plane (z = ax + by + c), and a, b, and c are known. Therefore, since there are four unknowns, x, y, z, and s, and there are four equations, the second coordinate (x, y, z) can be obtained by solving the simultaneous equations. The CPU 11 obtains the actual size between the two points by calculating the calculated Euclidean distances of the two second coordinates.

以上のハードウェア群において各種ソフトウェア処理を、フローチャートを用いて説明する。図6は対象面方程式の算出手順を示すフローチャートである。計測者は計測対象物の任意の個所に向けてレーザ光を照射する。CPU11は、入力部13を通じて計測を開始する旨の情報を受け付けた場合、レーザモジュール22にコマンドを出力し、対象面に向けてレーザモジュール22からレーザ光を照射する(ステップS61)。CPU11は、併せて画像データを取り込む(ステップS62)。 Various software processes in the above hardware group will be described using a flowchart. FIG. 6 is a flowchart showing the calculation procedure of the target surface equation. The measurer irradiates the laser beam toward an arbitrary part of the object to be measured. When the CPU 11 receives the information to start the measurement through the input unit 13, it outputs a command to the laser module 22 and irradiates the target surface with the laser beam from the laser module 22 (step S61). The CPU 11 also captures image data (step S62).

CPU11は、輝度等の情報に基づき、レーザ光が照射されている領域を特定する。CPU11は、画像データ上のレーザ光近傍の画像データにについて2値化処理を行う(ステップS63)。CPU11は、エッジ領域の座標に基づき、楕円近似処理を行う(ステップS64)。CPU11は、楕円の中心を第1座標として特定する(ステップS65)。CPU11は、4つの画像データ上の第1座標をRAM12に記憶する(ステップS66)。CPU11は、カメラパラメータをRAM12から読み出す(ステップS67)。 The CPU 11 specifies a region irradiated with laser light based on information such as brightness. The CPU 11 performs binarization processing on the image data in the vicinity of the laser beam on the image data (step S63). The CPU 11 performs ellipse approximation processing based on the coordinates of the edge region (step S64). The CPU 11 specifies the center of the ellipse as the first coordinate (step S65). The CPU 11 stores the first coordinates on the four image data in the RAM 12 (step S66). The CPU 11 reads the camera parameters from the RAM 12 (step S67).

CPU11は、カメラパラメータ及び4つの第1座標に基づき、対象面の方程式を算出する(ステップS68)。CPU11は、算出した方程式をRAM12に記憶する(ステップS69)。 The CPU 11 calculates the equation of a plane of interest based on the camera parameters and the four first coordinates (step S68). The CPU 11 stores the calculated equation in the RAM 12 (step S69).

図7は距離算出手順を示すフローチャートである。CPU11は、入力部13から画像データ上の計測を希望する2点の第1座標を受け付ける(ステップS71)。CPU11は、カメラパラメータ及び方程式をRAM12から読み出す(ステップS72)。CPU11は、第1座標、カメラパラメータ及び方程式に基づき、対象面上の第2座標を算出する(ステップS73)。CPU11は、2つの第2座標間の距離を算出する(ステップS74)。CPU11は、算出した距離を表示部14に出力する(ステップS75)。なお、通信部16を介して他のコンピュータへ算出した距離を出力するようにしてもよい。これにより、簡易に対象面上の距離を算出することが可能となる。また対象面上の距離を事前に計測しなくとも距離を算出することが可能となる。さらに、撮影及び照射方向が対象面に対して斜めであっても、適切に距離を算出することが可能となる。また楕円近似を行うことで簡易に第1座標を特定することが可能となる。その他、レーザモジュール22数を増加させることでより精度を向上させることが可能となる。 FIG. 7 is a flowchart showing the distance calculation procedure. The CPU 11 receives the first coordinates of two points desired to be measured on the image data from the input unit 13 (step S71). The CPU 11 reads the camera parameters and equations from the RAM 12 (step S72). The CPU 11 calculates the second coordinate on the target surface based on the first coordinate, the camera parameter, and the equation (step S73). The CPU 11 calculates the distance between the two second coordinates (step S74). The CPU 11 outputs the calculated distance to the display unit 14 (step S75). The calculated distance may be output to another computer via the communication unit 16. This makes it possible to easily calculate the distance on the target surface. In addition, it is possible to calculate the distance without measuring the distance on the target surface in advance. Further, even if the shooting and irradiation directions are oblique to the target surface, the distance can be calculated appropriately. Further, the first coordinate can be easily specified by performing ellipse approximation. In addition, it is possible to further improve the accuracy by increasing the number of laser modules 22.

実施の形態2
実施の形態2は画像補正する形態に関する。図8は4点の選択処理を説明する説明図である。CPU11は、RAM12から方程式を読み出す。CPU11は、読み出した対象面を法線方向から見た場合に、正方形となる任意の4点を選択する。CPU11は、選択した4点の第2座標を求める。図8の例では一つの第2座標は方程式から(xi,yi,axi+byi+c)となる。正方形の各辺の既知の長さは一定であることから、他の3点の第2座標も求めることができる。
Embodiment 2
The second embodiment relates to a form of image correction. FIG. 8 is an explanatory diagram illustrating a selection process of four points. The CPU 11 reads the equation from the RAM 12. The CPU 11 selects any four points that are square when the read target surface is viewed from the normal direction. The CPU 11 obtains the second coordinates of the selected four points. In the example of FIG. 8, one second coordinate is (x i , y i , ax i + by i + c) from the equation. Since the known length of each side of the square is constant, the second coordinates of the other three points can also be obtained.

図9は撮影画像データを示す説明図である。CPU11は、選択した4つの第2座標が画像上に写る第1座標(ui,vi)を既知のカメラパラメータ、及び、下記式(2)により算出する。なお、カメラパラメータMは4×3の行列であるものとする。この場合、3つの式により、3つの未知数u,v,sを求めることができる。 FIG. 9 is an explanatory diagram showing captured image data. The CPU 11 calculates the first coordinates (u i , v i ) in which the four selected second coordinates appear on the image by the known camera parameters and the following equation (2). It is assumed that the camera parameter M is a 4 × 3 matrix. In this case, three unknowns u, v, s can be obtained by three equations.

Figure 0007024405000002
Figure 0007024405000002

CPU11は、算出した4点の第1座標をRAM12に記憶する。図10は射影変換処理の手順を示す説明図である。CPU11は、算出した4つの第1座標(ui,vi)を正方形に補正するための射影変換行列を算出する。ここで、目標とする画像データ上の第1座標を(ui’,vi’)とし、4点が一致する下記式(3)で示す射影変換行列Hを算出する。 The CPU 11 stores the calculated first coordinates of the four points in the RAM 12. FIG. 10 is an explanatory diagram showing the procedure of the projective transformation process. The CPU 11 calculates a projective transformation matrix for correcting the calculated four first coordinates (u i , v i ) to a square. Here, the first coordinate on the target image data is (u i ', v i '), and the projective transformation matrix H represented by the following equation (3) in which the four points match is calculated.

Figure 0007024405000003
Figure 0007024405000003

図11は射影変換を示す説明図である。CPU11は、画像データの入力を受け付ける。CPU11は、算出した射影変換行列を画像データにかけることで、画像全体を、対象面の正面から撮影した画像に変換する。図11Aは変換前の撮影画像であり、図11Bは射影返還後の補正画像である。斜めから撮影することにより歪んでいた画像が正面から撮影されたように補正されている。 FIG. 11 is an explanatory diagram showing a projective transformation. The CPU 11 accepts the input of image data. The CPU 11 applies the calculated projective transformation matrix to the image data to convert the entire image into an image taken from the front of the target surface. FIG. 11A is a captured image before conversion, and FIG. 11B is a corrected image after projection return. The image that was distorted by shooting from an angle is corrected as if it was shot from the front.

図12は分解能を説明するための説明図である。CPU11は、対象面の方程式をRAM12から読み出す。CPU11は、読み出した方程式を利用して、レーザ光が反射した2点の対象面上の第2座標を算出する。CPU11は、2つの第2座標間の距離を算出する。CPU11は、上述した補正された画像データ中の対応する2点の第1座標を求め、2点の第1座標間のピクセル数を求める。CPU11は、求めた第2座標間の距離を、ピクセル数で除すことで、補正画像上の分解能、すなわち各ピクセルの長さを求める。CPU11は、求めた分解能をRAM12に記憶する。 FIG. 12 is an explanatory diagram for explaining the resolution. The CPU 11 reads the equation of a plane of interest from the RAM 12. The CPU 11 uses the read equation to calculate the second coordinates on the target surface of the two points reflected by the laser beam. The CPU 11 calculates the distance between the two second coordinates. The CPU 11 obtains the first coordinates of the corresponding two points in the corrected image data described above, and obtains the number of pixels between the first coordinates of the two points. The CPU 11 obtains the resolution on the corrected image, that is, the length of each pixel by dividing the distance between the obtained second coordinates by the number of pixels. The CPU 11 stores the obtained resolution in the RAM 12.

図13は補正画像上での距離の算出手順を示す説明図である。CPU11は、射影変換行列を用いて補正画像を生成する。ユーザは補正画像上で、入力部13から距離の計測を行う対象となる2点を選択する。CPU11は、入力部13から入力された2点の第1座標を受け付ける。CPU11は、受け付けた2つの第1座標間のピクセル数を求める。CPU11は、RAM12に記憶した分解能を、求めたピクセル数に乗ずることで2点間の距離を算出する。CPU11は、算出した距離を表示部14に表示する。 FIG. 13 is an explanatory diagram showing a procedure for calculating the distance on the corrected image. The CPU 11 generates a corrected image using a projective transformation matrix. The user selects two points on the corrected image to be measured for distance from the input unit 13. The CPU 11 receives the first coordinates of the two points input from the input unit 13. The CPU 11 obtains the number of pixels between the two received first coordinates. The CPU 11 calculates the distance between two points by multiplying the resolution stored in the RAM 12 by the obtained number of pixels. The CPU 11 displays the calculated distance on the display unit 14.

図14は分解能算出手順を示すフローチャートである。CPU11は、RAM12に記憶した方程式を読み出す(ステップS141)。CPU11は、対象面を法線方向から見た場合に正方形となる4つの第2座標を特定する(ステップS142)。CPU11は、4つの第2座標及びカメラパラメータに基づき、画像データ上の対応する4つの第1座標を算出する(ステップS143)。CPU11は、4つの第1座標を正方形に補正するための射影変換行列を算出する(ステップS144)。 FIG. 14 is a flowchart showing the resolution calculation procedure. The CPU 11 reads out the equation stored in the RAM 12 (step S141). The CPU 11 specifies four second coordinates that are square when the target surface is viewed from the normal direction (step S142). The CPU 11 calculates the corresponding four first coordinates on the image data based on the four second coordinates and the camera parameters (step S143). The CPU 11 calculates a projective transformation matrix for correcting the four first coordinates to a square (step S144).

CPU11は、画像データの入力を受け付ける(ステップS145)。CPU11は、射影変換行列により、補正画像データを生成し、表示部14に出力する(ステップS146)。CPU11は、方程式に基づき、対象面上のレーザ光が照射された2点の第2座標を算出する(ステップS147)。CPU11は、対象面上の2つの第2座標間の距離を算出する(ステップS148)。CPU11は、当該第2座標に対応する補正画像データ上の2つの第1座標間のピクセル数を算出する(ステップS149)。 The CPU 11 accepts the input of image data (step S145). The CPU 11 generates corrected image data by the projection conversion matrix and outputs it to the display unit 14 (step S146). The CPU 11 calculates the second coordinates of the two points irradiated with the laser beam on the target surface based on the equation (step S147). The CPU 11 calculates the distance between the two second coordinates on the target surface (step S148). The CPU 11 calculates the number of pixels between the two first coordinates on the corrected image data corresponding to the second coordinates (step S149).

ステップS148で求めた距離を、ステップS149で求めたピクセル数で除すことで、分解能を算出する(ステップS1410)。CPU11は、算出した分解能をRAM12に記憶する(ステップS1411)。 The resolution is calculated by dividing the distance obtained in step S148 by the number of pixels obtained in step S149 (step S1410). The CPU 11 stores the calculated resolution in the RAM 12 (step S1411).

図15は距離の算出手順を示すフローチャートである。CPU11は、画像データを読み出す(ステップS151)。CPU11は、射影変換行列をRAM12から読み出す(ステップS152)。CPU11は、読み出した射影変換行列に基づき、補正画像データを生成し、表示部14に出力する(ステップS153)。CPU11は入力部13から、計測を希望する2つの第1座標の入力を受け付ける(ステップS154)。CPU11は、第1座標間のピクセル数を算出する(ステップS155)。CPU11は、分解能をRAM12から読み出す(ステップS156)。 FIG. 15 is a flowchart showing the procedure for calculating the distance. The CPU 11 reads out the image data (step S151). The CPU 11 reads the projective transformation matrix from the RAM 12 (step S152). The CPU 11 generates corrected image data based on the read projective transformation matrix and outputs it to the display unit 14 (step S153). The CPU 11 receives inputs of two first coordinates desired to be measured from the input unit 13 (step S154). The CPU 11 calculates the number of pixels between the first coordinates (step S155). The CPU 11 reads the resolution from the RAM 12 (step S156).

CPU11は、分解能にピクセル数を乗じて距離を算出する(ステップS157)。CPU11は、算出した距離を表示部14に出力する(ステップS158)。これにより、損傷状況を容易に把握することが可能となる。また任意の2点の距離を容易に算出することが可能となる。なお、各実施形態では、計測装置2とコンピュータ1とが一体的に形成されている、または、近傍に設けられている例を示したがこれに限るものではない。計測装置2と、コンピュータ1とをインターネット、公衆回線網等の通信網Nを介して接続する形態であってもよい。計測装置2はレーザ光の照射を行うとともに、撮影した画像データをサーバコンピュータ1へ送信する。コンピュータ1は画像データ及びカメラパラメータに基づき、対象面の方程式を算出する。その他、コンピュータ1は射影変換行列の算出等を行う。計測装置2側の入力装置またはコンピュータ1側の入力装置にて、計測を希望する2つの第1座標の選択を受け付ける。コンピュータ1は2つの第1座標に対応する距離を上述した処理により算出する。これにより、遠隔地で照射、撮影した場合でも、異なる拠点で容易に距離演算が可能となる。 The CPU 11 multiplies the resolution by the number of pixels to calculate the distance (step S157). The CPU 11 outputs the calculated distance to the display unit 14 (step S158). This makes it possible to easily grasp the damage situation. In addition, it is possible to easily calculate the distance between any two points. In each embodiment, an example is shown in which the measuring device 2 and the computer 1 are integrally formed or provided in the vicinity thereof, but the present invention is not limited to this. The measuring device 2 and the computer 1 may be connected via a communication network N such as the Internet or a public line network. The measuring device 2 irradiates the laser beam and transmits the captured image data to the server computer 1. The computer 1 calculates the equation of the target surface based on the image data and the camera parameters. In addition, the computer 1 calculates a projective transformation matrix and the like. The input device on the measuring device 2 side or the input device on the computer 1 side accepts the selection of two first coordinates for which measurement is desired. The computer 1 calculates the distance corresponding to the two first coordinates by the above-mentioned process. This makes it possible to easily calculate the distance at different bases even when irradiating and shooting at a remote location.

本実施の形態2は以上の如きであり、その他は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。 Since the second embodiment is as described above and the other parts are the same as those of the first embodiment, the corresponding reference numbers are assigned to the corresponding parts and detailed description thereof will be omitted.

実施の形態3
図16は上述した形態のコンピュータ1の機能ブロック図である。CPU11が制御プログラム15Pを実行することにより、コンピュータ1は以下のように動作する。取得部161は計測対象面に3以上のレーザ光が照射された画像データを撮像装置21から取得する。特定部162は、前記画像データ上の各レーザ光に対応する第1座標を特定する。算出部163は、特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する。受付部164は、前記画像データ上の複数の第1座標の入力を受け付ける。距離算出部165は、受け付けた前記第1座標及び前記式に基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標間の距離を算出する。
Embodiment 3
FIG. 16 is a functional block diagram of the computer 1 in the above-described form. When the CPU 11 executes the control program 15P, the computer 1 operates as follows. The acquisition unit 161 acquires image data obtained by irradiating the measurement target surface with three or more laser beams from the image pickup device 21. The specifying unit 162 specifies the first coordinates corresponding to each laser beam on the image data. The calculation unit 163 calculates an equation for specifying the measurement target surface based on the specified first coordinate and the second coordinate of each laser beam on the measurement target surface. The reception unit 164 receives input of a plurality of first coordinates on the image data. The distance calculation unit 165 calculates the distance between the plurality of second coordinates on the measurement target surface corresponding to the first coordinate based on the received first coordinate and the formula.

図17は実施の形態2に係るコンピュータ1のハードウェア群を示すブロック図である。コンピュータ1を動作させるためのプログラムは、ディスクドライブ、メモリーカードスロット等の読み取り部10AにCD-ROM、DVDディスク、メモリーカード、またはUSBメモリ等の可搬型記録媒体1Aを読み取らせて記憶部15に記憶しても良い。また当該プログラムを記憶したフラッシュメモリ等の半導体メモリ1Bをコンピュータ1内に実装しても良い。さらに、当該プログラムは、インターネット等の通信網Nを介して接続される他のサーバコンピュータ(図示せず)からダウンロードすることも可能である。以下に、その内容を説明する。 FIG. 17 is a block diagram showing a hardware group of the computer 1 according to the second embodiment. The program for operating the computer 1 is such that the reading unit 10A such as a disk drive or a memory card slot reads a portable recording medium 1A such as a CD-ROM, a DVD disk, a memory card, or a USB memory, and the storage unit 15 is used. You may remember it. Further, a semiconductor memory 1B such as a flash memory storing the program may be mounted in the computer 1. Further, the program can also be downloaded from another server computer (not shown) connected via a communication network N such as the Internet. The contents will be described below.

図17に示すコンピュータ1は、上述した各種ソフトウェア処理を実行するプログラムを、可搬型記録媒体1Aまたは半導体メモリ1Bから読み取り、或いは、通信網Nを介して他のサーバコンピュータ(図示せず)からダウンロードする。当該プログラムは、制御プログラム15Pとしてインストールされ、RAM12にロードして実行される。これにより、上述したコンピュータ1として機能する。 The computer 1 shown in FIG. 17 reads a program for executing various software processes described above from the portable recording medium 1A or the semiconductor memory 1B, or downloads the program from another server computer (not shown) via the communication network N. do. The program is installed as a control program 15P, loaded into the RAM 12, and executed. As a result, it functions as the computer 1 described above.

本実施の形態3は以上の如きであり、その他は実施の形態1及び2と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。なお、以上述べた各実施形態は適宜組み合わせることが可能である。 Since the third embodiment is as described above and the other parts are the same as those of the first and second embodiments, the same reference numbers are assigned to the corresponding parts and detailed description thereof will be omitted. It should be noted that each of the above-described embodiments can be combined as appropriate.

以上の実施の形態1から3を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得する取得部と、
前記画像データ上の各レーザ光に対応する第1座標を特定する特定部と、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する算出部と
を備える情報処理装置。
(付記2)
前記画像データ上の複数の第1座標の入力を受け付ける受付部と、
受け付けた前記第1座標及び前記式に基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標間の距離を算出する距離算出部と
を備える付記1に記載の情報処理装置。
(付記3)
前記距離算出部は、
受け付けた前記第1座標、前記式及び前記撮像装置のパラメータに基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標を算出し、算出した第2座標間の距離を算出する
付記2に記載の情報処理装置。
(付記4)
分散配置され、相互に平行なレーザ光を照射する3以上の照射装置と、
前記照射装置に囲まれる領域に配置された撮像装置と
を備える付記1から3のいずれか一つに記載の情報処理装置。
(付記5)
前記算出部は、
前記画像データ上の複数の第1座標、前記計測対象面上の複数の第2座標、及び前記撮像装置のパラメータに基づき前記式を算出する
付記1から4のいずれか一つに記載の情報処理装置。
(付記6)
取得した画像データ上の複数の第1座標に基づき、前記画像データを補正する補正行列を算出する補正行列算出部
を備える付記1から5のいずれか一つに記載の情報処理装置。
(付記7)
前記式に基づき前記計測対象面上の複数の第2座標間の距離を算出する第2座標間距離算出部と、
前記補正行列に基づき補正された画像データ上の複数の第1座標のピクセル数を算出するピクセル数算出部と、
前記第2座標間の距離を前記ピクセル数で除すことで前記画像データの分解能を算出する分解能算出部と
を備える付記6に記載の情報処理装置。
(付記8)
補正された補正画像データから複数の第1座標の入力を受け付ける入力受付部と、
受け付けた第1座標間のピクセル数及び前記分解能に基づき、前記第1座標間の距離を算出する第1座標間距離算出部と
を備える付記7に記載の情報処理装置。
(付記9)
前記補正行列算出部は、
前記式に基づき、前記計測対象面を法線方向から見た場合に正方形となる4つの第2座標を特定し、
前記4つの第2座標及び前記パラメータに基づき、前記第2座標に対応する前記画像データ上の4つの第1座標を算出し、
算出した4つの前記第1座標を正方形に補正するための補正行列を算出する
付記6から8のいずれか一つに記載の情報処理装置。
(付記10)
分散配置され、相互に平行なレーザ光を照射する4つの照射装置と、
各照射装置から等距離の位置に配置された撮像装置と
を備える付記1から9のいずれか一つに記載の情報処理装置。
(付記11)
前記画像データ上のレーザ光による特定される領域を楕円近似し、近似した楕円の中心となる第1座標を特定する第1座標特定部
を備える付記1から10のいずれか一つに記載の情報処理装置。
(付記12)
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させるプログラム。
(付記13)
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させる情報処理方法。
Further, the following appendices will be disclosed with respect to the embodiments including the above embodiments 1 to 3.
(Appendix 1)
An acquisition unit that acquires image data obtained by irradiating the measurement target surface with three or more laser beams from an image pickup device, and an acquisition unit.
A specific part that specifies the first coordinates corresponding to each laser beam on the image data, and
An information processing device including a calculation unit that calculates an expression for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.
(Appendix 2)
A reception unit that accepts input of a plurality of first coordinates on the image data,
The information processing apparatus according to Appendix 1, further comprising a distance calculation unit that calculates a distance between a plurality of second coordinates on the measurement target surface corresponding to the first coordinate based on the received first coordinate and the formula. ..
(Appendix 3)
The distance calculation unit
Based on the received first coordinate, the formula, and the parameters of the image pickup device, a plurality of second coordinates on the measurement target surface corresponding to the first coordinate are calculated, and the calculated distance between the second coordinates is calculated. The information processing device according to Appendix 2.
(Appendix 4)
Three or more irradiation devices that are distributed and irradiate parallel laser beams, and
The information processing device according to any one of Supplementary note 1 to 3, further comprising an image pickup device arranged in an area surrounded by the irradiation device.
(Appendix 5)
The calculation unit
The information processing according to any one of Supplementary note 1 to 4, wherein the formula is calculated based on the plurality of first coordinates on the image data, the plurality of second coordinates on the measurement target surface, and the parameters of the image pickup apparatus. Device.
(Appendix 6)
The information processing apparatus according to any one of Supplementary note 1 to 5, further comprising a correction matrix calculation unit for calculating a correction matrix for correcting the image data based on a plurality of first coordinates on the acquired image data.
(Appendix 7)
A second coordinate distance calculation unit that calculates the distance between a plurality of second coordinates on the measurement target surface based on the above equation, and a second coordinate distance calculation unit.
A pixel number calculation unit that calculates the number of pixels of a plurality of first coordinates on the image data corrected based on the correction matrix, and a pixel number calculation unit.
The information processing apparatus according to Appendix 6, further comprising a resolution calculation unit that calculates the resolution of the image data by dividing the distance between the second coordinates by the number of pixels.
(Appendix 8)
An input reception unit that accepts input of multiple first coordinates from the corrected corrected image data,
The information processing apparatus according to Appendix 7, further comprising a first coordinate distance calculation unit that calculates a distance between the first coordinates based on the number of pixels between the received first coordinates and the resolution.
(Appendix 9)
The correction matrix calculation unit
Based on the above equation, four second coordinates that are square when the measurement target surface is viewed from the normal direction are specified.
Based on the four second coordinates and the parameters, the four first coordinates on the image data corresponding to the second coordinates are calculated.
The information processing apparatus according to any one of Supplementary note 6 to 8, which calculates a correction matrix for correcting the calculated first coordinates to a square.
(Appendix 10)
Four irradiation devices that are distributed and irradiate laser light parallel to each other,
The information processing device according to any one of Supplementary note 1 to 9, further comprising an image pickup device arranged at a position equidistant from each irradiation device.
(Appendix 11)
The information according to any one of Supplementary note 1 to 10, further comprising a first coordinate specifying unit that approximates an ellipse of a region specified by a laser beam on the image data and specifies a first coordinate that is the center of the approximated ellipse. Processing equipment.
(Appendix 12)
Image data obtained by irradiating the measurement target surface with 3 or more laser beams is acquired from the image pickup device.
The first coordinates corresponding to each laser beam on the image data are specified, and
A program that causes a computer to execute a process of calculating an expression for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.
(Appendix 13)
Image data obtained by irradiating the measurement target surface with 3 or more laser beams is acquired from the image pickup device.
The first coordinates corresponding to each laser beam on the image data are specified, and
An information processing method for causing a computer to execute a process of calculating an expression for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.

1 コンピュータ(情報処理装置)
1A 可搬型記録媒体
1B 半導体メモリ
2 計測装置
10A 読み取り部
11 CPU
12 RAM
13 入力部
14 表示部
15 記憶部
15P 制御プログラム
16 通信部
18 時計部
19 通信ポート
21 撮像装置
22 レーザモジュール
23 支持板
161 取得部
162 特定部
163 算出部
164 受付部
165 距離算出部
N 通信網
1 Computer (information processing device)
1A Portable recording medium 1B Semiconductor memory 2 Measuring device 10A Reader 11 CPU
12 RAM
13 Input unit 14 Display unit 15 Storage unit 15P Control program 16 Communication unit 18 Clock unit 19 Communication port 21 Image pickup device 22 Laser module 23 Support plate 161 Acquisition unit 162 Specific unit 163 Calculation unit 164 Reception unit 165 Distance calculation unit N Communication network

Claims (8)

計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得する取得部と、
前記画像データ上の各レーザ光に対応する第1座標を特定する特定部と、
特定した前記第1座標及び、該第1座標と前記撮像装置のカメラパラメータとから特定される前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する算出部と
を備える情報処理装置。
An acquisition unit that acquires image data obtained by irradiating the measurement target surface with three or more laser beams from an image pickup device, and an acquisition unit.
A specific part that specifies the first coordinates corresponding to each laser beam on the image data, and
Based on the specified first coordinate and the second coordinate of each laser beam on the measurement target surface specified from the first coordinate and the camera parameter of the image pickup device, an equation for specifying the measurement target surface is calculated. An information processing device equipped with a calculation unit.
前記画像データ上の複数の第1座標の入力を受け付ける受付部と、
受け付けた前記第1座標及び前記式に基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標間の距離を算出する距離算出部と
を備える請求項1に記載の情報処理装置。
A reception unit that accepts input of a plurality of first coordinates on the image data,
The information processing according to claim 1, further comprising a distance calculation unit that calculates a distance between a plurality of second coordinates on the measurement target surface corresponding to the first coordinate based on the received first coordinate and the formula. Device.
前記距離算出部は、
受け付けた前記第1座標、前記式及び前記撮像装置のパラメータに基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標を算出し、算出した第2座標間の距離を算出する
請求項2に記載の情報処理装置。
The distance calculation unit
Based on the received first coordinate, the formula, and the parameters of the image pickup device, a plurality of second coordinates on the measurement target surface corresponding to the first coordinate are calculated, and the calculated distance between the second coordinates is calculated. The information processing apparatus according to claim 2.
分散配置され、相互に平行なレーザ光を照射する3以上の照射装置と、
前記照射装置に囲まれる領域に配置された撮像装置と
を備える請求項1から3のいずれか一つに記載の情報処理装置。
Three or more irradiation devices that are distributed and irradiate parallel laser beams, and
The information processing device according to any one of claims 1 to 3, further comprising an image pickup device arranged in an area surrounded by the irradiation device.
取得した画像データ上の複数の第1座標に基づき、前記画像データを補正する補正行列を算出する補正行列算出部と、
前記式に基づき前記計測対象面上の複数の第2座標間の距離を算出する第2座標間距離算出部と、
前記補正行列に基づき補正された画像データ上の複数の第1座標のピクセル数を算出するピクセル数算出部と、
前記第2座標間の距離を前記ピクセル数で除すことで前記画像データの分解能を算出する分解能算出部と
を備える請求項1から4のいずれか一つに記載の情報処理装置。
A correction matrix calculation unit that calculates a correction matrix that corrects the image data based on a plurality of first coordinates on the acquired image data.
A second coordinate distance calculation unit that calculates the distance between a plurality of second coordinates on the measurement target surface based on the above equation, and a second coordinate distance calculation unit.
A pixel number calculation unit that calculates the number of pixels of a plurality of first coordinates on the image data corrected based on the correction matrix, and a pixel number calculation unit.
The information processing apparatus according to any one of claims 1 to 4, further comprising a resolution calculation unit that calculates the resolution of the image data by dividing the distance between the second coordinates by the number of pixels.
補正された補正画像データから複数の第1座標の入力を受け付ける入力受付部と、
受け付けた第1座標間のピクセル数及び前記分解能に基づき、前記第1座標間の距離を算出する第1座標間距離算出部と
を備える請求項5に記載の情報処理装置。
An input reception unit that accepts input of multiple first coordinates from the corrected corrected image data,
The information processing apparatus according to claim 5, further comprising a first coordinate distance calculation unit that calculates a distance between the first coordinates based on the number of pixels between the received first coordinates and the resolution.
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び、該第1座標と前記撮像装置のカメラパラメータとから特定される前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させるプログラム。
Image data obtained by irradiating the measurement target surface with 3 or more laser beams is acquired from the image pickup device.
The first coordinates corresponding to each laser beam on the image data are specified, and
A formula for specifying the measurement target surface is calculated based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface specified from the first coordinates and the camera parameters of the image pickup device. A program that causes a computer to perform processing.
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び、該第1座標と前記撮像装置のカメラパラメータとから特定される前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させる情報処理方法。
Image data obtained by irradiating the measurement target surface with 3 or more laser beams is acquired from the image pickup device.
The first coordinates corresponding to each laser beam on the image data are specified, and
A formula for specifying the measurement target surface is calculated based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface specified from the first coordinates and the camera parameters of the image pickup device. An information processing method that causes a computer to perform processing.
JP2017254500A 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods Active JP7024405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254500A JP7024405B2 (en) 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254500A JP7024405B2 (en) 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods

Publications (2)

Publication Number Publication Date
JP2019121076A JP2019121076A (en) 2019-07-22
JP7024405B2 true JP7024405B2 (en) 2022-02-24

Family

ID=67306330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254500A Active JP7024405B2 (en) 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods

Country Status (1)

Country Link
JP (1) JP7024405B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114111589B (en) * 2021-11-19 2024-05-28 南方海洋科学与工程广东省实验室(湛江) Net-based underwater ranging method, ranging system and storage medium
CN115790464B (en) * 2023-02-07 2023-05-23 潍坊三建建材科技有限公司 Indoor large space horizontal detection device for building

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266202A (en) 2009-04-13 2010-11-25 Itt:Kk Image processing apparatus for photogrammetry, on-site recording system using the same, baggage recording system, and laser beam machining system
JP2013108933A (en) 2011-11-24 2013-06-06 Kddi Corp Information terminal device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010312A (en) * 2004-06-21 2006-01-12 Constec Engi Co Imaging device
JP4644540B2 (en) * 2005-06-28 2011-03-02 富士通株式会社 Imaging device
JP6726885B2 (en) * 2015-07-16 2020-07-22 パナソニックIpマネジメント株式会社 Inspection camera, inspection system including the same, and inspection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266202A (en) 2009-04-13 2010-11-25 Itt:Kk Image processing apparatus for photogrammetry, on-site recording system using the same, baggage recording system, and laser beam machining system
JP2013108933A (en) 2011-11-24 2013-06-06 Kddi Corp Information terminal device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤拓杜, 外5名,"手のひらの傾きにロバストな非接触型掌紋認証システムの検討",第27回 回路とシステムワークショップ 論文集,日本,電子情報通信学会,2014年08月04日,p.185-190

Also Published As

Publication number Publication date
JP2019121076A (en) 2019-07-22

Similar Documents

Publication Publication Date Title
CN111639626B (en) Three-dimensional point cloud data processing method and device, computer equipment and storage medium
JP5248806B2 (en) Information processing apparatus and information processing method
US9787960B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
US10681269B2 (en) Computer-readable recording medium, information processing method, and information processing apparatus
JP5924862B2 (en) Information processing apparatus, information processing method, and program
US8654193B2 (en) Method for registering model data for optical recognition processing and optical sensor
WO2012020696A1 (en) Device for processing point group position data, system for processing point group position data, method for processing point group position data and program for processing point group position data
US10354402B2 (en) Image processing apparatus and image processing method
JP6594129B2 (en) Information processing apparatus, information processing method, and program
KR20140081729A (en) Location correction of virtual objects
US11593960B2 (en) Determining the relative position between a point cloud generating camera and another camera
US10311576B2 (en) Image processing device and image processing method
JP6601613B2 (en) POSITION ESTIMATION METHOD, POSITION ESTIMATION DEVICE, AND POSITION ESTIMATION PROGRAM
CN112907727A (en) Calibration method, device and system of relative transformation matrix
EP3506204B1 (en) Image processing system, method and program therefor
JP7024405B2 (en) Information processing equipment, programs and information processing methods
US20190325593A1 (en) Image processing apparatus, system, method of manufacturing article, image processing method, and non-transitory computer-readable storage medium
US10146331B2 (en) Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates
US8872832B2 (en) System and method for mesh stabilization of facial motion capture data
US11922659B2 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
JPWO2018056129A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND STORAGE MEDIUM
JP2022089663A (en) Information processing apparatus
CN114322751A (en) Target measuring method, target measuring device, computer equipment and storage medium
US20200034650A1 (en) Measurement apparatus, measurement method, and computer-readable recording medium storing measurement program
CN112488112B (en) Target object identification method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R150 Certificate of patent or registration of utility model

Ref document number: 7024405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150