JP2019121076A - Information processing device, program and information processing method - Google Patents

Information processing device, program and information processing method Download PDF

Info

Publication number
JP2019121076A
JP2019121076A JP2017254500A JP2017254500A JP2019121076A JP 2019121076 A JP2019121076 A JP 2019121076A JP 2017254500 A JP2017254500 A JP 2017254500A JP 2017254500 A JP2017254500 A JP 2017254500A JP 2019121076 A JP2019121076 A JP 2019121076A
Authority
JP
Japan
Prior art keywords
coordinates
image data
target surface
measurement target
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017254500A
Other languages
Japanese (ja)
Other versions
JP7024405B2 (en
Inventor
悠介 野中
Yusuke Nonaka
悠介 野中
瀬川 英吾
Eigo Segawa
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017254500A priority Critical patent/JP7024405B2/en
Publication of JP2019121076A publication Critical patent/JP2019121076A/en
Application granted granted Critical
Publication of JP7024405B2 publication Critical patent/JP7024405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing device capable of realizing simple measurement.SOLUTION: A computer 1 includes: an acquisition unit for acquiring, from an imaging device, image data in which three or more laser beams are irradiated on a measurement target surface; a specification unit for specifying a first coordinate corresponding to each laser beam on the image data; and a calculation unit for calculating an equation for specifying the measurement target surface based on the specified first coordinate and a second coordinate of each laser beam on the measurement target surface. Moreover, the computer 1 includes: a reception unit for receiving an input of a plurality of first coordinates on the image data; and a distance calculation unit for calculating a distance between a plurality of second coordinates on the measurement target surface corresponding to the first coordinates based on the received first coordinates and a formula.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、プログラム及び情報処理方法に関する。   The present invention relates to an information processing apparatus, a program, and an information processing method.

従来、画像解析により被写体の測定を行うことができる測定装置が提案されている(例えば特許文献1参照)。   Conventionally, a measuring device capable of measuring a subject by image analysis has been proposed (see, for example, Patent Document 1).

特開2017−3399号公報JP, 2017-3399, A

しかしながら、従来の技術では、撮影中心点と画像内の任意の対象との実距離を予め測定しておく必要があり、簡易な計測を行うことができないという問題がある。   However, in the prior art, it is necessary to measure in advance the actual distance between the shooting center point and any object in the image, and there is a problem that simple measurement can not be performed.

一つの側面では、簡易計測を実現することが可能な情報処理装置等を提供することにある。   An aspect of the present invention is to provide an information processing apparatus and the like that can realize simple measurement.

一つの案では、計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得する取得部と、前記画像データ上の各レーザ光に対応する第1座標を特定する特定部と、特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する算出部とを備える。   In one scheme, an acquisition unit that acquires, from an imaging device, image data in which three or more laser beams are irradiated on a measurement target surface, and a specification unit that specifies a first coordinate corresponding to each laser light on the image data And a calculator configured to calculate an equation for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.

一つの側面では、簡易計測を実現することが可能となる。   In one aspect, it is possible to realize simple measurement.

情報処理システムの概要を示す説明図である。It is an explanatory view showing an outline of an information processing system. コンピュータのハードウェア群を示すブロック図である。It is a block diagram showing the hardware group of a computer. 第1座標の算出手順を示す説明図である。It is explanatory drawing which shows the calculation procedure of a 1st coordinate. 対象面に照射されるレーザ光のイメージを示す説明図である。It is explanatory drawing which shows the image of the laser beam irradiated to a target surface. 画像データと対象面との関係を示す説明図である。It is an explanatory view showing the relation between image data and an object side. 対象面方程式の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of object plane equation. 距離算出手順を示すフローチャートである。It is a flow chart which shows distance calculation procedure. 4点の選択処理を説明する説明図である。It is an explanatory view explaining selection processing of four points. 撮影画像データを示す説明図である。It is an explanatory view showing photography image data. 射影変換処理の手順を示す説明図である。It is an explanatory view showing the procedure of projection conversion processing. 射影変換を示す説明図である。It is explanatory drawing which shows projective transformation. 分解能を説明するための説明図である。It is an explanatory view for explaining resolution. 補正画像上での距離の算出手順を示す説明図である。It is explanatory drawing which shows the calculation procedure of the distance on a correction | amendment image. 分解能算出手順を示すフローチャートである。It is a flow chart which shows resolution calculation procedure. 距離の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of distance. 上述した形態のコンピュータの機能ブロック図である。It is a functional block diagram of a computer of the form mentioned above. 実施の形態2に係るコンピュータのハードウェア群を示すブロック図である。FIG. 7 is a block diagram showing a hardware group of a computer according to a second embodiment.

実施の形態1
以下実施の形態を、図面を参照して説明する。図1は情報処理システムの概要を示す説明図である。情報処理システムは情報処理装置1及び計測装置2等を含む。情報処理装置1は例えば、サーバコンピュータ、パーソナルコンピュータ、タブレットまたはスマートフォン等である。実施の形態では情報処理装置1をコンピュータ1と読み替えて説明する。計測装置2は3以上のレーザ光を照射するレーザモジュール及び撮像装置を含む。なお、実施の形態では計測装置2とコンピュータ1とが分離した例を挙げて説明するがこれに限るものではない。計測装置2とコンピュータ1とを一体のものとしてもよい。
Embodiment 1
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 is an explanatory view showing an outline of the information processing system. The information processing system includes the information processing device 1 and the measuring device 2 and the like. The information processing apparatus 1 is, for example, a server computer, a personal computer, a tablet or a smartphone. In the embodiment, the information processing apparatus 1 is read as the computer 1 and described. The measuring device 2 includes a laser module that emits three or more laser beams and an imaging device. Although the embodiment will be described by taking an example in which the measuring device 2 and the computer 1 are separated, the present invention is not limited to this. The measuring device 2 and the computer 1 may be integrated.

橋梁、ビル、住宅、高架若しくはトンネル等の施設、または、飛行機、電車、自動車若しくは船舶等の移動体の計測対象面に向けて、レーザモジュールからレーザ光を照射する。併せて撮像装置にてレーザ光が照射された対象面の画像を取り込む。図1の例では4つのレーザモジュールからレーザ光が対象面に照射され、4つの照射スポットが撮像画像として取り込まれている。   A laser beam is emitted from a laser module toward a measurement target surface of a bridge, a building, a house, a facility such as an elevated or tunnel, or a mobile object such as an airplane, a train, an automobile or a ship. At the same time, an image of a target surface irradiated with laser light is captured by an imaging device. In the example of FIG. 1, laser light is irradiated to a target surface from four laser modules, and four irradiation spots are taken in as a captured image.

コンピュータ1は、撮像装置から画像データを取り込み、各レーザ光に対応する座標を特定する。以下では、画像データ上の座標を第1座標といい、実空間における座標を第2座標という。コンピュータ1は対象面における各レーザ光の第2座標と、特定した第1座標とに基づき、対象面の方程式を算出する。コンピュータ1は、画像データ上から対象面の損傷の長さ等、計測を希望する2つの第1座標を受け付ける。コンピュータ1は受け付けた2つの第1座標及び方程式に基づき、対応する2つの第2座標を算出し、求めた2つの第2座標に基づき第2座標間の距離を算出する。以下詳細を説明する。   The computer 1 takes in image data from an imaging device, and specifies coordinates corresponding to each laser beam. Hereinafter, coordinates on image data are referred to as first coordinates, and coordinates in real space are referred to as second coordinates. The computer 1 calculates an equation of the target surface based on the second coordinates of each laser beam on the target surface and the specified first coordinates. The computer 1 receives two first coordinates for which measurement is desired, such as the length of damage to the target surface from the image data. The computer 1 calculates two corresponding second coordinates based on the two received first coordinates and the equation, and calculates the distance between the second coordinates based on the two calculated second coordinates. Details will be described below.

図2はコンピュータ1のハードウェア群を示すブロック図である。コンピュータ1は制御部としてのCPU(Central Processing Unit)11、RAM(Random Access Memory)12、入力部13、表示部14、記憶部15、時計部18、通信ポート19、及び、通信部16等を含む。CPU11は、バス17を介してハードウェア各部と接続されている。CPU11は記憶部15に記憶された制御プログラム15Pに従いハードウェア各部を制御する。なお、CPU11は複数のプロセッサコアを搭載したマルチコアプロセッサであっても良い。RAM12は例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモリ等である。RAM12は、記憶部としても機能し、CPU11による各種プログラムの実行時に発生する種々のデータを一時的に記憶する。   FIG. 2 is a block diagram showing the hardware group of the computer 1. The computer 1 includes a central processing unit (CPU) 11 as a control unit, a random access memory (RAM) 12, an input unit 13, a display unit 14, a storage unit 15, a clock unit 18, a communication port 19, a communication unit 16 and the like. Including. The CPU 11 is connected to hardware units via the bus 17. The CPU 11 controls each unit of hardware in accordance with the control program 15P stored in the storage unit 15. The CPU 11 may be a multicore processor equipped with a plurality of processor cores. The RAM 12 is, for example, an SRAM (Static RAM), a DRAM (Dynamic RAM), a flash memory or the like. The RAM 12 also functions as a storage unit, and temporarily stores various data generated when the CPU 11 executes various programs.

入力部13はマウス、キーボード、タッチパネル、ボタン等の入力デバイスであり、受け付けた操作情報をCPU11へ出力する。表示部14は液晶ディスプレイまたは有機EL(electroluminescence)ディスプレイ等であり、CPU11の指示に従い各種情報を表示する。通信部16は通信モジュールであり、図示しない他のコンピュータ1等との間で情報のインターネット等の通信網を介して情報の送受信を行う。時計部18は日時情報をCPU11へ出力する。   The input unit 13 is an input device such as a mouse, a keyboard, a touch panel, and a button, and outputs the received operation information to the CPU 11. The display unit 14 is a liquid crystal display or an organic EL (electroluminescence) display or the like, and displays various information according to an instruction of the CPU 11. The communication unit 16 is a communication module, and transmits / receives information to / from another computer 1 or the like (not shown) via a communication network such as the Internet. The clock unit 18 outputs date and time information to the CPU 11.

記憶部15は大容量メモリまたはハードディスクであり、制御プログラム15P等を記憶している。通信ポート19は、例えばUSB(Universal Serial Bus)ポートであり、計測装置2のレーザモジュール(照射装置)22及び撮像装置21と、コンピュータ1との間で情報の送受信を行うインターフェースである。なお、Bluetooth(登録商標)等の近距離無線通信モジュールを用いて無線通信によりコンピュータ1と計測装置2との情報の送受信を行ってもよい。   The storage unit 15 is a large capacity memory or a hard disk, and stores the control program 15P and the like. The communication port 19 is, for example, a USB (Universal Serial Bus) port, and is an interface that transmits and receives information between the laser module (irradiation device) 22 and the imaging device 21 of the measuring device 2 and the computer 1. Note that information may be transmitted and received between the computer 1 and the measuring device 2 by wireless communication using a short distance wireless communication module such as Bluetooth (registered trademark).

各レーザモジュール22はCPU11の指示に従いレーザ光を出力する。実施の形態では説明を容易にするために、対象面は実質的に平らな面であるものとして説明する。撮像装置21は取得した画像データをCPU11へ出力する。なお、実施形態では、斜め方向から対象面を撮影する例を示すが、正面から撮影してもよい。CPU11は、取得した画像データをRAM12に一時的に記憶する。なお、コンピュータ1は1台で各種処理を実行するほか、複数のコンピュータ1、1・・・により分散して各種処理を実行してもよい。また各種処理をコンピュータ1の仮想マシン上で実行するようにしてもよい。またコンピュータ1と計測装置2とを一体化する場合、タブレットまたはスマートフォンのタッチパネル裏面中央部に撮影装置21を配置し、4隅にレーザモジュール22を配置すればよい。   Each laser module 22 outputs a laser beam according to the instruction of the CPU 11. In the embodiment, for ease of explanation, the target surface is described as being a substantially flat surface. The imaging device 21 outputs the acquired image data to the CPU 11. In the embodiment, an example in which the target surface is photographed from the oblique direction is shown, but it may be photographed from the front. The CPU 11 temporarily stores the acquired image data in the RAM 12. It should be noted that one computer may execute various processes, or may execute various processes in a distributed manner by a plurality of computers 1, 1. Further, various processes may be executed on a virtual machine of the computer 1. When the computer 1 and the measuring device 2 are integrated, the imaging device 21 may be disposed at the center of the back surface of the touch panel of the tablet or smartphone, and the laser modules 22 may be disposed at the four corners.

図3は第1座標の算出手順を示す説明図である。CPU11は、取り込んだ画像データについて2値化処理を行う。これによりレーザ光の領域が特定される。次いでCPU11は、2値化により得られるエッジ領域の座標に対し、楕円近似を行う。CPU11は、近似した楕円の中心座標を第1座標として特定する。CPU11は、4つの第1座標をRAM12に記憶する。なお、実施の形態では楕円近似を用いる例を示すがこれに限るものではない。例えば、CPU11は、エッジ検出を行いエッジ領域のx軸方向の最大座標及び最小座標の平均値と、y軸方向の最大座標及び最小座標の平均値とに基づき、第1座標を算出するようにしてもよい。また正面から撮影した場合、エッジ検出により特定される円の中心を第1座標とすればよい。   FIG. 3 is an explanatory view showing a calculation procedure of the first coordinates. The CPU 11 performs binarization processing on the captured image data. Thereby, the area of the laser beam is specified. Next, the CPU 11 performs ellipse approximation on the coordinates of the edge area obtained by the binarization. The CPU 11 specifies the center coordinates of the approximated ellipse as the first coordinates. The CPU 11 stores four first coordinates in the RAM 12. In the embodiment, an example using elliptical approximation is shown, but the present invention is not limited to this. For example, the CPU 11 performs edge detection to calculate the first coordinate based on the average value of the maximum coordinate and the minimum coordinate in the x axis direction of the edge area and the average value of the maximum coordinate and the minimum coordinate in the y axis direction. May be In addition, when shooting from the front, the center of the circle specified by edge detection may be set as the first coordinate.

図4は対象面に照射されるレーザ光のイメージを示す説明図である。計測装置2は撮像装置21及びレーザモジュール22を支持する支持板23を有する。レーザモジュール22、22・・・は相互にレーザ光が重複しないよう適宜距離を隔てて、照射面が平行となるよう配置されている。   FIG. 4 is an explanatory view showing an image of a laser beam irradiated to a target surface. The measuring device 2 has a support plate 23 for supporting the imaging device 21 and the laser module 22. The laser modules 22, 22... Are appropriately spaced apart so that the laser beams do not overlap with each other, and are arranged such that the irradiation planes are parallel.

撮像装置21は各レーザモジュール22から等距離の位置に配置されている。図4の例では正方形の支持板23の中央に撮像装置21が取り付けられており、支持板23の4隅にレーザモジュール22が同一方向に出射面を向けて取り付けられている。以下では説明の便宜上、カメラの撮影方向及びレーザ光の照射方向をz軸正方向、支持板23の平面をxy軸平面とし、xy軸平面において紙面下側をx軸正方向、紙面奥に向かう方向をy軸正方向とする。なお、実施の形態では4つのレーザモジュール22を用いる例を示すが、これに限るものではない。図4のレーザモジュール22を一つ削除した形態でもよい。また、5つまたは6つのレーザモジュール22を用いてもよい。この場合各レーザモジュール22で形成される多角形の中心点に撮像装置21を配置すればよい。   The imaging devices 21 are arranged at equal distances from the respective laser modules 22. In the example of FIG. 4, the imaging device 21 is attached to the center of the square support plate 23, and the laser modules 22 are attached to the four corners of the support plate 23 with the emitting surfaces facing in the same direction. In the following, for convenience of explanation, the shooting direction of the camera and the irradiation direction of the laser light are the z-axis positive direction, the plane of the support plate 23 is the xy-axis plane, and the lower side in the plane of the xy-axis is the x-axis positive direction, The direction is the y-axis positive direction. Although an example using four laser modules 22 is shown in the embodiment, the present invention is not limited to this. The laser module 22 of FIG. 4 may be deleted. Also, five or six laser modules 22 may be used. In this case, the imaging device 21 may be disposed at the central point of the polygon formed by each of the laser modules 22.

ここで、撮像装置21を原点とし、一のレーザモジュール22の座標を(x0,y0,0)、対象面の方程式をz=ax+by+cとした場合、当該レーザモジュール22が照射したレーザ光が対象面に照射される第2座標は(x0,y0,ax0+by0+c)となる。なお、レーザモジュール22の位置及び照射方向は既知とする。また、撮影画像データ上の座標軸は、右方向に向かう方向をu軸正方向、下方向に向かう方向をv軸正方向とする。ここで、上述した一のレーザモジュール22の画像データ上の第1座標(u0,v0)とする。 Here, assuming that the imaging device 21 is the origin, the coordinates of one laser module 22 are (x 0 , y 0 , 0), and the equation of the target surface is z = ax + by + c, the laser module 22 emits light. The second coordinate at which the target laser light is irradiated onto the target surface is (x 0 , y 0 , ax 0 + by 0 + c). The position and the irradiation direction of the laser module 22 are known. As for the coordinate axes on the photographed image data, the direction toward the right direction is the u-axis positive direction, and the direction toward the downward direction is the v-axis positive direction. Here, the first coordinates (u 0 , v 0 ) on the image data of the one laser module 22 described above are used.

CPU11は、予め取得し記憶部15に記憶している撮像装置21のカメラパラメータを読み出す。CPU11は、画像データ上の第1座標(u0,v0)及びカメラパラメータに基づき、対象面の方程式z=ax+by+c から、未知数であるa,b及びcを算出する。少なくとも3つの第1座標が存在すれば3つの式を立てることができ、3つの未知数a,b,cを求めることができる。CPU11は、算出した係数を含む方程式をRAM12に記憶する。なお、レーザ点の数が多い場合、方程式の数が多くなるため、a,b,cを求める際に最小二乗法等により、楕円近似等に起因するノイズによる誤差を低減しながら精度よく対象面方程式の係数を算出することが可能となる。 The CPU 11 reads camera parameters of the imaging device 21 which are acquired in advance and stored in the storage unit 15. The CPU 11 calculates unknowns a, b and c from the equation z = ax + by + c of the object plane based on the first coordinates (u 0 , v 0 ) on the image data and the camera parameters. If there are at least three first coordinates, three equations can be established, and three unknowns a, b and c can be determined. The CPU 11 stores an equation including the calculated coefficient in the RAM 12. When the number of laser points is large, the number of equations is large. Therefore, when finding a, b, c, the target plane is accurately performed while the error due to the noise caused by the ellipse approximation is reduced by the least squares method or the like. It is possible to calculate the coefficients of the equation.

図5は画像データと対象面との関係を示す説明図である。CPU11は、入力部13を通じて、画像データ上の計測を希望する2点の第1座標の指定を受け付ける。図5ではv方向に延びる損傷の長さを計測する例を示している。ここで、第1座標は(u0,v0)、(u1,v1)、これら2つの第1座標に対応する対象面の第2座標はそれぞれ(x0,y0,z0)、(x1,y1,z1)であるものとする。 FIG. 5 is an explanatory view showing the relationship between image data and a target surface. The CPU 11 receives specification of the first coordinates of two points desired to be measured on the image data through the input unit 13. FIG. 5 shows an example of measuring the length of damage extending in the v direction. Here, the first coordinates are (u 0 , v 0 ) and (u 1 , v 1 ), and the second coordinates of the target plane corresponding to these two first coordinates are (x 0 , y 0 , z 0 ), respectively. , (X 1 , y 1 , z 1 ).

CPU11は、RAM12に記憶したカメラパラメータ及び対象面の方程式を読み出す。CPU11は、第1座標、カメラパラメータ及び方程式に基づき、対象面の第2座標を算出する。具体的には未知の三次元座標上の第2座標を(x,y,z)、既知の画像上の第1座標を(u,v)、既知のカメラパラメータをM、スケールをs(スケールファクタ)とした場合、以下の式(1)が成立する。   The CPU 11 reads the camera parameters stored in the RAM 12 and the equation of the object plane. The CPU 11 calculates a second coordinate of the target surface based on the first coordinate, the camera parameter, and the equation. Specifically, the second coordinate on the unknown three-dimensional coordinate (x, y, z), the first coordinate on the known image (u, v), the known camera parameter M, the scale s (scale In the case of factor), the following equation (1) is established.

3次元座標は既知の平面(z=ax+by+c)上に存在し、a,b,cは既知である。したがって未知数はx,y,z,sの4つであり、式も4つ存在するため、連立方程式を解くことで第2座標(x,y,z)を求めることができる。CPU11は、算出した2つの第2座標のユークリッド距離を算出することで、2点間の実寸を求める。   The three-dimensional coordinates lie on a known plane (z = ax + by + c), and a, b and c are known. Therefore, the unknowns are four of x, y, z, and s, and there are four equations, so the second coordinate (x, y, z) can be determined by solving the simultaneous equations. The CPU 11 calculates the Euclidean distance between the two calculated second coordinates to obtain the actual size between the two points.

以上のハードウェア群において各種ソフトウェア処理を、フローチャートを用いて説明する。図6は対象面方程式の算出手順を示すフローチャートである。計測者は計測対象物の任意の個所に向けてレーザ光を照射する。CPU11は、入力部13を通じて計測を開始する旨の情報を受け付けた場合、レーザモジュール22にコマンドを出力し、対象面に向けてレーザモジュール22からレーザ光を照射する(ステップS61)。CPU11は、併せて画像データを取り込む(ステップS62)。   Various software processes in the above hardware group will be described using flowcharts. FIG. 6 is a flow chart showing the calculation procedure of the target surface equation. The measurer irradiates laser light toward an arbitrary position of the object to be measured. When the CPU 11 receives information to start measurement via the input unit 13, the CPU 11 outputs a command to the laser module 22 and irradiates the laser beam from the laser module 22 toward the target surface (step S61). The CPU 11 also takes in image data (step S62).

CPU11は、輝度等の情報に基づき、レーザ光が照射されている領域を特定する。CPU11は、画像データ上のレーザ光近傍の画像データにについて2値化処理を行う(ステップS63)。CPU11は、エッジ領域の座標に基づき、楕円近似処理を行う(ステップS64)。CPU11は、楕円の中心を第1座標として特定する(ステップS65)。CPU11は、4つの画像データ上の第1座標をRAM12に記憶する(ステップS66)。CPU11は、カメラパラメータをRAM12から読み出す(ステップS67)。   The CPU 11 specifies an area irradiated with the laser light based on the information such as the luminance. The CPU 11 performs binarization processing on the image data in the vicinity of the laser beam on the image data (step S63). The CPU 11 performs an ellipse approximation process based on the coordinates of the edge area (step S64). The CPU 11 specifies the center of the ellipse as the first coordinate (step S65). The CPU 11 stores the first coordinates on the four image data in the RAM 12 (step S66). The CPU 11 reads camera parameters from the RAM 12 (step S67).

CPU11は、カメラパラメータ及び4つの第1座標に基づき、対象面の方程式を算出する(ステップS68)。CPU11は、算出した方程式をRAM12に記憶する(ステップS69)。   The CPU 11 calculates an equation of the object plane based on the camera parameter and the four first coordinates (step S68). The CPU 11 stores the calculated equation in the RAM 12 (step S69).

図7は距離算出手順を示すフローチャートである。CPU11は、入力部13から画像データ上の計測を希望する2点の第1座標を受け付ける(ステップS71)。CPU11は、カメラパラメータ及び方程式をRAM12から読み出す(ステップS72)。CPU11は、第1座標、カメラパラメータ及び方程式に基づき、対象面上の第2座標を算出する(ステップS73)。CPU11は、2つの第2座標間の距離を算出する(ステップS74)。CPU11は、算出した距離を表示部14に出力する(ステップS75)。なお、通信部16を介して他のコンピュータへ算出した距離を出力するようにしてもよい。これにより、簡易に対象面上の距離を算出することが可能となる。また対象面上の距離を事前に計測しなくとも距離を算出することが可能となる。さらに、撮影及び照射方向が対象面に対して斜めであっても、適切に距離を算出することが可能となる。また楕円近似を行うことで簡易に第1座標を特定することが可能となる。その他、レーザモジュール22数を増加させることでより精度を向上させることが可能となる。   FIG. 7 is a flowchart showing a distance calculation procedure. The CPU 11 receives, from the input unit 13, first coordinates of two points desired to be measured on the image data (step S71). The CPU 11 reads camera parameters and equations from the RAM 12 (step S72). The CPU 11 calculates a second coordinate on the target surface based on the first coordinate, the camera parameter and the equation (step S73). The CPU 11 calculates the distance between the two second coordinates (step S74). The CPU 11 outputs the calculated distance to the display unit 14 (step S75). The calculated distance may be output to another computer via the communication unit 16. This makes it possible to easily calculate the distance on the target surface. Further, the distance can be calculated without measuring the distance on the target surface in advance. Furthermore, even if the shooting and irradiation directions are oblique to the target surface, it is possible to calculate the distance appropriately. Moreover, it becomes possible to specify a 1st coordinate simply by performing elliptical approximation. In addition, the accuracy can be further improved by increasing the number of laser modules 22.

実施の形態2
実施の形態2は画像補正する形態に関する。図8は4点の選択処理を説明する説明図である。CPU11は、RAM12から方程式を読み出す。CPU11は、読み出した対象面を法線方向から見た場合に、正方形となる任意の4点を選択する。CPU11は、選択した4点の第2座標を求める。図8の例では一つの第2座標は方程式から(xi,yi,axi+byi+c)となる。正方形の各辺の既知の長さは一定であることから、他の3点の第2座標も求めることができる。
Embodiment 2
The second embodiment relates to an image correction mode. FIG. 8 is an explanatory view for explaining the selection process of four points. The CPU 11 reads the equation from the RAM 12. The CPU 11 selects four arbitrary square points when the read target surface is viewed from the normal direction. The CPU 11 obtains second coordinates of the selected four points. In the example of FIG. 8, one second coordinate is (x i , y i , a x i + by i + c) from the equation. Since the known length of each side of the square is constant, the second coordinates of the other three points can also be determined.

図9は撮影画像データを示す説明図である。CPU11は、選択した4つの第2座標が画像上に写る第1座標(ui,vi)を既知のカメラパラメータ、及び、下記式(2)により算出する。なお、カメラパラメータMは4×3の行列であるものとする。この場合、3つの式により、3つの未知数u,v,sを求めることができる。 FIG. 9 is an explanatory view showing photographed image data. The CPU 11 calculates first coordinates (u i , v i ) at which the four selected second coordinates appear on the image, using known camera parameters and the following equation (2). The camera parameter M is a 4 × 3 matrix. In this case, three unknowns u, v, s can be obtained by three equations.

CPU11は、算出した4点の第1座標をRAM12に記憶する。図10は射影変換処理の手順を示す説明図である。CPU11は、算出した4つの第1座標(ui,vi)を正方形に補正するための射影変換行列を算出する。ここで、目標とする画像データ上の第1座標を(ui’,vi’)とし、4点が一致する下記式(3)で示す射影変換行列Hを算出する。 The CPU 11 stores the calculated first coordinates of the four points in the RAM 12. FIG. 10 is an explanatory view showing the procedure of projection conversion processing. The CPU 11 calculates a projective transformation matrix for correcting the four calculated first coordinates (u i , v i ) into a square. Here, a first coordinate on the target image data is (u i ′, v i ′), and a projective transformation matrix H represented by the following equation (3) in which four points coincide with each other is calculated.

図11は射影変換を示す説明図である。CPU11は、画像データの入力を受け付ける。CPU11は、算出した射影変換行列を画像データにかけることで、画像全体を、対象面の正面から撮影した画像に変換する。図11Aは変換前の撮影画像であり、図11Bは射影返還後の補正画像である。斜めから撮影することにより歪んでいた画像が正面から撮影されたように補正されている。   FIG. 11 is an explanatory view showing projective transformation. The CPU 11 receives an input of image data. The CPU 11 transforms the entire image into an image captured from the front of the target surface by applying the calculated projection transformation matrix to the image data. FIG. 11A is a photographed image before conversion, and FIG. 11B is a corrected image after projection return. An image distorted by photographing obliquely is corrected as if photographed from the front.

図12は分解能を説明するための説明図である。CPU11は、対象面の方程式をRAM12から読み出す。CPU11は、読み出した方程式を利用して、レーザ光が反射した2点の対象面上の第2座標を算出する。CPU11は、2つの第2座標間の距離を算出する。CPU11は、上述した補正された画像データ中の対応する2点の第1座標を求め、2点の第1座標間のピクセル数を求める。CPU11は、求めた第2座標間の距離を、ピクセル数で除すことで、補正画像上の分解能、すなわち各ピクセルの長さを求める。CPU11は、求めた分解能をRAM12に記憶する。   FIG. 12 is an explanatory view for explaining the resolution. The CPU 11 reads the equation of the target plane from the RAM 12. The CPU 11 calculates second coordinates on the target surface of the two points where the laser light is reflected, using the read equation. The CPU 11 calculates the distance between two second coordinates. The CPU 11 obtains the first coordinates of the corresponding two points in the corrected image data described above, and obtains the number of pixels between the first coordinates of the two points. The CPU 11 obtains the resolution on the corrected image, that is, the length of each pixel by dividing the distance between the obtained second coordinates by the number of pixels. The CPU 11 stores the obtained resolution in the RAM 12.

図13は補正画像上での距離の算出手順を示す説明図である。CPU11は、射影変換行列を用いて補正画像を生成する。ユーザは補正画像上で、入力部13から距離の計測を行う対象となる2点を選択する。CPU11は、入力部13から入力された2点の第1座標を受け付ける。CPU11は、受け付けた2つの第1座標間のピクセル数を求める。CPU11は、RAM12に記憶した分解能を、求めたピクセル数に乗ずることで2点間の距離を算出する。CPU11は、算出した距離を表示部14に表示する。   FIG. 13 is an explanatory view showing a calculation procedure of the distance on the corrected image. The CPU 11 generates a corrected image using a projective transformation matrix. The user selects two points on the corrected image from which the distance is to be measured from the input unit 13. The CPU 11 receives the first coordinates of two points input from the input unit 13. The CPU 11 obtains the number of pixels between the two received first coordinates. The CPU 11 multiplies the resolution stored in the RAM 12 by the obtained number of pixels to calculate the distance between the two points. The CPU 11 displays the calculated distance on the display unit 14.

図14は分解能算出手順を示すフローチャートである。CPU11は、RAM12に記憶した方程式を読み出す(ステップS141)。CPU11は、対象面を法線方向から見た場合に正方形となる4つの第2座標を特定する(ステップS142)。CPU11は、4つの第2座標及びカメラパラメータに基づき、画像データ上の対応する4つの第1座標を算出する(ステップS143)。CPU11は、4つの第1座標を正方形に補正するための射影変換行列を算出する(ステップS144)。   FIG. 14 is a flowchart showing the resolution calculation procedure. The CPU 11 reads the equation stored in the RAM 12 (step S141). The CPU 11 specifies four second coordinates that are square when the target surface is viewed in the normal direction (step S142). The CPU 11 calculates corresponding four first coordinates on the image data based on the four second coordinates and the camera parameter (step S143). The CPU 11 calculates a projective transformation matrix for correcting the four first coordinates into a square (step S144).

CPU11は、画像データの入力を受け付ける(ステップS145)。CPU11は、射影変換行列により、補正画像データを生成し、表示部14に出力する(ステップS146)。CPU11は、方程式に基づき、対象面上のレーザ光が照射された2点の第2座標を算出する(ステップS147)。CPU11は、対象面上の2つの第2座標間の距離を算出する(ステップS148)。CPU11は、当該第2座標に対応する補正画像データ上の2つの第1座標間のピクセル数を算出する(ステップS149)。   The CPU 11 receives an input of image data (step S145). The CPU 11 generates corrected image data from the projective transformation matrix, and outputs the corrected image data to the display unit 14 (step S146). The CPU 11 calculates the second coordinates of the two points irradiated with the laser beam on the target surface based on the equation (step S147). The CPU 11 calculates the distance between two second coordinates on the target surface (step S148). The CPU 11 calculates the number of pixels between two first coordinates on the corrected image data corresponding to the second coordinates (step S149).

ステップS148で求めた距離を、ステップS149で求めたピクセル数で除すことで、分解能を算出する(ステップS1410)。CPU11は、算出した分解能をRAM12に記憶する(ステップS1411)。   The resolution is calculated by dividing the distance obtained in step S148 by the number of pixels obtained in step S149 (step S1410). The CPU 11 stores the calculated resolution in the RAM 12 (step S1411).

図15は距離の算出手順を示すフローチャートである。CPU11は、画像データを読み出す(ステップS151)。CPU11は、射影変換行列をRAM12から読み出す(ステップS152)。CPU11は、読み出した射影変換行列に基づき、補正画像データを生成し、表示部14に出力する(ステップS153)。CPU11は入力部13から、計測を希望する2つの第1座標の入力を受け付ける(ステップS154)。CPU11は、第1座標間のピクセル数を算出する(ステップS155)。CPU11は、分解能をRAM12から読み出す(ステップS156)。   FIG. 15 is a flowchart showing the procedure of calculating the distance. The CPU 11 reads out image data (step S151). The CPU 11 reads a projection transformation matrix from the RAM 12 (step S152). The CPU 11 generates corrected image data based on the read projection transformation matrix, and outputs the corrected image data to the display unit 14 (step S153). The CPU 11 receives inputs of two first coordinates desired to be measured from the input unit 13 (step S154). The CPU 11 calculates the number of pixels between the first coordinates (step S155). The CPU 11 reads the resolution from the RAM 12 (step S156).

CPU11は、分解能にピクセル数を乗じて距離を算出する(ステップS157)。CPU11は、算出した距離を表示部14に出力する(ステップS158)。これにより、損傷状況を容易に把握することが可能となる。また任意の2点の距離を容易に算出することが可能となる。なお、各実施形態では、計測装置2とコンピュータ1とが一体的に形成されている、または、近傍に設けられている例を示したがこれに限るものではない。計測装置2と、コンピュータ1とをインターネット、公衆回線網等の通信網Nを介して接続する形態であってもよい。計測装置2はレーザ光の照射を行うとともに、撮影した画像データをサーバコンピュータ1へ送信する。コンピュータ1は画像データ及びカメラパラメータに基づき、対象面の方程式を算出する。その他、コンピュータ1は射影変換行列の算出等を行う。計測装置2側の入力装置またはコンピュータ1側の入力装置にて、計測を希望する2つの第1座標の選択を受け付ける。コンピュータ1は2つの第1座標に対応する距離を上述した処理により算出する。これにより、遠隔地で照射、撮影した場合でも、異なる拠点で容易に距離演算が可能となる。   The CPU 11 calculates the distance by multiplying the resolution by the number of pixels (step S157). The CPU 11 outputs the calculated distance to the display unit 14 (step S158). This makes it possible to easily grasp the damage situation. In addition, it becomes possible to easily calculate the distance between any two points. In each embodiment, the measuring device 2 and the computer 1 are integrally formed or provided in the vicinity, but the present invention is not limited to this. The measuring device 2 and the computer 1 may be connected via the communication network N such as the Internet or a public network. The measuring device 2 emits laser light and transmits the photographed image data to the server computer 1. The computer 1 calculates the equation of the object plane based on the image data and the camera parameters. In addition, the computer 1 calculates a projection transformation matrix and the like. The input device on the measurement device 2 side or the input device on the computer 1 side accepts selection of two first coordinates for which measurement is desired. The computer 1 calculates the distances corresponding to the two first coordinates by the process described above. This makes it possible to easily calculate the distance at different locations even when irradiating and photographing at a remote location.

本実施の形態2は以上の如きであり、その他は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。   The second embodiment is as described above, and the other parts are the same as the first embodiment. Therefore, the corresponding parts are denoted by the same reference numerals and the detailed description thereof will be omitted.

実施の形態3
図16は上述した形態のコンピュータ1の機能ブロック図である。CPU11が制御プログラム15Pを実行することにより、コンピュータ1は以下のように動作する。取得部161は計測対象面に3以上のレーザ光が照射された画像データを撮像装置21から取得する。特定部162は、前記画像データ上の各レーザ光に対応する第1座標を特定する。算出部163は、特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する。受付部164は、前記画像データ上の複数の第1座標の入力を受け付ける。距離算出部165は、受け付けた前記第1座標及び前記式に基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標間の距離を算出する。
Third Embodiment
FIG. 16 is a functional block diagram of the computer 1 of the embodiment described above. As the CPU 11 executes the control program 15P, the computer 1 operates as follows. The acquisition unit 161 acquires, from the imaging device 21, image data in which three or more laser beams are irradiated on the surface to be measured. The identifying unit 162 identifies first coordinates corresponding to each laser beam on the image data. The calculation unit 163 calculates an equation for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface. The receiving unit 164 receives an input of a plurality of first coordinates on the image data. The distance calculation unit 165 calculates the distance between the plurality of second coordinates on the measurement target surface corresponding to the first coordinates, based on the received first coordinates and the equation.

図17は実施の形態2に係るコンピュータ1のハードウェア群を示すブロック図である。コンピュータ1を動作させるためのプログラムは、ディスクドライブ、メモリーカードスロット等の読み取り部10AにCD−ROM、DVDディスク、メモリーカード、またはUSBメモリ等の可搬型記録媒体1Aを読み取らせて記憶部15に記憶しても良い。また当該プログラムを記憶したフラッシュメモリ等の半導体メモリ1Bをコンピュータ1内に実装しても良い。さらに、当該プログラムは、インターネット等の通信網Nを介して接続される他のサーバコンピュータ(図示せず)からダウンロードすることも可能である。以下に、その内容を説明する。   FIG. 17 is a block diagram showing a hardware group of the computer 1 according to the second embodiment. A program for operating the computer 1 causes the reading unit 10A such as a disk drive and a memory card slot to read a portable recording medium 1A such as a CD-ROM, a DVD disk, a memory card, or a USB memory and the storage unit 15 You may memorize. In addition, a semiconductor memory 1B such as a flash memory storing the program may be mounted in the computer 1. Furthermore, the program can also be downloaded from another server computer (not shown) connected via a communication network N such as the Internet. The contents are described below.

図17に示すコンピュータ1は、上述した各種ソフトウェア処理を実行するプログラムを、可搬型記録媒体1Aまたは半導体メモリ1Bから読み取り、或いは、通信網Nを介して他のサーバコンピュータ(図示せず)からダウンロードする。当該プログラムは、制御プログラム15Pとしてインストールされ、RAM12にロードして実行される。これにより、上述したコンピュータ1として機能する。   The computer 1 shown in FIG. 17 reads a program for executing the various software processes described above from the portable recording medium 1A or the semiconductor memory 1B, or downloads it from another server computer (not shown) via the communication network N. Do. The program is installed as a control program 15P, loaded to the RAM 12 and executed. Thereby, it functions as the computer 1 mentioned above.

本実施の形態3は以上の如きであり、その他は実施の形態1及び2と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。なお、以上述べた各実施形態は適宜組み合わせることが可能である。   The third embodiment is as described above, and the other parts are the same as the first and second embodiments, so the corresponding parts are denoted with the same reference numerals and the detailed description thereof will be omitted. In addition, it is possible to combine each embodiment described above suitably.

以上の実施の形態1から3を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得する取得部と、
前記画像データ上の各レーザ光に対応する第1座標を特定する特定部と、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する算出部と
を備える情報処理装置。
(付記2)
前記画像データ上の複数の第1座標の入力を受け付ける受付部と、
受け付けた前記第1座標及び前記式に基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標間の距離を算出する距離算出部と
を備える付記1に記載の情報処理装置。
(付記3)
前記距離算出部は、
受け付けた前記第1座標、前記式及び前記撮像装置のパラメータに基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標を算出し、算出した第2座標間の距離を算出する
付記2に記載の情報処理装置。
(付記4)
分散配置され、相互に平行なレーザ光を照射する3以上の照射装置と、
前記照射装置に囲まれる領域に配置された撮像装置と
を備える付記1から3のいずれか一つに記載の情報処理装置。
(付記5)
前記算出部は、
前記画像データ上の複数の第1座標、前記計測対象面上の複数の第2座標、及び前記撮像装置のパラメータに基づき前記式を算出する
付記1から4のいずれか一つに記載の情報処理装置。
(付記6)
取得した画像データ上の複数の第1座標に基づき、前記画像データを補正する補正行列を算出する補正行列算出部
を備える付記1から5のいずれか一つに記載の情報処理装置。
(付記7)
前記式に基づき前記計測対象面上の複数の第2座標間の距離を算出する第2座標間距離算出部と、
前記補正行列に基づき補正された画像データ上の複数の第1座標のピクセル数を算出するピクセル数算出部と、
前記第2座標間の距離を前記ピクセル数で除すことで前記画像データの分解能を算出する分解能算出部と
を備える付記6に記載の情報処理装置。
(付記8)
補正された補正画像データから複数の第1座標の入力を受け付ける入力受付部と、
受け付けた第1座標間のピクセル数及び前記分解能に基づき、前記第1座標間の距離を算出する第1座標間距離算出部と
を備える付記7に記載の情報処理装置。
(付記9)
前記補正行列算出部は、
前記式に基づき、前記計測対象面を法線方向から見た場合に正方形となる4つの第2座標を特定し、
前記4つの第2座標及び前記パラメータに基づき、前記第2座標に対応する前記画像データ上の4つの第1座標を算出し、
算出した4つの前記第1座標を正方形に補正するための補正行列を算出する
付記6から8のいずれか一つに記載の情報処理装置。
(付記10)
分散配置され、相互に平行なレーザ光を照射する4つの照射装置と、
各照射装置から等距離の位置に配置された撮像装置と
を備える付記1から9のいずれか一つに記載の情報処理装置。
(付記11)
前記画像データ上のレーザ光による特定される領域を楕円近似し、近似した楕円の中心となる第1座標を特定する第1座標特定部
を備える付記1から10のいずれか一つに記載の情報処理装置。
(付記12)
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させるプログラム。
(付記13)
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させる情報処理方法。
The following appendices will be further disclosed with respect to the embodiment including Embodiments 1 to 3 above.
(Supplementary Note 1)
An acquisition unit configured to acquire, from an imaging device, image data in which three or more laser beams are irradiated on a measurement target surface;
An identification unit that identifies a first coordinate corresponding to each laser beam on the image data;
A calculator configured to calculate an equation for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.
(Supplementary Note 2)
A reception unit that receives an input of a plurality of first coordinates on the image data;
A distance calculation unit configured to calculate a distance between a plurality of second coordinates on the measurement target surface corresponding to the first coordinates based on the received first coordinates and the equation; .
(Supplementary Note 3)
The distance calculation unit
The plurality of second coordinates on the measurement target surface corresponding to the first coordinates are calculated based on the received first coordinates, the equation, and the parameters of the imaging device, and the calculated distance between the second coordinates is calculated. The information processing apparatus according to appendix 2.
(Supplementary Note 4)
Three or more irradiation devices arranged in a distributed manner and irradiating mutually parallel laser light;
The information processing apparatus according to any one of Appendices 1 to 3, further comprising: an imaging device disposed in a region surrounded by the irradiation device.
(Supplementary Note 5)
The calculation unit
The information processing according to any one of Appendices 1 to 4, wherein the equation is calculated based on a plurality of first coordinates on the image data, a plurality of second coordinates on the measurement target surface, and a parameter of the imaging device. apparatus.
(Supplementary Note 6)
The information processing apparatus according to any one of appendices 1 to 5, further comprising: a correction matrix calculation unit that calculates a correction matrix that corrects the image data based on a plurality of first coordinates on the acquired image data.
(Appendix 7)
A second inter-coordinate distance calculation unit that calculates a distance between a plurality of second coordinates on the measurement target surface based on the equation;
A pixel number calculation unit that calculates the number of pixels of a plurality of first coordinates on the image data corrected based on the correction matrix;
The resolution calculation unit configured to calculate the resolution of the image data by dividing the distance between the second coordinates by the number of pixels.
(Supplementary Note 8)
An input receiving unit that receives an input of a plurality of first coordinates from the corrected image data that has been corrected;
The first inter-coordinate distance calculation unit that calculates the distance between the first coordinates based on the number of pixels between the received first coordinates and the resolution.
(Appendix 9)
The correction matrix calculation unit
Based on the equation, four second coordinates that are square when the measurement target surface is viewed from the normal direction are identified,
Calculating four first coordinates on the image data corresponding to the second coordinates based on the four second coordinates and the parameter;
The information processing apparatus according to any one of appendices 6 to 8, wherein a correction matrix for correcting the four calculated first coordinates into a square is calculated.
(Supplementary Note 10)
Four irradiators arranged in a distributed manner and irradiating mutually parallel laser light;
The information processing apparatus according to any one of appendices 1 to 9, further comprising: an imaging apparatus arranged at a position equidistant from each irradiation apparatus.
(Supplementary Note 11)
11. The information according to any one of appendices 1 to 10, comprising: a first coordinate specifying unit which approximates an area specified by laser light on the image data by an ellipse and specifies a first coordinate that is the center of the approximated ellipse. Processing unit.
(Supplementary Note 12)
Acquiring from the imaging apparatus image data in which three or more laser beams are irradiated on the measurement target surface;
Identifying a first coordinate corresponding to each laser beam on the image data;
A program for causing a computer to execute a process of calculating an expression for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.
(Supplementary Note 13)
Acquiring from the imaging apparatus image data in which three or more laser beams are irradiated on the measurement target surface;
Identifying a first coordinate corresponding to each laser beam on the image data;
An information processing method for causing a computer to execute a process of calculating an equation for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.

1 コンピュータ(情報処理装置)
1A 可搬型記録媒体
1B 半導体メモリ
2 計測装置
10A 読み取り部
11 CPU
12 RAM
13 入力部
14 表示部
15 記憶部
15P 制御プログラム
16 通信部
18 時計部
19 通信ポート
21 撮像装置
22 レーザモジュール
23 支持板
161 取得部
162 特定部
163 算出部
164 受付部
165 距離算出部
N 通信網
1 Computer (Information Processing Device)
1A Portable Storage Medium 1B Semiconductor Memory 2 Measurement Device 10A Reading Unit 11 CPU
12 RAM
13 input unit 14 display unit 15 storage unit 15P control program 16 communication unit 18 clock unit 19 communication port 21 imaging device 22 laser module 23 support plate 161 acquisition unit 162 identification unit 163 calculation unit 164 reception unit 165 distance calculation unit N communication network

Claims (8)

計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得する取得部と、
前記画像データ上の各レーザ光に対応する第1座標を特定する特定部と、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する算出部と
を備える情報処理装置。
An acquisition unit configured to acquire, from an imaging device, image data in which three or more laser beams are irradiated on a measurement target surface;
An identification unit that identifies a first coordinate corresponding to each laser beam on the image data;
A calculator configured to calculate an equation for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.
前記画像データ上の複数の第1座標の入力を受け付ける受付部と、
受け付けた前記第1座標及び前記式に基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標間の距離を算出する距離算出部と
を備える請求項1に記載の情報処理装置。
A reception unit that receives an input of a plurality of first coordinates on the image data;
A distance calculation unit that calculates a distance between a plurality of second coordinates on the measurement target surface corresponding to the first coordinates based on the received first coordinates and the equation; apparatus.
前記距離算出部は、
受け付けた前記第1座標、前記式及び前記撮像装置のパラメータに基づき、前記第1座標に対応する前記計測対象面上の複数の第2座標を算出し、算出した第2座標間の距離を算出する
請求項2に記載の情報処理装置。
The distance calculation unit
The plurality of second coordinates on the measurement target surface corresponding to the first coordinates are calculated based on the received first coordinates, the equation, and the parameters of the imaging device, and the calculated distance between the second coordinates is calculated. The information processing apparatus according to claim 2.
分散配置され、相互に平行なレーザ光を照射する3以上の照射装置と、
前記照射装置に囲まれる領域に配置された撮像装置と
を備える請求項1から3のいずれか一つに記載の情報処理装置。
Three or more irradiation devices arranged in a distributed manner and irradiating mutually parallel laser light;
The information processing apparatus according to any one of claims 1 to 3, comprising: an imaging device disposed in a region surrounded by the irradiation device.
取得した画像データ上の複数の第1座標に基づき、前記画像データを補正する補正行列を算出する補正行列算出部と、
前記式に基づき前記計測対象面上の複数の第2座標間の距離を算出する第2座標間距離算出部と、
前記補正行列に基づき補正された画像データ上の複数の第1座標のピクセル数を算出するピクセル数算出部と、
前記第2座標間の距離を前記ピクセル数で除すことで前記画像データの分解能を算出する分解能算出部と
を備える請求項1から4のいずれか一つに記載の情報処理装置。
A correction matrix calculation unit that calculates a correction matrix that corrects the image data based on a plurality of first coordinates on the acquired image data;
A second inter-coordinate distance calculation unit that calculates a distance between a plurality of second coordinates on the measurement target surface based on the equation;
A pixel number calculation unit that calculates the number of pixels of a plurality of first coordinates on the image data corrected based on the correction matrix;
The information processing apparatus according to any one of claims 1 to 4, further comprising: a resolution calculation unit that calculates the resolution of the image data by dividing the distance between the second coordinates by the number of pixels.
補正された補正画像データから複数の第1座標の入力を受け付ける入力受付部と、
受け付けた第1座標間のピクセル数及び前記分解能に基づき、前記第1座標間の距離を算出する第1座標間距離算出部と
を備える請求項5に記載の情報処理装置。
An input receiving unit that receives an input of a plurality of first coordinates from the corrected image data that has been corrected;
6. The information processing apparatus according to claim 5, further comprising: a first inter-coordinate distance calculation unit that calculates the distance between the first coordinates based on the number of pixels between the received first coordinates and the resolution.
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させるプログラム。
Acquiring from the imaging apparatus image data in which three or more laser beams are irradiated on the measurement target surface;
Identifying a first coordinate corresponding to each laser beam on the image data;
A program for causing a computer to execute a process of calculating an expression for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.
計測対象面に3以上のレーザ光が照射された画像データを撮像装置から取得し、
前記画像データ上の各レーザ光に対応する第1座標を特定し、
特定した前記第1座標及び前記計測対象面上の各レーザ光の第2座標に基づき、前記計測対象面を特定する式を算出する
処理をコンピュータに実行させる情報処理方法。
Acquiring from the imaging apparatus image data in which three or more laser beams are irradiated on the measurement target surface;
Identifying a first coordinate corresponding to each laser beam on the image data;
An information processing method for causing a computer to execute a process of calculating an equation for specifying the measurement target surface based on the specified first coordinates and the second coordinates of each laser beam on the measurement target surface.
JP2017254500A 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods Active JP7024405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254500A JP7024405B2 (en) 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254500A JP7024405B2 (en) 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods

Publications (2)

Publication Number Publication Date
JP2019121076A true JP2019121076A (en) 2019-07-22
JP7024405B2 JP7024405B2 (en) 2022-02-24

Family

ID=67306330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254500A Active JP7024405B2 (en) 2017-12-28 2017-12-28 Information processing equipment, programs and information processing methods

Country Status (1)

Country Link
JP (1) JP7024405B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114111589A (en) * 2021-11-19 2022-03-01 南方海洋科学与工程广东省实验室(湛江) Mesh-based underwater ranging method, ranging system and storage medium
CN115790464A (en) * 2023-02-07 2023-03-14 潍坊三建建材科技有限公司 Indoor large space level detection device for building

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010312A (en) * 2004-06-21 2006-01-12 Constec Engi Co Imaging device
JP2007010346A (en) * 2005-06-28 2007-01-18 Fujitsu Ltd Imaging device
JP2010266202A (en) * 2009-04-13 2010-11-25 Itt:Kk Image processing apparatus for photogrammetry, on-site recording system using the same, baggage recording system, and laser beam machining system
JP2013108933A (en) * 2011-11-24 2013-06-06 Kddi Corp Information terminal device
JP2017026350A (en) * 2015-07-16 2017-02-02 パナソニックIpマネジメント株式会社 Inspection camera, inspection system including the same, and inspection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010312A (en) * 2004-06-21 2006-01-12 Constec Engi Co Imaging device
JP2007010346A (en) * 2005-06-28 2007-01-18 Fujitsu Ltd Imaging device
JP2010266202A (en) * 2009-04-13 2010-11-25 Itt:Kk Image processing apparatus for photogrammetry, on-site recording system using the same, baggage recording system, and laser beam machining system
JP2013108933A (en) * 2011-11-24 2013-06-06 Kddi Corp Information terminal device
JP2017026350A (en) * 2015-07-16 2017-02-02 パナソニックIpマネジメント株式会社 Inspection camera, inspection system including the same, and inspection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤拓杜, 外5名: ""手のひらの傾きにロバストな非接触型掌紋認証システムの検討"", 第27回 回路とシステムワークショップ 論文集, JPN6021043020, 4 August 2014 (2014-08-04), JP, pages 185 - 190, ISSN: 0004629464 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114111589A (en) * 2021-11-19 2022-03-01 南方海洋科学与工程广东省实验室(湛江) Mesh-based underwater ranging method, ranging system and storage medium
CN115790464A (en) * 2023-02-07 2023-03-14 潍坊三建建材科技有限公司 Indoor large space level detection device for building

Also Published As

Publication number Publication date
JP7024405B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
CN111639626B (en) Three-dimensional point cloud data processing method and device, computer equipment and storage medium
US8600147B2 (en) System and method for remote measurement of displacement and strain fields
US9787960B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
JP5924862B2 (en) Information processing apparatus, information processing method, and program
US11593960B2 (en) Determining the relative position between a point cloud generating camera and another camera
US20190340317A1 (en) Computer vision through simulated hardware optimization
US20190325593A1 (en) Image processing apparatus, system, method of manufacturing article, image processing method, and non-transitory computer-readable storage medium
JPWO2020188799A1 (en) Camera calibration device, camera calibration method, and program
JP7024405B2 (en) Information processing equipment, programs and information processing methods
TW201618039A (en) System and method for compensating a right angle margin of point clouds
JP6601613B2 (en) POSITION ESTIMATION METHOD, POSITION ESTIMATION DEVICE, AND POSITION ESTIMATION PROGRAM
CN115205128A (en) Depth camera temperature drift correction method, system, equipment and medium based on structured light
US10146331B2 (en) Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates
CN114051626A (en) Joint ambient reconstruction and camera calibration
CN111882657A (en) Three-dimensional reconstruction scale recovery method, device and system and computer equipment
JP6560547B2 (en) Boundary point extraction method and measurement method using total station
US8872832B2 (en) System and method for mesh stabilization of facial motion capture data
CN112488112B (en) Target object identification method and device, electronic equipment and storage medium
US11922659B2 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
CN112330737A (en) Parallel detection method, parallel detection equipment, storage medium and device
CN117146710B (en) Dynamic projection three-dimensional reconstruction system and method based on active vision
CN114897997B (en) Camera calibration method, device, equipment and storage medium
JP2013003753A (en) Image processing device, image processing method and image processing program
US20240029288A1 (en) Image processing apparatus, image processing method, and storage medium
JP2022089664A (en) Information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R150 Certificate of patent or registration of utility model

Ref document number: 7024405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150