JP2020046239A - Image processing method, image processing apparatus and underground radar device - Google Patents

Image processing method, image processing apparatus and underground radar device Download PDF

Info

Publication number
JP2020046239A
JP2020046239A JP2018173340A JP2018173340A JP2020046239A JP 2020046239 A JP2020046239 A JP 2020046239A JP 2018173340 A JP2018173340 A JP 2018173340A JP 2018173340 A JP2018173340 A JP 2018173340A JP 2020046239 A JP2020046239 A JP 2020046239A
Authority
JP
Japan
Prior art keywords
camera
image
scale
measurement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018173340A
Other languages
Japanese (ja)
Other versions
JP7271116B2 (en
Inventor
中村 泰之
Yasuyuki Nakamura
泰之 中村
敦夫 千賀
Atsuo Chiga
敦夫 千賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2018173340A priority Critical patent/JP7271116B2/en
Publication of JP2020046239A publication Critical patent/JP2020046239A/en
Application granted granted Critical
Publication of JP7271116B2 publication Critical patent/JP7271116B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide an image processing method and apparatus for facilitating association between a point in the captured image and a symmetric position thereof.SOLUTION: An image processing method includes the steps of: photographing an image of a scale while rotating a camera 71 at a position with a predetermined distance from the scale; recording a correspondence relation between a rotation angle θ of the camera 71 and the image of the scale; and measuring the distance information of a measurement target point MO1 based on a correspondence relation, and a ratio between the height of the camera 71 to the measurement target point MO1 and the height of the camera 71 to a reference point.SELECTED DRAWING: Figure 2

Description

本発明は、撮影した像内の点を距離又は位置として管理するための画像処理方法及び画像処理装置、並びに、この画像処理方法等を用いた地中レーダ装置に関するものである。   The present invention relates to an image processing method and an image processing apparatus for managing a point in a captured image as a distance or a position, and an underground radar apparatus using the image processing method and the like.

カメラ画像から配置情報を抽出するため、カメラ画像の歪みを修正する必要が生じる。このような歪みの修正方法として、既知の図形又は構造を有するチャート又はキャリブレーションパターンをカメラに正対させて撮影を行い、得られた画像を利用してカメラ画像の歪みを修正するための補正情報を予め取得しておくことが公知となっている(特許文献1〜3参照)。   In order to extract the arrangement information from the camera image, it is necessary to correct the distortion of the camera image. As a method of correcting such a distortion, a chart or a calibration pattern having a known figure or structure is directly faced with a camera, an image is taken, and a correction for correcting a camera image distortion using an obtained image is performed. It is known that information is acquired in advance (see Patent Documents 1 to 3).

しかしながら、上記の手法でカメラ画像の歪みを修正する場合、撮影画像の全域に既知のチャート又はパターンを配置して、画像上の位置とチャート又はパターン上の位置との関連づけを行う必要がある。また、カメラから対象までの距離が既知であることを前提とする計測方法の場合、チャートを遠く広く配置する必要が生じる場合がある。さらに、カメラから対象までの距離が変化するごとにキャリブレーションを繰り返す必要がある。   However, when correcting the distortion of the camera image by the above-described method, it is necessary to arrange a known chart or pattern over the entire area of the captured image and associate the position on the image with the position on the chart or pattern. In the case of a measurement method on the premise that the distance from the camera to the target is known, it may be necessary to arrange the chart far and wide. Furthermore, it is necessary to repeat the calibration every time the distance from the camera to the target changes.

特開2013−109416号公報JP 2013-109416 A 特開2003−123064号公報JP 2003-123064 A 特開2008−283507号公報JP 2008-283507 A

本発明は、上記背景技術に鑑みてなされたものであり、撮影した像内の点と対象の位置との関連づけを容易にする画像処理方法及び装置を提供することを目的とする。   The present invention has been made in view of the above background art, and has as its object to provide an image processing method and apparatus that facilitates associating a point in a captured image with a position of an object.

上記目的を達成するため、本発明に係る画像処理方法は、カメラをスケールから所定距離の位置で回転させつつスケールの画像を撮影し、画像よりカメラの回転角とスケールの像との対応関係を記録し、対応関係及び計測対象点に対するカメラの高さと基準点に対するカメラの高さとの比に基づき、計測対象点の距離情報を計測する。   In order to achieve the above object, the image processing method according to the present invention captures an image of the scale while rotating the camera at a position at a predetermined distance from the scale, and determines the correspondence between the rotation angle of the camera and the image of the scale from the image. The distance information of the measurement target point is measured based on the correspondence and the ratio of the camera height with respect to the measurement target point and the camera height with respect to the reference point.

上記画像処理方法では、カメラをスケールから所定距離の位置で回転させつつスケールの画像を撮影し、画像よりカメラの回転角とスケールの像との対応関係を記録するので、カメラの前面を覆うように大きなスケールを配置する必要がなく、キャリブレーションの作業性を高めることができる。また、計測対象点に対するカメラの高さと基準点に対するカメラの高さとの比に基づくので、カメラの高さに関わらず測定が可能になり、キャリブレーションに際してスケールを遠く広く配置する必要がなくなる。   In the above image processing method, the image of the scale is taken while rotating the camera at a position at a predetermined distance from the scale, and the correspondence between the rotation angle of the camera and the image of the scale is recorded from the image, so that the front surface of the camera is covered. It is not necessary to arrange a large scale on the surface, and the workability of calibration can be improved. Further, since the measurement is based on the ratio of the camera height with respect to the measurement target point and the camera height with respect to the reference point, measurement can be performed regardless of the camera height, and it is not necessary to dispose a scale far and wide for calibration.

本発明の具体的な側面では、計測対象の距離情報は、カメラの回転軸に直交する基準面に沿った所定の原点から計測対象点までの水平方向に関する距離である。この場合、基準面内に絞った高精度の計測が可能になる。   In a specific aspect of the present invention, the measurement target distance information is a distance in a horizontal direction from a predetermined origin along a reference plane orthogonal to the rotation axis of the camera to a measurement target point. In this case, high-precision measurement focused on the reference plane becomes possible.

本発明の別の側面では、原点は、カメラの直下に位置する路面上の点である。この場合、カメラの直下を基準とした測定が可能になる。   In another aspect of the invention, the origin is a point on the road surface located directly below the camera. In this case, it is possible to perform measurement based directly on the camera.

本発明のさらに別の側面では、基準点は、カメラの直下に配置されるスケール上の点である。この場合、スケールを簡単に配置でき、キャリブレーションの精度を簡易に高めることができる。   In yet another aspect of the invention, the reference point is a point on the scale located directly below the camera. In this case, the scale can be easily arranged, and the accuracy of the calibration can be easily increased.

本発明のさらに別の側面では、対応関係は、スケールに対するカメラの回転軸の現実の高さ又は仮想の高さを固定的な標準高さとして算出されて画素位置から距離を与える換算情報を含み、原点から計測対象点までの距離を、換算情報で得た位置に対して計測対象点に対するカメラの高さと標準高さとの比である係数を乗じたものとして与える。この場合、計測対象点に対するカメラの高さをキャリブレーション時と関係なく任意に設置しても、原点から計測対象点までの距離を換算情報から正確に計算できる。   In yet another aspect of the present invention, the correspondence includes conversion information that calculates a real height or a virtual height of the rotation axis of the camera with respect to the scale as a fixed standard height and gives a distance from a pixel position. The distance from the origin to the measurement target point is given as a value obtained by multiplying the position obtained by the conversion information by a coefficient that is a ratio between the camera height and the standard height with respect to the measurement target point. In this case, even if the height of the camera with respect to the measurement target point is arbitrarily set regardless of the time of calibration, the distance from the origin to the measurement target point can be accurately calculated from the conversion information.

本発明のさらに別の側面では、スケールは、カメラを回転させる回転軸に垂直な方向に延びる目盛りを有する。この場合、回転軸に垂直な方向に関して距離の計測やキャリブレーションが容易になる。   In yet another aspect of the invention, the scale has a scale extending in a direction perpendicular to an axis of rotation for rotating the camera. In this case, distance measurement and calibration in a direction perpendicular to the rotation axis are facilitated.

本発明のさらに別の側面では、カメラは、当該カメラを回転させる回転軸に垂直な方向に延びるラインセンサを有する。この場合、1次元的な情報処理によって計測対象点の距離情報を計測することができる。   In still another aspect of the present invention, the camera has a line sensor extending in a direction perpendicular to a rotation axis for rotating the camera. In this case, the distance information of the measurement target point can be measured by one-dimensional information processing.

上記目的を達成するため、本発明に係る画像処理装置は、カメラによって撮影した測定対象点の像内における位置から計測対象点の距離情報を与える対応関係を保持する情報記録部と、カメラを動作させて得た像から対応関係及び計測対象点に対するカメラの高さに基づいて計測対象点の距離情報を決定する信号処理部とを備え、対応関係は、カメラをスケールから所定距離の位置で回転させつつスケールの画像を撮影することにより作成される。   In order to achieve the above object, an image processing apparatus according to the present invention operates an information recording unit that holds a correspondence relationship that gives distance information of a measurement target point from a position in an image of the measurement target point captured by the camera, and operates the camera. A signal processing unit that determines the distance information of the measurement target point based on the correspondence relationship and the height of the camera with respect to the measurement target point from the obtained image, and the correspondence relationship rotates the camera at a position at a predetermined distance from the scale. It is created by taking an image of the scale while making it.

上記画像処理方法では、カメラをスケールから所定距離の位置で回転させつつスケールの画像を撮影して画像よりカメラの回転角とスケールの像との対応関係を記録するので、カメラの前面を覆うように大きなスケールを配置する必要がなく、キャリブレーションの作業性を高めることができる。   In the image processing method, since the camera is rotated at a position at a predetermined distance from the scale, an image of the scale is taken, and the correspondence between the rotation angle of the camera and the image of the scale is recorded from the image, so that the front surface of the camera is covered. It is not necessary to arrange a large scale on the surface, and the workability of calibration can be improved.

上記目的を達成するため、本発明に係る地中レーダ装置は、上述した画像処理装置と、カメラと、探査信号を送信する送信部と、検出信号を受信する受信部と、受信部からの検出信号を処理する探査処理部とを有する計測部とを備える。   In order to achieve the above object, an underground radar apparatus according to the present invention includes the above-described image processing apparatus, a camera, a transmitting section that transmits an exploration signal, a receiving section that receives a detection signal, and detection from the receiving section. And a measurement unit having a search processing unit that processes the signal.

上記地中レーダ装置では、上述の画像処理装置を組み込んでおり、地表にある計測対象の水平方向のサイズや配置を迅速に把握することができる。   In the underground radar device, the above-described image processing device is incorporated, and the size and arrangement of the measurement target on the ground surface in the horizontal direction can be quickly grasped.

本発明の具体的な側面では、画像処理装置によって処理した画像を計測部によって得た計測データとリンクさせてデータとして保存する。この場合、地中探査情報と地表物体の配置情報とをサイズを含めて整合させて保存することができる。   According to a specific aspect of the present invention, an image processed by the image processing apparatus is linked with measurement data obtained by the measurement unit and stored as data. In this case, the underground exploration information and the arrangement information of the surface object can be matched and stored including the size.

(A)及び(B)は、実施形態の画像処理装置及び地中レーダ装置を組み込んだ車両を説明する概念的な側面図及び平面図である。(A) and (B) are a conceptual side view and a plan view illustrating a vehicle incorporating the image processing device and the underground radar device of the embodiment. (A)及び(B)は、周辺画像取得装置を用いた距離計測を説明する正面図及び平面図である。(A) and (B) are the front view and the top view explaining the distance measurement using a peripheral image acquisition device. (A)は、距離計測のキャリブレーションを説明する正面図であり、(B)は、キャリブレーションにおける距離や幅の計算方法を説明する正面図である。(A) is a front view explaining the calibration of the distance measurement, (B) is a front view explaining the calculation method of the distance and the width in the calibration. (A)は、センサ面上でのスケールの検出状態を説明する図であり、(B)は、計測時の撮影画像を例示している。(C)は、標準高さでキャリブレーションを行って得られる換算テーブルを例示する図である。(A) is a figure explaining the detection state of the scale on a sensor surface, (B) has illustrated the photographed image at the time of measurement. (C) is a diagram illustrating a conversion table obtained by performing calibration at a standard height. 地中計測部の一例を説明するブロック図である。It is a block diagram explaining an example of an underground measurement part. 周辺画像取得部を含む地中レーダ装置を説明するブロック図である。FIG. 3 is a block diagram illustrating an underground radar device including a peripheral image acquisition unit. 画像処理によって表示される2次元マップ等を説明する概念図である。It is a conceptual diagram explaining the two-dimensional map etc. displayed by image processing. 制御装置の動作の一例を説明するフローチャートである。5 is a flowchart illustrating an example of an operation of the control device. 2次元的なキャリブレーションを説明する概念図である。FIG. 5 is a conceptual diagram illustrating two-dimensional calibration.

以下、図面を参照しつつ、本発明に係る一実施形態の画像処理装置を含む地中レーダ装置について説明する。   Hereinafter, an underground radar apparatus including an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1(A)及び(B)に示すように、地中レーダ装置100は、自動車等の車両200に搭載されて移動しながら地中探査を行う。地中レーダ装置100は、電波により地中の計測を行う複数の地中計測部100Aと、計測位置又は計測地点の周辺画像を取得する周辺画像取得部100Bと、データ処理等を行う制御装置100Cとを備える。これらのうち、周辺画像取得部100Bと制御装置100Cとは、計測位置の周辺画像に対して画像処理を行う画像処理装置110である。また、複数の地中計測部100Aと、受信部20b(図5参照)からの検出信号を処理する探査処理部としても機能する制御装置100Cとは、探査データを収集する計測部120を構成している。なお、車両200には、位置情報取得装置200aが設けられている。位置情報取得装置200aは、GPS受信機、速度計、加速度計等を備えており、車両200の位置又は移動量を計測して位置関連情報として出力する。   As shown in FIGS. 1A and 1B, the underground radar device 100 is mounted on a vehicle 200 such as an automobile and performs underground exploration while moving. The underground radar device 100 includes a plurality of underground measurement units 100A that perform underground measurement by radio waves, a peripheral image acquisition unit 100B that acquires a peripheral image of a measurement position or a measurement point, and a control device 100C that performs data processing and the like. And Among these, the peripheral image acquisition unit 100B and the control device 100C are the image processing device 110 that performs image processing on the peripheral image at the measurement position. Further, the plurality of underground measurement units 100A and the control device 100C which also functions as a search processing unit that processes a detection signal from the reception unit 20b (see FIG. 5) constitute a measurement unit 120 that collects search data. ing. The vehicle 200 is provided with a position information acquisition device 200a. The position information acquisition device 200a includes a GPS receiver, a speedometer, an accelerometer, and the like, measures the position or the amount of movement of the vehicle 200, and outputs the result as position-related information.

周辺画像取得部100Bは、複数の地中計測部(地中レーダ本体)100Aとともに移動する際に計測箇所の周辺を撮像するカメラ71と、キャリブレーション時にカメラ71の回転姿勢を調節する回転駆動部75とを有する。カメラ71と回転駆動部75とは、支持体78を介して車両200に固定されている。カメラ71は、地中計測部100Aによる計測位置又は計測地点の路面、路肩、歩道、周辺構造物等を含む測定対象をライン状の計測エリアMA単位で撮影し出力する。つまり、カメラ71は、ライン状の画角を有し、計測エリアMAは、車両200の進路に直交するX方向に細長く延びている。カメラ71は、光検出部として、CMOSその他の光検出素子を1列又は複数列並べたライン状センサー(不図示)を有する。車両200の移動に伴ってカメラ71によって取得された連続画像は、記録部72に保管されるとともに、画像データとして制御装置100Cに出力される。なお、回転駆動部75は、カメラ71に関する後述するキャリブレーションに際して、カメラ71をレンズ71aの中心を通る回転軸RXのまわりに回転させ所望の角度に傾斜させる。カメラ71の回転軸RXは、カメラ71の基準面BSやレンズ71aの光軸AXに対して直交する方向に延び、結果的に車両200の進行方向に相当する水平方向又はY方向に平行に延びる。   The peripheral image acquisition unit 100B includes a camera 71 that captures an image of a periphery of a measurement point when moving with the plurality of underground measurement units (underground radar main body) 100A, and a rotation driving unit that adjusts the rotation posture of the camera 71 during calibration. 75. The camera 71 and the rotation drive unit 75 are fixed to the vehicle 200 via a support 78. The camera 71 captures and outputs a measurement target including a road surface, a shoulder, a sidewalk, a peripheral structure, and the like at a measurement position or a measurement point by the underground measurement unit 100A in units of a linear measurement area MA. That is, the camera 71 has a line-shaped angle of view, and the measurement area MA is elongated in the X direction orthogonal to the course of the vehicle 200. The camera 71 has a linear sensor (not shown) in which one or more rows of CMOS or other light detection elements are arranged as a light detection unit. The continuous image acquired by the camera 71 as the vehicle 200 moves is stored in the recording unit 72 and output to the control device 100C as image data. Note that the rotation drive unit 75 rotates the camera 71 around a rotation axis RX passing through the center of the lens 71a and tilts the camera 71 to a desired angle at the time of the calibration of the camera 71 described later. The rotation axis RX of the camera 71 extends in a direction orthogonal to the reference plane BS of the camera 71 and the optical axis AX of the lens 71a, and as a result, extends in a horizontal direction corresponding to the traveling direction of the vehicle 200 or parallel to the Y direction. .

以上では、周辺画像取得部100Bが回転駆動部75を含むとして説明したが、回転駆動部75は、キャリブレーション時に存在すればよく、計測時には、レンズ71aの光軸AXを鉛直線VLつまりZ方向に平行にセットしてカメラ71を支持体78に固定すれば足り、回転駆動部75を省略することができる。この場合、キャリブレーション時にカメラ71を回転駆動部75に対してアライメントした状態で固定することになる。   In the above, the peripheral image acquisition unit 100B has been described as including the rotation drive unit 75. However, the rotation drive unit 75 only needs to be present at the time of calibration. At the time of measurement, the optical axis AX of the lens 71a is set to the vertical line VL, that is, It is sufficient if the camera 71 is fixed to the support 78 by setting the camera 71 in parallel with the camera, and the rotation drive unit 75 can be omitted. In this case, the camera 71 is fixed in alignment with the rotation drive unit 75 during calibration.

図2を参照して、周辺画像取得部100Bを用いた距離計測について説明する。Z軸は鉛直方向に対応し、X軸は紙面に平行で左右に延びる水平方向HDに対応し、Y軸は紙面に垂直な水平方向に対応する。カメラ71のレンズ71aは、測定面MSから高さHの位置に配置されている。ここで、測定面MSからの高さは、測定面MSの法線方向に計測される測定面MSまでの距離を意味し、通常鉛直方向に計測されるが、鉛直方向に計測される場合に限られるものではない。測定面MSは、路面を想定しており、光軸AX又は鉛直線VLに垂直な予定平面RFに沿って延びることが前提となっている。予定平面RFのうち、カメラ71の鉛直直下の原点O1は、カメラの直下に位置する路面上の点であり、カメラ71を利用した計測の基点となる。このため、レンズ71aの光軸AXは、原点O1を通るようにセットされている。つまり、原点O1を通る鉛直線VLは、レンズ71aの光軸AXと一致している。カメラ71による計測エリアMAは、原点O1を含んで光軸AX又は鉛直線VLに垂直な予定平面RF又はその近傍にある物体を対象とするものとなっている。計測エリアMAは、原点O1を含んで横のX軸に沿って延びる測定線BLを中心としてその近傍に広がっている。レンズ71aは、計測エリアMAの各部までの距離差に関わらず必要な解像度で結像する焦点深度を有している。測定線BLと鉛直線VLとを含む基準面BSは、原点O1を含んで車両200の進行方向に垂直なXZ面に平行に延び、カメラ71による計測の前提となる。基準面BSは、カメラ71の回転軸RXに直交する。   The distance measurement using the peripheral image acquisition unit 100B will be described with reference to FIG. The Z-axis corresponds to the vertical direction, the X-axis corresponds to a horizontal direction HD extending parallel to the paper surface and extending left and right, and the Y-axis corresponds to a horizontal direction perpendicular to the paper surface. The lens 71a of the camera 71 is arranged at a position at a height H from the measurement plane MS. Here, the height from the measurement surface MS means the distance to the measurement surface MS measured in the normal direction of the measurement surface MS, and is usually measured in the vertical direction. It is not limited. The measurement surface MS is assumed to be a road surface, and is assumed to extend along a predetermined plane RF perpendicular to the optical axis AX or the vertical line VL. Of the scheduled plane RF, the origin O1 immediately below the camera 71 is a point on the road surface located immediately below the camera 71, and is a base point for measurement using the camera 71. Therefore, the optical axis AX of the lens 71a is set to pass through the origin O1. That is, the vertical line VL passing through the origin O1 coincides with the optical axis AX of the lens 71a. The measurement area MA by the camera 71 targets an object on or near the predetermined plane RF including the origin O1 and perpendicular to the optical axis AX or the vertical line VL. The measurement area MA extends around the measurement line BL extending along the horizontal X axis including the origin O1. The lens 71a has a depth of focus that forms an image at a required resolution regardless of a difference in distance to each part of the measurement area MA. The reference plane BS including the measurement line BL and the vertical line VL extends in parallel with the XZ plane including the origin O1 and perpendicular to the traveling direction of the vehicle 200, and is a prerequisite for measurement by the camera 71. The reference plane BS is orthogonal to the rotation axis RX of the camera 71.

カメラ71に対して光軸AXを基準として角度θの方向にある計測対象点MO1の位置、つまり原点O1から計測対象点MO1の中央までのX方向の距離DMは、H・tanθで与えられる。また、計測対象点MO1のX方向の幅Wは、カメラ71から視た角度幅が比較的小さな値δであるとき、H・δ/cosθで近似的に与えられる。角度θについては、カメラ71によって取得した画像から決定することができ、カメラ71の撮像部において計測対象点MO1の中央の画素位置をx(xは整数)とした場合、θ=f(x)で与えられ、DM=H・tan(f(x))=g(x)となって画素位置xから距離DMを決定することができる。ここで、θ=f(x)は、レンズ71aの結像特性等に関連する固有の関数である。g(x)は、f(x)から算術的に導かれる関数である。計測対象点MO1の両端の画素位置をx1,x2とした場合、W(x1,x2)=g(x2)−g(x1)となって画素位置x1,x2から幅Wを決定することができる。なお、計測対象点MO2の中央の画素位置をxとした場合、原点O1から別の計測対象点MO2の中央までのX方向の距離DM’は、DM’=g(x)で与えられる負の値となり、計測対象点MO2のX方向の幅W’は、W’(x1,x2)=g(x2)−g(x1)又はH・δ’/cosθ’で与えられる正の値となる。 The position of the measurement target point MO1 in the direction of the angle θ with respect to the optical axis AX with respect to the camera 71, that is, the distance DM in the X direction from the origin O1 to the center of the measurement target point MO1 is given by H · tan θ. The width W of the measurement target point MO1 in the X direction is approximately given by H · δ / cos 2 θ when the angular width viewed from the camera 71 is a relatively small value δ. The angle θ can be determined from the image acquired by the camera 71. When the pixel position at the center of the measurement target point MO1 in the imaging unit of the camera 71 is x (x is an integer), θ = f (x) And DM = H · tan (f (x)) = g (x), and the distance DM can be determined from the pixel position x. Here, θ = f (x) is a unique function related to the imaging characteristics and the like of the lens 71a. g (x) is a function arithmetically derived from f (x). When the pixel positions at both ends of the measurement target point MO1 are x1 and x2, W (x1, x2) = g (x2) -g (x1), and the width W can be determined from the pixel positions x1 and x2. . When the pixel position at the center of the measurement target point MO2 is x, the distance DM ′ in the X direction from the origin O1 to the center of another measurement target point MO2 is a negative value given by DM ′ = g (x). And the width W ′ of the measurement target point MO2 in the X direction is a positive value given by W ′ (x1, x2) = g (x2) −g (x1) or H · δ ′ / cos 2 θ ′. Become.

関数θ=f(x)については、例えばカメラ71をその回転角又は傾斜角をチェックしつつ回転軸RXのまわりに回転させ、原点O1に配置したターゲット又はスケールの画素位置xを記録することによって決定することができる。DM=g(x)は、関数θ=f(x)を利用することで算術的に計算できる。W(x1,x2)も、DM=g(x)を利用することで算術的に計算できる。W(x1,x2)については、スケールの目盛りから直接決定することもできる。   The function θ = f (x) is obtained by, for example, rotating the camera 71 around the rotation axis RX while checking the rotation angle or the inclination angle thereof, and recording the pixel position x of the target or the scale arranged at the origin O1. Can be determined. DM = g (x) can be arithmetically calculated by using the function θ = f (x). W (x1, x2) can also be arithmetically calculated using DM = g (x). W (x1, x2) can also be determined directly from the scale of the scale.

図3(A)を参照して、画像処理装置のキャリブレーションについて説明する。図2では、レンズ71aが測定面MSから高さHの位置に配置されていることが前提となっているが、高さHを変更するごとに対応するDM=g(x)やW(x1,x2)を準備していてはキャリブレーションの作業が膨大となる。そこで、所定距離に設定された標準高さH0でキャリブレーションを行って回転角である角度θ=f(x)を決定し、この標準的なθ=f(x)からDM=g(x)やW(x1,x2)を得ることとする。具体的には、カメラ71をレンズ71aが標準高さH0となるようにセットし、鉛直線VLが通る直下の基準点RPを基準としてキャリブレーション面CS上にスケールSCを配置する。つまり、基準点RPは、カメラ71の直下に配置されるスケールSC上の中心点である。その後、回転駆動部75によってカメラ71の角度(回転角)θを例えば−90°から+90°まで変化させながらスケールSC上の基準点RPの画素を抽出し、基準点RPの画素位置xを決定する。回転駆動部75には、ロータリエンコーダその他の角度検出部が組み込まれており、規定の角度単位(例えば1°刻み)でトリガ信号を発生し、トリガ信号に応じてカメラ71による画像の取込みが行われる。角度(回転角)θの単位又は分割が十分に細かければ、各x(xは整数)に対応するθを与えることができ、結果的にθ=f(x)を決定することができる。なお、角度(回転角)θの分割が細かくない場合、スケールSCの目盛りDSを利用することや、内挿による補間によって、θ=f(x)を決定することもできる。スケールSCの目盛りDSを利用する場合、角度(回転角)θを考慮して投影倍率1/cosθの補正を行うとともに、スケールSCを読み込む角度(回転角)θが切り替わる境界で重複を解消して各xに対して単一の方位又は距離DMが与えられるようにする。つまり、後述する換算テーブルの作成に際して境界処理を行って、着目点の角度又は画素位置から着目点の距離が一意的に定まるようにする。 The calibration of the image processing apparatus will be described with reference to FIG. In FIG. 2, it is assumed that the lens 71 a is arranged at a position of a height H from the measurement surface MS, but every time the height H is changed, the corresponding DM = g (x) or W (x1 , X2), the calibration work becomes enormous. Therefore, calibration is performed at the standard height H0 set at a predetermined distance to determine the angle θ = f (x), which is the rotation angle, and DM = g (x) from the standard θ = f (x). And W (x1, x2). Specifically, the camera 71 is set so that the lens 71a has the standard height H0, and the scale SC is arranged on the calibration plane CS with reference to the reference point RP immediately below the vertical line VL. That is, the reference point RP is a center point on the scale SC disposed immediately below the camera 71. Then, the pixel of the reference point RP on the scale SC is extracted while changing the angle (rotation angle) θ of the camera 71 from, for example, −90 ° to + 90 ° by the rotation driving unit 75, and the pixel position x of the reference point RP is determined. I do. The rotation drive unit 75 incorporates a rotary encoder and other angle detection units, generates a trigger signal in a prescribed angle unit (for example, every 1 °), and captures an image by the camera 71 according to the trigger signal. Will be If the unit or division of the angle (rotation angle) θ is sufficiently small, θ corresponding to each x (x is an integer) can be given, and as a result, θ = f (x) can be determined. If the angle (rotation angle) θ is not finely divided, θ = f (x) can be determined by using the scale DS of the scale SC or by interpolation by interpolation. When the scale DS of the scale SC is used, the projection magnification 1 / cos 2 θ is corrected in consideration of the angle (rotation angle) θ, and the overlap is eliminated at the boundary where the angle (rotation angle) θ at which the scale SC is read is switched. To provide a single azimuth or distance DM for each x. That is, boundary processing is performed when a conversion table described later is created, so that the distance to the target point is uniquely determined from the angle or pixel position of the target point.

図3(B)に示すように、カメラ71を相対的に固定した状態で観測される標準面SFを考えて、方位に相当する角度θから標準面SF上の位置を決定する手法について説明する。カメラ71を標準面SF上に設置したスケールSCから所定距離の位置で回転させつつスケールSCの画像を撮影することは、カメラ71を固定してキャリブレーション面CSやスケールSCを回転させることになる。スケールSCは、カメラ71の回転軸RXに垂直な方向に延びる目盛りDSを有する。角度θを徐々に変化させつつスケールSCの画像を取り込むことにより、カメラ71の回転角である角度θとスケールSCの像との対応関係を記録することになる。図中で、基準点RPから基準投影点PPまでのX方向の距離D(θ)は、標準面SFからのレンズ71aの高さ、つまり基準点RPに対するレンズ71aの高さをH0として、H0・tanθ=G(x)で与えられる。ここで、G(x)は、図2で説明したg(x)と同様の関数であり、標準高さH0でキャリブレーションを行って得られるデータである。また、スケールSC上の目盛りDSの単位幅W0は、標準面SF上に斜めに拡大投影されて基準投影幅Wp(θ)に相当するものとなっている。基準投影幅Wp(θ)は、Wp(θ)=W0/cosθ≒H0・φ/cosθで与えられる。つまり、図4(A)に示すように、カメラ71の回転軸RXに垂直な方向に延びるラインセンサ71cを考えて、各θに対して計測されたスケールSC像の原点像CDを含む目盛りDSの幅、つまり単位幅W0(θ)のX方向に関するラインセンサ71c又はセンサ面71d上の画素数n(θ)を予め記録することで、基準投影点PPにある測定対象物の幅Wを算出することができる。具体的には、基準投影点PPにある実際の測定対象物がセンサ面71d上のX方向に関して占有画素数mの広がりを有する場合、基準投影点PPにある測定対象物のX方向の幅Wは、予め取得した画素数n(θ)を用いて、Wp(θ)=W0/cosθ×(m/n)として与えられる。ここで、W0/cosθ/nは、画素間隔に対応する実間隔に相当するものであり、画素換算間隔PWと呼ぶ。 As shown in FIG. 3B, a method of determining a position on the standard surface SF from an angle θ corresponding to an azimuth, considering a standard surface SF observed with the camera 71 fixed relatively, will be described. . Taking an image of the scale SC while rotating the camera 71 at a predetermined distance from the scale SC installed on the standard surface SF means rotating the calibration surface CS and the scale SC with the camera 71 fixed. . The scale SC has a scale DS extending in a direction perpendicular to the rotation axis RX of the camera 71. By capturing the image of the scale SC while gradually changing the angle θ, the correspondence between the angle θ that is the rotation angle of the camera 71 and the image of the scale SC is recorded. In the figure, the distance D (θ) in the X direction from the reference point RP to the reference projection point PP is H0, where H0 is the height of the lens 71a from the standard surface SF, that is, the height of the lens 71a with respect to the reference point RP. Tan θ = G (x). Here, G (x) is a function similar to g (x) described with reference to FIG. 2, and is data obtained by performing calibration at the standard height H0. The unit width W0 of the scale DS on the scale SC is obliquely enlarged and projected on the standard surface SF, and corresponds to the reference projection width Wp (θ). Reference projection width Wp (theta) is given by Wp (θ) = W0 / cos 2 θ ≒ H0 · φ / cos 2 θ. That is, as shown in FIG. 4A, considering a line sensor 71c extending in a direction perpendicular to the rotation axis RX of the camera 71, the scale DS including the origin image CD of the scale SC image measured for each θ. , That is, the number n (θ) of pixels on the line sensor 71c or the sensor surface 71d in the X direction of the unit width W0 (θ) is recorded in advance to calculate the width W of the measurement target at the reference projection point PP. can do. Specifically, when the actual measurement target at the reference projection point PP has a spread of the number of occupied pixels m in the X direction on the sensor surface 71d, the width W of the measurement target at the reference projection point PP in the X direction is W Is given as Wp (θ) = W0 / cos 2 θ × (m / n) using the number of pixels n (θ) obtained in advance. Here, W0 / cos 2 θ / n corresponds to an actual interval corresponding to the pixel interval, and is referred to as a pixel conversion interval PW.

なお、図4(A)では、ラインセンサ71cのセンサ面71dのy側の画素数が3となっているが、これは単なる例示であり、カメラ71による画像の取込タイミングや車両200の移動速度を考慮して、例えばY方向に切れ目のない画像が得られるようにy側の画素数を設定することができる。   In FIG. 4A, the number of pixels on the y side of the sensor surface 71d of the line sensor 71c is three, but this is merely an example, and the timing of capturing an image by the camera 71 and the movement of the vehicle 200 In consideration of the speed, for example, the number of pixels on the y side can be set so as to obtain a continuous image in the Y direction.

実際の測定では、測定面MSからのレンズ71aの高さ、つまり計測対象点MO1等に対するレンズ71aの高さが可変の値Hであるが、図3(B)に示す幾何的関係が相似的に成り立つので、基準面BSに沿った原点O1から計測対象点MO1までの水平方向又はX方向に関する距離DMは、測定対象物の角度をθ、画素位置をxとして、
DM=(H/H0)×D(θ)=(H/H0)×G(x) … (1)
で与えられる。ここで、G(x)は、既述のように、標準高さH0でキャリブレーションを行って得られるデータである。また、係数H/H0は、計測対象点MO1又は測定面MSに対するカメラ71の高さと基準点RP又は標準面SFに対するカメラ71の高さとの比である。距離DMは、換算情報で得た位置の関数G(x)に対して計測対象点MO1に対するカメラ71の高さHと標準高さH0との比である係数を乗じたものとなっている。一方、幅W(x1,x2)は、測定対象物の両端の画素位置をx1,x2とした場合、
W=(H/H0)×{G(x2)−G(x1)} … (2)
で与えられる。測定対象物の占有画素数mから導かれる幅W(θ,m)は、
W(θ,m)=(H/H0)×W0/cosθ×(m/n)
=(H/H0)×PW×m … (3)
で与えられる。
In actual measurement, the height of the lens 71a from the measurement surface MS, that is, the height of the lens 71a with respect to the measurement target point MO1 or the like is a variable value H, but the geometric relationship shown in FIG. Therefore, the distance DM in the horizontal direction or the X direction from the origin O1 along the reference plane BS to the measurement target point MO1 along the reference plane BS is represented by θ for the angle of the measurement target and x for the pixel position.
DM = (H / H0) × D (θ) = (H / H0) × G (x) (1)
Given by Here, G (x) is data obtained by performing calibration at the standard height H0, as described above. The coefficient H / H0 is a ratio between the height of the camera 71 with respect to the measurement target point MO1 or the measurement plane MS and the height of the camera 71 with respect to the reference point RP or the standard plane SF. The distance DM is obtained by multiplying a function G (x) of the position obtained by the conversion information by a coefficient which is a ratio of the height H of the camera 71 to the measurement target point MO1 and the standard height H0. On the other hand, when the pixel positions at both ends of the measurement target are x1 and x2, the width W (x1, x2)
W = (H / H0) × {G (x2) −G (x1)} (2)
Given by The width W (θ, m) derived from the number m of pixels occupied by the measurement object is
W (θ, m) = (H / H0) × W0 / cos 2 θ × (m / n)
= (H / H0) × PW × m (3)
Given by

図4(B)は、撮影画像を例示している。撮影画像MPは、計測対象点MO1に対応する画像部分MPaを含んでおり、式(1)に基づいて、画像原点POを基準とする画像部分MPaの画素位置xから、レンズ71aの高さHも考慮して、計測対象点MO1の原点O1からの距離DMを計算することができる。また、式(2)又は(3)に基づいて、画像部分MPaの画素範囲x1,x2又は画素幅wから、レンズ71aの高さHも考慮して、計測対象点MO1の幅Wを計算することができる。ここで、距離DMや幅Wは、計測対象点MO1の距離情報であり、後に詳述する演算処理部(信号処理部)101によって、計測対象点MO1の距離DMや幅Wが計測される。   FIG. 4B illustrates a captured image. The captured image MP includes an image portion MPa corresponding to the measurement target point MO1, and based on Expression (1), a height H of the lens 71a from a pixel position x of the image portion MPa with respect to the image origin PO. In consideration of the above, the distance DM from the origin O1 of the measurement target point MO1 can be calculated. Further, based on the formula (2) or (3), the width W of the measurement target point MO1 is calculated from the pixel range x1, x2 or the pixel width w of the image portion MPa, taking into account the height H of the lens 71a. be able to. Here, the distance DM and the width W are distance information of the measurement target point MO1, and the arithmetic processing unit (signal processing unit) 101 described later measures the distance DM and the width W of the measurement target point MO1.

図4(C)は、標準高さH0でキャリブレーションを行って得られるデータをまとめた換算テーブルを示している。この換算テーブルは、キャリブレーション後のデータ処理によって作成され、後に詳述するが、情報記録部である記憶部102(図6参照)に保管される。テーブル中において、「画素No.」は画素位置xを意味し、「画素換算距離」は関数G(x)を意味し、「画素換算間隔」は画素換算間隔PWを意味する。ここで、画素換算間隔PWは、θの関数ではなくxの関数となっている。関数G(x)や画素換算間隔PWは、スケールSCに対するカメラ71の回転軸RXの現実の高さを固定的な標準高さH0として算出されて画素位置xから距離情報を与えるものである。なお、図4(C)の換算テーブルは、カメラ71の回転角θを換算した画素位置xと、スケールSCの中心像DCや目盛りDSとの対応関係を換算情報として記録したものであるが、間接的にはカメラ71の回転角θとスケールSCの像との対応関係を記録したものと言える。   FIG. 4C shows a conversion table in which data obtained by performing calibration at the standard height H0 is summarized. This conversion table is created by data processing after calibration, and is stored in the storage unit 102 (see FIG. 6), which is an information recording unit, as will be described in detail later. In the table, “pixel No.” means a pixel position x, “pixel conversion distance” means a function G (x), and “pixel conversion interval” means a pixel conversion interval PW. Here, the pixel conversion interval PW is not a function of θ but a function of x. The function G (x) and the pixel conversion interval PW are obtained by calculating the actual height of the rotation axis RX of the camera 71 with respect to the scale SC as a fixed standard height H0 and providing distance information from the pixel position x. The conversion table in FIG. 4C records the correspondence between the pixel position x obtained by converting the rotation angle θ of the camera 71 and the center image DC or the scale DS of the scale SC as conversion information. Indirectly, it can be said that the correspondence between the rotation angle θ of the camera 71 and the image of the scale SC is recorded.

以上では、標準高さH0をカメラ71の回転軸RXの現実の高さとしているが、カメラ71の回転軸RXの仮想の高さとしてもよい。つまり、カメラ71によってスケールSCを撮影する高さと、図4(C)の換算テーブルを与える標準高さH0とを異なるものとしてもよい。この場合、カメラ71によって得た結果を標準高さH0に換算する操作が事前に必要となる。   In the above description, the standard height H0 is the actual height of the rotation axis RX of the camera 71, but may be the virtual height of the rotation axis RX of the camera 71. That is, the height at which the scale SC is photographed by the camera 71 may be different from the standard height H0 that provides the conversion table of FIG. In this case, an operation for converting the result obtained by the camera 71 into the standard height H0 is required in advance.

図5に示すように、地中計測部100Aは、レーダ信号発生部10と、送信用増幅器21と、送信アンテナ31と、受信アンテナ32と、受信用増幅器22と、サンプリング処理部25と、距離情報取得部40と、計測側制御部60とを備える。   As shown in FIG. 5, the underground measurement unit 100A includes a radar signal generation unit 10, a transmission amplifier 21, a transmission antenna 31, a reception antenna 32, a reception amplifier 22, a sampling processing unit 25, An information acquisition unit 40 and a measurement-side control unit 60 are provided.

地中計測部100Aのうち、レーダ信号発生部10は、計測側制御部60の制御下でパルス状の送信波SP1を所定のタイミングで生成する。送信用増幅器21は、レーダ信号発生部10で形成される送信波SP1を増幅し、送信アンテナ31は、送信用増幅器21に駆動されて送信波SP1に対応する電波としての探査信号S1を地面に向けて放射する。レーダ信号発生部10、送信用増幅器21、及び送信アンテナ31は、探査信号(電波)S1を周期的に送信する送信部20aとして機能する。受信アンテナ32は、地中UGに存在する埋設物その他の探査対象物OBで反射されて戻って来た応答波(電波)S2を検出信号として受信し、受信用増幅器22は、受信アンテナ32で受信した応答波S2に対応する信号を増幅して応答波SP2として出力し、サンプリング処理部25は、応答波SP2から広義の検出信号である信号出力SRを生成する。受信アンテナ32、受信用増幅器22、及びサンプリング処理部25は、地中探査用の電波に同期させて電波である応答波(検出信号)S2を受信し信号出力(検出信号)SRを出力する受信部20bとして機能する。サンプリング処理部25は、受信アンテナ32で受信され受信用増幅器22で増幅された応答波SP2について、レーダ信号発生部10で形成された送信波SP1に対応するアナログの参照波S3を用い、この参照波S3のタイミングをずらしながら相関サンプリング処理を行って、応答波SP2から送信波SPとの相関性の高い信号成分を抽出する。サンプリング処理部25で得られる信号成分は、参照波S3とのタイミング差に対応する深さ方向の距離に関連付けられて、デジタル信号として出力される。つまり、サンプリング処理部25の信号出力SRは、埋設物その他の探査対象物OBの分布を示す強度出力値であり、深さ方向の距離ごとに応答波SP2から得た信号成分の振幅を算出したものとなっている。サンプリング処理部25は、応答波SP2と参照波S3とについて相関サンプリング処理を行う相関器の他に、重み付けフィルター等を備える。   The radar signal generator 10 of the underground measurement unit 100A generates the pulsed transmission wave SP1 at a predetermined timing under the control of the measurement-side control unit 60. The transmission amplifier 21 amplifies the transmission wave SP1 formed by the radar signal generating unit 10, and the transmission antenna 31 is driven by the transmission amplifier 21 to place the search signal S1 as a radio wave corresponding to the transmission wave SP1 on the ground. Radiate towards The radar signal generation unit 10, the transmission amplifier 21, and the transmission antenna 31 function as a transmission unit 20a that periodically transmits the search signal (radio wave) S1. The receiving antenna 32 receives the response wave (radio wave) S2 reflected by the buried object or the other object OB existing in the underground UG and returned as a detection signal. The signal corresponding to the received response wave S2 is amplified and output as a response wave SP2, and the sampling processing unit 25 generates a signal output SR that is a broadly-defined detection signal from the response wave SP2. The receiving antenna 32, the receiving amplifier 22, and the sampling processing unit 25 receive the response wave (detection signal) S2, which is a radio wave, and output a signal output (detection signal) SR in synchronization with the radio wave for underground exploration. It functions as the unit 20b. The sampling processing unit 25 uses the analog reference wave S3 corresponding to the transmission wave SP1 formed by the radar signal generation unit 10 for the response wave SP2 received by the reception antenna 32 and amplified by the reception amplifier 22. Correlation sampling processing is performed while shifting the timing of the wave S3, and a signal component having high correlation with the transmission wave SP is extracted from the response wave SP2. The signal component obtained by the sampling processing unit 25 is output as a digital signal in association with the distance in the depth direction corresponding to the timing difference from the reference wave S3. That is, the signal output SR of the sampling processing unit 25 is an intensity output value indicating the distribution of the buried object or the other object to be searched OB, and calculates the amplitude of the signal component obtained from the response wave SP2 for each distance in the depth direction. It has become something. The sampling processing unit 25 includes a weighting filter and the like in addition to the correlator that performs the correlation sampling processing on the response wave SP2 and the reference wave S3.

地中計測部100Aは、車両200上において、X方向に複数台搭載されており、車両200を路面に沿ってY方向に移動させることで、XY面内の応答波の検出状態の分布を計測することができる。   A plurality of underground measurement units 100A are mounted on the vehicle 200 in the X direction, and measure the distribution of the detection state of the response wave in the XY plane by moving the vehicle 200 in the Y direction along the road surface. can do.

図6を参照して、制御装置100Cは、地中計測部100Aの動作を制御するとともに、周辺画像取得部100Bの動作を制御する。制御装置100Cは、地中計測部100Aによって得た計測データと、周辺画像取得部100Bによって得た画像データとを統括的に管理し保存する管理部である。すなわち、制御装置(管理部)100Cは、撮像部71によって得た画像を実際の測定面MS又は予定平面RF上での状態に比例するサイズに変換し、車両200の進行方向のY座標を与えるとともに、地中計測部100Aによる計測データとリンクさせて保管する。   Referring to FIG. 6, control device 100C controls the operation of underground measurement unit 100A and also controls the operation of peripheral image acquisition unit 100B. The control device 100C is a management unit that comprehensively manages and stores measurement data obtained by the underground measurement unit 100A and image data obtained by the peripheral image acquisition unit 100B. That is, control device (management unit) 100C converts the image obtained by imaging unit 71 into a size proportional to the actual state on measurement plane MS or planned plane RF, and gives the Y coordinate in the traveling direction of vehicle 200. At the same time, the data is linked with the data measured by the underground measurement unit 100A and stored.

制御装置(管理部)100Cは、演算処理部101と、記憶部102と、入力部103と、表示部104と、インターフェース部105とを備える。制御装置100Cは、具体的には、地中探査用のプログラムを搭載したコンピューターを含み、ユーザーは、地中計測部100Aによる計測結果を、表示部104によって観察することができるだけでなく、計測条件、信号処理条件、表示条件等の設定又は選択を、入力部103を介して演算処理部101に指示することができる。   The control device (management unit) 100C includes an arithmetic processing unit 101, a storage unit 102, an input unit 103, a display unit 104, and an interface unit 105. The control device 100C specifically includes a computer on which a program for underground exploration is installed. The user can not only observe the measurement result by the underground measurement unit 100A on the display unit 104, but also perform measurement conditions. The setting or selection of signal processing conditions, display conditions, and the like can be instructed to the arithmetic processing unit 101 via the input unit 103.

演算処理部101は、記憶部102に保管されたプログラムやデータに基づいて動作し、入力部103やインターフェース部105から得た情報に基づいて処理を行い、処理の経過や結果を記憶部102に保管するとともに表示部104に提示する。特に、演算処理部101は、プログラム等に基づいてインターフェース部105を介して地中計測部100Aを動作させ、地中計測部100Aからの検出信号を処理して得た地点計測情報、経路断面計測情報、2次元計測情報等を表示部104に表示させることができる。ここで、地点計測情報は、車両200による移動中の特定測定点での探査によって得た検出信号を深さ方向の距離の関数として表した強度パターンであり、経路断面計測情報は、検出信号の受信強度に対する移動距離と電波の送信から受信までの経過時間を示す反射時間との関係を示すチャートである。2次元計測情報は、複数の地中計測部100Aからの検出信号を複合してXY面に投影した反射分布マップである。演算処理部101は、チャート中の特定の移動距離が指定された場合、撮像部71によって撮影された画像のうち、指定された移動距離及びその周辺に対応する路面等の画像(局所的2次元マップ)を抽出して、抽出した路面等の局所的2次元マップを表示部104に表示するとともに、反射分布マップを重畳して表示させることができる。演算処理部101は、信号処理部として、周辺画像取得部100Bによって得た画像データから2次元マップを生成する。具体的には、演算処理部101は、周辺画像取得部100Bによって得た画像データから、キャリブレーションによって得た式(1)に相当する換算テーブル(図4(C)参照)に基づいてサイズを修正した1次元情報を予め保管しており、この1次元情報から2次元画像を生成する。結果的に、周辺画像取得部100Bによって得た画像データがX方向及びY方向に広がる局所的2次元マップに加工される。この局所的2次元マップの元となる2次元マップは、車両200の移動経路に沿って延びる路面及びその周辺を表すものであり、Y方向の位置ズレを修正して経路断面計測情報、2次元計測情報等とリンクさせて記憶部102に保管されている。   The arithmetic processing unit 101 operates based on programs and data stored in the storage unit 102, performs processing based on information obtained from the input unit 103 and the interface unit 105, and stores the progress of the processing and the result in the storage unit 102. It is stored and presented on the display unit 104. In particular, the arithmetic processing unit 101 operates the underground measurement unit 100A via the interface unit 105 based on a program or the like, and processes the detection signal from the underground measurement unit 100A to obtain the point measurement information and the path section measurement. Information, two-dimensional measurement information, and the like can be displayed on the display unit 104. Here, the point measurement information is an intensity pattern representing a detection signal obtained by an exploration at a specific measurement point while the vehicle 200 is moving as a function of a distance in a depth direction, and the path cross-section measurement information is a detection signal of the detection signal. 5 is a chart showing a relationship between a moving distance with respect to a reception intensity and a reflection time indicating an elapsed time from transmission to reception of a radio wave. The two-dimensional measurement information is a reflection distribution map obtained by combining detection signals from a plurality of underground measurement units 100A and projecting them on an XY plane. When a specific moving distance in the chart is designated, the arithmetic processing unit 101 selects an image (local two-dimensional image) corresponding to the designated moving distance and its surroundings from among the images taken by the imaging unit 71. Map), a local two-dimensional map of the extracted road surface or the like is displayed on the display unit 104, and the reflection distribution map can be superimposed and displayed. The arithmetic processing unit 101 generates a two-dimensional map from the image data obtained by the peripheral image obtaining unit 100B as a signal processing unit. Specifically, the arithmetic processing unit 101 converts the size of the image data obtained by the peripheral image obtaining unit 100B based on the conversion table (see FIG. 4C) corresponding to the equation (1) obtained by the calibration. The corrected one-dimensional information is stored in advance, and a two-dimensional image is generated from the one-dimensional information. As a result, the image data obtained by the peripheral image acquisition unit 100B is processed into a local two-dimensional map that spreads in the X and Y directions. The two-dimensional map that is the basis of this local two-dimensional map represents a road surface extending along the movement route of the vehicle 200 and its surroundings. The information is stored in the storage unit 102 in a form linked to the measurement information and the like.

図7は、路面の局所的2次元マップ上に反射分布マップを重畳して表示させた例を示す。この場合、局所的2次元マップTDとしてサイドラインMO11,MO13、センターラインMO12等を含む路面ROの画像が作成され、局所的2次元マップTD上に2次元計測情報を構成する反射分布パターンRDが重畳表示されている。この反射分布パターンRDは、例えば路面RO直下の空洞等に対応する。   FIG. 7 shows an example in which a reflection distribution map is superimposed and displayed on a local two-dimensional map of a road surface. In this case, an image of the road surface RO including the side lines MO11, MO13, the center line MO12, and the like is created as the local two-dimensional map TD, and the reflection distribution pattern RD constituting the two-dimensional measurement information is formed on the local two-dimensional map TD. It is superimposed and displayed. This reflection distribution pattern RD corresponds to, for example, a cavity directly below the road surface RO.

図8を参照して、演算処理部101の計測動作の一例について説明する。演算処理部101は、インターフェース部105を介して地中計測部100A及び周辺画像取得部100Bに動作を指示し、地中探査を行いつつ撮像部71によって得た画像データを取り込む(ステップS01)。次に、演算処理部101は、取り込んだ画像データにY座標を付与する(ステップS02)。画像データのY座標は、位置情報取得装置200aの出力、撮像部71の配置情報等に基づいて決定される。次に、演算処理部(信号処理部)101は、取り込んだ画像データのX座標を補正する(ステップS03)。具体的には、ステップS02でY座標を付与した画像データに対して、キャリブレーションによって得た上記式(1)に相当する換算テーブル(図4(C)参照)に基づいて各点の距離情報である距離DMを決定し、得られた距離DMに基づいてサイズを修正した1次元情報を計算し、記憶部102に保管する。この際、1次元情報を統合した2次元マップが作成され、記憶部102に保管される。演算処理部(信号処理部)101は、1次元情報やこれを統合した2次元マップを含む画像データを記憶部102に保存する際に、計測部120によって得た計測データとリンクさせる。次に、演算処理部101は、オペレータによるオブジェクトの指定を受け付ける(ステップS04)。オブジェクトの指定に際して、ステップS03で得た1次元情報やこれを統合した2次元マップが表示部104を介してオペレータに提示され、オペレータは、入力部103を利用して1次元情報や2次元マップの特定領域を指定する。なお、演算処理部101がオブジェクトの抽出を行ってもよい。演算処理部101は、ステップS04で指定されたオブジェクトについて、その中心位置やX幅又はY幅を検出する(ステップS05)。オブジェクトの中心位置やX幅の決定は、2次元マップ上で行うことができるが、キャリブレーションによって得た上記式(1)〜(3)に相当する換算テーブル(図4(C)参照)に基づいてステップS01で取り込んだ画像データから直接計算することができる。   An example of the measurement operation of the arithmetic processing unit 101 will be described with reference to FIG. The arithmetic processing unit 101 instructs the underground measurement unit 100A and the peripheral image acquisition unit 100B to operate via the interface unit 105, and captures image data obtained by the imaging unit 71 while performing underground exploration (step S01). Next, the arithmetic processing unit 101 assigns a Y coordinate to the captured image data (step S02). The Y coordinate of the image data is determined based on the output of the position information acquisition device 200a, the arrangement information of the imaging unit 71, and the like. Next, the arithmetic processing unit (signal processing unit) 101 corrects the X coordinate of the captured image data (step S03). More specifically, the distance information of each point is calculated based on the conversion table (see FIG. 4C) corresponding to the above equation (1) obtained by the calibration with respect to the image data to which the Y coordinate is added in step S02. Is determined, and one-dimensional information whose size is corrected based on the obtained distance DM is calculated and stored in the storage unit 102. At this time, a two-dimensional map in which the one-dimensional information is integrated is created and stored in the storage unit 102. The arithmetic processing unit (signal processing unit) 101 links image data including one-dimensional information and a two-dimensional map obtained by integrating the one-dimensional information with the measurement data obtained by the measurement unit 120 when storing the image data in the storage unit 102. Next, the arithmetic processing unit 101 receives designation of an object by the operator (step S04). When specifying an object, the one-dimensional information obtained in step S03 and the two-dimensional map obtained by integrating the one-dimensional information are presented to the operator via the display unit 104, and the operator uses the input unit 103 to input the one-dimensional information or the two-dimensional map. Specify a specific area. Note that the arithmetic processing unit 101 may extract the object. The arithmetic processing unit 101 detects the center position, the X width, or the Y width of the object specified in step S04 (step S05). The determination of the center position and the X width of the object can be performed on a two-dimensional map, but the conversion table (see FIG. 4C) corresponding to the above equations (1) to (3) obtained by the calibration is used. It can be calculated directly from the image data captured in step S01 based on the above.

以上のように、本実施形態の画像処理方法では、カメラ71をスケールSCから所定距離の位置で回転させつつスケールSCの画像を撮影し、画像よりカメラ71の回転角とスケールSCの像との対応関係を記録するので、カメラ71の前面を覆うように大きなスケールSCを配置する必要がなく、キャリブレーションの作業性を高めることができる。また、計測対象点MO1に対するカメラ71の高さと基準点RPに対するカメラ71の高さとの比に基づくので、カメラ71の高さに関わらず測定が可能になり、キャリブレーションに際してスケールSCを遠く広く配置する必要がなくなる。   As described above, in the image processing method of the present embodiment, an image of the scale SC is taken while rotating the camera 71 at a position at a predetermined distance from the scale SC, and the rotation angle of the camera 71 and the image of the scale SC are taken from the image. Since the correspondence is recorded, there is no need to arrange a large scale SC so as to cover the front surface of the camera 71, and the workability of calibration can be improved. Further, since the measurement is based on the ratio between the height of the camera 71 with respect to the measurement target point MO1 and the height of the camera 71 with respect to the reference point RP, the measurement can be performed regardless of the height of the camera 71. You don't have to.

〔その他〕
以上の実施形態で説明された構造、形状、大きさ、及び配置関係については、本発明を理解及び実施できる程度に概略的に示したものに過ぎない。したがたって、本発明は、説明された実施形態に限定されるものではなく、特許請求の範囲に示される技術的思想の範囲を逸脱しない限り様々な形態に変更することができる。
[Others]
The structures, shapes, sizes, and arrangements described in the above embodiments are merely schematic representations so that the present invention can be understood and implemented. Therefore, the present invention is not limited to the embodiments described above, and can be modified in various forms without departing from the scope of the technical idea shown in the claims.

例えば、換算テーブルとして図4(C)に示すように標準高さH0を前提とするものを準備しているが、カメラ71に想定される範囲内で任意の高さHに対して、画素位置xと横方向の距離についての関数G(x)を予め用意しておけば、画素位置xに基づいて換算テーブルを読み出すだけとなり、カメラ71の設置高さに合わせて係数(H/H0)をかける演算処理が不要となる。   For example, as shown in FIG. 4C, a conversion table is prepared on the premise that the standard height H0 is used. If a function G (x) for x and the horizontal distance is prepared in advance, only the conversion table is read based on the pixel position x, and the coefficient (H / H0) is set according to the installation height of the camera 71. This eliminates the need for multiplying arithmetic processing.

画像処理装置110は、地中レーダ装置100以外の各種検査装置等に組み込むことができる。また、路面に限らず、床面、天井面、壁面等の画像を撮影し、配置やサイズに関する歪みを修正した画像を得ることができる。   The image processing device 110 can be incorporated into various inspection devices other than the underground radar device 100. In addition, images of floors, ceilings, walls, and the like, as well as road surfaces, can be taken to obtain images in which distortion related to arrangement and size has been corrected.

以上では、1次元的な画像を撮影する場合のキャリブレーションについて説明したが、2次元的な画像を撮影する場合のキャリブレーションも同様であり、カメラ71の回転軸として、図1(A)に示すY軸に平行なものだけでなく、X軸に平行なものを追加して、2軸で回転させつつ直下のスケールに対してキャリブレーションを行えば、2次元の画像に対して一括して位置換算や距離換算が可能になる。具体的には、図9に示すように、Y軸に平行な回転軸を利用してθxを−A°〜+B°で振り、X軸に平行な回転軸を利用してθyを−C°〜+D°で振る。この際、組合せ(θx,θy)が全範囲(θx:−A°〜B°, θy:−C°〜D°)を網羅するようにする。具体的には、例えば経路APで示すようなキャリブレーション面CSの全体をカバーする走査によって基準点RP又はスケールSCを撮影する。   In the above description, the calibration in the case of capturing a one-dimensional image has been described. However, the same applies to the calibration in the case of capturing a two-dimensional image, and FIG. If not only the one parallel to the Y axis shown but also one parallel to the X axis is added and calibration is performed on the scale immediately below while rotating on two axes, the two-dimensional image can be collectively Position conversion and distance conversion become possible. Specifically, as shown in FIG. 9, θx is swung from −A ° to + B ° using a rotation axis parallel to the Y axis, and θy is −C ° using a rotation axis parallel to the X axis. Shake at ~ + D °. At this time, the combination (θx, θy) covers the entire range (θx: -A ° to B °, θy: -C ° to D °). Specifically, for example, the reference point RP or the scale SC is photographed by scanning covering the entire calibration surface CS as indicated by a path AP.

カメラ71は、計測時に光軸AXを鉛直線VLに対して傾斜させることができる。この場合、角度(回転角)θをオフセットした状態で計測していることになり、これに合わせた換算テーブルを準備する。キャリブレーションに際しては、傾斜状態(計測時の設置角度)が基準点RPの垂直直上になるようにし、その状態を基準状態として基準点RPの画素抽出等を実施し、換算テーブルを作成する。また、この場合、θの範囲は、例えば−90°+a〜+90°−a(aは設置時のオフセット量)とする。   The camera 71 can tilt the optical axis AX with respect to the vertical line VL at the time of measurement. In this case, the measurement is performed in a state where the angle (rotation angle) θ is offset, and a conversion table corresponding to this is prepared. At the time of calibration, the tilt state (installation angle at the time of measurement) is set to be immediately above the reference point RP, and the state is used as a reference state to perform pixel extraction and the like of the reference point RP, thereby creating a conversion table. In this case, the range of θ is, for example, −90 ° + a to + 90 ° −a (a is an offset amount at the time of installation).

以上では、平面的な対象であって距離が既知のものを撮影して対象上の着目部分に関して距離情報(つまり位置やサイズ)を算出しているが、本発明はこれに限るものではない。例えば、カメラ71に隣接してレーザ計測器その他の測定機器を設置し、これによって着目部分までの距離や着目部分の傾斜角度を計測できれば、非平面的で距離が未知の対象であっても、着目部分に関して距離情報(つまり位置やサイズ)を計測することもできる。   In the above description, the distance information (that is, the position and the size) is calculated for the target portion on the target by photographing a planar target having a known distance, but the present invention is not limited to this. For example, if a laser measuring device or other measuring device is installed adjacent to the camera 71 and the distance to the target portion or the inclination angle of the target portion can be measured by this, even if the target is non-planar and the distance is unknown, It is also possible to measure distance information (that is, position and size) for the portion of interest.

10…レーダ信号発生部、 20a…送信部、 20b…受信部、 25…サンプリング処理部、 40…距離情報取得部、 60…計測側制御部、 71…カメラ、 71…撮像部、 71a…レンズ、 71c…ラインセンサ、 71d…センサ面、 72…記録部、 75…回転駆動部、 100…地中レーダ装置、 100A…地中計測部、 100B…周辺画像取得部、 100C…制御装置、 101…演算処理部、 102…記憶部、 110…画像処理装置、 120…計測部、 200…車両、 200a…位置情報取得装置、 AX…光軸、 RX…回転軸、 BS…基準面、 RP…基準点、 SF…標準面、 MS…測定面、 O1…原点、 VL…鉛直線、 PO…画像原点、 PP…基準投影点、 BL…測定線、 CS…キャリブレーション面、 SC…スケール、 DS…目盛り、 MA…計測エリア、 MO1,MO2…計測対象点、 MP…撮影画像、 MPa…画像部分、 OB…探査対象物、 RD…反射分布パターン、 RF…予定平面、 RO…路面、 SP1…送信波、 SP2…応答波、 TD…局所的2次元マップ、 UG…地中   DESCRIPTION OF SYMBOLS 10 ... Radar signal generation part, 20a ... Transmission part, 20b ... Reception part, 25 ... Sampling processing part, 40 ... Distance information acquisition part, 60 ... Measurement side control part, 71 ... Camera, 71 ... Image pickup part, 71a ... Lens, 71c: line sensor, 71d: sensor surface, 72: recording unit, 75: rotary drive unit, 100: underground radar device, 100A: underground measurement unit, 100B: peripheral image acquisition unit, 100C: control unit, 101: arithmetic operation Processing unit, 102: storage unit, 110: image processing device, 120: measuring unit, 200: vehicle, 200a: position information acquisition device, AX: optical axis, RX: rotation axis, BS: reference plane, RP: reference point, SF: Standard plane, MS: Measurement plane, O1: Origin, VL: Vertical line, PO: Image origin, PP: Reference projection point, BL: Measurement line, CS: Carriage SC, scale, DS, scale, MA, measurement area, MO1, MO2, measurement target point, MP, photographed image, MPa, image part, OB, exploration target, RD, reflection distribution pattern, RF, planned plane , RO: road surface, SP1: transmission wave, SP2: response wave, TD: local two-dimensional map, UG: underground

Claims (10)

カメラをスケールから所定距離の位置で回転させつつ前記スケールの画像を撮影し、
前記画像より前記カメラの回転角と前記スケールの像との対応関係を記録し、
前記対応関係及び計測対象点に対する前記カメラの高さと基準点に対する前記カメラの高さとの比に基づき、前記計測対象点の距離情報を計測する、画像処理方法。
Take an image of the scale while rotating the camera at a predetermined distance from the scale,
Record the correspondence between the rotation angle of the camera and the image of the scale from the image,
An image processing method, wherein distance information of the measurement target point is measured based on the correspondence relationship and a ratio between the height of the camera with respect to the measurement target point and the height of the camera with respect to a reference point.
前記計測対象の距離情報は、前記カメラの回転軸に直交する基準面に沿った所定の原点から前記計測対象点までの水平方向に関する距離である、請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein the distance information of the measurement target is a distance in a horizontal direction from a predetermined origin along a reference plane orthogonal to a rotation axis of the camera to the measurement target point. 前記原点は、前記カメラの直下に位置する路面上の点である、請求項2に記載の画像処理方法。   The image processing method according to claim 2, wherein the origin is a point on a road surface located immediately below the camera. 前記基準点は、前記カメラの直下に配置される前記スケール上の点である、請求項1及び2のいずれか一項に記載の画像処理方法。   The image processing method according to claim 1, wherein the reference point is a point on the scale disposed immediately below the camera. 前記対応関係は、前記スケールに対する前記カメラの回転軸の現実の高さ又は仮想の高さを固定的な標準高さとして算出されて画素位置から距離を与える換算情報を含み、
前記原点から前記計測対象点までの距離を、前記換算情報で得た位置に対して前記計測対象点に対する前記カメラの高さと前記標準高さとの比である係数を乗じたものとして与える、請求項2〜4のいずれか一項に記載の画像処理方法。
The correspondence includes conversion information that calculates a real height or a virtual height of the rotation axis of the camera with respect to the scale as a fixed standard height and gives a distance from a pixel position,
The distance from the origin to the measurement target point is given as a value obtained by multiplying a position obtained by the conversion information by a coefficient that is a ratio of a height of the camera to the measurement target point and the standard height. The image processing method according to any one of claims 2 to 4.
前記スケールは、前記カメラを回転させる回転軸に垂直な方向に延びる目盛りを有する、請求項1〜5のいずれか一項に記載の画像処理方法。   The image processing method according to claim 1, wherein the scale has a scale extending in a direction perpendicular to a rotation axis that rotates the camera. 前記カメラは、当該カメラを回転させる回転軸に垂直な方向に延びるラインセンサを有する、請求項1〜6のいずれか一項に記載の画像処理方法。   The image processing method according to claim 1, wherein the camera has a line sensor extending in a direction perpendicular to a rotation axis that rotates the camera. カメラによって撮影した測定対象点の像内における位置から前記計測対象点の距離情報を与える対応関係を保持する情報記録部と、
前記カメラを動作させて得た像から前記対応関係及び前記計測対象点に対する前記カメラの高さに基づいて前記計測対象点の距離情報を決定する信号処理部とを備え、
前記対応関係は、前記カメラをスケールから所定距離の位置で回転させつつ前記スケールの画像を撮影することにより作成される、画像処理装置。
An information recording unit that holds a correspondence that gives distance information of the measurement target point from a position in the image of the measurement target point captured by the camera,
A signal processing unit that determines distance information of the measurement target point based on the correspondence and the height of the camera with respect to the measurement target point from an image obtained by operating the camera,
The image processing device, wherein the correspondence is created by capturing an image of the scale while rotating the camera at a position at a predetermined distance from the scale.
請求項8に記載の画像処理装置と、
前記カメラと、
探査信号を送信する送信部と、検出信号を受信する受信部と、前記受信部からの検出信号を処理する探査処理部とを有する計測部と
を備える地中レーダ装置。
An image processing apparatus according to claim 8,
Said camera;
An underground radar apparatus comprising: a transmission unit that transmits a search signal; a reception unit that receives a detection signal; and a measurement unit that includes a search processing unit that processes a detection signal from the reception unit.
前記画像処理装置によって処理した画像を前記計測部によって得た計測データとリンクさせてデータとして保存する請求項9に記載の地中レーダ装置。   The underground radar device according to claim 9, wherein the image processed by the image processing device is linked to measurement data obtained by the measurement unit and stored as data.
JP2018173340A 2018-09-18 2018-09-18 Image processing method, image processing device, and ground penetrating radar device Active JP7271116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018173340A JP7271116B2 (en) 2018-09-18 2018-09-18 Image processing method, image processing device, and ground penetrating radar device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018173340A JP7271116B2 (en) 2018-09-18 2018-09-18 Image processing method, image processing device, and ground penetrating radar device

Publications (2)

Publication Number Publication Date
JP2020046239A true JP2020046239A (en) 2020-03-26
JP7271116B2 JP7271116B2 (en) 2023-05-11

Family

ID=69899613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018173340A Active JP7271116B2 (en) 2018-09-18 2018-09-18 Image processing method, image processing device, and ground penetrating radar device

Country Status (1)

Country Link
JP (1) JP7271116B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113776403A (en) * 2021-08-04 2021-12-10 岚图汽车科技有限公司 Calibration tool and calibration method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4974967A (en) * 1972-11-18 1974-07-19
JPH03503680A (en) * 1988-04-12 1991-08-15 メトロノール・エイ・エス Optoelectronic angle measurement system
JP2008139194A (en) * 2006-12-04 2008-06-19 Showa Denko Kk End position measuring method and size measuring method
JP2018028507A (en) * 2016-08-19 2018-02-22 株式会社カナン・ジオリサーチ Underground survey device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3503680B2 (en) 1998-03-05 2004-03-08 三菱自動車エンジニアリング株式会社 Guide pin changing device
JP4974967B2 (en) 2008-05-21 2012-07-11 東京エレクトロン株式会社 Substrate processing equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4974967A (en) * 1972-11-18 1974-07-19
JPH03503680A (en) * 1988-04-12 1991-08-15 メトロノール・エイ・エス Optoelectronic angle measurement system
JP2008139194A (en) * 2006-12-04 2008-06-19 Showa Denko Kk End position measuring method and size measuring method
JP2018028507A (en) * 2016-08-19 2018-02-22 株式会社カナン・ジオリサーチ Underground survey device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113776403A (en) * 2021-08-04 2021-12-10 岚图汽车科技有限公司 Calibration tool and calibration method
CN113776403B (en) * 2021-08-04 2023-05-09 岚图汽车科技有限公司 Calibration tool and calibration method

Also Published As

Publication number Publication date
JP7271116B2 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
JP6316568B2 (en) Surveying system
US7218384B2 (en) Surveying system
JP5150310B2 (en) Geographic data collection device
US8629905B2 (en) Localization of a surveying instrument in relation to a ground mark
EP2141451B1 (en) Multiple-point measuring method and survey instrument
JP4944462B2 (en) Geographic data collection device
JP5844454B2 (en) Camera calibration method, camera calibration program, and camera calibration apparatus
KR101308744B1 (en) System for drawing digital map
CN109597095A (en) Backpack type 3 D laser scanning and three-dimensional imaging combined system and data capture method
KR101223242B1 (en) Apparatus for drawing digital map
JP6251142B2 (en) Non-contact detection method and apparatus for measurement object
US20110043620A1 (en) Determining coordinates of a target in relation to a survey instrument having at least two cameras
KR101218220B1 (en) Apparatus for drawing digital map
JP2003279351A (en) Surveying apparatus and method for acquisition of image data by using the same
JP2007017406A (en) Geographic data collection device
JP6823482B2 (en) 3D position measurement system, 3D position measurement method, and measurement module
JP2016048172A (en) Image processor, image processing method, and program
JP5028164B2 (en) Surveying instrument
JP4649192B2 (en) Stereo image creation method and three-dimensional data creation apparatus
JP7271116B2 (en) Image processing method, image processing device, and ground penetrating radar device
JP6305501B2 (en) Calibration method, program, and computer
JP2008014682A (en) Surveying instrument
JP2009063319A (en) Apparatus and method for distance measurement
JP5133620B2 (en) Surveying instrument
JP6062020B2 (en) Designated point projection method, program and computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R150 Certificate of patent or registration of utility model

Ref document number: 7271116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150