JP6944560B2 - Tunnel image processing equipment and programs - Google Patents

Tunnel image processing equipment and programs Download PDF

Info

Publication number
JP6944560B2
JP6944560B2 JP2020044985A JP2020044985A JP6944560B2 JP 6944560 B2 JP6944560 B2 JP 6944560B2 JP 2020044985 A JP2020044985 A JP 2020044985A JP 2020044985 A JP2020044985 A JP 2020044985A JP 6944560 B2 JP6944560 B2 JP 6944560B2
Authority
JP
Japan
Prior art keywords
wall surface
tunnel
image processing
data
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020044985A
Other languages
Japanese (ja)
Other versions
JP2021148432A (en
Inventor
曽根 敦
敦 曽根
洋市 浦本
洋市 浦本
学 高松
学 高松
准也 中野
准也 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2020044985A priority Critical patent/JP6944560B2/en
Publication of JP2021148432A publication Critical patent/JP2021148432A/en
Application granted granted Critical
Publication of JP6944560B2 publication Critical patent/JP6944560B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

この発明は、トンネル撮影画像処理装置及びプログラムに関する。 The present invention relates to a tunneled image processing apparatus and a program.

トンネルの壁面などを撮影した撮影データに基づいて異常などの検出を行う技術がある。特許文献1では、複数の位置(視点)からの撮影画像の特徴点に基づいて、トンネルの壁面をポリゴン化して、撮影画像中の注目事象の位置を特定する技術について開示されている。 There is a technology to detect abnormalities based on the photographed data obtained by photographing the wall surface of a tunnel. Patent Document 1 discloses a technique for identifying the position of a noteworthy event in a captured image by polygonizing the wall surface of the tunnel based on the feature points of the captured image from a plurality of positions (viewpoints).

また、位置の特定された撮影データは、展開図として2次元表示され得る。通常、視点からトンネル壁面までの距離は不均一であるので、複数の撮影画像を単純につなぐだけでは歪みが大きくなる。上記特許文献1では、展開図上の2次元座標は、視点位置を考慮しながら3次元座標から投影されて得られる。 In addition, the position-specified shooting data can be displayed two-dimensionally as a developed view. Normally, the distance from the viewpoint to the tunnel wall surface is non-uniform, so simply connecting a plurality of captured images will increase the distortion. In Patent Document 1, the two-dimensional coordinates on the development view are obtained by being projected from the three-dimensional coordinates while considering the viewpoint position.

国際公開第2018/155590号International Publication No. 2018/155590

しかしながら、単純に撮影位置を視点位置としてトンネルの壁面形状を2次元面に投影していくと、曲面状のトンネルの位置に応じて視線方向が変化することになり、凹凸の見え方が場所に応じて異なって見づらいという課題がある。 However, if the wall shape of the tunnel is simply projected onto a two-dimensional surface with the shooting position as the viewpoint position, the line-of-sight direction changes according to the position of the curved tunnel, and the appearance of unevenness becomes a place. There is a problem that it is difficult to see differently depending on the situation.

この発明の目的は、より見やすい展開図を得ることのできるトンネル撮影画像処理装置及びプログラムを提供することにある。 An object of the present invention is to provide a tunneled image processing device and a program capable of obtaining a developed view that is easier to see.

上記目的を達成するため、本開示は、
トンネル壁面を撮影した複数の撮影画像から得られた前記トンネル壁面の位置情報に基づいて当該壁面を前記複数の撮影画像の撮影範囲とは独立した複数の設定範囲に分割し、前記設定範囲ごとに当該設定範囲に応じた視点位置をそれぞれ定めて所定の投影画像を生成し、複数の前記設定範囲の前記投影画像により、前記壁面の展開図を生成する画像処理部を備えることを特徴とするトンネル撮影画像処理装置である。
To achieve the above objectives, this disclosure is:
Based on the position information of the tunnel wall surface obtained from the plurality of captured images of the tunnel wall surface, the wall surface is divided into a plurality of setting ranges independent of the photographing range of the plurality of captured images, and each of the setting ranges is divided. A tunnel comprising an image processing unit that generates a predetermined projected image by determining each viewpoint position according to the set range and generates a developed view of the wall surface by the projected images of the plurality of the set ranges. It is a captured image processing device.

本開示に従うと、トンネルの壁面の撮影画像に係るより見やすい展開図を得ることができるという効果がある。 According to the present disclosure, there is an effect that it is possible to obtain a more visible development view of the photographed image of the wall surface of the tunnel.

本実施形態のトンネル撮影画像処理装置である処理装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the processing apparatus which is a tunnel photograph image processing apparatus of this embodiment. 展開図の生成について説明する図である。It is a figure explaining the generation of the development view. 展開図の生成について説明する図である。It is a figure explaining the generation of the development view. トンネル展開図生成処理の制御手順を示すフローチャートである。It is a flowchart which shows the control procedure of the tunnel development drawing generation processing. 展開図の生成の変形例について説明する図である。It is a figure explaining the modification of the generation of the development view.

以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本実施形態のトンネル撮影画像処理装置(コンピュータ)である処理装置1の機能構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a functional configuration of a processing device 1 which is a tunnel-photographed image processing device (computer) of the present embodiment.

処理装置1は、通常のコンピュータ(PC)であってよい。処理装置1は、制御部11(画像処理部)と、記憶部12と、入出力インターフェイス13(I/F)と、操作受付部14と、表示部15などを備える。 The processing device 1 may be an ordinary computer (PC). The processing device 1 includes a control unit 11 (image processing unit), a storage unit 12, an input / output interface 13 (I / F), an operation reception unit 14, a display unit 15, and the like.

制御部11は、各種演算処理を行うプロセッサであり、例えば、CPU(Central Processing Unit)などを備える。CPUは、記憶部12からプログラムなどを読み込んで実行することで各種制御処理を行う。 The control unit 11 is a processor that performs various arithmetic processes, and includes, for example, a CPU (Central Processing Unit). The CPU performs various control processes by reading a program or the like from the storage unit 12 and executing the program.

記憶部12は、各種データを記憶するメモリである。メモリには、RAM(Random Access Memory)と不揮発性メモリとが含まれる。RAMは、CPUに作業用のメモリ空間を提供し、一時データを記憶する。不揮発性メモリは、プログラム、設定データ及び生成したトンネル展開図のデータなどを記憶保持する。不揮発性メモリにはフラッシュメモリが含まれ、あるいは、これに代えて又は加えてHDD(Hard Disk Drive)などが含まれてもよい。また、初期制御プログラムなどは、ROM(Read Only Memory)に格納されていてもよい。プログラムには、後述のトンネル展開図生成処理に係るプログラム121が含まれる。 The storage unit 12 is a memory for storing various data. The memory includes a RAM (Random Access Memory) and a non-volatile memory. The RAM provides the CPU with a working memory space and stores temporary data. The non-volatile memory stores and holds programs, setting data, generated tunnel development map data, and the like. The non-volatile memory may include a flash memory, or may include an HDD (Hard Disk Drive) or the like in place of or in addition to the flash memory. Further, the initial control program and the like may be stored in the ROM (Read Only Memory). The program includes a program 121 related to a tunnel development diagram generation process described later.

入出力インターフェイス13は、処理装置1によりアクセスされる外部の各種データを記憶する外部データ記憶部20を有する各種機器と接続するための構成、ここでは、接続端子131及び通信部132などを備える。接続端子131には、例えば、USB(Universal Serial Bus)など各種規格に応じたものが含まれてよい。接続端子131には、大型のHDDといった補助記憶装置、並びにCDROM、DVD及びBlu−ray(登録商標)といった光学ディスクなどの可搬型記憶媒体を読み取る光学読取装置22などの周辺機器が接続される。また、可搬型記憶媒体に磁気テープが含まれ、この磁気テープを読み取る読取装置が周辺機器に含まれてもよい。通信部132は、例えば、LAN(Local Area Network)などの通信規格に基づいて、ネットワーク回線を介した外部機器との間の通信を制御する。外部機器には、他のPC及び専用のデータベース装置21などが含まれていてもよい。 The input / output interface 13 includes a configuration for connecting to various devices having an external data storage unit 20 for storing various external data accessed by the processing device 1, here, a connection terminal 131, a communication unit 132, and the like. The connection terminal 131 may include, for example, one corresponding to various standards such as USB (Universal Serial Bus). Auxiliary storage devices such as large HDDs and peripheral devices such as optical readers 22 that read portable storage media such as optical disks such as CDROMs, DVDs and Blu-rays (registered trademarks) are connected to the connection terminal 131. Further, the portable storage medium may include a magnetic tape, and a reading device for reading the magnetic tape may be included in the peripheral device. The communication unit 132 controls communication with an external device via a network line, for example, based on a communication standard such as a LAN (Local Area Network). The external device may include another PC, a dedicated database device 21, and the like.

外部データ記憶部20に記憶されるデータには、撮影画像データ201、撮影位置データ202及びトンネル壁面画像データ203などが含まれていてもよい。 The data stored in the external data storage unit 20 may include captured image data 201, captured position data 202, tunnel wall surface image data 203, and the like.

撮影画像データ201は、撮影機器、ここでは、光学カメラにより撮影されたトンネル内の壁面の画像データである。撮影位置データ202は、光学カメラの方向(仰角θ、図2参照)、及びトンネルの延在方向に係る撮影位置を示す情報を含む。例えば、トンネルの延在方向に垂直な方向を向いた光学カメラを複数台用意し、各々仰角θを異ならせて配置して、当該光学カメラをトンネルの延在方向に移動させながら所定間隔で撮影を行うことでトンネルの壁面全体の撮影画像データを得る。隣り合う仰角θの撮影範囲を有する光学カメラの撮影範囲と、同一の光学カメラによる前後のタイミングの撮影範囲とは、いずれも重複範囲を有する。この場合、撮影位置データ202には、撮影日時の情報などが含まれてもよい。また、撮影位置を示す情報は、3次元座標であり、3次元座標は、例えば、緯度、経度及び標高の値、又は所定の原点位置から北向きを正とした第1成分の距離の値、上記所定の原点位置から東向きを正とした第2成分の距離の値、及び上記所定の原点から鉛直方向上向きを正とした第3成分の距離の値である。前者の標高の値及び後者の場合における各成分の距離の値の単位は、例えば、「m」である。 The photographed image data 201 is image data of a wall surface in a tunnel photographed by a photographing device, here, an optical camera. The shooting position data 202 includes information indicating the shooting position related to the direction of the optical camera (elevation angle θ, see FIG. 2) and the extending direction of the tunnel. For example, prepare a plurality of optical cameras oriented in a direction perpendicular to the extending direction of the tunnel, arrange them at different elevation angles θ, and move the optical cameras in the extending direction of the tunnel to take pictures at predetermined intervals. To obtain captured image data of the entire wall surface of the tunnel. The shooting range of the optical cameras having the shooting ranges of adjacent elevation angles θ and the shooting range of the timing before and after by the same optical camera both have overlapping ranges. In this case, the shooting position data 202 may include information such as the shooting date and time. The information indicating the shooting position is three-dimensional coordinates, and the three-dimensional coordinates are, for example, values of latitude, longitude, and altitude, or values of the distance of the first component with the northward direction positive from a predetermined origin position. It is the value of the distance of the second component with the eastward direction positive from the predetermined origin position, and the value of the distance of the third component with the vertical upward direction positive from the predetermined origin position. The unit of the altitude value of the former and the distance value of each component in the latter case is, for example, "m".

なお、トンネルの壁面状態は、通常では、短時間で変化しないので、トンネルの延在方向について左側と右側の撮影を異なるタイミングで別個に行ってもよい。例えば、進行方向の左側を撮影可能な走行車両の向きを反転して往復させて、両側の壁面の撮影データを取得してもよい。 Since the wall surface condition of the tunnel usually does not change in a short time, the left side and the right side of the tunnel may be photographed separately at different timings in the extending direction of the tunnel. For example, the photographed data of the wall surfaces on both sides may be acquired by reversing the direction of the traveling vehicle capable of photographing the left side in the traveling direction and reciprocating.

また、トンネル壁面画像データ203は、撮影画像データ201及び撮影位置データ202に基づいて後述の処理で生成されたトンネルの3次元形状モデルデータ、3次元形状と対応付けられた各画素の位置データや、展開図のデータが含まれる。 Further, the tunnel wall surface image data 203 includes the three-dimensional shape model data of the tunnel generated in the process described later based on the captured image data 201 and the captured position data 202, and the position data of each pixel associated with the three-dimensional shape. , Includes development view data.

操作受付部14は、ユーザなどの外部からの操作を受け付けて、入力信号として制御部11へ出力する。操作受付部14には、例えば、キーボード、ポインティングデバイス、タッチパネル、押しボタンスイッチなどが含まれていてもよく、また、これらに限られない。 The operation reception unit 14 receives an operation from the outside such as a user and outputs it as an input signal to the control unit 11. The operation reception unit 14 may include, for example, a keyboard, a pointing device, a touch panel, a push button switch, and the like, and is not limited thereto.

表示部15は、制御部11の制御に基づく内容の表示を表示画面に行わせる。表示画面としては、例えば、液晶画面などが挙げられる。また、表示部15は、各種の状態を示すLED(Light Emitting Diode)ランプなどを有していてもよい。 The display unit 15 causes the display screen to display the contents based on the control of the control unit 11. Examples of the display screen include a liquid crystal screen. Further, the display unit 15 may have an LED (Light Emitting Diode) lamp or the like indicating various states.

次に、本実施形態のトンネル展開図の生成について説明する。
まず、トンネルの複数の壁面の撮影画像のデータ(撮影画像データ201)と撮影を行った位置のデータ(撮影位置データ202)から3次元壁面データ(トンネル壁面画像データ203)を生成する。3次元壁面データは、例えば、SfM(Structure from Motion)により得られる。SfMでは、複数の撮影データにおける重複部分の特徴に基づいて、3次元の位置関係が特定され、各特徴点の3次元座標が定められる。なお、3次元壁面データは、トンネルの延在方向について適宜複数に区切られてもよい。その後、3次元壁面データに基づいて2次元の展開図を得る。
Next, the generation of the tunnel development diagram of the present embodiment will be described.
First, three-dimensional wall surface data (tunnel wall surface image data 203) is generated from the photographed image data (photographed image data 201) of a plurality of wall surfaces of the tunnel and the data of the position where the image was taken (photographed position data 202). The three-dimensional wall surface data is obtained by, for example, SfM (Structure from Motion). In SfM, a three-dimensional positional relationship is specified based on the features of overlapping portions in a plurality of shooting data, and three-dimensional coordinates of each feature point are determined. The three-dimensional wall surface data may be appropriately divided into a plurality of pieces in the extending direction of the tunnel. Then, a two-dimensional development view is obtained based on the three-dimensional wall surface data.

図2及び図3は、展開図の生成について説明する図である。図2では、トンネルTの断面を示している。図3では、トンネルTの断面のうち、区切られた壁面部分Wsのうち2つに対応する部分を拡大して示している。 2 and 3 are diagrams for explaining the generation of the development view. FIG. 2 shows a cross section of the tunnel T. In FIG. 3, of the cross section of the tunnel T, the portion corresponding to two of the separated wall surface portions Ws is enlarged and shown.

図2に示すように、トンネルTの壁面Wは、通常、少なくとも上方(天井付近)が曲面状になっている。高さと幅の比は、トンネルによって異なり、これらの大きさに応じて、形状も異なり得る。トンネルTの壁面Wには、非常退避用及びトンネル内設備の配置用のくぼみなどがあってもよい。また、トンネルTの壁面Wに沿って位置する照明、標識、ケーブルなどは、壁面Wの突起部分としてみなされてよい。 As shown in FIG. 2, the wall surface W of the tunnel T is usually curved at least above (near the ceiling). The height-to-width ratio varies from tunnel to tunnel and can vary in shape depending on their size. The wall surface W of the tunnel T may have a recess for emergency evacuation and for arranging equipment in the tunnel. Further, lights, signs, cables and the like located along the wall surface W of the tunnel T may be regarded as protruding portions of the wall surface W.

壁面Wの撮影画像データ201は、上述のように、トンネルTの延在方向に垂直な方向を向いた光学カメラを複数台、各々仰角θ(水平面からの角度。底面からの角度であってもよい)を異ならせて車両上に配置して、当該車両をトンネルTの延在方向に走行させながら適宜な間隔で撮影を行うことで得られる。この場合、撮影位置Pから壁面Wまでの距離や視線方向と壁面Wとのなす角は、撮影方向に応じて変化する。 As described above, the captured image data 201 of the wall surface W includes a plurality of optical cameras oriented in a direction perpendicular to the extending direction of the tunnel T, each having an elevation angle θ (angle from the horizontal plane, even if it is an angle from the bottom surface). It can be obtained by arranging the vehicles in different directions and taking pictures at appropriate intervals while traveling the vehicle in the extending direction of the tunnel T. In this case, the distance from the shooting position P to the wall surface W and the angle formed by the line-of-sight direction and the wall surface W change according to the shooting direction.

そこで、本実施形態では、上記SfMで得られたトンネルTの壁面Wを仰角θ方向について所定の角度範囲aごとに複数に区切って分割する。次いで、図3に示すように、区切られた各壁面部分Ws(設定範囲)に応じた視線方向、ここでは、各壁面部分Wsをそれぞれ規定する平面(基準平面Wr、太実線)に正対する位置から見た(正対する面に投影した)投影画像の2次元画像データ(投影データ)を各々生成する。ここでは、例えば、基準平面Wrに正対し平行な面Wpから(に)平行投影(正射影)された2次元画像のデータが生成される。処理の簡略化のため、視点位置(面Wp)が壁面部分Wsの全ての点よりもトンネルTの内側(トンネルTの壁面Wから内向き方向について正の位置)となるように、基準平面Wrと面Wpとの距離が特定の値に定められてもよい。すなわち、これにより、各壁面部分Wsについて、視線方向が撮影位置から壁面部分Wsを見た方向とは異なる方向、特に、ここでは、基準平面Wrに垂直な方向に変更され、撮影位置と異なる視点位置での投影画像となる。なお、本実施形態の角度範囲aの設定では、全ての視点位置が変化するが、もともと撮影方向が壁面Wに垂直な部分を含む区切り方で角度範囲aを定めた場合には、一部の角度範囲aの視点位置及び視線方向が結果的に変化しない場合があってもよい。視線方向を定める処理自体は上記と同様に行われてよい。 Therefore, in the present embodiment, the wall surface W of the tunnel T obtained by the above SfM is divided into a plurality of parts for each predetermined angle range a in the elevation angle θ direction. Next, as shown in FIG. 3, the line-of-sight direction according to each divided wall surface portion Ws (setting range), here, the position facing the plane (reference plane Wr, thick solid line) that defines each wall surface portion Ws. Two-dimensional image data (projection data) of the projected image seen from (projected on the opposite plane) is generated. Here, for example, data of a two-dimensional image projected in parallel (orthogonal projection) from a plane Wp that is parallel to the reference plane Wr is generated. For simplification of processing, the reference plane Wr is set so that the viewpoint position (plane Wp) is inside the tunnel T (positive position in the inward direction from the wall surface W of the tunnel T) with respect to all the points of the wall surface portion Ws. The distance between the surface Wp and the surface Wp may be set to a specific value. That is, as a result, for each wall surface portion Ws, the line-of-sight direction is changed from the shooting position to the direction in which the wall surface portion Ws is viewed, in particular, here, the viewpoint is changed to the direction perpendicular to the reference plane Wr, and the viewpoint is different from the shooting position. It becomes a projected image at the position. In addition, in the setting of the angle range a of the present embodiment, all the viewpoint positions are changed, but when the angle range a is originally determined by the division method including the portion whose shooting direction is perpendicular to the wall surface W, a part of the angle range a is set. As a result, the viewpoint position and the line-of-sight direction in the angle range a may not change. The process of determining the line-of-sight direction itself may be performed in the same manner as described above.

そして、これらの投影データの画像をつないで展開図を生成する。壁面部分Wsを定める角度範囲aは、曲面状の壁面部分Wsとこれを基準平面Wrとの乖離が十分に小さい範囲内で定められ、ここでは、例えば、10度である。すなわち、角度範囲aは、光学カメラの台数などとは独立に設定されてもよい。あるいは、分割される壁面部分Wsの数は、光学カメラの数の整数倍であってもよい。角度範囲aは、トンネル形状などに応じて変更可能であってもよい。 Then, the images of these projection data are connected to generate a development view. The angle range a that defines the wall surface portion Ws is defined within a range in which the deviation between the curved wall surface portion Ws and the reference plane Wr is sufficiently small, and here, for example, is 10 degrees. That is, the angle range a may be set independently of the number of optical cameras and the like. Alternatively, the number of wall surface portions Ws to be divided may be an integral multiple of the number of optical cameras. The angle range a may be changeable depending on the shape of the tunnel and the like.

このような展開図の生成により、上記のくぼみや突起部分の見え方が展開図内で統一される。
なお、上記のように、撮影位置PからトンネルTの壁面Wまでの距離が大きい壁面部分Wsでは、撮影エリア内に写る面積が増大するので、面Wpのサイズも大きくなる。一方で、サイズとは相対的に、撮影エリア内の解像度が低下する。これに伴って、展開図の解像度も場所に応じて異なる。なお、1画素が示す実面積が同一になるように、例えば、線形補間などで画像データが調整されてもよい。
By generating such a developed view, the appearance of the above-mentioned dents and protrusions is unified in the developed view.
As described above, in the wall surface portion Ws where the distance from the shooting position P to the wall surface W of the tunnel T is large, the area captured in the shooting area increases, so that the size of the surface Wp also increases. On the other hand, the resolution in the shooting area decreases relative to the size. Along with this, the resolution of the developed view also differs depending on the location. The image data may be adjusted by, for example, linear interpolation so that the actual area indicated by one pixel is the same.

基準平面Wrは、通常では、区切られた壁面部分Wsの4隅で特定される矩形面であってよい。あるいは、4隅のうち一部が上記突起部分やくぼみなどに該当する場合には、該当する点を除外したり、周囲の他の点や平均位置などが利用されたりしてもよい。 The reference plane Wr may usually be a rectangular plane specified at the four corners of the divided wall surface portions Ws. Alternatively, when a part of the four corners corresponds to the above-mentioned protrusions or dents, the corresponding points may be excluded, or other surrounding points, the average position, or the like may be used.

図4は、処理装置1で実行されるトンネル展開図生成処理の制御部11による制御手順を示すフローチャートである。このトンネル展開図生成処理は、例えば、トンネルTの壁面Wの撮影画像データ201と撮影位置データ202の指定とともに、ユーザなどによる操作受付部14への開始命令の入力操作に基づいて開始される。 FIG. 4 is a flowchart showing a control procedure by the control unit 11 of the tunnel development diagram generation process executed by the processing device 1. This tunnel development map generation process is started, for example, based on the designation of the photographed image data 201 and the photographed position data 202 of the wall surface W of the tunnel T and the input operation of the start command to the operation reception unit 14 by the user or the like.

制御部11は、外部データ記憶部20から撮影画像データ201及び撮影位置データ202を取得する(ステップS1)。制御部11は、SfMモデルを用いて撮影画像の特徴点に基づきトンネル形状を3次元モデル化する。また、制御部11は、撮影データの各画素の3次元座標を特定する(ステップS2)。3次元モデルデータは、トンネル壁面画像データ203として入出力I/F13を介して外部データ記憶部20に記憶されてもよい。 The control unit 11 acquires the captured image data 201 and the captured position data 202 from the external data storage unit 20 (step S1). The control unit 11 uses the SfM model to three-dimensionally model the tunnel shape based on the feature points of the captured image. Further, the control unit 11 specifies the three-dimensional coordinates of each pixel of the shooting data (step S2). The three-dimensional model data may be stored in the external data storage unit 20 as the tunnel wall surface image data 203 via the input / output I / F 13.

制御部11は、モデル化されたトンネルTの壁面Wを所定の角度範囲ごとに区分する(ステップS3)。制御部11は、区分された壁面部分Wsの基準平面Wrを設定する(ステップS4)。制御部11は、基準平面Wrに垂直な視線方向を定め、当該視線方向に沿った正射影(平行投影)で壁面部分Wsの投影画像を生成する(ステップS5)。 The control unit 11 divides the wall surface W of the modeled tunnel T into predetermined angular ranges (step S3). The control unit 11 sets the reference plane Wr of the divided wall surface portion Ws (step S4). The control unit 11 determines the line-of-sight direction perpendicular to the reference plane Wr, and generates a projected image of the wall surface portion Ws by normal projection (parallel projection) along the line-of-sight direction (step S5).

制御部11は、仰角方向に隣り合った投影画像をつなぎ合わせて、トンネルの延在方向について所定の位置での展開図を生成する(ステップS6)。また、この展開図の生成をトンネルの延在方向について各位置で行い、つなぎ合わせる。制御部11は、得られた展開図のデータを、入出力I/F13を介して外部データ記憶部20に記憶させる。そして、制御部11は、トンネル展開図生成処理を終了する。
上記トンネル展開図生成処理のうち、少なくともステップS3〜S6の処理が本実施形態のプログラムにおける画像処理手段を構成する。
The control unit 11 joins the projected images adjacent to each other in the elevation angle direction to generate a development view at a predetermined position in the extending direction of the tunnel (step S6). In addition, this development map is generated at each position in the extending direction of the tunnel and connected. The control unit 11 stores the obtained development drawing data in the external data storage unit 20 via the input / output I / F 13. Then, the control unit 11 ends the tunnel development diagram generation process.
Of the tunnel development map generation processes, at least the processes of steps S3 to S6 constitute the image processing means in the program of the present embodiment.

図5は、展開図の生成の変形例について説明する図である。この図5は、図3と同一部分を示している。 FIG. 5 is a diagram illustrating a modified example of generating a development view. FIG. 5 shows the same part as that of FIG.

上記実施の形態では、平行投影(正射影)で各壁面部分Wsの平面図を生成するものとして説明したが、透視投影で平面図を生成してもよい。この場合、視点位置Ppは、基準平面Wrの中心位置、すなわち、矩形の基準平面Wrの4隅の点の重心位置Pgを通り、基準平面Wrに垂直な線上となる。重心位置Pgは、例えば、4隅の対角線の交点により得られてもよいし、上辺と下辺の中線(例えば、図5において基準平面Wr1の上辺及び下辺からの距離がそれぞれd1の線、及び基準平面Wr2の上辺及び下辺からの距離がd2の線など)、及び左辺と右辺の中線の交点などにより得られてもよい。あるいは、視点位置Ppは、対向する2辺を挟んで基準平面Wrとの間でなす角が等しい所定の角度となる(例えば、図5において、基準平面Wr1に係る2つの角b1が同一であり、基準平面Wr2に係る2つの角b2が同一である)2本の線Lf(線Lfをそれぞれ含む2面)の交点に基づいて得られてもよい。 In the above embodiment, the plan view of each wall surface portion Ws is generated by parallel projection (normal projection), but the plan view may be generated by perspective projection. In this case, the viewpoint position Pp passes through the center position of the reference plane Wr, that is, the center of gravity positions Pg of the points at the four corners of the rectangular reference plane Wr, and is on a line perpendicular to the reference plane Wr. The center of gravity position Pg may be obtained, for example, by the intersection of the diagonal lines at the four corners, or the middle line between the upper side and the lower side (for example, the line whose distances from the upper side and the lower side of the reference plane Wr1 in FIG. 5 are d1 respectively, and It may be obtained from the intersection of the middle line between the left side and the right side, etc.) and the line where the distance from the upper side and the lower side of the reference plane Wr2 is d2. Alternatively, the viewpoint position Pp has a predetermined angle formed by sandwiching the two opposing sides with the reference plane Wr (for example, in FIG. 5, the two angles b1 related to the reference plane Wr1 are the same. , The two angles b2 relating to the reference plane Wr2 are the same.) It may be obtained based on the intersection of two lines Lf (two surfaces including the line Lf).

基準平面Wrと視点位置Ppとの距離は、適宜な一律な値であってよく、上記と同様に、壁面部分Wsの全ての点に対し、基準平面Wrの垂線方向についてトンネルTの内側となるように定められてよい。例えば、特に、この距離は、底面におけるトンネルTの幅の半分程度の値とされてもよい。 The distance between the reference plane Wr and the viewpoint position Pp may be an appropriate uniform value, and similarly to the above, the distance is inside the tunnel T in the perpendicular direction of the reference plane Wr with respect to all the points of the wall surface portion Ws. May be determined as. For example, in particular, this distance may be set to a value of about half the width of the tunnel T at the bottom surface.

以上のように、本実施形態の処理装置1は、制御部11を備える。制御部11は、画像処理部として、トンネルTの壁面Wを撮影した複数の撮影画像から得られた当該トンネルTの壁面Wの位置情報に基づいて、壁面Wを分割した壁面部分Wsごとに、当該壁面部分Wsに応じた視点位置を定めて正射影画像を生成し、複数の壁面部分Wsの投影画像の組合せ(つなぎ合わせ)により、トンネルTの壁面Wの展開図を生成する。
ここでいう、壁面部分Wsに応じた視点位置とは、壁面部分Ws(基準平面Wr)の向きなどに起因して定められることをいい、壁面Wに対する撮影位置などの視点位置が予め定まっていることを意味しない。
このような処理により、曲面形状の壁面Wの展開図の視線方向を見やすい向きに調整、特に、合わせることができるので、より見やすい展開図を容易に得ることができる。また、適宜な壁面部分Wsごとに同一の視線方向が設定されるので、撮影位置との位置関係に応じて各点を個別に投影面にマッピングしていくよりも容易な処理で展開図を得ることができる。
As described above, the processing device 1 of the present embodiment includes the control unit 11. As an image processing unit, the control unit 11 divides the wall surface W into each wall surface portion Ws based on the position information of the wall surface W of the tunnel T obtained from a plurality of captured images obtained by photographing the wall surface W of the tunnel T. A normal projection image is generated by determining a viewpoint position according to the wall surface portion Ws, and a developed view of the wall surface W of the tunnel T is generated by combining (joining) the projected images of the plurality of wall surface portions Ws.
The viewpoint position according to the wall surface portion Ws here means that it is determined due to the orientation of the wall surface portion Ws (reference plane Wr) and the like, and the viewpoint position such as the shooting position with respect to the wall surface W is predetermined. Doesn't mean that.
By such a process, the line-of-sight direction of the developed view of the curved wall surface W can be adjusted to be easily seen, and in particular, the developed view can be easily obtained. Further, since the same line-of-sight direction is set for each appropriate wall surface portion Ws, a developed view can be obtained by a simpler process than mapping each point individually to the projection surface according to the positional relationship with the shooting position. be able to.

また、定められた視点位置からトンネルTの壁面Wへの視線方向は、展開図の中心で壁面部分Wsを規定する基準平面Wrに垂直な方向である。すなわち、各壁面部分Wsを正対する位置から投影した画像を得るので、壁面Wの凹凸部分の見え方をそろえることができる。したがって、この処理装置1で得られた展開図を用いた解析や診断により、安定した判断を行いやすい。 Further, the line-of-sight direction from the determined viewpoint position to the wall surface W of the tunnel T is a direction perpendicular to the reference plane Wr that defines the wall surface portion Ws at the center of the developed view. That is, since the image projected from the position facing each wall surface portion Ws is obtained, the appearance of the uneven portion of the wall surface W can be made uniform. Therefore, it is easy to make a stable judgment by analysis and diagnosis using the development drawing obtained by the processing device 1.

また、制御部11は、壁面部分Wsに正対する位置を視点位置とする平行投影画像を当該壁面部分Wsごとに生成する。中心位置だけでなく、壁面部分Ws全体を平行投影することで、より一様な見え方の展開図を得ることができるので、展開図の使用者が壁面状態をより見やすく、また、一律に異常などを判断しやすい。 Further, the control unit 11 generates a parallel projection image with the position facing the wall surface portion Ws as the viewpoint position for each wall surface portion Ws. By projecting not only the center position but the entire wall surface part Ws in parallel, it is possible to obtain a developed view with a more uniform appearance, so that the user of the developed view can see the wall surface state more easily, and it is uniformly abnormal. It is easy to judge.

また、視点位置は、トンネルTの壁面Wから内向き方向について正の位置に定められる。投影時に壁面Wの裏側から見ないように視点位置を設定することで、より容易な処理で投影画像を得ることができる。 Further, the viewpoint position is set to a positive position in the inward direction from the wall surface W of the tunnel T. By setting the viewpoint position so as not to be seen from the back side of the wall surface W at the time of projection, the projected image can be obtained by easier processing.

また、本実施形態のプログラム121をコンピュータにインストールして制御部11のCPUによりソフトウェア的に画像処理手段としての処理を行わせることで、特殊なハードウェアなどを用意せずに容易により見やすいトンネルの展開図を生成することができる。 Further, by installing the program 121 of the present embodiment on a computer and causing the CPU of the control unit 11 to perform processing as an image processing means by software, a tunnel that is easier to see without preparing special hardware or the like can be obtained. A development view can be generated.

なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。
例えば、上記実施の形態では、角度範囲aごとにトンネルTの壁面Wを区切ることとしたが、必ずしも角度範囲aごとで区切らなくてもよい。高さ(長さ)を基準として区切ってもよいし、角度範囲aが一定の値でなくてもよい。
The present invention is not limited to the above embodiment, and various modifications can be made.
For example, in the above embodiment, the wall surface W of the tunnel T is divided for each angle range a, but it is not always necessary to divide the wall surface W for each angle range a. It may be separated based on the height (length), or the angle range a may not be a constant value.

また、トンネルの3次元壁面データの生成を行うSfMに係るプログラムは、プログラム121に含まれていなくてもよい。外部プログラムで生成された3次元壁面データが取得されて、当該3次元壁面データに基づく展開図の生成に係る処理のみがプログラム121により行われてもよい。 Further, the program related to SfM that generates the three-dimensional wall surface data of the tunnel may not be included in the program 121. The three-dimensional wall surface data generated by the external program may be acquired, and only the process related to the generation of the development drawing based on the three-dimensional wall surface data may be performed by the program 121.

また、3次元壁面データは、適切に得られる手法であれば、SfMに限らず他の手法で得られてもよい。 Further, the three-dimensional wall surface data may be obtained not only by SfM but also by another method as long as it can be appropriately obtained.

また、透視投影を行う場合、視点位置Ppは、壁面部分Wsの中心位置に限られない。中心位置から多少のずれがあってもよい。また、平行投影を行う場合、視線方向が適切にそろえられていれば、基準平面Wrに垂直な視線方向とは限らない。 Further, when performing perspective projection, the viewpoint position Pp is not limited to the center position of the wall surface portion Ws. There may be some deviation from the center position. Further, in the case of parallel projection, if the line-of-sight directions are properly aligned, the line-of-sight direction is not always perpendicular to the reference plane Wr.

また、基準平面Wrは、4隅の点に基づいて定められなくてもよい。4隅の点で囲まれる範囲内の点から回帰的に基準平面Wrが定められてもよい。この場合、4隅の点が基準平面Wr上になくてもよい。 Further, the reference plane Wr does not have to be determined based on the points at the four corners. The reference plane Wr may be recursively determined from the points within the range surrounded by the four corner points. In this case, the points at the four corners do not have to be on the reference plane Wr.

また、上記実施の形態では、トンネル断面の幅方向について中心で撮影がなされているものとして説明したが、これに限られない。例えば、中心よりもトンネルTの壁面Wの側に寄った位置で撮影がなされていてもよい。 Further, in the above embodiment, it has been described that the image is taken at the center in the width direction of the tunnel cross section, but the present invention is not limited to this. For example, the image may be taken at a position closer to the wall surface W of the tunnel T than the center.

また、上記実施の形態では、トンネルTの内側に視点位置を置いて、壁面Wの投影画像を得ることとしたが、壁面Wが適切に表示される処理が行われれば、視点位置が必ずしもトンネルTの内側に位置していなくてもよい。 Further, in the above embodiment, the viewpoint position is placed inside the tunnel T to obtain a projected image of the wall surface W, but if the processing for appropriately displaying the wall surface W is performed, the viewpoint position is not necessarily the tunnel. It does not have to be located inside the T.

また、上記実施の形態では、処理は、制御部11のCPUが全てプログラム121に基づいて実行するものとして説明したが、一部が専用のハードウェア回路などで実行されてもよい。 Further, in the above embodiment, the processing is described as being executed entirely by the CPU of the control unit 11 based on the program 121, but a part of the processing may be executed by a dedicated hardware circuit or the like.

また、以上の説明では、トンネル展開図生成処理に係るプログラム121を記憶するコンピュータ読み取り可能な媒体として、フラッシュメモリやHDDを含む不揮発性メモリを有する記憶部12を例に挙げて説明したが、これに限定されない。その他のコンピュータ読み取り可能な媒体として、CD−ROMやDVDディスクなどの可搬型記憶媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も本発明に適用される。
その他、上記実施の形態で示した具体的な構成、処理動作の内容及び手順などは、本発明の趣旨を逸脱しない範囲において適宜変更可能である。本発明の範囲は、特許請求の範囲に記載した発明の範囲とその均等の範囲を含む。
Further, in the above description, as a computer-readable medium for storing the program 121 related to the tunnel development diagram generation process, a storage unit 12 having a non-volatile memory including a flash memory and an HDD has been described as an example. Not limited to. As another computer-readable medium, a portable storage medium such as a CD-ROM or a DVD disc can be applied. A carrier wave is also applied to the present invention as a medium for providing data of a program according to the present invention via a communication line.
In addition, the specific configuration, the content and procedure of the processing operation, etc. shown in the above-described embodiment can be appropriately changed without departing from the spirit of the present invention. The scope of the present invention includes the scope of the invention described in the claims and the equivalent scope thereof.

1 処理装置
11 制御部
12 記憶部
121 プログラム
13 入出力インターフェイス
131 接続端子
132 通信部
14 操作受付部
15 表示部
20 外部データ記憶部
201 撮影画像データ
202 撮影位置データ
203 トンネル壁面画像データ
21 データベース装置
22 光学読取装置
P 撮影位置
Pp 視点位置
T トンネル
W 壁面
Wr、Wr1、Wr2 基準平面
Ws 壁面部分
a 角度範囲
1 Processing device 11 Control unit 12 Storage unit 121 Program 13 Input / output interface 131 Connection terminal 132 Communication unit 14 Operation reception unit 15 Display unit 20 External data storage unit 201 Photographed image data 202 Photographed position data 203 Tunnel wall surface image data 21 Database device 22 Optical reader P Imaging position Pp Viewpoint position T Tunnel W Wall surface Wr, Wr1, Wr2 Reference plane Ws Wall surface part a Angle range

Claims (5)

トンネルの壁面を撮影した複数の撮影画像から得られた前記壁面の3次元位置情報に基づいて当該壁面を前記複数の撮影画像の撮影範囲とは独立した複数の設定範囲に分割し、前記設定範囲ごとに当該設定範囲に応じた視点位置をそれぞれ定めて所定の投影画像を生成し、複数の前記設定範囲の前記投影画像により、前記壁面の展開図を生成する画像処理部を備えることを特徴とするトンネル撮影画像処理装置。 Based on the three-dimensional position information of the wall surface obtained from the plurality of captured images obtained by photographing the wall surface of the tunnel, the wall surface is divided into a plurality of setting ranges independent of the photographing range of the plurality of captured images, and the setting range is described. It is characterized by including an image processing unit that generates a predetermined projected image by determining each viewpoint position according to the set range for each and generates a developed view of the wall surface by the projected images of the plurality of the set ranges. Tunnel image processing equipment. 前記定められた視点位置から前記壁面への視線方向は、前記展開図の中心で前記設定範囲を規定する平面に垂直な方向であることを特徴とする請求項1記載のトンネル撮影画像処理装置。 The tunnel photographing image processing apparatus according to claim 1, wherein the line-of-sight direction from the determined viewpoint position to the wall surface is a direction perpendicular to a plane defining the setting range at the center of the developed view. 前記画像処理部は、前記設定範囲に正対する位置を前記視点位置とする平行投影画像を当該設定範囲ごとに生成することを特徴とする請求項1又は2記載のトンネル撮影画像処理装置。 The tunnel image processing apparatus according to claim 1 or 2, wherein the image processing unit generates a parallel projection image having a position facing the set range as the viewpoint position for each set range. 前記視点位置は、前記壁面から前記トンネルの内向き方向について正の位置に定められることを特徴とする請求項1〜3の何れか一項に記載のトンネル撮影画像処理装置。 The tunnel photographing image processing apparatus according to any one of claims 1 to 3, wherein the viewpoint position is set to a positive position with respect to the inward direction of the tunnel from the wall surface. コンピュータを、
トンネルの壁面を撮影した複数の撮影画像から得られた前記壁面の3次元位置情報に基づいて当該壁面を前記複数の撮影画像の撮影範囲とは独立した複数の設定範囲に分割し、前記設定範囲ごとに当該設定範囲に応じた視点位置をそれぞれ定めて所定の投影画像を生成し、複数の前記設定範囲の前記投影画像により、前記壁面の展開図を生成する画像処理手段
として機能させることを特徴とするプログラム。
Computer,
Based on the three-dimensional position information of the wall surface obtained from the plurality of captured images obtained by photographing the wall surface of the tunnel, the wall surface is divided into a plurality of setting ranges independent of the photographing range of the plurality of captured images, and the setting range is described. It is characterized in that a predetermined projection image is generated by determining each viewpoint position according to the setting range for each, and the projection images in the plurality of setting ranges are used as an image processing means for generating a developed view of the wall surface. Program to be.
JP2020044985A 2020-03-16 2020-03-16 Tunnel image processing equipment and programs Active JP6944560B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020044985A JP6944560B2 (en) 2020-03-16 2020-03-16 Tunnel image processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044985A JP6944560B2 (en) 2020-03-16 2020-03-16 Tunnel image processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2021148432A JP2021148432A (en) 2021-09-27
JP6944560B2 true JP6944560B2 (en) 2021-10-06

Family

ID=77848311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044985A Active JP6944560B2 (en) 2020-03-16 2020-03-16 Tunnel image processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6944560B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328096A (en) * 2001-04-27 2002-11-15 Tokyo Electric Power Co Inc:The Program, method, and system for detecting crack defect generated on structure
JP2005038035A (en) * 2003-07-16 2005-02-10 Nikon System:Kk Image processor, image processing method and program
JP5628068B2 (en) * 2011-02-25 2014-11-19 三協エンジニアリング株式会社 Tunnel wall development image acquisition system
JP5760720B2 (en) * 2011-06-08 2015-08-12 いすゞ自動車株式会社 Road gradient estimation device
JP6780093B2 (en) * 2017-03-30 2020-11-04 富士フイルム株式会社 Image processing device and image processing method
WO2020158726A1 (en) * 2019-01-31 2020-08-06 富士フイルム株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2021148432A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
US10522116B2 (en) Projection method with multiple rectangular planes at arbitrary positions to a variable projection center
US9519968B2 (en) Calibrating visual sensors using homography operators
US8587612B2 (en) Method and system for providing augmented reality based on marker tracking, and non-transitory computer-readable medium thereof
US8994726B1 (en) Systems and methods for preparing a model of an environment for display
WO2017152803A1 (en) Image processing method and device
JP2017038366A (en) Parameter estimation method for display device and device using that method
US11783580B2 (en) Input apparatus, input method of input apparatus, and output apparatus
WO2014152467A1 (en) System and method for generation of a room model
US20110273528A1 (en) Simulation program, simulation device, and simulation method
US20200329227A1 (en) Information processing apparatus, information processing method and storage medium
KR20200003719A (en) Image processing apparatus, image processing method, and storage medium
US11962946B2 (en) Image processing apparatus, display system, image processing method, and medium
US11250643B2 (en) Method of providing virtual exhibition space using 2.5-dimensionalization
CN104104936A (en) Apparatus and method for forming light field image
KR20240010070A (en) Method for displaying content and electronic device thereof
KR20190127367A (en) Method of providing virtual exhibition space for efficient data management
JP6944560B2 (en) Tunnel image processing equipment and programs
WO2023230182A1 (en) Three dimensional mapping
CN111492409A (en) Apparatus and method for three-dimensional interaction for augmented reality remote assistance
US11770551B2 (en) Object pose estimation and tracking using machine learning
JP3577202B2 (en) Video production equipment
JP6073121B2 (en) 3D display device and 3D display system
WO2019163449A1 (en) Image processing apparatus, image processing method and program
JP2000057376A (en) Method for generating new viewpoint image
KR20200027639A (en) Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910

R150 Certificate of patent or registration of utility model

Ref document number: 6944560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150