JP2018066687A - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2018066687A JP2018066687A JP2016206279A JP2016206279A JP2018066687A JP 2018066687 A JP2018066687 A JP 2018066687A JP 2016206279 A JP2016206279 A JP 2016206279A JP 2016206279 A JP2016206279 A JP 2016206279A JP 2018066687 A JP2018066687 A JP 2018066687A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- captured image
- information
- motion information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、および情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and an information processing program.
梁や柱などからなる構造体について、鉄筋の配置状態などを検査する方法が知られている。鉄筋の配置状態の検査には、鉄筋の本数、径、位置などの検査がある。 There is known a method for inspecting the arrangement state of reinforcing bars in a structure including beams and columns. The inspection of the arrangement state of the reinforcing bars includes inspection of the number, diameter, position, etc. of the reinforcing bars.
例えば、特許文献1には、計測対象の鉄筋に円形のマーカーを付与すると共に、計測対象の鉄筋の背景に白いボードを設置することが開示されている。特許文献1では、この状態で、計測対象の鉄筋を撮影することで得られた撮影画像について、二値化処理などを行い、計測対象の鉄筋の径を計測することが開示されている。 For example, Patent Document 1 discloses that a circular marker is attached to a measurement target reinforcing bar and a white board is installed on the background of the measurement target reinforcing bar. Patent Document 1 discloses that in this state, binarization processing or the like is performed on a captured image obtained by photographing a measurement target reinforcing bar to measure the diameter of the measurement target reinforcing bar.
しかしながら、従来技術では、マーカーや白いボードなどの備品を設置した上で撮影した撮影画像を用いる必要があり、これらの備品を用いずに撮影した撮影画像を用いて、構造体の部材情報を導出することは困難であった。すなわち、従来では、複数部材からなる構造体の部材情報を、容易に得る事は困難であった。 However, in the prior art, it is necessary to use a photographed image taken after installing fixtures such as markers and white boards, and the member information of the structure is derived using the photographed image taken without using these fixtures. It was difficult to do. That is, conventionally, it has been difficult to easily obtain member information of a structure composed of a plurality of members.
本発明は、上記に鑑みてなされたものであって、複数部材からなる構造体の部材情報を、容易に得ることを目的とする。 This invention is made | formed in view of the above, Comprising: It aims at obtaining the member information of the structure which consists of multiple members easily.
上述した課題を解決し、目的を達成するために、本発明は、構造体に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得する取得部と、前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定する推定部と、前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成する生成部と、前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出する解析部と、を備える情報処理装置である。 In order to solve the above-described problems and achieve the object, the present invention provides an acquisition unit that acquires a first captured image and a second captured image that are different from each other in the capturing position with respect to the structure, and the first captured image. A background image on the background side of the first photographed image is configured based on motion information indicating a moving direction and a movement amount of the feature area included in the second photographed image with respect to the corresponding feature area included in the second photographed image. An estimation unit configured to estimate the motion information of each of a plurality of pixel regions; and the motion estimated for each of the pixel regions constituting the first captured image with respect to each of the corresponding pixel regions in the background image. A generation unit that generates an estimated image obtained by estimating the second captured image by moving according to the moving direction and the moving amount indicated by the information, and the second captured image and the estimated image Based on the partial region, an analysis unit that derives the member information of the member constituting the structural body is an information processing apparatus including a.
本発明によれば、複数部材からなる構造体の部材情報を、容易に得ることができる、という効果を奏する。 According to the present invention, it is possible to easily obtain member information of a structure composed of a plurality of members.
以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.
図1は、本実施の形態の情報処理システム10の概略図である。 FIG. 1 is a schematic diagram of an information processing system 10 according to the present embodiment.
情報処理システム10は、情報処理装置12と、撮影部14と、を備える。情報処理装置12と撮影部14とは、ネットワークなどの通信部13を介して互いに通信可能に接続されている。 The information processing system 10 includes an information processing device 12 and a photographing unit 14. The information processing apparatus 12 and the imaging unit 14 are connected to be communicable with each other via a communication unit 13 such as a network.
通信部13には、例えば、短距離無線技術、移動通信システムによる無線通信網、およびインターネットなどを用いる。短距離無線技術には、Wi−Fi(登録商標)(Wireless Fidelity)などが挙げられる。移動通信システムによる無線通信網には、LTE(Long Term Evolution)や、NFC(Near Field Communication)や、WiMAX(Worldwide Interoperability for Microwave Access)などが挙げられる。また、通信部13は、情報処理装置12と撮影部14とを直接接続するケーブルであってもよい。 For the communication unit 13, for example, a short-range wireless technology, a wireless communication network using a mobile communication system, the Internet, or the like is used. Examples of the short-range wireless technology include Wi-Fi (registered trademark) (Wireless Fidelity). Examples of wireless communication networks based on mobile communication systems include LTE (Long Term Evolution), NFC (Near Field Communication), WiMAX (World Wide Interoperability for Microwave Access) and the like. The communication unit 13 may be a cable that directly connects the information processing apparatus 12 and the imaging unit 14.
情報処理システム10は、構造体20を構成する部材の部材情報を導出する。 The information processing system 10 derives member information of members constituting the structure 20.
まず、計測対象の構造体20について説明する。構造体20は、棒状の部材21を複数組み合わせて構成される。部材21は、例えば、鉄筋、柵、棒、アンカーロッドなどである。アンカーロッドは、木材や鋼材などの構造部材である。 First, the structure 20 to be measured will be described. The structure 20 is configured by combining a plurality of rod-like members 21. The member 21 is, for example, a reinforcing bar, a fence, a bar, an anchor rod, or the like. The anchor rod is a structural member such as wood or steel.
本実施の形態では、一例として、部材21が鉄筋である場合を説明する。すなわち、本実施の形態では、構造体20が、複数の鉄筋を組み合わせて構成される場合を説明する。また、本実施の形態では、構造体20が、複数の鉄筋を組み合わせた柱部材22と、複数の鉄筋を組み合わせた梁部材24と、から構成される場合を説明する。 In the present embodiment, as an example, a case where the member 21 is a reinforcing bar will be described. That is, in the present embodiment, the case where the structure 20 is configured by combining a plurality of reinforcing bars will be described. In the present embodiment, a case will be described in which the structure 20 includes a column member 22 in which a plurality of reinforcing bars are combined and a beam member 24 in which a plurality of reinforcing bars are combined.
図2は、本実施の形態の構造体20を構成する、柱部材22および梁部材24の一例を示す模式図である。 FIG. 2 is a schematic diagram showing an example of the column member 22 and the beam member 24 that constitute the structure 20 of the present embodiment.
図2(A)は、柱部材22の一例を示す模式図である。柱部材22は、鉛直方向Xに沿って長い柱状の部材である。柱部材22は、複数の主筋22Aと、複数の補助筋22Bと、から構成される。柱部材22における主筋22Aは、鉛直方向Xに沿って長い棒状の部材である。柱部材22における補助筋22Bは、主筋22Aの長軸方向である鉛直方向Xに対して交差する水平方向Yに長い、棒状の部材である。補助筋22Bは、複数の主筋22Aを、水平方向Yに沿って間隔を隔てて支持する部材である。 FIG. 2A is a schematic diagram illustrating an example of the column member 22. The column member 22 is a long columnar member along the vertical direction X. The column member 22 includes a plurality of main bars 22A and a plurality of auxiliary bars 22B. The main bars 22 </ b> A in the column member 22 are long rod-shaped members along the vertical direction X. The auxiliary bars 22B in the column member 22 are rod-like members that are long in the horizontal direction Y intersecting the vertical direction X that is the major axis direction of the main bars 22A. The auxiliary muscle 22B is a member that supports the plurality of main muscles 22A at intervals along the horizontal direction Y.
図2(B)は、梁部材24の一例を示す模式図である。梁部材24は、水平方向Yに沿って長い柱状の部材である。梁部材24は、複数の主筋24Aと、複数の補助筋24Bと、から構成される。主筋24Aは、水平方向Yに沿って長い棒状の部材である。補助筋24Bは、鉛直方向Xに長い、棒状の部材である。補助筋24Bは、複数の主筋24Aを、鉛直方向Xに沿って間隔を隔てて支持する部材である。 FIG. 2B is a schematic diagram illustrating an example of the beam member 24. The beam member 24 is a long columnar member along the horizontal direction Y. The beam member 24 includes a plurality of main bars 24A and a plurality of auxiliary bars 24B. The main bar 24A is a bar-like member that is long along the horizontal direction Y. The auxiliary muscle 24B is a rod-like member that is long in the vertical direction X. The auxiliary muscle 24 </ b> B is a member that supports the plurality of main muscles 24 </ b> A at intervals along the vertical direction X.
なお、鉛直方向Xおよび水平方向Yは、実空間上における鉛直方向および水平方向の各々と一致してもよいし不一致であってもよい。また、鉛直方向Xおよび水平方向Yは、互いに交差する方向であればよく、直交する方向に限定されない。 Note that the vertical direction X and the horizontal direction Y may or may not coincide with the vertical direction and the horizontal direction in real space. Moreover, the vertical direction X and the horizontal direction Y should just be a direction which mutually cross | intersects, and are not limited to the orthogonal direction.
ここで、構造体20においては、主筋22Aおよび主筋24Aが、構造体20の強度に寄与する。このため、本実施の形態では、情報処理装置12は、構造体20における、主筋22Aおよび主筋24Aを計測する場合を説明する。なお、補助筋22Bおよび補助筋24Bについても、計測対象としてよい。 Here, in the structure 20, the main muscle 22 </ b> A and the main muscle 24 </ b> A contribute to the strength of the structure 20. For this reason, in this embodiment, the information processing apparatus 12 will describe a case where the main muscle 22A and the main muscle 24A in the structure 20 are measured. The auxiliary muscle 22B and the auxiliary muscle 24B may also be measured.
図1に戻り、説明を続ける。撮影部14は、構造体20を撮影し、撮影画像を得る。本実施の形態では、撮影部14は、構造体20に対する撮影位置の異なる、複数の撮影画像を得る。本実施の形態では、抽出画像41は、2枚の撮影画像(第1の撮影画像、第2の撮影画像と称する)を得る。なお、撮影部14は、3枚以上の撮影画像を得てもよい。 Returning to FIG. 1, the description will be continued. The imaging unit 14 images the structure 20 and obtains a captured image. In the present embodiment, the imaging unit 14 obtains a plurality of captured images having different imaging positions with respect to the structure 20. In the present embodiment, the extracted image 41 obtains two photographed images (referred to as a first photographed image and a second photographed image). Note that the photographing unit 14 may obtain three or more photographed images.
図3は、撮影部14による撮影方法の一例を示す説明図である。 FIG. 3 is an explanatory diagram illustrating an example of a photographing method by the photographing unit 14.
図3(A)は、構造体20における、柱部材22の主筋22Aを計測するときの、撮影方法の一例を示す説明図である。例えば、柱部材22の主筋22Aを計測する場合、ユーザMは、撮影部14を支持する把持部材16の一端側を把持する。把持部材16は、所定方向に長い棒状の部材である。把持部材16は、撮影部14の死角を減らす観点から、可能な限り細い、棒状の部材であることが好ましい。この把持部材16の長尺方向の他端側には、撮影部14が支持されている。 FIG. 3A is an explanatory diagram illustrating an example of an imaging method when measuring the main bar 22A of the column member 22 in the structure 20. For example, when measuring the main muscle 22 </ b> A of the column member 22, the user M holds one end side of the holding member 16 that supports the imaging unit 14. The gripping member 16 is a rod-like member that is long in a predetermined direction. From the viewpoint of reducing the blind spot of the imaging unit 14, the gripping member 16 is preferably as thin as possible and a rod-shaped member. An imaging unit 14 is supported on the other end side of the gripping member 16 in the longitudinal direction.
ユーザMは、把持部材16の長尺方向の一端側を把持し、把持部材16を水平方向Yへ移動させる。これによって、ユーザMは、構造体20の外部から主筋22Aおよび補助筋24Bの隙間を介して構造体20の内側へ向かって、撮影部14を移動させる。そして、この移動中に、撮影部14は、複数の撮影画像を得る。このため、この場合、撮影部14は、構造体20の外部から内側へ向かって該撮影部14を水平方向Yに移動させたときの、撮影位置の異なる複数の撮影画像を得る。 The user M grips one end side in the longitudinal direction of the gripping member 16 and moves the gripping member 16 in the horizontal direction Y. Thereby, the user M moves the imaging unit 14 from the outside of the structure 20 toward the inside of the structure 20 through the gap between the main muscle 22A and the auxiliary muscle 24B. During this movement, the photographing unit 14 obtains a plurality of photographed images. For this reason, in this case, the imaging unit 14 obtains a plurality of captured images at different imaging positions when the imaging unit 14 is moved in the horizontal direction Y from the outside to the inside of the structure 20.
図3(B)は、構造体20における、梁部材24の主筋24Aを計測するときの、撮影方法の一例を示す説明図である。例えば、梁部材24の主筋24Aを計測する場合、ユーザMは、把持部材16の長尺方向の一端側を把持し、把持部材16を鉛直方向Xへ移動させる。これによって、ユーザMは、構造体20の外部から、主筋24Aおよび補助筋24Bの隙間を介して構造体20の内側へ向かって、鉛直方向Xに撮影部14を移動させる。そして、この移動中に、撮影部14は、複数の撮影画像を得る。このため、この場合、撮影部14は、構造体20の外部から内側へ向かって該撮影部14を鉛直方向Xに移動させたときの、撮影位置の異なる複数の撮影画像を得る。 FIG. 3B is an explanatory diagram illustrating an example of an imaging method when measuring the main bar 24A of the beam member 24 in the structure 20. For example, when measuring the main bar 24 </ b> A of the beam member 24, the user M holds one end side in the longitudinal direction of the holding member 16 and moves the holding member 16 in the vertical direction X. Accordingly, the user M moves the imaging unit 14 in the vertical direction X from the outside of the structure 20 toward the inside of the structure 20 through the gap between the main muscle 24A and the auxiliary muscle 24B. During this movement, the photographing unit 14 obtains a plurality of photographed images. For this reason, in this case, the imaging unit 14 obtains a plurality of captured images at different imaging positions when the imaging unit 14 is moved in the vertical direction X from the outside to the inside of the structure 20.
なお、撮影部14の移動方法および移動方向は、上記方法および方向に限定されない。例えば、計測対象の構造体20を中心として周方向に撮影部14を移動させることで、撮影位置の異なる複数の撮影画像を得ても良い。 In addition, the moving method and moving direction of the imaging unit 14 are not limited to the above method and direction. For example, a plurality of photographed images with different photographing positions may be obtained by moving the photographing unit 14 in the circumferential direction around the structure 20 to be measured.
撮影部14は、撮影によって撮影画像の画像データを得る、公知の撮影装置である。なお、本実施の形態では、撮影画像の画像データを、単に、撮影画像と称して説明する。撮影部14は、例えば、デジタルカメラである。 The photographing unit 14 is a known photographing device that obtains image data of a photographed image by photographing. In the present embodiment, image data of a captured image will be described simply as a captured image. The photographing unit 14 is, for example, a digital camera.
なお、撮影部14は、1度の撮影によって、より広い画角を撮影可能であることが好ましい。このため、撮影部14は、凸面鏡や円錐鏡を備えた全周囲カメラや、全天球パノラマ画像を撮影可能な全天球カメラ、であることが好ましい。これらの中でも、より広角な撮影画像が得られる観点、および、構造体20へ挿入しやすいサイズである観点から、撮影部14は、全天球パノラマ画像を撮影する全天球カメラであることが好ましい。 In addition, it is preferable that the imaging | photography part 14 can image | photograph a wider angle of view by one imaging | photography. For this reason, it is preferable that the imaging | photography part 14 is an omnidirectional camera provided with the convex mirror and the conical mirror, and the omnidirectional camera which can image | photograph an omnidirectional panoramic image. Among these, from the viewpoint of obtaining a wider-angle captured image and the size that can be easily inserted into the structure 20, the imaging unit 14 is an omnidirectional camera that captures an omnidirectional panoramic image. preferable.
全天球パノラマ画像とは、全天球の範囲(360°)の撮影によって得られるパノラマ画像である。本実施の形態では、撮影部14が、全天球パノラマ画像を得る全天球カメラである場合を、一例として説明する。撮影部14に、全天球カメラを用いることで、図3に示すように、360°の撮影領域Pの撮影画像が得られる。 The omnidirectional panoramic image is a panoramic image obtained by photographing the entire celestial sphere (360 °). In the present embodiment, a case where the photographing unit 14 is an omnidirectional camera that obtains an omnidirectional panoramic image will be described as an example. By using an omnidirectional camera for the photographing unit 14, as shown in FIG. 3, a photographed image of a 360 ° photographing region P is obtained.
図4は、撮影部14の外観模式図の一例である。図4(A)は撮影部14の側面図である。図4(B)は、撮影部14の、図4(A)とは反対側の側面図である。図4(C)は、撮影部14の上面図である。 FIG. 4 is an example of a schematic external view of the photographing unit 14. FIG. 4A is a side view of the photographing unit 14. 4B is a side view of the imaging unit 14 on the side opposite to FIG. 4A. FIG. 4C is a top view of the imaging unit 14.
図4(A)に示すように、撮影部14は、例えば、人間が片手で持つことができる大きさである。なお、撮影部14の大きさは、このような大きさに限られない。 As shown in FIG. 4A, the photographing unit 14 has a size that a human can hold with one hand, for example. Note that the size of the photographing unit 14 is not limited to such a size.
図4に示すように、撮影部14の上部には、正面側(一方の面側)にレンズ14A、背面側(他方の面側)にレンズ14B、が設けられている。レンズ14Aおよびレンズ14Bは、各々、180°以上の画角を有する広角レンズである。本実施の形態では、レンズ14Aおよびレンズ14Bは、広角レンズの1つである魚眼レンズであるものとして説明する。撮影部14では、レンズ14Aおよびレンズ14Bの各々を介して像が導かれ、各々に対応する撮像素子に像が形成される。なお、撮像素子としては、CCD(charge−coupled device)や、CMOS(Complementary MOS)イメージセンサ等が挙げられる。また、図4(B)に示されるように、撮影部14の正面側には、シャッターボタン等の操作部14Cが設けられていてもよい。 As shown in FIG. 4, a lens 14 </ b> A is provided on the front side (one surface side) and a lens 14 </ b> B is provided on the back side (the other surface side). The lens 14A and the lens 14B are wide-angle lenses each having an angle of view of 180 ° or more. In the present embodiment, the lens 14A and the lens 14B will be described as fish-eye lenses that are one of wide-angle lenses. In the photographing unit 14, an image is guided through each of the lens 14 </ b> A and the lens 14 </ b> B, and an image is formed on an imaging element corresponding to each of the images. Examples of the image sensor include a charge-coupled device (CCD) and a complementary MOS (CMOS) image sensor. 4B, an operation unit 14C such as a shutter button may be provided on the front side of the photographing unit 14.
撮影部14は、レンズ14Aおよびレンズ14Bから導かれた像が各々の撮像素子で検出されることで、撮影部14の周りの被写体が撮像され、2つの半球画像が得られる。全天球パノラマ画像は、これらの2つの半球画像を合成することで、作成される。 The imaging unit 14 detects an image derived from the lens 14A and the lens 14B with each imaging element, thereby imaging an object around the imaging unit 14 and obtaining two hemispherical images. An omnidirectional panoramic image is created by combining these two hemispherical images.
以下、全天球パノラマ画像を、単に、撮影画像と称して説明する。 Hereinafter, the omnidirectional panoramic image will be described simply as a captured image.
次に、情報処理装置12のハードウェア構成を説明する。図5は、情報処理装置12のハードウェア構成図の一例である。 Next, the hardware configuration of the information processing apparatus 12 will be described. FIG. 5 is an example of a hardware configuration diagram of the information processing apparatus 12.
情報処理装置12は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HDD(Hard Disk Drive)505、メディアドライブ507、ディスプレイ508、ネットワークI/F509、キーボード511、マウス512、およびCD−ROMドライブ514を、バス510を介して接続した構成である。メディアドライブ507は、フラッシュメモリ等の記録メディア506に対してデータの読み出し又は書き込み(記憶)を行う。CD−ROMドライブ514は、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを行う。 The information processing apparatus 12 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HDD (Hard Disk Drive) 505, a media drive 507, a display 508, a network I / F 509. A keyboard 511, a mouse 512, and a CD-ROM drive 514 are connected via a bus 510. The media drive 507 reads or writes (stores) data on a recording medium 506 such as a flash memory. The CD-ROM drive 514 reads or writes various data with respect to a CD-ROM (Compact Disc Read Only Memory) 513 as an example of a removable recording medium.
なお、情報処理装置12は、ディスプレイ508と、キーボード511と、マウス512と、を一体的に構成した、タッチパネルを備えた構成であってもよい。また、情報処理装置12は、ディスプレイ508、キーボード511、およびマウス512の少なくとも1つを、情報処理装置12とは別体として構成してもよい。 The information processing apparatus 12 may have a configuration including a touch panel in which the display 508, the keyboard 511, and the mouse 512 are integrally configured. Further, the information processing apparatus 12 may configure at least one of the display 508, the keyboard 511, and the mouse 512 as a separate body from the information processing apparatus 12.
次に、撮影部14の構成を説明する。図6は、撮影部14の機能的構成の一例を示す、ブロック図である。 Next, the configuration of the photographing unit 14 will be described. FIG. 6 is a block diagram illustrating an example of a functional configuration of the imaging unit 14.
撮影部14は、レンズ14Aと、レンズ14Bと、イメージセンサ14Dと、イメージセンサ14Eと、制御部14と、記憶部14Jと、通信部14Kと、を備える。イメージセンサ14Dおよびイメージセンサ14Eは、CCDや、COMSイメージセンサである。レンズ14Aで導かれた像は、イメージセンサ14Dで半球画像として検出され、制御部14Fへ出力される。レンズ14Bで導かれた像は、イメージセンサ14Eで半球画像として検出され、制御部14Fへ出力される。 The photographing unit 14 includes a lens 14A, a lens 14B, an image sensor 14D, an image sensor 14E, a control unit 14, a storage unit 14J, and a communication unit 14K. The image sensor 14D and the image sensor 14E are a CCD or a COMS image sensor. The image guided by the lens 14A is detected as a hemispherical image by the image sensor 14D, and is output to the control unit 14F. The image guided by the lens 14B is detected as a hemispherical image by the image sensor 14E and output to the control unit 14F.
制御部14Fは、撮影部14を制御する。制御部14Fは、画像合成部14Gと、記録処理部14Hと、データ通信処理部14Iと、を含む。画像合成部14Gは、イメージセンサ14Dから受付けた半球画像と、イメージセンサ14Eから受付けた半球画像と、を合成する。この合成によって、画像合成部14Gは、全天球パノラマ画像としての撮影画像を得る。記録処理部14Hは、画像合成部14Gで得られた撮影画像を、記憶部14Jへ記憶する。また、データ通信処理部14Iは、画像合成部14Gで得られた撮影画像を、通信部14Kを介して、情報処理装置12へ出力する。 The control unit 14F controls the photographing unit 14. The control unit 14F includes an image composition unit 14G, a recording processing unit 14H, and a data communication processing unit 14I. Image synthesizing unit 14G synthesizes the hemispherical image received from image sensor 14D and the hemispherical image received from image sensor 14E. By this composition, the image composition unit 14G obtains a captured image as an omnidirectional panoramic image. The recording processing unit 14H stores the captured image obtained by the image combining unit 14G in the storage unit 14J. In addition, the data communication processing unit 14I outputs the captured image obtained by the image composition unit 14G to the information processing apparatus 12 via the communication unit 14K.
次に、情報処理装置12の機能的構成を説明する。図7は、情報処理装置12の機能的構成の一例を示すブロック図である。 Next, the functional configuration of the information processing apparatus 12 will be described. FIG. 7 is a block diagram illustrating an example of a functional configuration of the information processing apparatus 12.
情報処理装置12は、制御部30と、通信部32と、入力部33と、表示部34と、記憶部35と、を備える。制御部30と、通信部32と、入力部33と、表示部34と、記憶部35と、はバス36を介して接続されている。 The information processing apparatus 12 includes a control unit 30, a communication unit 32, an input unit 33, a display unit 34, and a storage unit 35. The control unit 30, the communication unit 32, the input unit 33, the display unit 34, and the storage unit 35 are connected via a bus 36.
通信部32は、外部装置と通信するための通信インターフェースである。本実施の形態では、通信部32は、撮影部14に接続されている。このため、制御部30では、通信部32を介して撮影部14から、撮影画像を得る。 The communication unit 32 is a communication interface for communicating with an external device. In the present embodiment, the communication unit 32 is connected to the photographing unit 14. For this reason, the control unit 30 obtains a photographed image from the photographing unit 14 via the communication unit 32.
入力部33は、ユーザによる操作指示を受付ける。入力部33は、キーボードやマウスなどである。表示部34は、各種画像を表示する表示装置である。記憶部35は、各種データを記憶する。 The input unit 33 receives an operation instruction from the user. The input unit 33 is a keyboard or a mouse. The display unit 34 is a display device that displays various images. The storage unit 35 stores various data.
制御部30は、情報処理装置12を制御する。制御部30は、CPU501、ROM502、およびRAM503などによって実現する(図5参照)。なお、制御部30は、1または複数の回路などによって実現してもよい。 The control unit 30 controls the information processing apparatus 12. The control unit 30 is realized by the CPU 501, the ROM 502, the RAM 503, and the like (see FIG. 5). The control unit 30 may be realized by one or a plurality of circuits.
本実施の形態の情報処理装置12で実行される各種処理を実行するためのプログラムは、ROM502などに予め組み込んで提供される。 A program for executing various processes executed by the information processing apparatus 12 according to the present embodiment is provided by being incorporated in advance in the ROM 502 or the like.
なお、本実施の形態の情報処理装置12で実行される各種処理を実行するためのプログラムは、情報処理装置12にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。 A program for executing various processes executed by the information processing apparatus 12 according to the present embodiment is a file that can be installed in the information processing apparatus 12 or a file that can be executed, such as a CD-ROM, a flexible disk (FD). ), A CD-R, a DVD (Digital Versatile Disk), and the like may be recorded on a computer-readable recording medium and provided.
また、本実施の形態の情報処理装置12で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の情報処理装置12における各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the program executed by the information processing apparatus 12 of the present embodiment may be configured to be stored by being stored on a computer connected to a network such as the Internet and downloaded via the network. In addition, a program for executing each process in the information processing apparatus 12 according to the present embodiment may be configured to be provided or distributed via a network such as the Internet.
制御部30は、取得部30Aと、推定部30Bと、生成部30Cと、解析部30Dと、出力制御部30Eと、を含む。推定部30Bは、抽出部30Fと、算出部30Gと、分離部30Hと、動き推定部30Iと、を含む。 The control unit 30 includes an acquisition unit 30A, an estimation unit 30B, a generation unit 30C, an analysis unit 30D, and an output control unit 30E. The estimation unit 30B includes an extraction unit 30F, a calculation unit 30G, a separation unit 30H, and a motion estimation unit 30I.
取得部30A、推定部30B、生成部30C、解析部30D、出力制御部30E、抽出部30F、算出部30G、分離部30H、および、動き推定部30I、の一部または全ては、例えば、CPU501(図5参照)などの処理装置にプログラムを実行させること(すなわちソフトウェア)により実現してもよい。また、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、併用して実現してもよい。 Some or all of the acquisition unit 30A, the estimation unit 30B, the generation unit 30C, the analysis unit 30D, the output control unit 30E, the extraction unit 30F, the calculation unit 30G, the separation unit 30H, and the motion estimation unit 30I are, for example, the CPU 501. You may implement | achieve by making a processing apparatus, such as (refer FIG. 5) run a program (namely, software). Further, it may be realized by hardware such as an IC (Integrated Circuit) or may be realized in combination.
取得部30Aは、構造体20に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得する。第1の撮影画像および第2の撮影画像は、構造体20に対する撮影位置の異なる撮影画像である。 The acquiring unit 30A acquires a first captured image and a second captured image that are different in the capturing position with respect to the structure 20. The first photographed image and the second photographed image are photographed images with different photographing positions with respect to the structure 20.
上述したように、本実施の形態では、撮影部14は、構造体20の外部から内側へ向かって該撮影部14を移動させたときの、撮影位置の異なる複数の撮影画像を得る。なお、撮影位置が異なる、とは、上述したように、構造体20に対する撮影位置が異なる事を示す。また、被写体は、あくまでも構造体20である。 As described above, in the present embodiment, the imaging unit 14 obtains a plurality of captured images at different imaging positions when the imaging unit 14 is moved from the outside to the inside of the structure 20. Note that the different shooting positions indicate that the shooting positions with respect to the structure 20 are different as described above. The subject is the structure 20 to the last.
取得部30Aは、通信部32を介して撮影部14から、これらの複数の撮影画像の内の1枚の撮影画像(第1の撮影画像)と、該複数の撮影画像の内の、該第1の撮影画像とは撮影位置の異なる他の1枚の撮影画像(第2の撮影画像)と、を取得する。 The acquisition unit 30A receives from the imaging unit 14 via the communication unit 32 one of the plurality of captured images (first captured image) and the first of the plurality of captured images. One photographed image (second photographed image) having a photographing position different from the one photographed image is acquired.
第1の撮影画像と第2の撮影画像の撮影タイミングは、同じであってもよいし、異なるタイミングであってもよい。同じタイミングである場合、撮影部14を、撮影位置の異なる複数の撮影部から構成すればよい。本実施の形態では、一例として、第2の撮影画像の撮影タイミングが、第1の撮影画像の撮影タイミングより前である場合を説明する。但し、第2の撮影画像の撮影タイミングが、第1の撮影画像の撮影タイミングより後であってもよい。 The shooting timing of the first shot image and the second shot image may be the same or different timing. When the timing is the same, the photographing unit 14 may be configured by a plurality of photographing units having different photographing positions. In the present embodiment, as an example, a case will be described in which the shooting timing of the second shot image is before the shooting timing of the first shot image. However, the shooting timing of the second shot image may be after the shooting timing of the first shot image.
なお、記憶部35に、構造体20に対する撮影位置の異なる複数の撮影画像を予め記憶してもよい。また、制御部30は、撮影部14で撮影された撮影画像を、記憶部35へ記憶してもよい。この場合、取得部30Aは、記憶部35から、第1の撮影画像および第2の撮影画像を読取ることで、これらの撮影画像を取得してもよい。 Note that a plurality of photographed images with different photographing positions with respect to the structure 20 may be stored in the storage unit 35 in advance. The control unit 30 may store the captured image captured by the imaging unit 14 in the storage unit 35. In this case, the acquisition unit 30A may acquire the captured images by reading the first captured image and the second captured image from the storage unit 35.
図8〜図10は、制御部30による画像処理の一例を示す説明図である。なお、以下では、撮影画像が、標準のアスペクト比の撮影画像である場合を説明する。なお、撮影画像が全天球パノラマ画像である場合、制御部30は、該全天球パノラマ画像をキューブマップに展開した後に、下記と同様の処理を行えばよい。 8-10 is explanatory drawing which shows an example of the image process by the control part 30. FIG. In the following, a case where the captured image is a captured image having a standard aspect ratio will be described. When the captured image is an omnidirectional panoramic image, the control unit 30 may perform the same processing as described below after expanding the omnidirectional panoramic image into a cube map.
図8(A)および図8(B)は、撮影画像40の一例を示す模式図である。図8(A)は、第2の撮影画像40Bを示す模式図であり、図8(B)は、第1の撮影画像40Aを示す模式図である。図8(A)および図8(B)には、柱部材22の主筋22Aを計測する場合に、撮影部14が水平方向Yに沿って構造体20の外部から内側へ挿入されるときに撮影された、第2の撮影画像40Bおよび第1の撮影画像40Aを示した。 8A and 8B are schematic diagrams illustrating an example of the captured image 40. FIG. FIG. 8A is a schematic diagram showing the second captured image 40B, and FIG. 8B is a schematic diagram showing the first captured image 40A. 8A and 8B, when measuring the main bar 22A of the column member 22, the image is taken when the imaging unit 14 is inserted inward from the outside of the structure 20 along the horizontal direction Y. The second photographed image 40B and the first photographed image 40A are shown.
図8(B)および図8(A)に示すように、第1の撮影画像40Aおよび第2の撮影画像40Bは、同じ構造体20における柱部材22を、互いに異なる撮影位置から撮影した撮影画像40である。図8に示す例では、第2の撮影画像40Bは、第1の撮影画像40Aに比べて柱部材22からより離れた撮影位置から、該柱部材22を撮影した撮影画像40である。また、図8に示す例では、第1の撮影画像40Aは、第2の撮影画像40Bに比べて、柱部材22により近い撮影位置から該柱部材22を撮影した撮影画像40である。 As shown in FIGS. 8B and 8A, the first photographed image 40A and the second photographed image 40B are photographed images obtained by photographing the pillar member 22 in the same structure 20 from different photographing positions. 40. In the example illustrated in FIG. 8, the second captured image 40B is a captured image 40 obtained by capturing the pillar member 22 from a photographing position farther from the pillar member 22 than the first captured image 40A. In the example illustrated in FIG. 8, the first captured image 40A is a captured image 40 obtained by capturing the pillar member 22 from a photographing position closer to the pillar member 22 than the second captured image 40B.
図7に戻り、説明を続ける。推定部30Bは、第1の撮影画像40Aに含まれる特徴領域ごとに、動き情報を導出する。動き情報は、第1の撮影画像40Aに含まれる特徴領域の、第2の撮影画像40Bに含まれる対応する特徴領域に対する、動きを示す情報である。 Returning to FIG. 7, the description will be continued. The estimation unit 30B derives motion information for each feature region included in the first captured image 40A. The motion information is information indicating the motion of the feature region included in the first captured image 40A with respect to the corresponding feature region included in the second captured image 40B.
そして、推定部30Bは、第1の撮影画像40Aに含まれる特徴領域の各々の動き情報に基づいて、第1の撮影画像40Aにおける背景側の背景画像を構成する、複数の画素領域の各々の、動き情報を生成する。 Then, the estimation unit 30B, based on the motion information of each feature region included in the first captured image 40A, configures each of the plurality of pixel regions that constitute the background image on the background side in the first captured image 40A. , Generate motion information.
特徴領域とは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々の、画像処理における特徴的な領域を示す。特徴領域は、特定の色、特定の形状、等を示す領域である。特定の形状には、例えば、エッジがある。本実施の形態では、特徴領域が、エッジを示すエッジ領域である場合を、一例として説明する。 The characteristic area indicates a characteristic area in the image processing of each of the first captured image 40A and the second captured image 40B. The feature region is a region indicating a specific color, a specific shape, or the like. The specific shape includes, for example, an edge. In the present embodiment, the case where the characteristic region is an edge region indicating an edge will be described as an example.
動き情報は、移動方向および移動量によって表される。本実施の形態では、動き情報は、第1の撮影画像40Aに含まれる特徴領域(エッジ領域)の、第2の撮影画像40Bにおける対応する特徴領域(エッジ領域)に対する、移動方向および移動量を示す。動き情報は、エッジフローと称される場合がある。エッジフローは、撮影画像40における特徴領域(エッジ領域)の動きを、ベクトルで表したものである。 The movement information is represented by a movement direction and a movement amount. In the present embodiment, the motion information indicates the moving direction and the moving amount of the characteristic area (edge area) included in the first captured image 40A with respect to the corresponding characteristic area (edge area) in the second captured image 40B. Show. The motion information may be referred to as edge flow. The edge flow is a vector representing the motion of the feature region (edge region) in the captured image 40.
推定部30Bについて、詳細を説明する。推定部30Bは、抽出部30Fと、算出部30Gと、分離部30Hと、動き推定部30Iと、を含む。 Details of the estimation unit 30B will be described. The estimation unit 30B includes an extraction unit 30F, a calculation unit 30G, a separation unit 30H, and a motion estimation unit 30I.
抽出部30Fは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、複数のエッジ領域を抽出する。 The extraction unit 30F extracts a plurality of edge regions from each of the first captured image 40A and the second captured image 40B.
図8(C)および図8(D)は、エッジ領域Eの抽出された抽出画像41の説明図である。抽出部30Fは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々のエッジ領域Eを抽出する、エッジ抽出処理を実行する。これにより、抽出部30Fは、抽出画像41(第1の抽出画像41A、第2の抽出画像41B)を導出する。 8C and 8D are explanatory diagrams of the extracted image 41 from which the edge region E is extracted. The extraction unit 30F performs an edge extraction process of extracting each edge region E of the first captured image 40A and the second captured image 40B. Thereby, the extraction unit 30F derives an extraction image 41 (first extraction image 41A, second extraction image 41B).
すなわち、抽出部30Fは、第1の撮影画像40A(図8(B)参照)から、第1の撮影画像40Aに含まれるエッジ領域Eaを抽出した、第1の抽出画像41Aを導出する(図8(D)参照)。同様に、抽出部30Fは、第2の撮影画像40B(図8(A)参照)から、第2の撮影画像40Bに含まれるエッジ領域Ebを抽出した、第2の抽出画像41Bを導出する(図8(C)参照)。 That is, the extraction unit 30F derives a first extracted image 41A obtained by extracting the edge region Ea included in the first captured image 40A from the first captured image 40A (see FIG. 8B) (FIG. 8). 8 (D)). Similarly, the extraction unit 30F derives a second extracted image 41B obtained by extracting the edge region Eb included in the second captured image 40B from the second captured image 40B (see FIG. 8A) (see FIG. 8A). (See FIG. 8C).
抽出部30Fは、公知のエッジ抽出方法を用いて、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、エッジ領域Eを抽出すればよい。 The extraction unit 30F may extract the edge region E from each of the first captured image 40A and the second captured image 40B using a known edge extraction method.
算出部30Gは、第1の撮影画像40Aに含まれる複数のエッジ領域Eaについて、第2の撮影画像40Bに含まれる対応するエッジ領域Ebに対する、動き情報を算出する。 The calculation unit 30G calculates the motion information for the corresponding edge region Eb included in the second captured image 40B for the plurality of edge regions Ea included in the first captured image 40A.
図8(E)は、算出された動き情報Vの説明図である。算出部30Gは、第1の撮影画像40Aに含まれるエッジ領域Eaの各々について、第2の撮影画像40Bにおける、同じエッジ領域Eを示すエッジ領域Ebを特定する。このエッジ領域Ebの特定には、公知の画像処理方法を用いればよい。 FIG. 8E is an explanatory diagram of the calculated motion information V. The calculation unit 30G specifies an edge region Eb indicating the same edge region E in the second photographed image 40B for each of the edge regions Ea included in the first photographed image 40A. A known image processing method may be used for specifying the edge region Eb.
そして、算出部30Gは、第1の撮影画像40Aに含まれるエッジ領域Eaの各々について、第2の撮影画像40Bにおける対応するエッジ領域Ebに対する、動き情報Vを算出する。 Then, the calculation unit 30G calculates the motion information V for the corresponding edge region Eb in the second captured image 40B for each of the edge regions Ea included in the first captured image 40A.
図8(F)は、動き情報Vを拡大して示した模式図である。動き情報Vは、本実施の形態では、第1の撮影画像40Aに含まれるエッジ領域Eaの、第2の撮影画像40Bにおける対応するエッジ領域Ebに対する、移動方向および移動量を示すベクトルで表される。 FIG. 8F is a schematic diagram showing the motion information V in an enlarged manner. In the present embodiment, the motion information V is represented by a vector indicating the moving direction and the moving amount of the edge region Ea included in the first captured image 40A with respect to the corresponding edge region Eb in the second captured image 40B. The
抽出部30Fは、第1の抽出画像41Aに含まれる全てのエッジ領域Eaの各々について、第2の抽出画像41Bにおける対応するエッジ領域Ebからの動き情報Vを算出する。これによって、抽出部30Fは、図8(E)に示す、動き情報付与画像42Aを得る。 The extraction unit 30F calculates the motion information V from the corresponding edge region Eb in the second extracted image 41B for each of all the edge regions Ea included in the first extracted image 41A. Thereby, the extraction unit 30F obtains a motion information imparted image 42A shown in FIG.
動き情報付与画像42Aは、第1の撮影画像40Aに含まれるエッジ領域Eaの各々に、動き情報Vを付与したものである。 The motion information imparted image 42A is obtained by imparting motion information V to each of the edge regions Ea included in the first captured image 40A.
抽出部30Fは、例えば、公知のMRF(Markov Random Field:マルコフ確立場)を用いて、エッジ領域Eaの各々について動き情報Vを算出する。 For example, the extraction unit 30F calculates the motion information V for each of the edge regions Ea using a known MRF (Markov Random Field).
具体的には、MRF式は、下記式(1)で表される。 Specifically, the MRF formula is represented by the following formula (1).
式(1)中、NCC()は、正規化相互相関の演算結果を示す。また、式(1)中、λは、0.005である。また、式(1)中、Nは、処理対象の画素領域Gの周辺の他の画素領域Gであって、且つ、エッジ領域Eを含む、4つの画素領域Gを示す。 In the formula (1), NCC () indicates a calculation result of normalized cross correlation. In the formula (1), λ is 0.005. In Expression (1), N indicates four pixel regions G that are other pixel regions G around the pixel region G to be processed and include the edge region E.
また、式(1)中、S、CL、εは、各々、下記式(2)〜式(4)で表される。 In the formula (1), S, C L and ε are represented by the following formulas (2) to (4), respectively.
図7に戻り、説明を続ける。分離部30Hは、第1の撮影画像40Aに含まれるエッジ領域Eaごとに算出された動き情報Vを、前景側の前景画像と、背景側の背景画像と、に分離する。 Returning to FIG. 7, the description will be continued. The separation unit 30H separates the motion information V calculated for each edge region Ea included in the first captured image 40A into a foreground image on the foreground side and a background image on the background side.
前景側とは、撮影画像40における、奥行き閾値より撮影部14に近い側を示す。一方、背景側とは、撮影画像40における、奥行き閾値より撮影部14から遠い側を示す。奥行き閾値は、予め定めればよい。 The foreground side indicates a side closer to the photographing unit 14 than the depth threshold in the photographed image 40. On the other hand, the background side indicates a side farther from the photographing unit 14 than the depth threshold in the photographed image 40. The depth threshold may be determined in advance.
背景画像は、算出部30Gによって算出されたエッジ領域Eの動き情報Vの内、奥行き閾値より前景側に位置するエッジ領域Eの動き情報Vを、撮影画像40における該エッジ領域Eに対応する位置に配置した画像である。 In the background image, the motion information V of the edge region E located on the foreground side of the depth threshold among the motion information V of the edge region E calculated by the calculation unit 30G is a position corresponding to the edge region E in the captured image 40. It is the image arranged in.
前景画像は、算出部30Gによって算出されたエッジ領域Eの動き情報Vの内、奥行き閾値より背景側に位置するエッジ領域Eの動き情報Vを、撮影画像40における該エッジ領域Eに対応する位置に配置した画像である。 In the foreground image, the motion information V of the edge region E located on the background side of the depth threshold among the motion information V of the edge region E calculated by the calculation unit 30G is a position corresponding to the edge region E in the captured image 40. It is the image arranged in.
具体的には、分離部30Hは、図8(E)に示す動き情報付与画像42に含まれる動き情報Vを、所定の動き閾値以上の動き量を示す動き情報V1と、該動き閾値未満の動き量を示す動き情報V2と、に分類する。そして、分離部30Hは、動き情報付与画像42を、背景画像43A2と、前景画像43A1と、に分類する(図9(B)、図9(A)参照)。なお、上記動き閾値は、上記奥行き閾値に応じて、予め定めればよい。 Specifically, the separation unit 30H converts the motion information V included in the motion information added image 42 illustrated in FIG. 8E into motion information V1 indicating a motion amount equal to or greater than a predetermined motion threshold and less than the motion threshold. It is classified into motion information V2 indicating the amount of motion. Then, the separation unit 30H classifies the motion information addition image 42 into a background image 43A2 and a foreground image 43A1 (see FIGS. 9B and 9A). The motion threshold value may be determined in advance according to the depth threshold value.
このため、図9(B)に示すように、前景画像43A1は、動き情報付与画像42(図8(E)参照)について、第1の撮影画像40Aにおける動き情報V1の付与されたエッジ領域Eaの位置および位置関係を維持したまま、動き情報V1を抽出した画像となる。 For this reason, as shown in FIG. 9B, the foreground image 43A1 is the edge region Ea to which the motion information V1 in the first captured image 40A is attached to the motion information added image 42 (see FIG. 8E). The image is obtained by extracting the motion information V1 while maintaining the position and the positional relationship.
また、図9(A)に示すように、背景画像43A2は、動き情報付与画像42(図8(E)参照)について、動き情報V2の付与されたエッジ領域Eaの位置および位置関係を維持したまま、動き情報V2を抽出した画像となる。 Further, as shown in FIG. 9A, the background image 43A2 maintains the position and positional relationship of the edge region Ea to which the motion information V2 is added with respect to the motion information added image 42 (see FIG. 8E). The motion information V2 is extracted as it is.
詳細には、分離部30Hは、第1の撮影画像40Aから生成した動き情報付与画像42(図8(E)参照)を、撮影画像40の撮影空間における奥行き方向に沿って、複数の平面を層状に配置した構成とみなす。そして、分離部30Hは、動き情報付与画像42を構成する複数の平面を、奥行きが所定の奥行き閾値より手前側(前面側)(撮影部14側)の平面群と、閾値より奥側(背景側)(撮影部14から離れる方向)の平面群と、に分離する。平面群を構成する各平面(レイヤ)には、対応する奥行きに位置するエッジ領域Eおよび動き情報Vが付与されている。 Specifically, the separation unit 30H converts the motion information-added image 42 (see FIG. 8E) generated from the first captured image 40A into a plurality of planes along the depth direction in the imaging space of the captured image 40. Considered a layered configuration. Then, the separation unit 30H includes a plurality of planes constituting the motion information imparted image 42 in a plane group whose depth is closer to the front side (front side) (imaging unit 14 side) than the predetermined depth threshold value and to the back side (background) from the threshold value. Side) (in a direction away from the imaging unit 14) and a plane group. Each plane (layer) constituting the plane group is given an edge region E and motion information V located at the corresponding depth.
そして、分離部30Hは、奥行き閾値より前景側の平面群を、前景側の1つの面として扱う。このとき、分離部30Hは、奥行き閾値より前景側の平面群を、1つの面とするための射影変換行列を、公知のRANSAC(Random Sample Consensus)手法を用いて求める。そして、この1面に含まれるエッジ領域Eaの各々の動き情報V1の内、性能のよいエッジ領域Eaの動き情報V1の群を、RAMSAC手法により求め、前景画像43A1とする(図9(B)参照)。 Then, the separation unit 30H treats the plane group on the foreground side from the depth threshold as one surface on the foreground side. At this time, the separation unit 30H obtains a projective transformation matrix for making the plane group on the foreground side from the depth threshold as one surface using a known RANSAC (Random Sample Consensus) method. Then, among the pieces of motion information V1 of the edge region Ea included in the one surface, a group of motion information V1 of the edge region Ea having good performance is obtained by the RAMSAC method, and is set as the foreground image 43A1 (FIG. 9B). reference).
同様に、分離部30Hは、奥行き閾値より背景側の平面群を、背景側の1つの面として扱う。このとき、分離部30Hは、奥行き閾値より背景側の平面群を、1つの面とするための射影変換行列を、公知のRANSAC手法を用いて求める。そして、この1面に含まれるエッジ領域Eaの各々の動き情報V2の内、性能のよいエッジ領域Eaの動き情報V2の群を、RAMSAC手法により求め、背景画像43A2とする(図9(A)参照)。 Similarly, the separation unit 30H treats the group of planes on the background side from the depth threshold as one surface on the background side. At this time, the separation unit 30H obtains a projective transformation matrix for making the plane group on the background side from the depth threshold as one surface using a known RANSAC method. Then, among the pieces of motion information V2 of the edge region Ea included in the one surface, a group of the motion information V2 of the edge region Ea having good performance is obtained by the RAMSAC method and is set as the background image 43A2 (FIG. 9A). reference).
ここで、撮影部14を移動させながら撮影した場合、得られた撮影画像40に含まれる被写体は、撮影部14に対してより遠い位置にある被写体と、撮影部14に対してより近い位置にある被写体との間で、撮影画像40間における移動量が異なる。具体的には、撮影部14に対してより遠い位置にある被写体の移動量は、撮影部14に対してより近い位置にある被写体の移動量に比べて小さい。 Here, when shooting is performed while moving the shooting unit 14, the subject included in the obtained shot image 40 is located at a position farther from the shooting unit 14 and closer to the shooting unit 14. The amount of movement between the captured images 40 differs with a certain subject. Specifically, the amount of movement of the subject located farther from the photographing unit 14 is smaller than the amount of movement of the subject located closer to the photographing unit 14.
このため、動き情報付与画像42を、背景画像43A2と前景画像43A1とに分離する時に用いる、上記動き閾値は、奥行き閾値より背景側の被写体と奥行き閾値より前景側の被写体とを分離可能となるように、予め予測した移動量に応じて、予め設定すればよい。すなわち、上記動き閾値は、第1の撮影画像40Aと第2の撮影画像40Bとの撮影位置の差の大きさ、計測対象の構造体20の種類、などに応じて、適宜調整すればよい。また、上記動き閾値は、ユーザによる入力部33の操作指示などによって、適宜変更可能としてもよい。 For this reason, the motion threshold value used when the motion information imparted image 42 is separated into the background image 43A2 and the foreground image 43A1 can separate the subject on the background side from the depth threshold and the subject on the foreground side from the depth threshold. In this way, it may be set in advance according to the movement amount predicted in advance. That is, the motion threshold value may be adjusted as appropriate according to the magnitude of the difference between the shooting positions of the first captured image 40A and the second captured image 40B, the type of the structure 20 to be measured, and the like. Further, the motion threshold value may be changed as appropriate according to an operation instruction of the input unit 33 by the user.
すなわち、本実施の形態では、分離部30Hは、第1の撮影画像40A(図8(B)参照)における、エッジ領域Eaの各々に付与した動き情報Vの内(図8(E)参照)、動き閾値より小さい動き情報Vを動き情報V2とし、動き閾値以上の動き情報Vを動き情報V1とする。そして、分離部30Hは、動き情報付与画像42を、動き閾値より小さい動き情報V2を規定した背景画像43A2と、動き閾値以上の動き情報V1を規定した前景画像43A1と、に分類する(図9(B)、図9(A)参照)。 That is, in the present embodiment, the separation unit 30H includes the motion information V given to each of the edge regions Ea in the first captured image 40A (see FIG. 8B) (see FIG. 8E). The motion information V smaller than the motion threshold is referred to as motion information V2, and the motion information V greater than or equal to the motion threshold is referred to as motion information V1. Then, the separation unit 30H classifies the motion information imparted image 42 into a background image 43A2 that defines motion information V2 that is smaller than the motion threshold and a foreground image 43A1 that defines motion information V1 that is greater than or equal to the motion threshold (FIG. 9). (B), see FIG. 9A).
なお、構造体20の撮影時の撮影部14の移動方向や移動方法を変更することで、撮影部14に対してより遠い位置にある被写体の移動量が、撮影部14に対してより近い位置にある被写体の移動量に比べて大きくなる場合がある。この場合、分離部30Hは、動き閾値より小さい動き情報Vを動き情報V1とし、動き閾値以上の動き情報Vを動き情報V2とすればよい。 Note that the movement amount of the subject at a position farther from the photographing unit 14 is closer to the photographing unit 14 by changing the moving direction and moving method of the photographing unit 14 at the time of photographing the structure 20. May be larger than the amount of movement of the subject. In this case, the separation unit 30H may set the motion information V smaller than the motion threshold as the motion information V1, and the motion information V equal to or higher than the motion threshold as the motion information V2.
動き推定部30Iは、背景画像43A2における、エッジ領域Eaごとの動き情報V2に基づいて、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する。 The motion estimation unit 30I estimates the motion information V3 of each of the plurality of pixel regions G constituting the background image 43A2 based on the motion information V2 for each edge region Ea in the background image 43A2.
ここで、前景画像43A1の動き情報Vの大きさと、背景画像43A2の動き情報Vの大きさと、を比較すると、通常は、背景画像43A2の動き情報Vの方が小さい。このため、背景画像43A2の動き情報Vの方が、前景画像43A1より安定した情報を取得できるケースが多い。安定した情報とは、動き情報V(位置と大きさ)に関して、ノイズが少ない、という意味である。このように、背景画像43A2の動き情報Vの方が、前景画像43A1の動き用法Vより安定していることから、本実施の形態では、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定し、後述する推定画像の生成に用いる(詳細後述)。 Here, when the magnitude of the motion information V of the foreground image 43A1 is compared with the magnitude of the motion information V of the background image 43A2, the motion information V of the background image 43A2 is usually smaller. For this reason, the motion information V of the background image 43A2 can acquire more stable information than the foreground image 43A1 in many cases. The stable information means that there is little noise with respect to the motion information V (position and size). Thus, since the motion information V of the background image 43A2 is more stable than the motion usage V of the foreground image 43A1, in the present embodiment, each of the plurality of pixel regions G constituting the background image 43A2 The motion information V3 is estimated and used to generate an estimated image to be described later (details will be described later).
図9(C)は、背景動き画像44A2の一例を示す模式図である。背景動き画像44A2は、背景画像43A2(図9(A)参照)によってエッジ領域Eごとに規定された動き情報V2から、背景画像43A2を構成する画素領域Gの各々の動き情報V(動き情報V3と称して説明する)を推定したものである。 FIG. 9C is a schematic diagram illustrating an example of the background motion image 44A2. The background motion image 44A2 is obtained from the motion information V2 defined for each edge region E by the background image 43A2 (see FIG. 9A), and the motion information V (motion information V3) of each pixel region G constituting the background image 43A2. This will be explained as follows.
画素領域Gとは、予め定めた画素数の画素の占める領域である。本実施の形態では、画素領域Gは、1つの画素の占める領域であるとして説明する。 The pixel area G is an area occupied by a predetermined number of pixels. In the present embodiment, the pixel area G will be described as an area occupied by one pixel.
動き推定部30Iは、エッジ領域Eごとに規定された動き情報V2を用いて、画素領域Gごとの動き情報V3を補完する。この補完処理によって、動き推定部30Iは、画素領域Gの各々の動き情報V3を推定する。この補完処理には、公知の補完手法を用いればよい。公知の補完手法は、例えば、公知のobstruction−free手法に示される手法である。 The motion estimation unit 30I supplements the motion information V3 for each pixel region G using the motion information V2 defined for each edge region E. By this complementing process, the motion estimation unit 30I estimates the motion information V3 of each pixel region G. A known complementing method may be used for this complementing process. A well-known complementing technique is a technique shown in the well-known obstruction-free technique, for example.
これによって、動き推定部30Iは、第1の撮影画像40Aにおける、所定の奥行き閾値より背景側のエッジ領域Eの示す動き情報V2を用いて、第1の撮影画像40Aを構成する全ての画素領域Gの動き情報V(動き情報V3)を推定する。すなわち、動き推定部30Iは、背景画像43A2の動き情報V2に応じた動き情報V3を、第1の撮影画像40Aを構成する全ての画素領域Gに適用する。 Thereby, the motion estimation unit 30I uses all the pixel regions constituting the first captured image 40A using the motion information V2 indicated by the edge region E on the background side from the predetermined depth threshold in the first captured image 40A. G motion information V (motion information V3) is estimated. That is, the motion estimation unit 30I applies the motion information V3 corresponding to the motion information V2 of the background image 43A2 to all the pixel regions G that constitute the first captured image 40A.
第1の撮影画像40Aを構成する全ての画素領域Gに、背景画像43A2の動き情報V2に応じた動き情報V3を規定した画像を、背景動き画像44A2と称して説明する。 An image in which motion information V3 corresponding to the motion information V2 of the background image 43A2 is defined in all the pixel regions G constituting the first captured image 40A will be referred to as a background motion image 44A2.
なお、図9(C)には、背景動き画像44A2の一部の画素領域Gについて、動き情報V3を示す矢印を示したが、実際には、背景動き画像44A2の全ての画素領域Gについて、動き情報V3が規定されている。 In FIG. 9C, an arrow indicating the motion information V3 is shown for a part of the pixel region G of the background motion image 44A2, but actually, for all the pixel regions G of the background motion image 44A2, Motion information V3 is defined.
図1に戻り、次に、生成部30Cについて説明する。生成部30Cは、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報V3によって示される移動方向および移動量に応じて移動させる。 Returning to FIG. 1, the generation unit 30C will be described next. The generation unit 30C sets each of the pixel areas G constituting the first captured image 40A to the movement direction and the movement amount indicated by the motion information V3 estimated for each of the corresponding pixel areas G in the background image 43A2. Move accordingly.
このとき、生成部30Cは、動き情報V3によって示される移動方向が、第2の撮影画像40Bに含まれるエッジ領域Ebから第1の撮影画像40Aに含まれる対応するエッジ領域Eaへの移動方向を示す場合、第1の撮影画像40Aを構成する画素領域Gの各々を、動き情報V3によって示される移動方向の逆方向に移動させる。 At this time, in the generation unit 30C, the movement direction indicated by the motion information V3 indicates the movement direction from the edge region Eb included in the second captured image 40B to the corresponding edge region Ea included in the first captured image 40A. When shown, each of the pixel regions G constituting the first captured image 40A is moved in the direction opposite to the moving direction indicated by the motion information V3.
詳細には、生成部30Cは、第1の撮影画像40Aを構成する画素領域Gの各々と、背景動き画像44A2を構成する画素領域Gの各々と、について、同じ画素位置の対を特定する。そして、生成部30Cは、第1の撮影画像40Aにおける画素領域Gを、背景動き画像44A2における同じ画素位置の画素領域Gに付与された動き情報V3によって示される移動方向の逆方向に、該動き情報V3によって示される移動量、移動させる。 Specifically, the generation unit 30C identifies the same pair of pixel positions for each of the pixel areas G constituting the first captured image 40A and each of the pixel areas G constituting the background motion image 44A2. Then, the generation unit 30C moves the pixel region G in the first captured image 40A in the direction opposite to the movement direction indicated by the motion information V3 given to the pixel region G at the same pixel position in the background motion image 44A2. The amount of movement indicated by the information V3 is moved.
一方、生成部30Cは、動き情報V3によって示される移動方向が、第1の撮影画像40Aに含まれるエッジ領域Eから第2の撮影画像40Bに含まれる対応するエッジ領域Eへの移動方向を示す場合、第1の撮影画像40Aを構成する画素領域Gの各々を、動き情報V3によって示される移動方向へ、該動き情報V3によって示される移動量、移動させればよい。 On the other hand, in the generation unit 30C, the movement direction indicated by the motion information V3 indicates the movement direction from the edge region E included in the first captured image 40A to the corresponding edge region E included in the second captured image 40B. In this case, each pixel region G constituting the first captured image 40A may be moved in the movement direction indicated by the motion information V3 by the movement amount indicated by the movement information V3.
このようにして、生成部30Cは、第1の撮影画像40A(図8(B)参照)を、背景動き画像44A2(図9(C)参照)を構成する画素領域Gの各々に付与された動き情報V3に応じて変形する。 In this way, the generation unit 30C adds the first captured image 40A (see FIG. 8B) to each of the pixel regions G that form the background motion image 44A2 (see FIG. 9C). Deformation is performed according to the motion information V3.
これによって、生成部30Cは、第1の撮影画像40Aから第2の撮影画像40Bを推定した、推定画像45(図9(D)参照)を生成する。 Accordingly, the generation unit 30C generates an estimated image 45 (see FIG. 9D) in which the second captured image 40B is estimated from the first captured image 40A.
ここで、上述したように、撮影部14を移動させながら撮影した場合、得られた撮影画像40中における被写体の位置は、撮影部14に対してより遠い位置にある被写体と、撮影部14に対してより近い位置にある被写体との間で、撮影画像40間における移動方向および移動量が異なるものとなる。また、背景動き画像44A2は、第1の撮影画像40Aの画素領域Gの各々に、背景画像43A2に示される動き情報V2に応じた動き情報V3を規定したものである。 Here, as described above, when shooting is performed while moving the shooting unit 14, the position of the subject in the obtained shot image 40 is determined by the subject farther than the shooting unit 14 and the shooting unit 14. On the other hand, the moving direction and the moving amount between the captured images 40 are different between subjects closer to each other. The background motion image 44A2 defines motion information V3 corresponding to the motion information V2 indicated in the background image 43A2 in each pixel region G of the first captured image 40A.
このため、第1の撮影画像40Aを背景動き画像44A2に示される動き情報V3を用いて変形することによって生成された推定画像45は、奥行き閾値より背景側の背景領域については第2の撮影画像40Bに近いものとなるが、奥行き閾値より前景側の前景領域については、第2の撮影画像40Bとは異なり変形した画像領域となる。 Therefore, the estimated image 45 generated by transforming the first captured image 40A using the motion information V3 indicated in the background motion image 44A2 is the second captured image for the background region on the background side from the depth threshold. Although it is close to 40B, the foreground area on the foreground side from the depth threshold is a deformed image area unlike the second captured image 40B.
図7に戻り説明を続ける。解析部30Dは、第2の撮影画像40Bと、第1の撮影画像40Aから第2の撮影画像40Bを推定した推定画像45と、の差分領域に基づいて、構造体20を構成する部材の部材情報を導出する。 Returning to FIG. The analysis unit 30D is a member that constitutes the structure 20 based on a difference area between the second captured image 40B and the estimated image 45 obtained by estimating the second captured image 40B from the first captured image 40A. Deriving information.
図10(A)は、図8(A)の第2の撮影画像40Bと同様である。図10(B)は、図9(D)の推定画像45と同様である。 FIG. 10A is the same as the second captured image 40B of FIG. FIG. 10B is the same as the estimated image 45 in FIG.
解析部30Dは、第2の撮影画像40Bと推定画像45との差分領域49を算出する。図10(C)は、差分領域49を示す差分抽出画像46の一例である。差分抽出画像46は、前景側の差分が、背景側の差分に比べて大きい事を示す、画像である。差分の大きい、すなわち移動量のより大きい前景側の部材は、部材の形状を保った状態で差分領域49として表されやすい。 The analysis unit 30D calculates a difference area 49 between the second captured image 40B and the estimated image 45. FIG. 10C is an example of the difference extraction image 46 showing the difference area 49. The difference extraction image 46 is an image showing that the difference on the foreground side is larger than the difference on the background side. A member on the foreground side having a large difference, that is, a large movement amount is easily represented as a difference region 49 in a state in which the shape of the member is maintained.
そこで、解析部30Dは、差分領域49を解析することで、部材21(本実施の形態では、主筋22Aまたは主筋24A)を示す、部材情報52を導出する。 Therefore, the analysis unit 30D analyzes the difference area 49 to derive member information 52 indicating the member 21 (in this embodiment, the main muscle 22A or the main muscle 24A).
部材情報52は、部材21(主筋22Aまたは主筋24A)の数、部材21の位置、部材21の径、の少なくとも1つを含む。部材21の位置は、他の部材21に対する相対位置を示す。本実施の形態では、部材情報52は、少なくとも部材21(主筋22Aまたは主筋24A)の数を含む。 The member information 52 includes at least one of the number of members 21 (the main reinforcement 22A or the main reinforcement 24A), the position of the member 21, and the diameter of the member 21. The position of the member 21 indicates a relative position with respect to the other member 21. In the present embodiment, the member information 52 includes at least the number of members 21 (the main muscle 22A or the main muscle 24A).
解析部30Dは、差分領域49を公知の画像処理方法により解析し、部材情報52を得ればよい。 The analysis unit 30D may analyze the difference area 49 by a known image processing method to obtain the member information 52.
本実施の形態では、解析部30Dは、差分領域49を解析することで、構造体20における前景側に配置された部材21の部材情報52を導出する。 In the present embodiment, the analysis unit 30D analyzes the difference region 49 to derive member information 52 of the member 21 arranged on the foreground side in the structure 20.
例えば、解析部30Dは、差分領域49を示す差分抽出画像46(図10(C)参照)について、確率的ハフ変換を施すことで、棒状の部材21のシルエットを特定することで、部材21(主筋22A、主筋24A)を検出する。そして、解析部30Dは、検出した部材21の数を計数することで、部材情報52を算出してもよい。 For example, the analysis unit 30D performs a probabilistic Hough transform on the difference extraction image 46 (see FIG. 10C) showing the difference region 49, thereby specifying the silhouette of the rod-shaped member 21 to thereby determine the member 21 ( The main muscle 22A and the main muscle 24A) are detected. Then, the analysis unit 30D may calculate the member information 52 by counting the number of detected members 21.
本実施の形態では、解析部30Dは、部材21の数を、部材情報52として得る。図10(D)は、解析部30Dによる解析結果47の一例を示す図である。図10(D)に示す例では、解析部30Dは、柱部材22の主筋22Aの数“4本”と、これらの主筋22Aの各々の位置と、を部材情報52として得る。 In the present embodiment, analysis unit 30 </ b> D obtains the number of members 21 as member information 52. FIG. 10D is a diagram illustrating an example of the analysis result 47 obtained by the analysis unit 30D. In the example illustrated in FIG. 10D, the analysis unit 30 </ b> D obtains the number “4” of the main bars 22 </ b> A of the column member 22 and the position of each of the main bars 22 </ b> A as the member information 52.
なお、解析部30Dは、公知のシルエット補正処理を行った後に、確率的ハフ変換を行ってもよい。シルエット補正処理には、メディアンフィルタ、エロード・ダイロード処理などがある。 The analysis unit 30D may perform the probabilistic Hough transform after performing a known silhouette correction process. The silhouette correction process includes a median filter, an eload / dieload process, and the like.
また、本実施の形態では、主筋24Aおよび梁部材24は、鉛直方向Xまたは水平方向Yに沿って延伸して配置されている状態で撮影される。このため、解析部30Dは、重力センサによる補正を行うことで、鉛直方向Xまたは水平方向Yのバイアスをかけた後に、部材情報52を導出してもよい。 In the present embodiment, the main bars 24A and the beam members 24 are photographed in a state where they are arranged extending along the vertical direction X or the horizontal direction Y. For this reason, the analysis unit 30D may derive the member information 52 after applying a bias in the vertical direction X or the horizontal direction Y by performing correction by the gravity sensor.
また、解析部30Dは、差分抽出画像46について、白黒反転処理や、ノイズ除去処理を施した後に、部材情報52を導出してもよい。 Further, the analysis unit 30D may derive the member information 52 after performing the black-and-white reversal process or the noise removal process on the difference extraction image 46.
なお、図3(B)に示すように、計測対象が梁部材24の主筋24Aである場合、制御部30は、構造体20に対して鉛直方向Xに移動させることで撮影された第1の撮影画像40Aおよび第2の撮影画像40Bを用いて、上記と同様の処理を行うことで、梁部材24の主筋24Aの数を、部材情報52として得る。 As shown in FIG. 3B, when the measurement target is the main bar 24 </ b> A of the beam member 24, the control unit 30 takes the first image taken by moving the structure 20 in the vertical direction X. The number of main bars 24A of the beam member 24 is obtained as member information 52 by performing the same processing as described above using the captured image 40A and the second captured image 40B.
図7に戻り、説明を続ける。出力制御部30Eは、部材情報52を出力するように制御する。例えば、出力制御部30Eは、部材情報52を示す画像を表示するように、表示部34を制御する。この場合、表示部34には、部材情報52を示す画像が表示される。 Returning to FIG. 7, the description will be continued. The output control unit 30E performs control to output the member information 52. For example, the output control unit 30E controls the display unit 34 to display an image indicating the member information 52. In this case, an image indicating the member information 52 is displayed on the display unit 34.
また、例えば、出力制御部30Eは、部材情報52を、通信部32を介して外部装置へ送信する。この場合、外部装置は、情報処理装置12から部材情報52を受付け、各種処理に用いる。なお、出力制御部30Eは、部材情報52を、記憶部35へ記憶してもよい。 For example, the output control unit 30E transmits the member information 52 to the external device via the communication unit 32. In this case, the external device receives the member information 52 from the information processing device 12 and uses it for various processes. The output control unit 30E may store the member information 52 in the storage unit 35.
なお、取得部30A、推定部30B、生成部30C、解析部30D、出力制御部30E、抽出部30F、算出部30G、分離部30H、動き推定部30I、の少なくとも1つの機能を、サーバ装置などの外部装置に設けた構成としてもよい。 Note that at least one of the functions of the acquisition unit 30A, the estimation unit 30B, the generation unit 30C, the analysis unit 30D, the output control unit 30E, the extraction unit 30F, the calculation unit 30G, the separation unit 30H, and the motion estimation unit 30I is used as a server device or the like. It is good also as a structure provided in the external device.
また、解析部30Dは、導出した部材情報52と、構造体20の設計情報と、を比較し、導出した部材情報52が設計情報と一致するか否かを判定してもよい。この場合、出力制御部30Eは、この判定結果を示す情報を、更に出力制御すればよい。 The analysis unit 30D may compare the derived member information 52 with the design information of the structure 20 and determine whether the derived member information 52 matches the design information. In this case, the output control unit 30E may further control output of information indicating the determination result.
次に、情報処理装置12の制御部30が実行する、解析処理の手順の一例を説明する。 Next, an example of an analysis process procedure executed by the control unit 30 of the information processing apparatus 12 will be described.
図11は、情報処理装置12の制御部30が実行する、解析処理の手順の一例を示す、フローチャートである。 FIG. 11 is a flowchart illustrating an example of the analysis processing procedure executed by the control unit 30 of the information processing apparatus 12.
まず、取得部30Aが、第1の撮影画像40Aおよび第2の撮影画像40Bを取得する(ステップS100)。次に、抽出部30Fが、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、エッジ領域Eを抽出する(ステップS102)。 First, the acquisition unit 30A acquires the first captured image 40A and the second captured image 40B (step S100). Next, the extraction unit 30F extracts the edge region E from each of the first captured image 40A and the second captured image 40B (step S102).
次に、算出部30Gが、第1の撮影画像40Aに含まれる複数のエッジ領域Eaについて、第2の撮影画像40Bに含まれる対応するエッジ領域Ebに対する、動き情報Vを算出する(ステップS104)。 Next, the calculation unit 30G calculates the motion information V for the corresponding edge region Eb included in the second captured image 40B for the plurality of edge regions Ea included in the first captured image 40A (step S104). .
次に、分離部30Hが、第1の撮影画像40Aに含まれるエッジ領域Eaごとに算出された動き情報Vを、背景画像43A2と前景画像43A1とに分離する(ステップS106)。 Next, the separation unit 30H separates the motion information V calculated for each edge region Ea included in the first captured image 40A into the background image 43A2 and the foreground image 43A1 (step S106).
次に、動き推定部30Iが、背景画像43A2における、エッジ領域Eaごとの動き情報V2に基づいて、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する(ステップS108)。 Next, the motion estimation unit 30I estimates the motion information V3 of each of the plurality of pixel regions G constituting the background image 43A2 based on the motion information V2 for each edge region Ea in the background image 43A2 (step S108). .
次に、生成部30Cが、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報V3に応じて移動させる(ステップS110)。ステップS110では、生成部30Cは、第1の撮影画像40A(図8(B)参照)を、背景動き画像44A2(図9(C)参照)を構成する画素領域Gの各々に付与された動き情報V3に応じて変形する。ステップS110の処理によって、生成部30Cは、第1の撮影画像40Aから第2の撮影画像40Bを推定した、推定画像45(図9(D)参照)を生成する。 Next, the generating unit 30C moves each of the pixel regions G constituting the first captured image 40A according to the motion information V3 estimated for each of the corresponding pixel regions G in the background image 43A2 ( Step S110). In step S110, the generation unit 30C moves the first captured image 40A (see FIG. 8B) to each of the pixel regions G constituting the background motion image 44A2 (see FIG. 9C). Deformation is performed according to the information V3. Through the processing in step S110, the generation unit 30C generates an estimated image 45 (see FIG. 9D) obtained by estimating the second captured image 40B from the first captured image 40A.
次に、解析部30Dが、第2の撮影画像40Bと推定画像45との差分領域49を特定する(ステップS112)。 Next, the analysis unit 30D specifies a difference area 49 between the second captured image 40B and the estimated image 45 (step S112).
次に、解析部30Dは、差分領域49を解析することによって部材21(本実施の形態では、主筋22Aまたは主筋24A)を示す、部材情報52を導出する(ステップS114)。 Next, the analysis unit 30D derives member information 52 indicating the member 21 (in this embodiment, the main muscle 22A or the main muscle 24A) by analyzing the difference region 49 (step S114).
出力制御部30Eは、ステップS114で導出された部材情報52を記憶部35へ記憶する(ステップS116)。次に、出力制御部30Eは、ステップS114で導出された部材情報52を、表示部34へ出力する(ステップS118)。そして、本ルーチンを終了する。 The output control unit 30E stores the member information 52 derived in step S114 in the storage unit 35 (step S116). Next, the output control unit 30E outputs the member information 52 derived in step S114 to the display unit 34 (step S118). Then, this routine ends.
以上説明したように、本実施の形態の情報処理装置12は、取得部30Aと、推定部30Bと、生成部30Cと、解析部30Dと、を備える。取得部30Aは、構造体20に対する撮影位置の異なる、第1の撮影画像40Aおよび第2の撮影画像40Bを取得する。推定部30Bは、第1の撮影画像40Aに含まれる特徴領域(エッジ領域E)の、第2の撮影画像40Bに含まれる対応する特徴領域(エッジ領域E)に対する移動方向および移動量を示す動き情報Vに基づいて、第1の撮影画像40Aにおける背景側の背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する。生成部30Cは、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報V3によって示される移動方向および移動量に応じて移動させることによって、第2の撮影画像40Bを推定した推定画像45を生成する。解析部30Dは、第2の撮影画像40Bと推定画像45との差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出する。 As described above, the information processing apparatus 12 according to the present embodiment includes the acquisition unit 30A, the estimation unit 30B, the generation unit 30C, and the analysis unit 30D. The acquisition unit 30A acquires the first captured image 40A and the second captured image 40B that are different in the capturing position with respect to the structure 20. The estimation unit 30B moves the feature region (edge region E) included in the first photographed image 40A with respect to the corresponding feature region (edge region E) included in the second photographed image 40B. Based on the information V, the motion information V3 of each of the plurality of pixel regions G constituting the background-side background image 43A2 in the first captured image 40A is estimated. The generation unit 30C sets each of the pixel areas G constituting the first captured image 40A to the movement direction and the movement amount indicated by the motion information V3 estimated for each of the corresponding pixel areas G in the background image 43A2. The estimated image 45 which estimated the 2nd picked-up image 40B is produced | generated by moving according to it. The analysis unit 30 </ b> D derives member information 52 of the members 21 constituting the structure 20 based on the difference area 49 between the second captured image 40 </ b> B and the estimated image 45.
ここで、上述したように、撮影部14を移動させながら撮影した場合、得られた撮影画像40中における被写体の位置は、撮影部14に対してより遠い位置にある被写体と、撮影部14に対してより近い位置にある被写体との間で、撮影画像40間における移動方向および移動量が異なるものとなる。また、背景動き画像44A2は、第1の撮影画像40Aの画素領域Gの各々に、背景画像43A2に示される動き情報V2に応じた動き情報V3を付与したものである。 Here, as described above, when shooting is performed while moving the shooting unit 14, the position of the subject in the obtained shot image 40 is determined by the subject farther than the shooting unit 14 and the shooting unit 14. On the other hand, the moving direction and the moving amount between the captured images 40 are different between subjects closer to each other. The background motion image 44A2 is obtained by adding motion information V3 corresponding to the motion information V2 shown in the background image 43A2 to each of the pixel regions G of the first captured image 40A.
このため、第1の撮影画像40Aを背景動き画像44A2に示される動き情報V3を用いて変形することによって生成された推定画像45は、背景側の背景領域については第2の撮影画像40Bに近いものとなるが、前景側の前景領域については、第2の撮影画像40Bとは異なり変形したものとなる。 Therefore, the estimated image 45 generated by transforming the first captured image 40A using the motion information V3 indicated in the background motion image 44A2 is close to the second captured image 40B in the background region on the background side. However, unlike the second captured image 40B, the foreground area on the foreground side is deformed.
そして、本実施の形態では、情報処理装置12は、第2の撮影画像40Bと、推定画像45と、の差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出する。このため、本実施の形態の情報処理装置12では、部材21の部材情報52を、ホワイトボード等の備品を用いることなく、容易に導出することができる。 In the present embodiment, the information processing apparatus 12 derives the member information 52 of the member 21 constituting the structure 20 based on the difference area 49 between the second captured image 40B and the estimated image 45. . For this reason, in the information processing apparatus 12 of this Embodiment, the member information 52 of the member 21 can be derived | led-out easily, without using fixtures, such as a white board.
従って、本実施の形態の情報処理装置12は、複数の部材21からなる構造体20の部材情報52を、容易に得ることができる。 Therefore, the information processing apparatus 12 according to the present embodiment can easily obtain the member information 52 of the structure 20 including the plurality of members 21.
推定部30Bは、抽出部30Fと、算出部30Gと、分離部30Hと、動き推定部30Iと、を有する。抽出部30Fは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、複数の特徴領域Eを抽出する。算出部30Gは、第1の撮影画像40Aに含まれる複数の特徴領域Eについて、第2の撮影画像40Bに含まれる対応する特徴領域Eに対する動き情報V(動き情報V1、動き情報V2)を算出する。分離部30Hは、第1の撮影画像40Aに含まれるエッジ領域Eごとに算出された動き情報Vを、前景側の前景画像43A1と、背景側の背景画像43A2と、に分離する。 The estimation unit 30B includes an extraction unit 30F, a calculation unit 30G, a separation unit 30H, and a motion estimation unit 30I. The extraction unit 30F extracts a plurality of feature regions E from each of the first captured image 40A and the second captured image 40B. The calculation unit 30G calculates the motion information V (motion information V1, motion information V2) for the corresponding feature area E included in the second captured image 40B for the plurality of feature areas E included in the first captured image 40A. To do. The separation unit 30H separates the motion information V calculated for each edge region E included in the first captured image 40A into the foreground image 43A1 on the foreground side and the background image 43A2 on the background side.
動き推定部30Iは、背景画像43A2における特徴領域(エッジ領域E)ごとの動き情報V2に基づいて、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する。 The motion estimation unit 30I estimates the motion information V3 of each of the plurality of pixel regions G constituting the background image 43A2 based on the motion information V2 for each feature region (edge region E) in the background image 43A2.
また、解析部30Dは、差分領域49を解析し、構造体20における前景側に配置された部材の部材情報52を得る。 In addition, the analysis unit 30D analyzes the difference area 49 and obtains member information 52 of members arranged on the foreground side in the structure 20.
また、解析部30Dは、部材21の数、部材21の位置、部材21の径、の少なくとも1つを含む、部材情報52を得る。 Further, the analysis unit 30D obtains member information 52 including at least one of the number of members 21, the position of the member 21, and the diameter of the member 21.
また、第1の撮影画像40Aおよび第2の撮影画像40Bは、構造体20の外部か構造体20の内側に向かって撮影部14を移動させたときに撮影された、互いに撮影位置の異なる撮影画像40である。 Further, the first photographed image 40A and the second photographed image 40B are photographed at different photographing positions, which are photographed when the photographing unit 14 is moved toward the outside of the structure 20 or the inside of the structure 20. Image 40.
また、第1の撮影画像40Aおよび第2の撮影画像40Bは、全天球パノラマ画像である。 The first captured image 40A and the second captured image 40B are omnidirectional panoramic images.
また、特徴領域は、エッジを示すエッジ領域Eである。 The feature area is an edge area E indicating an edge.
また、本実施の形態の情報処理方法は、計測対象の構造体20に対する撮影位置の異なる、第1の撮影画像40Aおよび第2の撮影画像40Bを取得するステップと、第1の撮影画像40Aに含まれる特徴領域(エッジ領域E)の、第2の撮影画像40Bに含まれる対応する特徴領域に対する移動方向および移動量を示す動き情報Vに基づいて、第1の撮影画像40Aにおける背景側の背景画像43A2を構成する複数の画素領域Gの各々の動き情報Vを推定するステップと、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報Vによって示される移動方向および移動量に応じて移動させることによって、第2の撮影画像40Bを推定した推定画像45を生成するステップと、第2の撮影画像40Bと推定画像45との差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出するステップと、を含む。 In addition, the information processing method of the present embodiment obtains the first captured image 40A and the second captured image 40B, which have different imaging positions with respect to the structure 20 to be measured, and the first captured image 40A. Based on the motion information V indicating the moving direction and the moving amount of the included feature region (edge region E) with respect to the corresponding feature region included in the second captured image 40B, the background on the background side in the first captured image 40A The step of estimating the motion information V of each of the plurality of pixel regions G constituting the image 43A2 and the pixel region G constituting the first photographed image 40A are assigned to each of the corresponding pixel regions G in the background image 43A2. On the other hand, an estimated image 45 obtained by estimating the second captured image 40B is moved by moving according to the moving direction and the moving amount indicated by the motion information V estimated for Comprising a step of forming, on the basis of the differential area 49 between the estimated image 45 and the second captured image 40B, deriving the member information 52 of member 21 constituting the structure 20.
また、本実施の形態の情報処理プログラムは、計測対象の構造体20に対する撮影位置の異なる、第1の撮影画像40Aおよび第2の撮影画像40Bを取得するステップと、第1の撮影画像40Aに含まれる特徴領域(エッジ領域E)の、第2の撮影画像40Bに含まれる対応する特徴領域に対する移動方向および移動量を示す動き情報Vに基づいて、第1の撮影画像40Aにおける背景側の背景画像43A2を構成する複数の画素領域Gの各々の動き情報Vを推定するステップと、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報Vによって示される移動方向および移動量に応じて移動させることによって、第2の撮影画像40Bを推定した推定画像45を生成するステップと、第2の撮影画像40Bと推定画像45との差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出するステップと、をコンピュータに実行させるための情報処理プログラムである。 In addition, the information processing program according to the present embodiment acquires the first captured image 40A and the second captured image 40B, which have different shooting positions with respect to the structure 20 to be measured, and the first captured image 40A. Based on the motion information V indicating the moving direction and the moving amount of the included feature region (edge region E) with respect to the corresponding feature region included in the second captured image 40B, the background on the background side in the first captured image 40A The step of estimating the motion information V of each of the plurality of pixel regions G constituting the image 43A2 and the pixel region G constituting the first photographed image 40A are assigned to each of the corresponding pixel regions G in the background image 43A2. An estimated image obtained by estimating the second captured image 40B by moving according to the moving direction and the moving amount indicated by the motion information V estimated for the second moving image V 5 and a step of deriving the member information 52 of the member 21 constituting the structure 20 based on the difference area 49 between the second captured image 40B and the estimated image 45. This is an information processing program.
なお、上記実施の形態では、環境光が十分にある撮影環境で撮影された撮影画像40を想定して、説明を行った。しかし、画像処理に必要な環境光の得られない環境で撮影された撮影画像40を用いて上記処理を行う場合がある。この場合、情報処理装置12は、エッジ領域Eの抽出時のパラメータを暗環境に特化したパラメータとするなどの、公知の光量補正処理を行った上で、上記と同様の処理を行えばよい。 In the above embodiment, the description has been given on the assumption that the photographed image 40 is photographed in a photographing environment with sufficient ambient light. However, in some cases, the above processing is performed using a captured image 40 that is captured in an environment where the ambient light necessary for image processing cannot be obtained. In this case, the information processing apparatus 12 may perform a process similar to the above after performing a known light amount correction process such as setting the parameter at the time of extraction of the edge region E as a parameter specialized for the dark environment. .
<変形例1>
なお、上記実施の形態では、第1の撮影画像40Aおよび第2の撮影画像40Bは、構造体20を撮影した撮影画像40である場合を説明した。しかし、目印となる簡易マーカーを付与した構造体20を撮影した撮影画像40を、第1の撮影画像40Aおよび第2の撮影画像40Bとして用いてもよい。
<Modification 1>
In the above embodiment, the case where the first captured image 40A and the second captured image 40B are the captured images 40 obtained by capturing the structure 20 has been described. However, you may use the picked-up image 40 which image | photographed the structure 20 provided with the simple marker used as a mark as the 1st picked-up image 40A and the 2nd picked-up image 40B.
図12は、簡易マーカー60の一例を示す模式図である。簡易マーカー60は、撮影画像40として撮影されたときに、画像処理によって位置を識別しやすい、形状、色、大きさであればよい。例えば、簡易マーカー60は、簡易マーカー60A、簡易マーカー60B、簡易マーカー60Cの何れであってもよい。 FIG. 12 is a schematic diagram illustrating an example of the simple marker 60. The simple marker 60 may be any shape, color, and size that can be easily identified by image processing when the simple marker 60 is captured as the captured image 40. For example, the simple marker 60 may be any of the simple marker 60A, the simple marker 60B, and the simple marker 60C.
簡易マーカー60が部材21に付与された構造体20を撮影した撮影画像40を、第1の撮影画像40Aおよび第2の撮影画像40Bとして用いることで、情報処理装置12は、簡易マーカー60を特徴領域の1つとして用いることができる。なお、撮影画像40における簡易マーカー60の検出には、ハフ変換による円検出などの公知の方法を用いればよい。 The information processing apparatus 12 features the simple marker 60 by using the captured image 40 obtained by capturing the structure 20 with the simple marker 60 attached to the member 21 as the first captured image 40A and the second captured image 40B. It can be used as one of the areas. In addition, what is necessary is just to use well-known methods, such as the circle detection by Hough transformation, for the detection of the simple marker 60 in the picked-up image 40.
また、情報処理装置12は、撮影画像40に含まれる簡易マーカー60のサイズと、実際の簡易マーカー60のサイズとの比を用いて、撮影画像40に含まれる部材21の径や大きさなどの実際のサイズを算出してもよい。また、情報処理装置12は、該比を用いて、部材21の間隔を算出してもよい。 Further, the information processing apparatus 12 uses the ratio between the size of the simple marker 60 included in the captured image 40 and the size of the actual simple marker 60 to determine the diameter and size of the member 21 included in the captured image 40. The actual size may be calculated. Further, the information processing apparatus 12 may calculate the interval between the members 21 using the ratio.
また、撮影画像40の撮影時に、背景側に存在する部材21にのみ簡易マーカー60を付与してもよい。そして、情報処理装置12は、撮影画像40に含まれる簡易マーカー60の付与された領域を、背景側に存在する部材21と判断し、部材情報52の導出に用いてもよい。 Further, the simple marker 60 may be given only to the member 21 existing on the background side when the captured image 40 is captured. Then, the information processing apparatus 12 may determine that the region to which the simple marker 60 included in the captured image 40 is added is the member 21 existing on the background side and use it for deriving the member information 52.
このため、本変形例では、情報処理装置12は、上記実施の形態に比べて、更に精度の高い部材情報52を導出することができる。 For this reason, in this modification, the information processing apparatus 12 can derive the member information 52 with higher accuracy than the above embodiment.
<変形例2>
なお、上記実施の形態では、情報処理システム10が、情報処理装置12と撮影部14とから構成された形態を一例として説明した。しかし、情報処理システム10の構成は、上記構成に限定されない。
<Modification 2>
In the above-described embodiment, the information processing system 10 has been described as an example in which the information processing apparatus 12 and the photographing unit 14 are configured. However, the configuration of the information processing system 10 is not limited to the above configuration.
図13〜図16は、本変形例の情報処理システム10A〜情報処理システム10Dの一例を示す模式図である。 13 to 16 are schematic diagrams illustrating an example of the information processing system 10A to the information processing system 10D according to the present modification.
図13に示すように、例えば、情報処理システム10Aは、クラウドサーバ71と、撮影部14と、を、通信部13を介して接続した構成としてもよい。クラウドサーバ71は、情報処理装置12をクラウド70上に設置されたクラウドサーバ71に搭載したものである。 As illustrated in FIG. 13, for example, the information processing system 10 </ b> A may have a configuration in which the cloud server 71 and the imaging unit 14 are connected via the communication unit 13. The cloud server 71 is obtained by mounting the information processing apparatus 12 on the cloud server 71 installed on the cloud 70.
また、図14に示すように、情報処理システム10Bは、情報処理装置12と、携帯端末72と、を、通信部13を介して接続した構成であってもよい。携帯端末72は、携帯可能な端末装置である。携帯端末72は、例えば、スマートホン、タブレット、ゲーム機、などである。この場合、携帯端末72に、撮影部14を搭載した構成とすればよい。 As illustrated in FIG. 14, the information processing system 10 </ b> B may have a configuration in which the information processing apparatus 12 and the mobile terminal 72 are connected via the communication unit 13. The portable terminal 72 is a portable terminal device. The portable terminal 72 is, for example, a smart phone, a tablet, a game machine, or the like. In this case, what is necessary is just to set it as the structure which mounted the imaging | photography part 14 in the portable terminal 72. FIG.
また、図15に示すように、情報処理システム10Cは、携帯端末74を備えた構成としてもよい。携帯端末74は、情報処理装置12と、撮影部14と、を備えた構成であればよい。 Further, as illustrated in FIG. 15, the information processing system 10 </ b> C may include a mobile terminal 74. The portable terminal 74 may be configured to include the information processing device 12 and the photographing unit 14.
また、図16に示すように、情報処理システム10Dは、携帯端末76と、撮影ユニット75と、を、通信部13を介して接続した構成であってもよい。携帯端末76は、情報処理装置12を搭載した構成であればよい。また、撮影ユニット75は、撮影部14を備え、全天球パノラマ画像を撮影可能な装置である。 Further, as illustrated in FIG. 16, the information processing system 10 </ b> D may have a configuration in which a portable terminal 76 and a photographing unit 75 are connected via a communication unit 13. The portable terminal 76 only needs to have a configuration in which the information processing apparatus 12 is mounted. The photographing unit 75 includes the photographing unit 14 and is a device that can photograph a panoramic image.
なお、上記情報処理装置12で実行される、上記処理を実行するためのプログラムは、NV−RAMやROMやその他の不揮発性記憶媒体に予め組み込まれて提供される。また、情報処理装置12で実行される、上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録し提供することも可能である。 Note that a program for executing the above-described processing executed by the information processing apparatus 12 is provided by being incorporated in advance in NV-RAM, ROM, or other nonvolatile storage medium. A program for executing the above processing executed by the information processing apparatus 12 is a file in an installable or executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital It is also possible to record and provide in a computer-readable recording medium such as Versatile Disk).
また、情報処理装置12で実行される、上記処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供または配布するように構成してもよい。 In addition, the program for executing the above-described processing executed by the information processing apparatus 12 is stored on a computer connected to a network such as the Internet, and is provided or distributed by being downloaded via the network. May be.
また、情報処理装置12で実行される、上記処理を実行するためのプログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Moreover, you may comprise so that the program for performing the said process performed with the information processing apparatus 12 may be previously incorporated in ROM etc. and provided.
また、情報処理装置12で実行される、上記処理を実行するためのプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が記憶媒体から該プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。 Further, the program for executing the above-described processing executed by the information processing apparatus 12 has a module configuration including the above-described units. As actual hardware, a CPU (processor) downloads the program from a storage medium. By reading and executing, each unit is loaded on the main memory, and each unit is generated on the main memory.
なお、情報処理装置12の記憶部35に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置と情報処理装置12と、を、ネットワーク等を介して接続した構成とすればよい。 Note that various types of information stored in the storage unit 35 of the information processing apparatus 12 may be stored in an external device. In this case, the external device and the information processing device 12 may be configured to be connected via a network or the like.
なお、上記には、本実施の形態および変形例を説明したが、上記実施の形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施の形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施の形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although this Embodiment and the modification were demonstrated above, the said embodiment and modification are shown as an example, and are not intending limiting the range of invention. The above-described novel embodiments and modifications can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. The above-described embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
12 情報処理装置
20 構造体
21 部材
30A 取得部
30B 推定部
30C 生成部
30D 解析部
30E 出力制御部
30F 抽出部
30G 算出部
30H 分離部
30I 動き推定部
12 information processing device 20 structure 21 member 30A acquisition unit 30B estimation unit 30C generation unit 30D analysis unit 30E output control unit 30F extraction unit 30G calculation unit 30H separation unit 30I motion estimation unit
Claims (9)
前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定する推定部と、
前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成する生成部と、
前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出する解析部と、
を備える情報処理装置。 An acquisition unit for acquiring a first photographed image and a second photographed image having different photographing positions relative to the structure;
A background side in the first photographed image based on motion information indicating a movement direction and a movement amount of the feature area included in the first photographed image with respect to the corresponding feature area included in the second photographed image. An estimation unit for estimating the motion information of each of a plurality of pixel regions constituting the background image of
By moving each of the pixel areas constituting the first captured image according to the movement direction and the movement amount indicated by the movement information estimated for each of the corresponding pixel areas in the background image, A generating unit that generates an estimated image obtained by estimating the second captured image;
An analysis unit for deriving member information of members constituting the structure based on a difference area between the second captured image and the estimated image;
An information processing apparatus comprising:
前記第1の撮影画像および前記第2の撮影画像の各々から、複数の前記特徴領域を抽出する抽出部と、
前記第1の撮影画像に含まれる複数の前記特徴領域について、前記第2の撮影画像に含まれる対応する前記特徴領域に対する前記動き情報を算出する算出部と、
前記第1の撮影画像に含まれる前記特徴領域ごとに算出された前記動き情報を、前景側の(前記動き情報を対応する位置にマッピングした)前景画像と、背景側の(前記動き情報を付与した)前記背景画像と、に分離する分離部と、
前記背景画像における前記特徴領域ごとの前記動き情報に基づいて、前記背景画像を構成する複数の画素領域の各々の前記動き情報を推定する動き推定部と、
を有する、請求項1に記載の情報処理装置。 The estimation unit includes
An extraction unit that extracts a plurality of the feature regions from each of the first photographed image and the second photographed image;
A calculation unit that calculates the motion information for the corresponding feature region included in the second captured image with respect to the plurality of feature regions included in the first captured image;
The motion information calculated for each of the feature regions included in the first photographed image includes a foreground image (mapping the motion information at a corresponding position) and a background image (giving the motion information A separation unit that separates the background image;
A motion estimation unit configured to estimate the motion information of each of a plurality of pixel regions constituting the background image based on the motion information for each of the feature regions in the background image;
The information processing apparatus according to claim 1, comprising:
前記差分領域を解析し、前記構造体における前景側に配置された前記部材の前記部材情報を導出する、請求項1または請求項2に記載の情報処理装置。 The analysis unit
The information processing apparatus according to claim 1, wherein the difference area is analyzed to derive the member information of the member arranged on a foreground side in the structure.
請求項1〜請求項3の何れか1項に記載の情報処理装置。 The analysis unit derives the member information including at least one of the number of the members, the position of the members, and the diameter of the members.
The information processing apparatus according to any one of claims 1 to 3.
前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定するステップと、
前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成するステップと、
前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出するステップと、
を含む情報処理方法。 Obtaining a first photographed image and a second photographed image having different photographing positions with respect to the structure;
A background side in the first photographed image based on motion information indicating a movement direction and a movement amount of the feature area included in the first photographed image with respect to the corresponding feature area included in the second photographed image. Estimating the motion information of each of a plurality of pixel regions constituting the background image of
By moving each of the pixel areas constituting the first captured image according to the movement direction and the movement amount indicated by the movement information estimated for each of the corresponding pixel areas in the background image, Generating an estimated image obtained by estimating the second captured image;
Deriving member information of members constituting the structure based on a difference area between the second captured image and the estimated image;
An information processing method including:
前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定するステップと、
前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成するステップと、
前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出するステップと、
をコンピュータに実行させるための情報処理プログラム。 Obtaining a first photographed image and a second photographed image having different photographing positions with respect to the structure;
A background side in the first photographed image based on motion information indicating a movement direction and a movement amount of the feature area included in the first photographed image with respect to the corresponding feature area included in the second photographed image. Estimating the motion information of each of a plurality of pixel regions constituting the background image of
By moving each of the pixel areas constituting the first captured image according to the movement direction and the movement amount indicated by the movement information estimated for each of the corresponding pixel areas in the background image, Generating an estimated image obtained by estimating the second captured image;
Deriving member information of members constituting the structure based on a difference area between the second captured image and the estimated image;
Processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016206279A JP2018066687A (en) | 2016-10-20 | 2016-10-20 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016206279A JP2018066687A (en) | 2016-10-20 | 2016-10-20 | Information processing device, information processing method, and information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018066687A true JP2018066687A (en) | 2018-04-26 |
Family
ID=62086003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016206279A Pending JP2018066687A (en) | 2016-10-20 | 2016-10-20 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018066687A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180225839A1 (en) * | 2017-02-03 | 2018-08-09 | Olympus Corporation | Information acquisition apparatus |
JP2020165145A (en) * | 2019-03-29 | 2020-10-08 | 鹿島建設株式会社 | Reinforcement arrangement inspection system |
US20220165066A1 (en) * | 2019-03-28 | 2022-05-26 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
-
2016
- 2016-10-20 JP JP2016206279A patent/JP2018066687A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180225839A1 (en) * | 2017-02-03 | 2018-08-09 | Olympus Corporation | Information acquisition apparatus |
US20220165066A1 (en) * | 2019-03-28 | 2022-05-26 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
JP2020165145A (en) * | 2019-03-29 | 2020-10-08 | 鹿島建設株式会社 | Reinforcement arrangement inspection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5158223B2 (en) | 3D modeling apparatus, 3D modeling method, and program | |
US9686539B1 (en) | Camera pair calibration using non-standard calibration objects | |
JP5024410B2 (en) | 3D modeling apparatus, 3D modeling method, and program | |
JP2017520050A (en) | Local adaptive histogram flattening | |
EP3093822B1 (en) | Displaying a target object imaged in a moving picture | |
US20130083990A1 (en) | Using Videogrammetry to Fabricate Parts | |
JP2016521892A5 (en) | ||
US10404912B2 (en) | Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium | |
JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
WO2022160857A1 (en) | Image processing method and apparatus, and computer-readable storage medium and electronic device | |
JP5901447B2 (en) | Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program | |
TW201931206A (en) | Method, system, and computer-readable recording medium for image object tracking | |
JP6521626B2 (en) | Object tracking device, method and program | |
US10482571B2 (en) | Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium | |
JP5263437B2 (en) | 3D modeling apparatus, 3D modeling method, and program | |
CN107787463A (en) | The capture of optimization focusing storehouse | |
CN109661815A (en) | There are the robust disparity estimations in the case where the significant Strength Changes of camera array | |
JP2018066687A (en) | Information processing device, information processing method, and information processing program | |
JP5900017B2 (en) | Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program | |
JP6409769B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JP6246441B1 (en) | Image analysis system, image analysis method, and program | |
JP2008276613A (en) | Mobile body determination device, computer program and mobile body determination method | |
JP2013179614A (en) | Imaging apparatus | |
CN115037869A (en) | Automatic focusing method and device, electronic equipment and computer readable storage medium | |
JP2013187726A (en) | Image analyzer, image processor, image analysis method and program |