JP2020182048A - Imaging device, image processing device, and image processing method - Google Patents
Imaging device, image processing device, and image processing method Download PDFInfo
- Publication number
- JP2020182048A JP2020182048A JP2019082658A JP2019082658A JP2020182048A JP 2020182048 A JP2020182048 A JP 2020182048A JP 2019082658 A JP2019082658 A JP 2019082658A JP 2019082658 A JP2019082658 A JP 2019082658A JP 2020182048 A JP2020182048 A JP 2020182048A
- Authority
- JP
- Japan
- Prior art keywords
- image
- shooting
- photographing
- range
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影対象の画像を撮影する画像撮影装置、及び、撮影された画像の処理を行う画像処理装置、及び画像処理方法に関する。 The present invention relates to an image photographing apparatus for photographing an image to be photographed, an image processing device for processing the captured image, and an image processing method.
従来、デジタルカメラにより撮像された3:4等の縦横比の画像と比較して、横長又は縦長の広角画像、いわゆるパノラマ画像が存在する。こうしたパノラマ画像は、デジタルカメラの撮影範囲よりも広い撮影対象に対してデジタルカメラのレンズの向きを変えながら順次撮影した画像が組み合わせられることで撮影される(例えば、特許文献1)。 Conventionally, there is a horizontally long or vertically long wide-angle image, a so-called panoramic image, as compared with an image having an aspect ratio of 3: 4 or the like captured by a digital camera. Such a panoramic image is taken by combining images taken sequentially while changing the direction of the lens of the digital camera with respect to a shooting target wider than the shooting range of the digital camera (for example, Patent Document 1).
特許文献1に記載の技術は、ユーザが、シャッタスイッチの押下操作の状態を維持させながら、デジタルカメラを垂直方向にほぼ固定したまま水平方向に回転させるように移動させる。その後、所定時間経過や画像処理装置が所定量移動した等の所定条件が満たされると、撮像制御部は、撮像部における連続撮像の動作を終了させる。 In the technique described in Patent Document 1, the user moves the digital camera so as to rotate it in the horizontal direction while maintaining the state of pressing the shutter switch while keeping the digital camera substantially fixed in the vertical direction. After that, when a predetermined condition such as the elapse of a predetermined time or the movement of the image processing device by a predetermined amount is satisfied, the image pickup control unit ends the continuous imaging operation in the image pickup unit.
パノラマ撮影では、カメラの位置は維持しつつ、カメラのレンズの向きだけを変更することでカメラの撮影範囲よりも広い範囲を撮影する。このとき、カメラと撮影対象とが近ければ、カメラのレンズを左右に大きく振って、撮影対象を撮影するが、振った角度の大きさに応じて撮影対象までの距離が長くなり解像度が低下するため、変化の小さい解像度のパノラマ画像を撮影することが難しくなる。一方、カメラと撮影対象とが遠ければ、カメラのレンズを左右に小さく振れば撮影対象を撮影できることから撮影対象までの距離変化とともに解像度の変化も抑えられて、変化の小さい解像度のパノラマ画像を撮影できるものの、カメラと撮影対象との間の距離が遠いため低い解像度の画像しか得られない。 In panoramic shooting, a range wider than the shooting range of the camera is shot by changing only the direction of the lens of the camera while maintaining the position of the camera. At this time, if the camera and the shooting target are close to each other, the camera lens is shaken greatly to the left and right to shoot the shooting target, but the distance to the shooting target becomes longer and the resolution decreases depending on the magnitude of the shake angle. Therefore, it becomes difficult to take a panoramic image having a resolution with a small change. On the other hand, if the camera and the shooting target are far apart, the shooting target can be shot by shaking the camera lens slightly to the left and right, so the change in resolution is suppressed as the distance to the shooting target changes, and a panoramic image with a small change in resolution is shot. However, because the distance between the camera and the subject is long, only low-resolution images can be obtained.
本発明は、このような実情に鑑みてなされたものであり、その目的は、カメラの撮影範囲よりも広い撮影対象のパノラマ画像を適切な解像度で取得することのできる画像撮影装置、画像処理装置及び画像処理方法を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is an image capturing device or an image processing device capable of acquiring a panoramic image of a shooting target wider than the shooting range of a camera with an appropriate resolution. And to provide an image processing method.
上記課題を解決する画像撮影装置は、撮影対象範囲の一部を撮影範囲として撮影可能な撮影装置と、前記撮影装置の新たな撮影範囲のなかに前記撮影対象範囲の未撮影部分が含まれるように前記撮影装置を前記撮影対象範囲に沿って移動させる移動体と、前記撮影装置の撮影により得られた各撮影画像に画像処理を行う画像処理装置と、を備え、前記撮影装置は、前記移動体により移動させられて新たな撮影範囲のなかに前記未撮影部分が含まれる新たな撮影画像を作成し、前記画像処理装置は、各撮影画像のなかで所定の速度ベクトルを含む部分を撮影対象の一部として抽出する対象抽出部と、前記撮影装置の撮影した各撮影画像の相対位置を算出する相対位置算出部と、前記相対位置に基づいて各撮影画像を配列して前記撮影範囲よりも広い範囲を含む広域画像を作成する作成部とを備える。 The image capturing device that solves the above problems includes a photographing device capable of photographing a part of the photographing target range as a photographing range, and an unphotographed portion of the photographing target range in the new photographing range of the photographing device. The imaging device includes a moving body that moves the imaging device along the imaging target range, and an image processing device that performs image processing on each captured image obtained by photographing the imaging device. A new photographed image is created in which the unphotographed portion is included in a new imaging range that is moved by the body, and the image processing device captures a portion of each captured image that includes a predetermined speed vector. The target extraction unit to be extracted as a part of the image, the relative position calculation unit for calculating the relative position of each photographed image captured by the imaging device, and the relative position calculation unit for calculating the relative position of each captured image captured by the imaging device, and the captured images arranged based on the relative position to be larger than the photographing range. It is equipped with a creation unit that creates a wide area image including a wide range.
上記課題を解決する画像処理装置は、撮影装置の速度ベクトルと前記撮影装置から撮影対象範囲までの距離とに基づいて、前記撮影装置が撮影した各撮影画像のなかで所定の速度ベクトルを含む部分を撮影対象の一部として抽出する対象抽出部と、各撮影画像の相対位置を算出する相対位置算出部と、前記相対位置に基づいて各撮影画像を配列して前記撮影装置の撮影範囲よりも広い範囲を含む広域画像を作成する作成部とを備える。 The image processing device that solves the above problems is a portion including a predetermined speed vector in each captured image captured by the imaging device based on the speed vector of the imaging device and the distance from the imaging device to the imaging target range. A target extraction unit that extracts the image as a part of the image to be photographed, a relative position calculation unit that calculates the relative position of each photographed image, and an arrangement of each photographed image based on the relative position to exceed the image pickup range of the image pickup device. It is equipped with a creation unit that creates a wide area image including a wide range.
上記課題を解決する画像処理方法は、撮影装置の速度ベクトルと前記撮影装置から撮影対象範囲までの距離とに基づいて、前記撮影装置が撮影した各撮影画像のなかで所定の速度ベクトルを含む部分を撮影対象の一部として抽出する対象抽出ステップと、各撮影画像の相対位置を算出する相対位置算出ステップと、前記相対位置に基づいて各撮影画像を配列して前記撮影装置の撮影範囲よりも広い範囲を含む広域画像を作成する作成ステップとを備える。 The image processing method for solving the above problem is a portion including a predetermined speed vector in each captured image captured by the imaging device based on the speed vector of the imaging device and the distance from the imaging device to the imaging target range. A target extraction step for extracting as a part of a shooting target, a relative position calculation step for calculating the relative position of each shot image, and an arrangement of each shot image based on the relative position, which is larger than the shooting range of the shooting device. It includes a creation step to create a wide area image that includes a wide range.
このような構成又は方法によれば、撮影装置が移動体で移動されることで、撮影範囲よりも広い撮影対象範囲の画像が、適切な解像度の確保される距離からの各撮影画像として得られる。そして、こうして撮影された各撮影画像が配列されることで、適切な解像度を有する広域画像であるパノラマ画像を取得することができる。 According to such a configuration or method, when the photographing device is moved by a moving body, images in a shooting target range wider than the shooting range can be obtained as each shot image from a distance where an appropriate resolution is secured. .. Then, by arranging the captured images captured in this way, it is possible to acquire a panoramic image which is a wide area image having an appropriate resolution.
また、移動体で移動される撮影装置の撮影した各撮影画像のなかから、目的とする撮影対象が、画像のなかで特定の速度ベクトルを有することに基づいて抽出される。これにより、背景から撮影対象を高精度に分離する画像処理を行わなくても、撮影画像のなかから相対位置の特定に必要な情報を抽出することができる。 Further, from each of the captured images captured by the photographing device moved by the moving body, the target imaging target is extracted based on having a specific velocity vector in the image. As a result, it is possible to extract information necessary for specifying the relative position from the captured image without performing image processing for separating the imaging target from the background with high accuracy.
好ましい構成として、前記対象抽出部は、前記撮影装置の速度ベクトルと前記撮影装置から前記撮影対象までの距離とに基づいて、各撮影画像の速度ベクトルを算出する。
このような構成によれば、撮影装置の速度ベクトルと、撮影対象と撮影装置との距離とに基づいて算出される速度ベクトルに基づいて相対位置の特定に必要な情報が抽出される。
As a preferred configuration, the target extraction unit calculates a speed vector of each shot image based on the speed vector of the shooting device and the distance from the shooting device to the shooting target.
According to such a configuration, information necessary for specifying the relative position is extracted based on the speed vector of the photographing device and the speed vector calculated based on the distance between the photographing target and the photographing device.
好ましい構成として、前記相対位置算出部は、前記撮影装置の位置と速度ベクトルと前記撮影装置から撮影対象範囲までの距離とに基づいて、各撮影画像の相対位置を特定する。 As a preferred configuration, the relative position calculation unit identifies the relative position of each captured image based on the position and velocity vector of the photographing device and the distance from the photographing device to the imaging target range.
このような構成によれば、撮影装置の位置と速度ベクトルと、撮影対象と撮影装置との距離とに基づいて撮影装置の移動ルートが特定されるため、当該移動ルート上で撮影された各撮影画像の相対位置を算出することができる。 According to such a configuration, the moving route of the photographing device is specified based on the position and speed vector of the photographing device and the distance between the photographing target and the photographing device, so that each image taken on the moving route is taken. The relative position of the image can be calculated.
好ましい構成として、前記相対位置算出部はさらに、各撮影画像の画像認識処理の結果に基づいて、各撮影画像の相対位置を特定する。
このような構成によれば、各撮影画像について画像認識結果を追加してより高い精度のパノラマ画像を作成することができる。
As a preferred configuration, the relative position calculation unit further identifies the relative position of each captured image based on the result of the image recognition processing of each captured image.
According to such a configuration, it is possible to add an image recognition result for each captured image to create a panoramic image with higher accuracy.
好ましい構成として、前記移動体は、前記撮影装置の撮影範囲で前記撮影対象範囲を走査する。
このような構成によれば、撮影対象範囲を途切れなく撮影した各撮影画像を取得できるようになるため切れ目のないパノラマ画像を作成することができる。また、撮影対象範囲の各撮影画像が順番に撮影されるので、各撮影画像の相対位置の算出や、各撮影画像を合成してパノラマ画像を作成することが容易である。
As a preferred configuration, the moving body scans the imaging target range within the imaging range of the imaging device.
According to such a configuration, it is possible to acquire each captured image in which the imaging target range is captured without interruption, so that a seamless panoramic image can be created. Further, since each shot image in the shooting target range is shot in order, it is easy to calculate the relative position of each shot image and to create a panoramic image by synthesizing each shot image.
好ましい構成として、前記走査は、水平走査と垂直走査とを含む。
このような構成によれば、撮影対象範囲の各撮影画像が所定の順番に作成されるので、各撮影画像の相対位置の算出や、各撮影画像を合成してパノラマ画像を作成することがより容易になる。
As a preferred configuration, the scan includes a horizontal scan and a vertical scan.
According to such a configuration, each shot image in the shooting target range is created in a predetermined order, so that it is possible to calculate the relative position of each shot image or combine the shot images to create a panoramic image. It will be easier.
好ましい構成として、撮影対象範囲から検出したい画像パターンを学習するパターン学習部と、前記パターン学習部による学習結果と照合して学習結果に該当する画像パターンを前記撮影画像から検出するパターン検出部とをさらに備える。 As a preferable configuration, a pattern learning unit that learns an image pattern to be detected from a shooting target range and a pattern detecting unit that collates with the learning result by the pattern learning unit and detects an image pattern corresponding to the learning result from the captured image. Further prepare.
このような構成によれば、各撮影画像のなかから、ひび、きず、さび等、通常の色合いや模様とは相違する色合いや模様を有する部分等の検出したい特徴的な画像パターンとそのパノラマ画像上の占有位置とを検出することができる。 According to such a configuration, a characteristic image pattern to be detected and a panoramic image thereof, such as cracks, scratches, rust, and other parts having a color or pattern different from the normal color or pattern, from each photographed image. The upper occupied position can be detected.
好ましい構成として、前記パターン検出部は、前記検出した画像パターンを強調表示させる。
このような構成によれば、パノラマ画像において、検出したい特徴的な画像パターンを含む部分を強調表示により認識させやすくできる。
As a preferred configuration, the pattern detection unit highlights the detected image pattern.
According to such a configuration, in a panoramic image, a portion including a characteristic image pattern to be detected can be easily recognized by highlighting.
好ましい構成として、前記移動体は、垂直方向を含む三次元の無軌道移動が可能である。
このような構成によれば、移動体は、撮影範囲よりもあらゆる方向に大きい撮影対象範囲であってもその全景を水平方向、垂直方向、及び周囲を旋回する方向等を無軌道の自由な三次元移動で撮影することができる。
As a preferred configuration, the moving body is capable of three-dimensional orbitless movement including the vertical direction.
According to such a configuration, even if the moving object has a shooting target range that is larger in all directions than the shooting range, the entire view can be viewed in the horizontal direction, the vertical direction, and the direction of turning around the moving object in a free three-dimensional manner without orbit. You can shoot on the move.
本発明によれば、カメラの撮影範囲よりも広い撮影対象のパノラマ画像を適切な解像度で取得することができる。 According to the present invention, it is possible to acquire a panoramic image of a shooting target wider than the shooting range of the camera with an appropriate resolution.
(第1の実施形態)
図1〜図8を参照して、画像撮影装置、画像処理装置及び画像処理方法の一実施形態について説明する。画像撮影装置は、その撮影範囲よりも広大な撮影対象を撮影した複数の撮影画像から当該撮影対象を位置画像としたパノラマ画像を作成する。なお、パノラマ画像は、印刷された画像であってもよいし、コンピュータ等の表示画面に全体又は一部をスクロールさせながら表示できる画像であってもよい。
(First Embodiment)
An embodiment of an image capturing apparatus, an image processing apparatus, and an image processing method will be described with reference to FIGS. 1 to 8. The image capturing device creates a panoramic image in which the shooting target is a position image from a plurality of shooting images obtained by shooting a shooting target that is wider than the shooting range. The panoramic image may be a printed image, or may be an image that can be displayed while scrolling all or part of it on a display screen of a computer or the like.
図1に示すよう、画像撮影装置は、撮影対象10の撮影対象範囲11を撮影して撮影対象10のパノラマ画像を作成することができる装置である。
画像撮影装置は、移動ルート12に沿って移動する移動撮影装置20と、移動撮影装置20の撮影画像を取得してパノラマ画像を作成する処理装置30とを備えている。
As shown in FIG. 1, the image capturing device is a device capable of capturing a shooting target range 11 of the shooting target 10 and creating a panoramic image of the shooting target 10.
The image capturing device includes a moving photographing device 20 that moves along the moving route 12 and a processing device 30 that acquires a photographed image of the moving photographing device 20 and creates a panoramic image.
図2に示すように、例えば建造物等の撮影対象10の高所を、撮影対象10から所定の距離Lに規定した移動経路R1(移動ルート12)を移動体22の搬送により撮影装置21が移動する。なお、本実施形態では、移動経路R1(移動ルート12)は、撮影装置21の焦点位置を基準に設定される。撮影装置21は、撮影対象10の方向に視野Eを有しており、移動経路R1上の各撮影ポイントPm3〜Pm1,Pn,Pn1〜Pn3に到達する毎に視野Eに含まれる撮影画像Fm3〜Fm1,Fn,Fn1〜Fn3を作成する。なお、移動体22は、水平方向、垂直方向等、前後方向への三次元の有軌道移動や無軌道移動が可能な飛行体や搬送装置等である。本実施形態では、こうして作成された撮影画像Fm3〜Fm1,Fn,Fn1〜Fn3から外観検査等に用いられるパノラマ画像が作成される。 As shown in FIG. 2, for example, the photographing device 21 transports a moving body 22 along a moving path R1 (moving route 12) defined at a predetermined distance L from the photographing target 10 at a high place of the photographing target 10 such as a building. Moving. In the present embodiment, the moving route R1 (moving route 12) is set with reference to the focal position of the photographing device 21. The photographing device 21 has a field of view E in the direction of the photographing target 10, and each time it reaches each photographing point Pm3 to Pm1, Pn, Pn1 to Pn3 on the movement path R1, the photographed image Fm3 to included in the field of view E Fm1, Fn, Fn1 to Fn3 are created. The moving body 22 is a flying body, a transport device, or the like capable of three-dimensional orbital movement or non-orbital movement in the front-rear direction such as the horizontal direction and the vertical direction. In the present embodiment, a panoramic image used for visual inspection or the like is created from the captured images Fm3 to Fm1, Fn and Fn1 to Fn3 thus created.
図1に示すように、移動撮影装置20は、画像を撮影する撮影装置21と、撮影装置21を移動させる移動体22とを備えている。
撮影装置21は、CCDカメラやCMOSカメラ等、いわゆるデジタルカメラを含む撮影装置である。撮影装置21は、撮影対象範囲11の少なくとも一部を撮影可能な視野E(図2参照)を有している。撮影装置21は、処理装置30と各種情報通信が可能な通信装置を有しており、処理装置30に撮影画像を送信可能であり、処理装置30から撮影条件等を受信可能である。撮影装置21は、移動体22により移動させられて、これにより、新たな撮影範囲のなかに撮影対象範囲11のうちの未撮影部分が含まれるように移動し、未撮影部分を含む新たな画像を撮影することができる。
As shown in FIG. 1, the mobile photographing device 20 includes a photographing device 21 for photographing an image and a moving body 22 for moving the photographing device 21.
The photographing device 21 is a photographing device including a so-called digital camera such as a CCD camera or a CMOS camera. The photographing device 21 has a field of view E (see FIG. 2) capable of photographing at least a part of the photographing target range 11. The photographing device 21 has a communication device capable of various information communication with the processing device 30, can transmit a photographed image to the processing device 30, and can receive shooting conditions and the like from the processing device 30. The photographing device 21 is moved by the moving body 22 so that the unphotographed portion of the photographing target range 11 is included in the new photographing range, and a new image including the unphotographed portion is included. Can be photographed.
移動体22は、撮影装置21を保持して移動可能である。移動体22は、飛行体や搬送装置であって、既定の経路や自動的に定められる経路を自律的に移動することができる。移動体22は、撮影装置21を撮影対象範囲11に沿って移動させることができる。移動体22は、撮影装置21の撮影範囲に、撮影対象範囲11の未撮影部分が含まれるように撮影装置21を移動させる。移動体22は、処理装置30と各種情報通信が可能な通信装置を有しており、処理装置30に三次元位置情報と時刻、移動経路情報、制御情報を送信可能であり、処理装置30から移動経路情報、移動開始や中止の指令等を受信可能である。 The moving body 22 can move while holding the photographing device 21. The moving body 22 is a flying body or a transport device, and can autonomously move on a predetermined route or an automatically determined route. The moving body 22 can move the photographing device 21 along the photographing target range 11. The moving body 22 moves the photographing device 21 so that the photographing range of the photographing device 21 includes an unphotographed portion of the photographing target range 11. The mobile body 22 has a communication device capable of various information communication with the processing device 30, and can transmit three-dimensional position information, time, movement route information, and control information to the processing device 30 from the processing device 30. It is possible to receive movement route information, movement start / stop commands, and the like.
移動体22は、三次元の移動が可能であり、移動方向には、水平方向、垂直方向、それらの組み合わせである斜めの方向、水平方向及び垂直方向に直交する前後方向、旋回方向のうちの少なくとも一つが含まれればよい。移動体22であれば、撮影装置21を撮影対象から既定の距離に支柱等で支持することが難しい個所についても、撮影対象との距離を適切な距離に維持して所定の解像度の撮影画像を作成させることができるようになる。例えば、支柱等で支持することが難しい個所としては、建物や柱、鉄塔、斜面、崖等の高所が挙げられる。さらに、凹凸面、曲線面等の距離変化が頻繁である個所は、さらに適切な距離での撮影が難しい。 The moving body 22 can move in three dimensions, and the moving direction includes the horizontal direction, the vertical direction, the diagonal direction which is a combination thereof, the front-rear direction orthogonal to the horizontal direction and the vertical direction, and the turning direction. At least one may be included. In the case of the moving body 22, even in a place where it is difficult to support the photographing device 21 at a predetermined distance from the photographing target by a support or the like, the distance to the photographing target is maintained at an appropriate distance to obtain a photographed image having a predetermined resolution. You will be able to create it. For example, examples of places that are difficult to support with columns or the like include high places such as buildings, columns, steel towers, slopes, and cliffs. Further, it is difficult to take a picture at an appropriate distance in a place where the distance changes frequently such as an uneven surface and a curved surface.
処理装置30は、演算装置、記憶装置、通信装置、情報入出力装置等を有している。演算装置は、いわゆるコンピュータであって、記憶装置等に記憶された各プログラムの実行に基づいて、各種の情報処理を行う。記憶装置は、演算等の結果を一時的に保持するRAMや、プログラム等を保持するROMやフラッシュメモリ等より構成されている。 The processing device 30 includes an arithmetic device, a storage device, a communication device, an information input / output device, and the like. The arithmetic unit is a so-called computer, and performs various types of information processing based on the execution of each program stored in the storage device or the like. The storage device is composed of a RAM that temporarily holds the results of operations and the like, a ROM that holds programs and the like, a flash memory, and the like.
処理装置30は、移動体制御部31、画像取得部32、撮影準備部33、撮影処理部34、画像処理装置35、記憶部36、操作部37及び表示部38を備えている。また、処理装置30は、パターン学習部50、パターン検出部51を備えている。 The processing device 30 includes a moving body control unit 31, an image acquisition unit 32, a shooting preparation unit 33, a shooting processing unit 34, an image processing device 35, a storage unit 36, an operation unit 37, and a display unit 38. Further, the processing device 30 includes a pattern learning unit 50 and a pattern detection unit 51.
記憶部36は、記憶装置等の全部または一部から構成されている。
操作部37は、設定情報や操作情報を入力させるインターフェースである。
表示部38は、ディスプレー等の画像情報を出力するインターフェースである。
The storage unit 36 is composed of all or a part of a storage device or the like.
The operation unit 37 is an interface for inputting setting information and operation information.
The display unit 38 is an interface that outputs image information such as a display.
移動体制御部31は、移動体22の移動経路や移動に必要な各種情報等を設定し、通信装置を介して移動体22と各種情報通信を行う。移動体制御部31は、移動体22から三次元位置情報と時刻、移動経路情報、制御情報を受信可能であり、移動体22に移動経路情報、移動開始や中止の指令等を送信可能である。移動体制御部31は、予定情報と、実績情報とを管理することができる。予定情報は、移動体22の移動経路や移動に必要な各種情報等に基づいて推定される、ある時刻と、その時刻における三次元位置情報とのリストである。実績情報は、移動体22から受信した三次元位置情報と時刻等に基づいて特定される、時刻と、その時刻における三次元位置情報とのリストである。 The mobile body control unit 31 sets the movement path of the mobile body 22 and various information necessary for the movement, and performs various information communication with the mobile body 22 via the communication device. The mobile body control unit 31 can receive three-dimensional position information, time, movement route information, and control information from the moving body 22, and can transmit movement route information, movement start / stop commands, and the like to the moving body 22. .. The mobile control unit 31 can manage the schedule information and the actual result information. The schedule information is a list of a certain time and three-dimensional position information at that time, which is estimated based on the movement route of the moving body 22, various information necessary for the movement, and the like. The actual information is a list of the time and the three-dimensional position information at that time, which is specified based on the three-dimensional position information received from the moving body 22 and the time and the like.
画像取得部32は、撮影装置21が撮影したデジタル画像等の撮影画像を取得する。画像取得部32は、通信装置を介して撮影装置21から撮影画像を受信可能であり、撮影装置21に撮影条件等を送信可能である。 The image acquisition unit 32 acquires a captured image such as a digital image captured by the photographing device 21. The image acquisition unit 32 can receive the captured image from the photographing device 21 via the communication device, and can transmit the photographing conditions and the like to the photographing device 21.
撮影準備部33は、撮影対象のパノラマ画像の作成のため、移動撮影装置20に設定が必要なデータを準備する。具体的には、撮影準備部33は、撮影装置21に設定するデータ、移動体22に設定するデータ、処理装置30でパノラマ画像作成に用いるために必要なデータを準備する。 The shooting preparation unit 33 prepares data that needs to be set in the moving shooting device 20 in order to create a panoramic image to be shot. Specifically, the shooting preparation unit 33 prepares data set in the shooting device 21, data set in the moving body 22, and data necessary for the processing device 30 to be used for creating a panoramic image.
具体的には、撮影準備部33は、パノラマ画像の作成に要する各種初期値を設定する。各種初期値は、記憶部36に記憶されている値などが用いられる。
また、撮影準備部33は、撮影対象の幅や高さから撮影対象範囲11を特定する。また、撮影準備部33は、撮影装置21が撮影対象を目的とする解像度で撮影可能な撮影対象範囲11までの距離L(図2参照)を算出する。また、撮影準備部33は、撮影装置21の視野E(図2参照)と、撮影対象までの距離とから撮影可能な範囲を算出する。そして、撮影準備部33は、撮影装置21の撮影可能な範囲で撮影対象範囲11を走査できるように移動ルート12を算出するとともに、移動ルート12において撮影を実行する撮影ポイントPn等を算出する。よって、移動撮影装置20は、移動体22が撮影準備部33にて設定された移動ルート12に従って移動し、撮影装置21が撮影位置で撮影することで、撮影装置21の撮影範囲で撮影対象範囲11を走査する。これにより、途切れなく撮影された各撮影画像Fn等が取得されて、取得された各撮影画像Fn等の合成によってパノラマ画像を作成することができる。また、走査によって、撮影対象範囲11の各撮影画像が順番に作成されるので、各撮影画像の相対位置の算出や、各撮影画像を合成してパノラマ画像を作成することが容易である。
Specifically, the shooting preparation unit 33 sets various initial values required for creating a panoramic image. As various initial values, values stored in the storage unit 36 and the like are used.
Further, the shooting preparation unit 33 specifies the shooting target range 11 from the width and height of the shooting target. Further, the shooting preparation unit 33 calculates the distance L (see FIG. 2) to the shooting target range 11 where the shooting device 21 can shoot at a resolution for which the shooting target is intended. Further, the shooting preparation unit 33 calculates a shooting range from the field of view E (see FIG. 2) of the shooting device 21 and the distance to the shooting target. Then, the shooting preparation unit 33 calculates the moving route 12 so that the shooting target range 11 can be scanned within the shooting range of the shooting device 21, and also calculates the shooting point Pn or the like for executing shooting on the moving route 12. Therefore, in the moving shooting device 20, the moving body 22 moves according to the moving route 12 set by the shooting preparation unit 33, and the shooting device 21 shoots at the shooting position, so that the shooting target range is within the shooting range of the shooting device 21. 11 is scanned. As a result, each photographed image Fn or the like captured without interruption can be acquired, and a panoramic image can be created by synthesizing the acquired captured images Fn or the like. Further, since each photographed image in the photographing target range 11 is sequentially created by scanning, it is easy to calculate the relative position of each photographed image and to create a panoramic image by synthesizing each photographed image.
また、撮影準備部33は、撮影装置21に設定するシャッター速度や露出などの撮影条件を準備する。
なお、移動経路は、撮影対象の撮影対象範囲11の形状に対応するように定められるが、撮影対象範囲11が矩形状であっても、複雑な形状であったとしても、水平移動時の撮影である水平走査と、垂直移動時の撮影である垂直走査との組み合わせによって、撮影対象範囲11の各種形状に対応できるようになっている。
In addition, the shooting preparation unit 33 prepares shooting conditions such as a shutter speed and exposure to be set in the shooting device 21.
The movement path is determined to correspond to the shape of the shooting target range 11 of the shooting target, but even if the shooting target range 11 has a rectangular shape or a complicated shape, shooting during horizontal movement is performed. By combining the horizontal scanning, which is the above-mentioned horizontal scanning, and the vertical scanning, which is the photographing during the vertical movement, it is possible to correspond to various shapes of the imaging target range 11.
撮影処理部34は、移動撮影装置20を移動ルート12の開始位置に移動させたり、開始位置からの撮影開始を指示したり、撮影中止を指示したりする。撮影処理部34は、移動撮影装置20との通信を介して移動位置や撮影位置等を三次元位置情報で確認する。また、撮影処理部34は、取得した各撮影画像に作成時の三次元位置情報を関連付けて記憶させる。 The shooting processing unit 34 moves the moving shooting device 20 to the start position of the moving route 12, instructs the start of shooting from the start position, and instructs the stop of shooting. The photographing processing unit 34 confirms the moving position, the photographing position, and the like with the three-dimensional position information via communication with the moving photographing device 20. Further, the photographing processing unit 34 stores the acquired three-dimensional position information at the time of creation in association with each photographed image.
画像処理装置35は、撮影装置21の撮影範囲の撮影で得られた各撮影画像に画像処理を行う。なお、撮影装置21の撮影範囲の撮影で得られた各撮影画像には、撮影処理部34で調整された撮影画像を含む。また、画像処理装置35は、画像処理を施した各撮影画像に基づいてパノラマ画像を作成する。 The image processing device 35 performs image processing on each captured image obtained by photographing the photographing range of the photographing device 21. It should be noted that each photographed image obtained by photographing in the photographing range of the photographing apparatus 21 includes a photographed image adjusted by the photographing processing unit 34. Further, the image processing device 35 creates a panoramic image based on each captured image that has undergone image processing.
画像処理装置35は、各撮影画像のなかから撮影対象を算出する対象抽出部40と、複数の処理済み撮影画像における撮影対象の相対関係を算出する相対位置算出部41と、撮影対象のパノラマ画像を作成する作成部42とを備えている。 The image processing device 35 includes a target extraction unit 40 that calculates a shooting target from each shot image, a relative position calculation unit 41 that calculates the relative relationship of the shooting targets in a plurality of processed shot images, and a panoramic image of the shooting target. It is provided with a creation unit 42 for creating an image.
まず、画像処理装置35は、順次選択する各撮影画像に対して所定の処理を行う。このとき、画像処理装置35は、各撮影画像に対応する移動体22の実績情報や予定情報、速度ベクトル等を取得する。例えば、画像処理装置35は、撮影画像の三次元位置情報に基づいて、撮影対象と撮影装置との距離が目標とする所定の距離Lであるときに対応するように各撮影画像を調整する。 First, the image processing device 35 performs predetermined processing on each captured image that is sequentially selected. At this time, the image processing device 35 acquires the actual information, the schedule information, the speed vector, and the like of the moving body 22 corresponding to each captured image. For example, the image processing device 35 adjusts each photographed image based on the three-dimensional position information of the photographed image so that the distance between the imaged object and the image processing device corresponds to a predetermined predetermined distance L.
対象抽出部40は、各撮影画像のなかから所定の速度ベクトルを含む部分を撮影対象として抽出する(対象抽出ステップ)。対象抽出部40は、移動体22の速度ベクトルと撮影装置21から撮影対象までの距離とに基づいて各撮影画像の速度ベクトルを算出する。詳述すると、撮影画像に含まれる画像の速度ベクトルを算出する。そして、対象抽出部40は、算出された速度ベクトルが、撮影対象に対して推定される速度ベクトルに対応する範囲にある画像を撮影対象として抽出する。つまり、背景を含む各撮影画像Fnから撮影対象10を高精度に分離する画像処理を行わなくても、対象抽出部40によって撮影画像のなかから相対位置の特定に必要な情報を抽出することができる。 The target extraction unit 40 extracts a portion including a predetermined velocity vector from each captured image as a shooting target (target extraction step). The target extraction unit 40 calculates the speed vector of each captured image based on the velocity vector of the moving body 22 and the distance from the imaging device 21 to the imaging target. More specifically, the velocity vector of the image included in the captured image is calculated. Then, the target extraction unit 40 extracts an image in which the calculated speed vector is in the range corresponding to the speed vector estimated for the shooting target as the shooting target. That is, the target extraction unit 40 can extract the information necessary for specifying the relative position from the captured image without performing the image processing for separating the captured object 10 from each captured image Fn including the background with high accuracy. it can.
なお、移動体22の速度ベクトルは、移動体22の2地点における三次元位置情報と経過時間とに基づいて算出することができる。特に、撮影対象に対する距離変化が小さければ、移動体22の速度ベクトルを、2つの撮影画像に含まれる特徴点の経過時間における移動量から算出することもできる。 The velocity vector of the moving body 22 can be calculated based on the three-dimensional position information and the elapsed time at the two points of the moving body 22. In particular, if the change in distance to the imaged object is small, the velocity vector of the moving body 22 can be calculated from the amount of movement of the feature points included in the two captured images over the elapsed time.
相対位置算出部41は、撮影装置21の撮影した各撮影画像の相対位置を算出する(相対位置算出ステップ)。
第1の方法として、相対位置算出部41は、撮影画像の三次元位置情報に基づいて隣接する撮影画像との間で相対位置関係を算出して隣接する撮影画像の位置合わせを行う。これにより、隣接する撮影画像の合成が可能になる。このとき、実績情報を利用することで、隣接する撮影画像を高い精度で位置合わせすることができる。また、実績情報が得られないとき、予定情報を利用することで、隣接する撮影画像を、実績情報を利用したときよりは低いが、利用可能な精度で位置合わせすることができる。
The relative position calculation unit 41 calculates the relative position of each photographed image captured by the photographing device 21 (relative position calculation step).
As the first method, the relative position calculation unit 41 calculates the relative positional relationship with the adjacent captured image based on the three-dimensional position information of the captured image, and aligns the adjacent captured images. This makes it possible to combine adjacent captured images. At this time, by using the actual information, it is possible to align the adjacent captured images with high accuracy. In addition, when the actual information cannot be obtained, by using the schedule information, it is possible to align the adjacent captured images with the available accuracy, although it is lower than when the actual information is used.
さらに、相対位置算出部41は、各撮影画像に抽出された撮影対象の相対位置関係に基づいて、隣接する撮影画像を適度な精度で位置合わせすることができる。なお、撮影対象の相対位置関係を考慮することで、実績情報や予定情報のみによる位置合わせに比べて、位置合わせの精度をより高めることができる。 Further, the relative position calculation unit 41 can align the adjacent photographed images with appropriate accuracy based on the relative positional relationship of the imaged objects extracted in each photographed image. By considering the relative positional relationship of the shooting target, the accuracy of the alignment can be further improved as compared with the alignment using only the actual information and the schedule information.
第2の方法として、相対位置算出部41は、移動体22の三次元位置と、速度ベクトルと、撮影装置21から撮影対象範囲11までの距離Lとに基づいて、撮影対象範囲11における撮影画像の相対位置を特定する。つまり、撮影装置21の移動ルート12を特定することで、当該移動ルート12上で撮影された各撮影画像の相対位置を算出することができる。 As a second method, the relative position calculation unit 41 determines the captured image in the photographing target range 11 based on the three-dimensional position of the moving body 22, the velocity vector, and the distance L from the photographing device 21 to the photographing target range 11. Identify the relative position of. That is, by specifying the moving route 12 of the photographing device 21, the relative position of each photographed image photographed on the moving route 12 can be calculated.
作成部42は、相対位置に基づいて各撮影画像を配列し、合成して撮影範囲よりも広い範囲を含む広域画像としてパノラマ画像を作成する(作成ステップ)。作成部42は、相対位置算出部41で行った位置合わせに基づいて、隣接する2つの撮影画像を1つのパノラマ画像に合成する。また、作成部42は、作成されたパノラマ画像と、隣接する1つの撮影画像とを1つのパノラマ画像に合成することを繰り返して、撮影対象10を含む大きさ、例えば、撮影対象範囲11に対応する大きさのパノラマ画像を作成する。なお、作成部42は、3つ以上の撮影画像から1つのパノラマ画像を作成したり、作成されたパノラマ画像と、隣接する2つ以上の撮影画像から1つのパノラマ画像を作成したりしてもよい。 The creation unit 42 arranges each photographed image based on the relative position, combines them, and creates a panoramic image as a wide area image including a range wider than the photographing range (creation step). The creation unit 42 combines two adjacent captured images into one panoramic image based on the alignment performed by the relative position calculation unit 41. In addition, the creation unit 42 repeatedly synthesizes the created panoramic image and one adjacent shot image into one panoramic image, and corresponds to a size including the shooting target 10, for example, a shooting target range 11. Create a panoramic image of the size you want. The creation unit 42 may create one panoramic image from three or more captured images, or may create one panoramic image from the created panoramic image and two or more adjacent captured images. Good.
パターン学習部50は、撮影対象範囲11から検出したい画像パターンを学習する。例えば、画像パターンの学習は、機械学習用のプログラムで行う。パターン学習部50は、多数の教師データを取得し、当該データに基づいて特徴的な画像パターンを認識可能な画像認識用エンジンを作成する。ここで、特徴的な画像パターンとは、撮影対象が通常有する色、形状、模様を有する部分である。具体的には、ひび、きず、さび等、通常の色合いや模様とは相違する色合いや模様を有する部分等が特徴的な画像パターンとして検出される。よって、特徴的な画像パターンは、検査において放置するよりはむしろ、精密に検査を行うことが好ましい部分として抽出可能になる。 The pattern learning unit 50 learns an image pattern to be detected from the shooting target range 11. For example, image pattern learning is performed by a machine learning program. The pattern learning unit 50 acquires a large amount of teacher data and creates an image recognition engine capable of recognizing a characteristic image pattern based on the data. Here, the characteristic image pattern is a portion having a color, a shape, and a pattern that the object to be photographed usually has. Specifically, a portion having a color or pattern different from the normal color or pattern such as cracks, scratches, or rust is detected as a characteristic image pattern. Therefore, the characteristic image pattern can be extracted as a portion where it is preferable to perform a precise inspection rather than leaving it unattended in the inspection.
パターン検出部51は、各撮影画像からなるパノラマ画像をパターン学習部50による学習結果と照合することで、学習結果に該当する画像範囲を占有する位置情報とともに、照合結果としてパノラマ画像から検出する。また、パターン検出部51は、各撮影画像から検出した特徴的な画像パターンのリストと、パノラマ画像上の位置のリストを作成する。例えば、画像パターンの検出は、機械学習用プログラムの学習結果を利用する画像認識用のプログラムを利用して行う。パターン検出部51は、取得された照合結果のリストに基づいてパノラマ画像に特徴的な画像パターンの位置を対応付ける。また、パターン検出部51は、特徴的な画像パターンの検出された画像領域の認識容易性を高めるための情報を付加する。例えば、表示部38に学習結果である画像パターンに該当する画像パターンを矩形の囲みで囲う等の強調表示を行うようにしてもよい。 The pattern detection unit 51 collates the panoramic image composed of each captured image with the learning result by the pattern learning unit 50, and detects the panoramic image as the collation result together with the position information occupying the image range corresponding to the learning result. In addition, the pattern detection unit 51 creates a list of characteristic image patterns detected from each captured image and a list of positions on the panoramic image. For example, the image pattern is detected by using an image recognition program that uses the learning result of the machine learning program. The pattern detection unit 51 associates the positions of characteristic image patterns with the panoramic image based on the list of acquired collation results. In addition, the pattern detection unit 51 adds information for enhancing the recognizability of the detected image region of the characteristic image pattern. For example, the display unit 38 may be highlighted such that the image pattern corresponding to the image pattern that is the learning result is surrounded by a rectangle.
(画像撮影装置の動作)
図3〜図8を参照して、画像撮影装置の動作について説明する。
図3に示すように、パノラマ画像を作成するとき、処理装置30は、撮影準備処理(ステップS10)と、撮影処理(ステップS20)と、撮影対象特定処理(ステップS30)と、画像合成処理(ステップS40)と、パターン検出処理(ステップS50)とを実行する。
(Operation of image capturing device)
The operation of the image capturing apparatus will be described with reference to FIGS. 3 to 8.
As shown in FIG. 3, when creating a panoramic image, the processing device 30 includes a shooting preparation process (step S10), a shooting process (step S20), a shooting target identification process (step S30), and an image composition process (step S30). Step S40) and the pattern detection process (step S50) are executed.
撮影準備処理(図3のステップS10)では、処理装置30は、移動撮影装置20で撮影対象10を撮影のために必要な準備を整える。
撮影処理(図3のステップS20)では、処理装置30は、撮影画像を取得し、処理する。これにより、撮影条件の相違を調整された撮影画像が得られる。
In the shooting preparation process (step S10 in FIG. 3), the processing device 30 prepares the shooting target 10 for shooting with the mobile shooting device 20.
In the photographing process (step S20 of FIG. 3), the processing device 30 acquires and processes the photographed image. As a result, a captured image adjusted for differences in imaging conditions can be obtained.
撮影対象抽出処理(図3のステップS30)では、処理装置30は、撮影画像から撮影対象を抽出する。これにより、撮影対象のパノラマ画像を作成することができる。
パノラマ画像作成処理(図3のステップS40)では、処理装置30は、複数の撮影画像から、撮影画像の数より少ない数である1又は複数のパノラマ画像を作成する。
In the shooting target extraction process (step S30 in FIG. 3), the processing device 30 extracts the shooting target from the shot image. This makes it possible to create a panoramic image to be photographed.
In the panoramic image creation process (step S40 of FIG. 3), the processing device 30 creates one or a plurality of panoramic images from the plurality of captured images, which is a number smaller than the number of captured images.
パターン検出処理(図3のステップS50)では、処理装置30は、パノラマ画像に含まれる、特徴的な画像パターンを検出して、当該検出された位置を表示部38で強調表示可能にする。 In the pattern detection process (step S50 in FIG. 3), the processing device 30 detects a characteristic image pattern included in the panoramic image and enables the display unit 38 to highlight the detected position.
詳述すると、図4に示すように、処理装置30は、撮影準備処理(図3のステップS10)が開始されると、初期値設定(ステップS11)と、移動ルート算出(ステップS12)と、撮影位置算出(ステップS13)と、データ準備(ステップS14)とを実行する。 More specifically, as shown in FIG. 4, when the shooting preparation process (step S10 in FIG. 3) is started, the processing device 30 sets the initial value (step S11), calculates the movement route (step S12), and sets the initial value. The shooting position calculation (step S13) and the data preparation (step S14) are executed.
初期値設定(図4のステップS11)では、処理装置30の撮影準備部33は、シャッター速度や露出などの撮影条件を準備する。
移動ルート算出(図4のステップS12)では、処理装置30の撮影準備部33は、移動ルート12(移動経路R1)を算出する。
In the initial value setting (step S11 in FIG. 4), the shooting preparation unit 33 of the processing device 30 prepares shooting conditions such as shutter speed and exposure.
In the movement route calculation (step S12 in FIG. 4), the shooting preparation unit 33 of the processing device 30 calculates the movement route 12 (movement route R1).
撮影位置算出(図4のステップS13)では、処理装置30の撮影準備部33は、移動ルート12(移動経路R1)上に、各撮影ポイントPm3〜Pm1,Pn,Pn1〜Pn3(図2参照)を設定する。 In the shooting position calculation (step S13 in FIG. 4), the shooting preparation unit 33 of the processing device 30 places the shooting points Pm3 to Pm1, Pn, Pn1 to Pn3 (see FIG. 2) on the moving route 12 (moving path R1). To set.
データ準備(図4のステップS14)では、処理装置30の撮影準備部33は、移動撮影装置20に撮影に送信するデータを準備する。また、撮影準備部33は、移動ルート12(移動経路R1)や各撮影ポイントPm3〜Pm1,Pn,Pn1〜Pn3を移動体22に送信するために準備する。また、撮影準備部33は、シャッター速度や露出などの撮影条件等を撮影装置21に送信するために準備する。 In the data preparation (step S14 of FIG. 4), the shooting preparation unit 33 of the processing device 30 prepares the data to be transmitted to the mobile shooting device 20 for shooting. Further, the shooting preparation unit 33 prepares to transmit the moving route 12 (moving path R1) and each shooting point Pm3 to Pm1, Pn, Pn1 to Pn3 to the moving body 22. Further, the shooting preparation unit 33 prepares for transmitting shooting conditions such as shutter speed and exposure to the shooting device 21.
そして、図5に示すように、処理装置30では、撮影処理(図3のステップS20)が開始されると、データ設定(ステップS21)と、移動開始(ステップS22)と、撮影開始(ステップS23)と、撮影位置移動(ステップS24)と、撮影(ステップS25)とが実行される。また、処理装置30では、画像受信(ステップS26)と、終了判定(ステップS27)とが実行される。 Then, as shown in FIG. 5, in the processing device 30, when the shooting process (step S20 in FIG. 3) is started, the data setting (step S21), the movement start (step S22), and the shooting start (step S23) are started. ), The shooting position movement (step S24), and the shooting (step S25) are executed. Further, in the processing device 30, image reception (step S26) and end determination (step S27) are executed.
データ設定(図5のステップS21)では、処理装置30の撮影準備部33は、移動撮影装置20に撮影に必要なデータを送信して設定する。処理装置30の撮影準備部33は、移動ルート12(移動経路R1)や各撮影ポイントPm3〜Pm1,Pn,Pn1〜Pn3を移動体22に送信して設定する。また、処理装置30の撮影準備部33は、シャッター速度や露出などの撮影条件等を撮影装置21に送信して設定する。 In the data setting (step S21 of FIG. 5), the shooting preparation unit 33 of the processing device 30 transmits data necessary for shooting to the mobile shooting device 20 and sets the data. The shooting preparation unit 33 of the processing device 30 transmits the moving route 12 (moving path R1) and each shooting point Pm3 to Pm1, Pn, Pn1 to Pn3 to the moving body 22 for setting. Further, the shooting preparation unit 33 of the processing device 30 transmits and sets shooting conditions such as shutter speed and exposure to the shooting device 21.
移動開始(図5のステップS22)では、処理装置30の撮影処理部34は、移動撮影装置20を移動ルート12の開始位置に移動させる。
撮影開始(図5のステップS23)では、処理装置30の撮影処理部34は、移動撮影装置20に撮影対象の撮影開始指示を行う。
At the start of movement (step S22 in FIG. 5), the photographing processing unit 34 of the processing device 30 moves the moving photographing device 20 to the start position of the moving route 12.
At the start of shooting (step S23 in FIG. 5), the shooting processing unit 34 of the processing device 30 instructs the mobile shooting device 20 to start shooting the shooting target.
撮影位置移動(図5のステップS24)では、処理装置30の撮影処理部34は、移動撮影装置20が移動ルート12に沿って移動すること、及び撮影ポイントで撮影することを確認する。このとき、移動撮影装置20は、設定された移動ルート12及び撮影ポイントに基づいて自律的に移動する。つまり、移動撮影装置20は、移動体22によって移動ルート12に従って移動するとともに、撮影装置21の焦点が順次撮影ポイントに移動させられる。 In the shooting position movement (step S24 in FIG. 5), the shooting processing unit 34 of the processing device 30 confirms that the moving shooting device 20 moves along the moving route 12 and shoots at the shooting point. At this time, the moving shooting device 20 autonomously moves based on the set moving route 12 and the shooting point. That is, the mobile photographing device 20 is moved by the moving body 22 according to the moving route 12, and the focus of the photographing device 21 is sequentially moved to the photographing point.
撮影(図5のステップS25)では、処理装置30の撮影処理部34は、撮影装置21の焦点が撮影ポイントに到達する毎に撮影対象を撮影することを確認する。なお、このとき、移動撮影装置20は、自律的に画像を撮影する。また、画像を撮影するとき、撮影装置21は、撮影対象の画像認識等はしていないので、各撮影ポイントにおいて指定された方向を、所定の距離Lに対応するピントで撮影する。 In shooting (step S25 in FIG. 5), the shooting processing unit 34 of the processing device 30 confirms that the shooting target is shot each time the focus of the shooting device 21 reaches the shooting point. At this time, the mobile photographing device 20 autonomously photographs an image. Further, when shooting an image, the shooting device 21 does not recognize the image to be shot, so the direction specified at each shooting point is shot with a focus corresponding to a predetermined distance L.
画像受信(図5のステップS26)では、処理装置30の撮影処理部34は、撮影装置21から送信された各撮影ポイントで撮影した各撮影画像を受信により取得するとともに、作成時の三次元位置情報に対応付ける。 In the image reception (step S26 of FIG. 5), the photographing processing unit 34 of the processing device 30 acquires each photographed image photographed at each photographing point transmitted from the photographing device 21 by reception, and at the same time, obtains the three-dimensional position at the time of creation. Correspond to information.
そして、処理装置30は、撮影終了か否かを判定する(図5のステップS27)。移動撮影装置20が移動ルート12の終点に到達したとき、撮影終了であると判定し、終点に到達していないとき、撮影終了ではないと判定する。 Then, the processing device 30 determines whether or not the photographing is completed (step S27 in FIG. 5). When the moving photographing device 20 reaches the end point of the moving route 12, it is determined that the photographing is completed, and when it has not reached the end point, it is determined that the photographing is not completed.
撮影終了ではないと判定された場合(図5のステップS27でNO)、処理装置30は、処理をステップS24に戻して、撮影位置移動(ステップS24)以降の処理を再実行する。一方、撮影終了であると判定された場合(図5のステップS27でYES)では、処理装置30は、撮影処理を終了する。 When it is determined that the shooting is not completed (NO in step S27 in FIG. 5), the processing device 30 returns the processing to step S24 and re-executes the processing after the shooting position movement (step S24). On the other hand, when it is determined that the shooting is completed (YES in step S27 in FIG. 5), the processing device 30 ends the shooting process.
続いて、図6に示すように、処理装置30は、撮影対象抽出処理(図3のステップS30)が開始されると、対象画像選択(ステップS31)と、移動体状態取得(ステップS32)と、対象物速度算出(ステップS33)と、対象速度画像抽出(ステップS34)と、終了判定(ステップS34)とを実行する。 Subsequently, as shown in FIG. 6, when the photographing target extraction process (step S30 in FIG. 3) is started, the processing device 30 selects the target image (step S31) and acquires the moving object state (step S32). , The object speed calculation (step S33), the target speed image extraction (step S34), and the end determination (step S34) are executed.
対象画像選択(図6のステップS31)では、処理装置30の画像処理装置35は、処理対象とする撮影画像を選択する。撮影画像は、移動ルート12の順に選ばれてもよいし、移動ルート12とは相違する順番で選ばれてもよいが、撮影対象の速度ベクトルの算出が行いやすいように撮影画像が選択されることが好ましい。 In the target image selection (step S31 of FIG. 6), the image processing device 35 of the processing device 30 selects the captured image to be processed. The captured images may be selected in the order of the moving route 12, or may be selected in a different order from the moving route 12, but the captured images are selected so that the speed vector of the shooting target can be easily calculated. Is preferable.
移動体状態取得(図6のステップS32)では、処理装置30の画像処理装置35は、選択した撮影画像に対応する移動体22の実績情報や予定情報、速度ベクトル等を取得する。 In the moving body state acquisition (step S32 in FIG. 6), the image processing device 35 of the processing device 30 acquires the actual information, the schedule information, the speed vector, and the like of the moving body 22 corresponding to the selected captured image.
対象物速度算出(図6のステップS33)では、処理装置30の対象抽出部40は、取得した移動体22の実績情報や予定情報、速度ベクトル等に基づいて、各撮影画像に含まれる撮影対象の一部が当該撮影画像において有すると推定される速度ベクトル等を算出する。 In the object speed calculation (step S33 in FIG. 6), the target extraction unit 40 of the processing device 30 includes a shooting target included in each shot image based on the acquired actual information, schedule information, speed vector, etc. of the moving body 22. Calculate the velocity vector and the like that are estimated to be possessed by a part of the captured image.
対象速度画像抽出(図6のステップS34)では、処理装置30の対象抽出部40は、各撮影画像のなかから、推定された速度ベクトルを有している画像領域を、撮影対象の画像領域として抽出する。 In the target speed image extraction (step S34 in FIG. 6), the target extraction unit 40 of the processing device 30 uses an image region having an estimated velocity vector from each captured image as an image region to be captured. Extract.
撮影対象が抽出されると、処理装置30は、対象画像が終了したか否かを判定する(図6のステップS35)。そして、対象画像が終了していないと判定された場合(図6のステップS35でNO)、処理装置30は、処理をステップS31に戻して、対象画像選択(ステップS31)以降の処理を再実行する。一方、対象画像が終了していると判定された場合(図6のステップS35でYES)、処理装置30は、撮影対象抽出処理を終了する。 When the shooting target is extracted, the processing device 30 determines whether or not the target image is completed (step S35 in FIG. 6). Then, when it is determined that the target image has not been completed (NO in step S35 of FIG. 6), the processing device 30 returns the process to step S31 and re-executes the processes after the target image selection (step S31). To do. On the other hand, when it is determined that the target image is completed (YES in step S35 of FIG. 6), the processing device 30 ends the photographing target extraction process.
さらに、図7に示すように、処理装置30は、パノラマ画像作成処理(図3のステップS40)が開始されると、対象画像選択(ステップS41)と、相対位置算出(ステップS42)と、合成位置算出(ステップS43)と、画像合成(ステップS44)と、終了判定(ステップS45)とを実行する。 Further, as shown in FIG. 7, when the panoramic image creation process (step S40 in FIG. 3) is started, the processing device 30 performs target image selection (step S41), relative position calculation (step S42), and synthesis. The position calculation (step S43), the image composition (step S44), and the end determination (step S45) are executed.
対象画像選択(図7のステップS41)では、処理装置30の相対位置算出部41は、処理対象とする撮影画像を選択する。撮影画像は、移動ルート12の順に選ばれてもよいし、移動ルート12とは相違する順番で選ばれてもよいが、最初は隣接する2つの撮影画像が選択され、以降は、作成中のパノラマ画像に隣接する撮影画像が選択されることが好ましい。 In the target image selection (step S41 in FIG. 7), the relative position calculation unit 41 of the processing device 30 selects the captured image to be processed. The captured images may be selected in the order of the moving route 12, or may be selected in a different order from the moving route 12, but at first two adjacent captured images are selected, and thereafter, they are being created. It is preferable that a captured image adjacent to the panoramic image is selected.
相対位置算出(図7のステップS42)では、処理装置30の相対位置算出部41は、選択した撮影画像の相対位置を算出する。
合成位置算出(図7のステップS43)では、処理装置30の相対位置算出部41は、隣接する撮影画像の位置合わせを行う。
In the relative position calculation (step S42 in FIG. 7), the relative position calculation unit 41 of the processing device 30 calculates the relative position of the selected captured image.
In the composite position calculation (step S43 in FIG. 7), the relative position calculation unit 41 of the processing device 30 aligns the adjacent captured images.
画像合成(図7のステップS44)では、処理装置30の作成部42は、各撮影画像を位置合わせに従って配列して撮影装置21の撮影範囲よりも広い範囲を含む広域画像としてパノラマ画像を作成する。 In image composition (step S44 of FIG. 7), the creating unit 42 of the processing device 30 arranges each captured image according to the alignment and creates a panoramic image as a wide area image including a range wider than the photographing range of the photographing device 21. ..
そして、画像処理装置35は、取得された撮影画像から選択される対象画像が終了したか否かを判定する(図7のステップS45)。対象画像が終了していないと判定された場合(図7のステップS45でNO)、画像処理装置35は、処理をステップS41に戻して、対象画像選択(ステップS41)以降の処理を再実行する。一方、対象画像が終了したと判定された場合(図7のステップS45でYES)、画像処理装置35は、パノラマ画像作成処理を終了する。 Then, the image processing device 35 determines whether or not the target image selected from the acquired captured images has been completed (step S45 in FIG. 7). When it is determined that the target image has not been completed (NO in step S45 in FIG. 7), the image processing device 35 returns the process to step S41 and re-executes the processes after the target image selection (step S41). .. On the other hand, when it is determined that the target image is completed (YES in step S45 of FIG. 7), the image processing device 35 ends the panoramic image creation process.
これにより、近距離から撮影されて所定の解像度が確保されている画像から、撮影対象10のパノラマ画像が作成される。
さらに、図8に示すように、処理装置30は、パターン検出処理(図3のステップS50)が開始されると、照合範囲取得(ステップS51)と、照合処理(ステップS52)と、照合結果取得(ステップS53)と、照合結果対応付け(ステップS54)と、終了判定(図8のステップS55)とを実行する。
As a result, a panoramic image of the shooting target 10 is created from an image shot from a short distance and having a predetermined resolution.
Further, as shown in FIG. 8, when the pattern detection process (step S50 in FIG. 3) is started, the processing device 30 acquires a collation range (step S51), a collation process (step S52), and a collation result. (Step S53), collation result association (step S54), and end determination (step S55 in FIG. 8) are executed.
照合範囲取得(図8のステップS51)では、処理装置30のパターン検出部51は、1又は複数のパノラマ画像を照合範囲として取得する。
照合処理(図8のステップS52)では、処理装置30のパターン検出部51は、画像認識用のプログラムでパノラマ画像に含まれる特徴的な画像パターンの検出を行う。特徴的な画像パターンは、ひび、きず、さび等詳細検査が必要な可能性のあるパターンである。また、画像パターンは、パノラマ画像において照合範囲にあることが特定されるとともに、照合範囲における占有位置も特定される。
In the collation range acquisition (step S51 in FIG. 8), the pattern detection unit 51 of the processing device 30 acquires one or a plurality of panoramic images as the collation range.
In the collation process (step S52 in FIG. 8), the pattern detection unit 51 of the processing device 30 detects a characteristic image pattern included in the panoramic image by a program for image recognition. Characteristic image patterns are patterns such as cracks, scratches, and rust that may require detailed inspection. Further, the image pattern is specified to be in the collation range in the panoramic image, and the occupied position in the collation range is also specified.
照合結果取得(図8のステップS53)では、処理装置30のパターン検出部51は、画像認識用のプログラムから特徴的な画像パターンの照合結果のリストを取得する。
照合結果対応付け(図8のステップS54)では、処理装置30のパターン検出部51は、取得されたリストに基づいてパノラマ画像に特徴的な画像パターンの位置を対応付ける。
In the collation result acquisition (step S53 of FIG. 8), the pattern detection unit 51 of the processing device 30 acquires a list of characteristic image pattern collation results from the image recognition program.
In the collation result mapping (step S54 of FIG. 8), the pattern detection unit 51 of the processing device 30 associates the position of the characteristic image pattern with the panoramic image based on the acquired list.
そして、処理装置30は、照合範囲が終了したか否かを判定する(図8のステップS55)。照合範囲が終了していないと判定された場合(図8のステップS55でNO)、処理装置30のパターン検出部51は、処理をステップS51に戻して、照合範囲取得(ステップS51)以降の処理を再実行する。一方、照合範囲が終了していると判定された場合(図8のステップS55でYES)、処理装置30のパターン検出部51は、パノラマ画像作成処理を終了する。 Then, the processing device 30 determines whether or not the collation range has been completed (step S55 in FIG. 8). When it is determined that the collation range has not been completed (NO in step S55 of FIG. 8), the pattern detection unit 51 of the processing device 30 returns the process to step S51, and processes after the collation range acquisition (step S51). Is re-executed. On the other hand, when it is determined that the collation range is completed (YES in step S55 of FIG. 8), the pattern detection unit 51 of the processing device 30 ends the panoramic image creation process.
三次元移動の可能な移動体22により、撮影対象の高所であって、地上からでは高い解像度で観測できない部分にあっても、所定の解像度の撮影画像を得られる距離Lに配置された移動撮影装置20の撮影画像に基づくパノラマ画像に基づいて好適に観察することができる。これにより、検査に要する手間を軽減できる。また、適切な検査により、撮影対象を適切にメンテナンスすることができるようになる。また、強調表示により検出箇所の認識が容易になり、見落としなどのおそれが低減する。 With the moving body 22 capable of three-dimensional movement, the movement is arranged at a distance L at which a photographed image having a predetermined resolution can be obtained even in a high place to be photographed and which cannot be observed at a high resolution from the ground. It is possible to preferably observe based on a panoramic image based on the captured image of the photographing device 20. As a result, the labor required for the inspection can be reduced. In addition, proper inspection makes it possible to properly maintain the subject to be photographed. In addition, the highlighting makes it easier to recognize the detected portion and reduces the risk of oversight.
本実施形態によれば、以下の効果が得られるようになる。
(1)撮影装置21が移動体22で移動されることで撮影範囲よりも広い撮影対象10の画像が、適切な解像度の確保される距離Lからの各撮影画像として得られる。そして、こうして撮影された各撮影画像Fn等が配列されることで、適切な解像度を有する広域画像であるパノラマ画像が取得できる。
According to this embodiment, the following effects can be obtained.
(1) Since the photographing device 21 is moved by the moving body 22, images of the photographing target 10 wider than the photographing range can be obtained as each photographed image from a distance L in which an appropriate resolution is secured. Then, by arranging the captured images Fn and the like captured in this way, a panoramic image which is a wide area image having an appropriate resolution can be acquired.
また、移動体22で移動される撮影装置21の撮影した各撮影画像Fn等のなかから、目的とする撮影対象10が、各撮影画像のなかで特定の速度ベクトルを有することに基づいて抽出される。これにより、背景を含む各撮影画像Fn等から撮影対象10を高精度に分離する画像処理を行わなくても、撮影画像のなかから相対位置の特定に必要な情報を抽出することができる。 Further, from each of the captured images Fn and the like captured by the photographing device 21 moved by the moving body 22, the target imaging target 10 is extracted based on having a specific velocity vector in each captured image. To. As a result, information necessary for specifying the relative position can be extracted from the photographed image without performing image processing for separating the imaged object 10 from each photographed image Fn or the like including the background with high accuracy.
(2)撮影装置21の速度ベクトルと、撮影対象10と撮影装置21との距離Lとに基づいて算出される速度ベクトルに基づいて相対位置の特定に必要な情報が抽出される。
(3)撮影装置21の位置と速度ベクトルと、撮影対象10と撮影装置21との距離Lとに基づいて撮影装置21の移動ルート12が特定されるため、当該移動ルート12上で撮影された各撮影画像Fn等の相対位置を算出できる。
(2) Information necessary for specifying the relative position is extracted based on the speed vector calculated based on the speed vector of the photographing device 21 and the distance L between the photographing target 10 and the photographing device 21.
(3) Since the moving route 12 of the photographing device 21 is specified based on the position and speed vector of the photographing device 21 and the distance L between the photographing target 10 and the photographing device 21, the image was taken on the moving route 12. The relative position of each captured image Fn or the like can be calculated.
(4)撮影装置21の撮影範囲で撮影対象範囲11を走査するので、撮影対象範囲11を途切れなく撮影した各撮影画像Fn等を取得できるため切れ目のないパノラマ画像を作成できる。また、撮影対象範囲11の各撮影画像Fn等が順番に撮影されるので、各撮影画像Fn等の相対位置の算出や、各撮影画像を合成してパノラマ画像を作成することが容易である。 (4) Since the shooting target range 11 is scanned in the shooting range of the shooting device 21, each shot image Fn or the like obtained by shooting the shooting target range 11 without interruption can be acquired, so that a seamless panoramic image can be created. Further, since each photographed image Fn or the like in the photographing target range 11 is photographed in order, it is easy to calculate the relative position of each photographed image Fn or the like and to create a panoramic image by synthesizing each photographed image.
(5)撮影対象範囲11の各撮影画像Fn等が所定の順番に作成されるので、撮影画像の相対位置の算出や、各撮影画像Fn等を合成してパノラマ画像を作成することがより容易になる。 (5) Since the captured images Fn and the like in the shooting target range 11 are created in a predetermined order, it is easier to calculate the relative position of the captured images and to create a panoramic image by synthesizing the captured images Fn and the like. become.
(6)パターン学習部50とパターン検出部51とを有することで、各撮影画像Fn等のなかから、ひび、きず、さび等、通常の色合いや模様とは相違する色合いや模様を有する部分等の検出したい画像パターンとそのパノラマ画像上の占有位置とを検出できる。 (6) By having the pattern learning unit 50 and the pattern detection unit 51, there are cracks, scratches, rusts, and other parts having a color or pattern different from the normal color or pattern in each captured image Fn or the like. The image pattern to be detected and the occupied position on the panoramic image can be detected.
(7)パノラマ画像において、検出したい画像パターンを含む部分を強調表示により認識させやすくできる。
(8)移動体22は、撮影範囲よりもあらゆる方向に大きい撮影対象範囲であってもその全景を水平方向、垂直方向、及び周囲を旋回する方向等を無軌道の自由な三次元移動で撮影することができる。
(7) In a panoramic image, a portion including an image pattern to be detected can be easily recognized by highlighting.
(8) The moving body 22 captures the entire view in the horizontal direction, the vertical direction, the direction of turning around, etc. by free three-dimensional movement without orbit even if the imaging target range is larger than the imaging range in all directions. be able to.
(第2の実施形態)
図9及び図10を参照して、画像撮影装置、画像処理装置及び画像処理方法の第2の実施形態について例示する。なお、本実施形態は、撮影対象が建物の壁面である点が第1の実施形態と相違する。以下、相違点を中心に説明する。
(Second Embodiment)
With reference to FIGS. 9 and 10, a second embodiment of the image capturing apparatus, the image processing apparatus, and the image processing method will be illustrated. The present embodiment is different from the first embodiment in that the object to be photographed is the wall surface of the building. Hereinafter, the differences will be mainly described.
図9に示すように、移動撮影装置20は、所定の解像度で建物100の壁面101の撮影画像を得られる距離Lに配置されたときの視野Eを有する。この視野Eで撮影できる撮影画像の範囲に対して、建物100の壁面101は、水平方向に1倍よりも広く、垂直方向にも1倍よりも広い。そこで、移動撮影装置20は、建物100の壁面101から距離Lの位置を移動しつつ、所定の解像度で建物100の壁面101の画像が得られるように複数の撮影画像を作成するための移動経路R2が設定される。例えば、移動経路R2は、撮影準備部33で作成されて、移動体制御部31から移動撮影装置20に設定される。 As shown in FIG. 9, the mobile photographing apparatus 20 has a field of view E when arranged at a distance L at which a photographed image of the wall surface 101 of the building 100 can be obtained with a predetermined resolution. The wall surface 101 of the building 100 is wider than 1 times in the horizontal direction and wider than 1 times in the vertical direction with respect to the range of the photographed image that can be taken in the field of view E. Therefore, the moving photographing device 20 moves a position at a distance L from the wall surface 101 of the building 100, and creates a plurality of captured images so that an image of the wall surface 101 of the building 100 can be obtained with a predetermined resolution. R2 is set. For example, the moving path R2 is created by the shooting preparation unit 33, and is set in the moving shooting device 20 by the moving body control unit 31.
移動経路R2は、垂直方向に隣接する撮影画像の一部が重なるとともに、未撮影部分が含まれるように撮影ポイントP21,P22,P23,P24,・・・が設定される。これにより、建物100の壁面101が垂直方向に視野Eで走査される。また、この走査が水平方向に順次移動して行われることで、建物100の壁面101の全体の撮影画像を取得し、建物100の壁面101のパノラマ画像を作成する。なお、水平方向の移動量についても、隣接する撮影画像の一部が重なるとともに、未撮影部分が含まれるような移動量である。 In the movement path R2, shooting points P21, P22, P23, P24, ... Are set so that a part of the vertically adjacent captured images overlaps and the unphotographed portion is included. As a result, the wall surface 101 of the building 100 is vertically scanned in the field of view E. Further, by performing this scanning sequentially in the horizontal direction, a photographed image of the entire wall surface 101 of the building 100 is acquired, and a panoramic image of the wall surface 101 of the building 100 is created. It should be noted that the amount of movement in the horizontal direction is such that a part of adjacent captured images overlaps and an unphotographed portion is included.
つまり、図10に示すように、移動経路R2は、建物100の壁面101に対して、垂直移動を繰り返す経路である。そして、画像処理装置35は、移動経路R2を移動して撮影された撮影画像に基づいて、建物100の壁面101のパノラマ画像を作成する。 That is, as shown in FIG. 10, the movement path R2 is a path that repeats vertical movement with respect to the wall surface 101 of the building 100. Then, the image processing device 35 creates a panoramic image of the wall surface 101 of the building 100 based on the photographed image taken by moving along the movement path R2.
パノラマ画像には、撮影画像には、建物の壁面101の他に、入口構造102や、窓構造103等が含まれる。また、パノラマ画像には、クラックC1、クラックC2及びクラックC3が含まれている。 In the panoramic image, the captured image includes an entrance structure 102, a window structure 103, and the like, in addition to the wall surface 101 of the building. Further, the panoramic image includes cracks C1, cracks C2 and cracks C3.
パターン学習部50は、建物100の正常な壁面101、入口構造102、及び窓構造103を正常なパターンとして学習している。逆に、検査を要する可能性のあるクラックC1、クラックC2及びクラックC3等を特徴的な画像パターンとして学習している。 The pattern learning unit 50 learns the normal wall surface 101, the entrance structure 102, and the window structure 103 of the building 100 as normal patterns. On the contrary, cracks C1, cracks C2, cracks C3 and the like that may require inspection are learned as characteristic image patterns.
パターン検出部51は、パターン学習部50による学習結果と建物100の壁面101のパノラマ画像とを照合してパノラマ画像に特徴的な画像パターンが含まれているか否かを判定する。例えば、パノラマ画像には、クラックC1、クラックC2及びクラックC3が含まれていることが検出される。 The pattern detection unit 51 collates the learning result of the pattern learning unit 50 with the panoramic image of the wall surface 101 of the building 100 to determine whether or not the panoramic image contains a characteristic image pattern. For example, it is detected that the panoramic image contains cracks C1, cracks C2, and cracks C3.
また、パターン検出部51は、検出されたクラックC1、クラックC2及びクラックC3をそれぞれ強調表示させる枠CB1,CB2,CB3で囲う。これにより、特徴的な画像パターンとして検出された部分の視認性を高めることができる。 Further, the pattern detection unit 51 is surrounded by frames CB1, CB2, and CB3 for highlighting the detected cracks C1, cracks C2, and cracks C3, respectively. As a result, the visibility of the portion detected as a characteristic image pattern can be enhanced.
つまり、表示部38は、パノラマ画像に、特徴的な画像パターンのある部分を強調表示させる枠CB1,CB2,CB3を含んで表示することができる。換言すると、特徴的な画像パターンの位置が特定されて、その特定された位置がパノラマ画像上に強調表示させる枠CB1,CB2,CB3で強調表示される。 That is, the display unit 38 can display the panoramic image including the frames CB1, CB2, and CB3 that highlight the portion having the characteristic image pattern. In other words, the position of the characteristic image pattern is specified, and the specified position is highlighted by the frames CB1, CB2, and CB3 that are highlighted on the panoramic image.
建物100の壁面101であって、地上からでは高い解像度で観測できない部分にあっても、所定の解像度で建物100の壁面101の撮影画像を得られる距離Lに配置された移動撮影装置20の撮影画像によって好適に観察することができる。これにより、検査に要する手間を軽減できる。また、適切な検査により、撮影対象を適切にメンテナンスすることができるようになる。また、枠で囲う強調表示により検出箇所の認識が容易になり、見落としなどのおそれが低減して検査精度が高められる。 Even if the wall surface 101 of the building 100 is located in a portion that cannot be observed with a high resolution from the ground, the moving photographing device 20 arranged at a distance L capable of obtaining a photographed image of the wall surface 101 of the building 100 with a predetermined resolution is photographed. It can be preferably observed by the image. As a result, the labor required for the inspection can be reduced. In addition, proper inspection makes it possible to properly maintain the subject to be photographed. In addition, the highlighting surrounded by a frame facilitates the recognition of the detected portion, reduces the risk of oversight, and improves the inspection accuracy.
本実施形態によれば、上記(1)〜(8)に記載の効果に加えて、以下の効果が得られるようになる。
(9)パターン学習部50とパターン検出部51とを有することで、撮影画像Fn等から、ひび、きず、さび等、通常の色合いや模様とは相違する色合いや模様を有する部分等の特徴的な画像パターンとそのパノラマ画像上に占める位置とを検出できる。また、特徴的な画像パターンの位置を特定しパノラマ画像上で強調表示することができる。
According to the present embodiment, in addition to the effects described in (1) to (8) above, the following effects can be obtained.
(9) By having the pattern learning unit 50 and the pattern detection unit 51, there are characteristics such as cracks, scratches, rust, and other parts having a color or pattern different from the normal color or pattern from the captured image Fn or the like. Image pattern and its position on the panoramic image can be detected. In addition, the position of a characteristic image pattern can be specified and highlighted on the panoramic image.
なお、上記各実施形態は、以下のように変更して実施することができる。上記各実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。 Each of the above embodiments can be modified and implemented as follows. Each of the above embodiments and the following modified examples can be implemented in combination with each other within a technically consistent range.
・図11に示すように、撮影対象110が半球状である場合の移動経路R3について説明する。
移動経路R3は、所定の解像度で撮影対象110の表面の各撮影画像を得られるように、撮影対象110の表面からの距離Lに設定される。つまり、移動経路R3は、撮影対象110の表面に沿う周状に設けられる。
-As shown in FIG. 11, the movement path R3 when the imaging target 110 is hemispherical will be described.
The movement path R3 is set to a distance L from the surface of the image target 110 so that each photographed image of the surface of the image target 110 can be obtained at a predetermined resolution. That is, the movement path R3 is provided in a circumferential shape along the surface of the photographing target 110.
詳述すると、撮影対象110の表面は、移動撮影装置20が距離Lに配置されたときの視野Eで撮影できる撮影画像の範囲に対して、水平方向に1倍よりも広く、垂直方向にも1倍よりも広い。 More specifically, the surface of the photographing target 110 is wider than 1 times in the horizontal direction and also in the vertical direction with respect to the range of the photographed image that can be photographed in the field of view E when the moving photographing device 20 is arranged at the distance L. Wider than 1x.
そこで、移動撮影装置20は、撮影対象110から距離Lの位置を移動しつつ、所定の解像度で撮影対象110の画像が得られるように各撮影画像を作成するための周状の移動経路R3が設定される。 Therefore, the mobile photographing device 20 has a circumferential movement path R3 for creating each photographed image so that an image of the photographing object 110 can be obtained with a predetermined resolution while moving a position at a distance L from the photographing object 110. Set.
移動経路R3は、水平方向に隣接する撮影画像の一部が重なるとともに、未撮影部分が含まれるように撮影ポイントP31,・・・,P3n,・・・が設定される。これにより、撮影対象110が水平方向に視野Eで走査される。また、この走査が垂直方向に順次移動して行われることで、撮影対象110の全体の各撮影画像を取得し、撮影対象110の表面のパノラマ画像を作成する。 In the movement path R3, shooting points P31, ..., P3n, ... Are set so that a part of the horizontally adjacent captured images overlaps and the unphotographed portion is included. As a result, the imaging target 110 is scanned horizontally in the field of view E. Further, by performing this scanning sequentially in the vertical direction, each captured image of the entire imaged object 110 is acquired, and a panoramic image of the surface of the imaged object 110 is created.
・上記各実施形態では、移動体22が自律的に無軌道の自由な三次元移動が可能である場合について例示した。しかしこれに限らず、移動体が自律的に無軌道の自由な二次元移動が可能であってもよい。また、移動体が規定された経路の三次元移動や二次元移動が可能であってもよい。規定された経路は、レールやガイド等の接触式の誘導経路、レーザや無線等の非接触式の誘導経路であってもよい。 -In each of the above embodiments, a case where the moving body 22 is capable of autonomously free three-dimensional movement without an orbit is illustrated. However, the present invention is not limited to this, and the moving body may be able to autonomously move freely in two dimensions without an orbit. Further, the moving body may be capable of three-dimensional movement or two-dimensional movement of a defined path. The defined route may be a contact type guidance path such as a rail or a guide, or a non-contact type guidance path such as a laser or radio.
・上記各実施形態では、移動体が飛行体や搬送装置である場合について例示したが、移動体には、撮影装置21を移動可能なベルトコンベア等が含まれてもよい。
・上記各実施形態では、処理装置に操作部37や表示部38が設けられる場合について例示したが、これに限らず、操作部37や表示部38は外部に設けられていてもよい。
-In each of the above embodiments, the case where the moving body is a flying body or a transport device has been illustrated, but the moving body may include a belt conveyor or the like capable of moving the photographing device 21.
-In each of the above embodiments, the case where the processing device is provided with the operation unit 37 and the display unit 38 has been illustrated, but the present invention is not limited to this, and the operation unit 37 and the display unit 38 may be provided outside.
・上記各実施形態では、移動体22は、既設のレールやワイヤー等に沿って移動するものであってもよい。
・上記第1の実施形態では、対象抽出部40は、各撮影画像のなかから所定の速度ベクトルを含む部分を撮影対象として抽出する場合について例示した。しかしこれに限らず、各撮影画像について、撮影対象を抽出するように画像認識を行ってよい。そして、相対位置算出部が、隣接する撮影画像の相対位置の特定に、画像認識の結果を追加してもよい。これにより、相対位置の精度が高まるから、より高い精度のパノラマ画像を作成することができる。
-In each of the above embodiments, the moving body 22 may move along an existing rail, wire, or the like.
-In the first embodiment, the target extraction unit 40 illustrates a case where a portion including a predetermined velocity vector is extracted as a shooting target from each shot image. However, the present invention is not limited to this, and image recognition may be performed for each captured image so as to extract a capture target. Then, the relative position calculation unit may add the result of image recognition to the identification of the relative position of the adjacent captured image. As a result, the accuracy of the relative position is improved, so that a panoramic image with higher accuracy can be created.
・上記各実施形態では、撮影対象10が人造物である場合について例示したが、これに限らず、撮影対象は自然物であってもよい。
・上記各実施形態では、撮影対象10がものである場合について例示したが、これに限らず、撮影装置21で撮影可能な模様や色彩等であれば、ものでなくてもよい。
-In each of the above embodiments, the case where the photographing target 10 is an artificial object has been illustrated, but the present invention is not limited to this, and the photographing object may be a natural object.
-In each of the above embodiments, the case where the object 10 to be photographed is an example is illustrated, but the present invention is not limited to this, and any pattern, color, or the like that can be photographed by the photographing device 21 may be used.
10…撮影対象、11…撮影対象範囲、12…移動ルート、20…移動撮影装置、21…撮影装置、22…移動体、30…処理装置、31…移動体制御部、32…画像取得部、33…撮影準備部、34…撮影処理部、35…画像処理装置、36…記憶部、37…操作部、38…表示部、40…対象抽出部、41…相対位置算出部、42…作成部、50…パターン学習部、51…パターン検出部、100…建物、101…壁面、102…入口構造、103…窓構造、110…撮影対象、C1,C2,C3…クラック。
10 ... Shooting target, 11 ... Shooting target range, 12 ... Moving route, 20 ... Moving shooting device, 21 ... Shooting device, 22 ... Moving body, 30 ... Processing device, 31 ... Moving body control unit, 32 ... Image acquisition unit, 33 ... Shooting preparation unit, 34 ... Shooting processing unit, 35 ... Image processing device, 36 ... Storage unit, 37 ... Operation unit, 38 ... Display unit, 40 ... Target extraction unit, 41 ... Relative position calculation unit, 42 ... Creation unit , 50 ... Pattern learning unit, 51 ... Pattern detection unit, 100 ... Building, 101 ... Wall surface, 102 ... Entrance structure, 103 ... Window structure, 110 ... Shooting target, C1, C2, C3 ... Crack.
Claims (11)
前記撮影装置の新たな撮影範囲のなかに前記撮影対象範囲の未撮影部分が含まれるように前記撮影装置を前記撮影対象範囲に沿って移動させる移動体と、
前記撮影装置の撮影により得られた各撮影画像に画像処理を行う画像処理装置と、
を備え、
前記撮影装置は、前記移動体により移動させられて新たな撮影範囲のなかに前記未撮影部分が含まれる新たな撮影画像を作成し、
前記画像処理装置は、各撮影画像のなかで所定の速度ベクトルを含む部分を撮影対象の一部として抽出する対象抽出部と、
前記撮影装置の撮影した各撮影画像の相対位置を算出する相対位置算出部と、
前記相対位置に基づいて各撮影画像を配列して前記撮影範囲よりも広い範囲を含む広域画像を作成する作成部とを備える
画像撮影装置。 A shooting device that can shoot a part of the shooting target range as the shooting range,
A moving body that moves the photographing device along the photographing target range so that the unphotographed portion of the photographing target range is included in the new photographing range of the photographing device.
An image processing device that performs image processing on each shot image obtained by shooting with the shooting device, and
With
The photographing device is moved by the moving body to create a new photographed image in which the unphotographed portion is included in the new photographing range.
The image processing device includes a target extraction unit that extracts a portion of each captured image including a predetermined velocity vector as a part of the imaging target.
A relative position calculation unit that calculates the relative position of each captured image captured by the imaging device,
An image capturing apparatus including a creating unit that arranges each captured image based on the relative position and creates a wide area image including a range wider than the photographing range.
請求項1に記載の画像撮影装置。 The image capturing device according to claim 1, wherein the target extraction unit calculates a speed vector of each captured image based on the speed vector of the photographing device and the distance from the photographing device to the photographing target.
請求項1又は2に記載の画像撮影装置。 The image capture according to claim 1 or 2, wherein the relative position calculation unit specifies a relative position of each captured image based on the position and speed vector of the imaging device and the distance from the imaging device to the imaging target range. apparatus.
請求項1〜3のいずれか一項に記載の画像撮影装置。 The image capturing apparatus according to any one of claims 1 to 3, wherein the relative position calculation unit further specifies a relative position of each captured image based on the result of image recognition processing of each captured image.
請求項1〜4のいずれか一項に記載の画像撮影装置。 The image capturing device according to any one of claims 1 to 4, wherein the moving body scans the photographing target range within the photographing range of the photographing device.
請求項5に記載の画像撮影装置。 The imaging apparatus according to claim 5, wherein the scanning includes horizontal scanning and vertical scanning.
前記パターン学習部による学習結果と照合して学習結果に該当する画像パターンを前記撮影画像から検出するパターン検出部とをさらに備える
請求項1〜6のいずれか一項に記載の画像撮影装置。 A pattern learning unit that learns the image pattern you want to detect from the shooting target range,
The image capturing apparatus according to any one of claims 1 to 6, further comprising a pattern detecting unit that detects an image pattern corresponding to the learning result from the captured image by collating with the learning result by the pattern learning unit.
請求項7に記載の画像撮影装置。 The image capturing apparatus according to claim 7, wherein the pattern detection unit highlights the detected image pattern.
請求項1〜8のいずれか一項に記載の画像撮影装置。 The imaging device according to any one of claims 1 to 8, wherein the moving body is capable of three-dimensional non-orbital movement including a vertical direction.
各撮影画像の相対位置を算出する相対位置算出部と、
前記相対位置に基づいて各撮影画像を配列して前記撮影装置の撮影範囲よりも広い範囲を含む広域画像を作成する作成部とを備える
画像処理装置。 An object for extracting a portion including a predetermined speed vector in each photographed image photographed by the photographing apparatus as a part of the photographing object based on the speed vector of the photographing device and the distance from the photographing device to the photographing target range. Extractor and
A relative position calculation unit that calculates the relative position of each captured image,
An image processing device including a creation unit that arranges each photographed image based on the relative position and creates a wide area image including a range wider than the photographing range of the photographing apparatus.
各撮影画像の相対位置を算出する相対位置算出ステップと、
前記相対位置に基づいて各撮影画像を配列して前記撮影装置の撮影範囲よりも広い範囲を含む広域画像を作成する作成ステップとを備える
画像処理方法。
An object for extracting a portion including a predetermined speed vector in each photographed image photographed by the photographing apparatus as a part of the photographing object based on the speed vector of the photographing device and the distance from the photographing device to the photographing target range. Extraction step and
A relative position calculation step for calculating the relative position of each captured image, and
An image processing method including a creation step of arranging each captured image based on the relative position to create a wide-area image including a range wider than the imaging range of the imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019082658A JP2020182048A (en) | 2019-04-24 | 2019-04-24 | Imaging device, image processing device, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019082658A JP2020182048A (en) | 2019-04-24 | 2019-04-24 | Imaging device, image processing device, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020182048A true JP2020182048A (en) | 2020-11-05 |
Family
ID=73024842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019082658A Pending JP2020182048A (en) | 2019-04-24 | 2019-04-24 | Imaging device, image processing device, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020182048A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4261776A1 (en) | 2022-03-29 | 2023-10-18 | Rakuten Group, Inc. | Information processing apparatus, method and program |
EP4276758A1 (en) | 2022-03-29 | 2023-11-15 | Rakuten Group, Inc. | Information processing apparatus, method and program |
-
2019
- 2019-04-24 JP JP2019082658A patent/JP2020182048A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4261776A1 (en) | 2022-03-29 | 2023-10-18 | Rakuten Group, Inc. | Information processing apparatus, method and program |
EP4276758A1 (en) | 2022-03-29 | 2023-11-15 | Rakuten Group, Inc. | Information processing apparatus, method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108353118B (en) | Based on Dual-Aperture zoom digital camera with automatic adjustable focal length visual field | |
KR101237673B1 (en) | A method in relation to acquiring digital images | |
KR101409653B1 (en) | Method for photographing panorama picture in automation | |
CN104052923B (en) | The display control method of capture apparatus, image display and image display | |
JP4488804B2 (en) | Stereo image association method and three-dimensional data creation apparatus | |
KR101503333B1 (en) | Image capturing apparatus and control method thereof | |
JP5178553B2 (en) | Imaging device | |
CN106101522A (en) | Use the method and apparatus that non-optical field imaging equipment obtains light field data | |
CN103907340A (en) | Image generation device and image generation method | |
JP2006350578A (en) | Image analysis device | |
US9729798B2 (en) | Image-capturing apparatus which controls image-capturing direction | |
JPWO2017056757A1 (en) | Imaging apparatus and imaging method | |
JP2007201661A (en) | Unit and method for processing image, and program | |
KR101703013B1 (en) | 3d scanner and 3d scanning method | |
JP2015194901A (en) | Track device and tracking system | |
JP2020182048A (en) | Imaging device, image processing device, and image processing method | |
JP2013183306A (en) | Imaging apparatus, imaging method, and program | |
CN106791456A (en) | A kind of photographic method and electronic equipment | |
JP5247338B2 (en) | Image processing apparatus and image processing method | |
JP5268025B2 (en) | Imaging device | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP2006033188A (en) | Supervisory apparatus and supervisory method | |
JP2005055969A (en) | Portable information terminal | |
US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same |