JP2018169967A - Image synthesis program, method, and device - Google Patents

Image synthesis program, method, and device Download PDF

Info

Publication number
JP2018169967A
JP2018169967A JP2017069074A JP2017069074A JP2018169967A JP 2018169967 A JP2018169967 A JP 2018169967A JP 2017069074 A JP2017069074 A JP 2017069074A JP 2017069074 A JP2017069074 A JP 2017069074A JP 2018169967 A JP2018169967 A JP 2018169967A
Authority
JP
Japan
Prior art keywords
image
positional relationship
images
camera work
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017069074A
Other languages
Japanese (ja)
Other versions
JP6863007B2 (en
Inventor
瀬川 英吾
Eigo Segawa
英吾 瀬川
悠介 野中
Yusuke Nonaka
悠介 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017069074A priority Critical patent/JP6863007B2/en
Publication of JP2018169967A publication Critical patent/JP2018169967A/en
Application granted granted Critical
Publication of JP6863007B2 publication Critical patent/JP6863007B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image synthesis program, method, and device capable of obtaining an image of a subject from a plurality of images obtained by photographing the subject on an individual portion basis even in a case where the plurality of images includes poor image features.SOLUTION: Based on each of respective image features of two images which are included in a plurality of images obtained by photographing an object on an individual portion basis and which are sequentially photographed, a position relationship specification trial part 16 specifies positional relationship between portions of the objects photographed in the two images. Moreover, a camera work estimation section 18 estimates a camera work based on the specified positional relationship. Moreover, based on the estimated camera work, the positional relationship determination part determines a position of the image that could not be specified. Then an image synthesis part 26 synthesizes a plurality of images.SELECTED DRAWING: Figure 1

Description

本発明は画像合成プログラム、画像合成方法及び画像合成装置に関する。   The present invention relates to an image composition program, an image composition method, and an image composition apparatus.

動画像又は時系列に並んだ複数の静止画像から、時系列に連続する複数のフレーム画像を取得し、複数のフレーム画像のうち少なくとも2つ以上のフレーム画像を繋ぎ合わせて1つの静止画像を生成する第1の技術が提案されている。   Acquire a plurality of frame images that are continuous in time series from a moving image or a plurality of still images arranged in a time series, and generate at least two frame images of a plurality of frame images to generate one still image. A first technique has been proposed.

また、撮影結果のフィールド間又はフレーム間の動きから検出される撮像結果の動きの軌跡から、ユーザが意図したカメラワークの軌跡を推定し、フィールド間又はフレーム間の動きを補正することで手振れ補正を行う第2の技術も提案されている。   Also, camera shake correction is performed by estimating the camerawork trajectory intended by the user from the trajectory of the imaging result detected from the motion between the fields of the imaging result or between the frames, and correcting the motion between the fields or between the frames. A second technique for performing the above has also been proposed.

また、ビデオカメラなどで撮影された映像の内容を撮影時のカメラワークによって分類する第3の技術も提案されている。第3の技術では、動画像から映像パターンの概略的な移動方向を検出し、検出した概略的な移動方向から、カメラワークをスチル、パン、ズームの3種類の何れかに分類している。   In addition, a third technique for classifying the content of video shot by a video camera or the like according to camera work at the time of shooting has been proposed. In the third technique, a rough moving direction of a video pattern is detected from a moving image, and camera work is classified into one of three types of still, pan, and zoom based on the detected rough moving direction.

特開2005−210428号公報Japanese Patent Laid-Open No. 2005-210428 特開2008−005109号公報JP 2008-005109 A 特開平10−243340号公報JP-A-10-243340

トンネルや橋梁などの構造物に対しては、例えばトンネルの壁面や橋梁の床板にひび割れ等の損傷が生じていないかを点検する作業が定期的に行われる。当該作業では、通常、損傷の有無を目視で点検しているが、目視点検よりも離れた位置から対象物を撮影し、撮影で得られた画像を参照して点検を行えるようにすることで、作業の省力化を実現することが期待されている。   For a structure such as a tunnel or a bridge, for example, an inspection is periodically performed to check whether damage such as a crack has occurred on the wall surface of the tunnel or the floor plate of the bridge. In this work, usually the presence or absence of damage is visually inspected, but the object is photographed from a position distant from the visual inspection, and the inspection can be performed by referring to the image obtained by the photographing. It is expected that labor saving will be realized.

但し、損傷の有無を確認できる程度の分解能で対象物を撮影することを前提にすると、損傷の大きさに比して対象物の大きさが非常に大きいので、必然的に、対象物を部分毎に複数の画像に分けて撮影することになる。一例として、ひび割れの幅0.1[mm]に対し、対象物の大きさは数〜数十[m]にも達する。そして、画像上で発見した損傷が対象物全体でどこに位置するかを把握するためには、対象物の部分毎に撮影した複数の画像を、対象物全体を被写体とする1つの画像に合成することが求められる。   However, if it is assumed that the object is photographed with a resolution that can confirm whether there is damage or not, the size of the object is very large compared to the size of the damage. Each shot is taken in a plurality of images. As an example, the size of the object reaches several to several tens [m] for a crack width of 0.1 [mm]. Then, in order to grasp where the damage found on the image is located in the entire object, a plurality of images taken for each part of the object are combined into one image having the entire object as a subject. Is required.

複数の画像の合成に関し、第1の技術は、画像のパターンマッチングや特徴点追跡によって並進ベクトルを求めて画像の相対位置を算出している。しかし、対象物を部分毎に撮影した複数の画像には、画像中に背景領域が存在せず、対象物の一部分が全面を占めている画像が含まれており、このような画像は、パターンマッチングや特徴点追跡で利用される画像特徴が乏しい。第1の技術では、画像特徴が乏しい画像に対しては、パターンマッチングや特徴点追跡の精度が著しく低下するので、他の画像との相対位置を算出できないか、相対位置の算出精度が大幅に低下する。   Regarding the synthesis of a plurality of images, the first technique calculates a relative position of an image by obtaining a translation vector by image pattern matching or feature point tracking. However, the plurality of images obtained by capturing the object for each part include an image in which the background area does not exist in the image and a part of the object occupies the entire surface. The image features used for matching and feature point tracking are poor. In the first technique, the accuracy of pattern matching and feature point tracking is remarkably reduced for images with poor image features, so the relative position with other images cannot be calculated, or the relative position calculation accuracy is greatly increased. descend.

また、第2の技術は、特徴点追跡により画像各部での動きベクトルを検出し、背景に属する動きベクトルのグループを検出し、検出したグループに属する動きベクトルを平均化することで、手振れ及びカメラワークによるカメラ動きベクトルを算出している。しかしながら、画像特徴が乏しい画像では動きベクトルの検出精度が著しく低下し、背景領域が存在しない画像では背景に属する動きベクトルのグループも検出できないので、第2の技術は有効に機能しない。   The second technique detects motion vectors in each part of the image by tracking feature points, detects a group of motion vectors belonging to the background, and averages the motion vectors belonging to the detected group, so that camera shake and camera The camera motion vector for the workpiece is calculated. However, the second technique does not function effectively because the detection accuracy of the motion vector is remarkably lowered in an image with poor image characteristics, and a group of motion vectors belonging to the background cannot be detected in an image having no background region.

また、第3の技術は、画像の空間微分値と時間微分値との積の符号に基づいて、輝度パターンの概略的な移動方向を求めている。しかし、画像特徴が乏しい画像では画像の空間微分値に明瞭なピークが出現せず、時間微分値についても、画像特徴が乏しい画像に対応する時間ではピークが途切れることになる。従って、画像特徴が乏しい画像に対しては第3の技術も有効に機能しない。   In the third technique, a rough moving direction of the luminance pattern is obtained based on the sign of the product of the spatial differential value and the temporal differential value of the image. However, a clear peak does not appear in the spatial differential value of the image in an image with poor image characteristics, and the peak of the temporal differential value is interrupted at a time corresponding to an image with poor image characteristics. Therefore, the third technique does not function effectively for an image with poor image characteristics.

一つの側面では、本発明は、対象物が部分毎に撮影された複数の画像に画像特徴の乏しい画像が含まれる場合にも、複数の画像から対象物の画像を得ることが目的である。   In one aspect, an object of the present invention is to obtain an image of an object from a plurality of images even when an image with poor image characteristics is included in the plurality of images obtained by capturing the object for each part.

一つの実施態様では、対象物が部分毎に撮影された複数の画像のうち、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、比較画像に写る対象物の部分に対する処理画像に写る対象物の部分の位置関係を特定する。また、特定した前記処理画像の前記位置関係からカメラワークを推定する。そして、推定した前記カメラワークに基づき、前記位置関係が特定できなかった画像に写る対象物の部分の位置を決定して複数の画像を合成する。   In one embodiment, based on the image features of the processed image and the comparative image in which the processing order is continuous with the processed image among a plurality of images in which the target is captured for each part, the target image captured in the comparative image The positional relationship of the part of the object shown in the processed image with respect to the part is specified. Further, camera work is estimated from the positional relationship of the identified processed image. Then, based on the estimated camera work, the position of the part of the object shown in the image for which the positional relationship could not be specified is determined, and a plurality of images are combined.

一つの側面として、対象物が部分毎に撮影された複数の画像に画像特徴の乏しい画像が含まれる場合にも、複数の画像から対象物の画像を得られる、という効果を有する。   As one aspect, there is an effect that an image of an object can be obtained from the plurality of images even when an image with poor image characteristics is included in the plurality of images obtained by photographing the object for each part.

画像合成装置の機能ブロック図である。It is a functional block diagram of an image composition device. 作業者による対象物の撮影の一例を示すイメージ図である。It is an image figure which shows an example of imaging | photography of the target object by an operator. 対象物を部分毎に撮影した場合の複数の画像及び各画像の撮影範囲の一例を示すイメージ図である。It is an image figure which shows an example of the several image at the time of image | photographing a target object for every part, and the imaging range of each image. カメラワークのパターンの一例を示すイメージ図である。It is an image figure which shows an example of the pattern of camera work. カメラワークパターン情報の一例を示す図表である。It is a chart which shows an example of camera work pattern information. 画像合成装置として機能するコンピュータの概略ブロック図である。It is a schematic block diagram of a computer that functions as an image composition device. 画像合成処理の一例を示すフローチャートである。It is a flowchart which shows an example of an image composition process. 対象物を部分毎に撮影した場合の各画像の撮影範囲及び各画像の撮影順序を時系列に示すイメージ図である。It is an image figure which shows the imaging range of each image at the time of image | photographing a target object for every part, and the imaging | photography order of each image in time series. 画像相対位置推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of an image relative position estimation process. 画像相対位置推定処理2の一例を示すフローチャートである。It is a flowchart which shows an example of the image relative position estimation process 2. FIG. 画像のマッチングにおける探索範囲の一例を示すイメージ図である。It is an image figure which shows an example of the search range in the matching of an image. 画像のマッチングにおける相対座標及び概略方向の算出の一例を示すイメージ図である。It is an image figure which shows an example of the calculation of the relative coordinate and approximate direction in the matching of an image. 撮影順序=2の画像を撮影順序=1の画像とマッチングする処理を説明するイメージ図である。It is an image figure explaining the process which matches the image of imaging | photography order = 2 with the image of imaging | photography order = 1. 撮影順序=3の画像を撮影順序=2の画像とマッチングする処理を説明するイメージ図である。It is an image figure explaining the process which matches the image of imaging | photography order = 3 with the image of imaging | photography order = 2. 撮影順序=4の画像を撮影順序=3の画像とマッチングする処理を説明するイメージ図である。It is an image figure explaining the process which matches the image of imaging | photography order = 4 with the image of imaging | photography order = 3. 撮影順序=5の画像を撮影順序=4の画像とマッチングする処理を説明するイメージ図である。It is an image figure explaining the process which matches the image of imaging | photography order = 5 with the image of imaging | photography order = 4. 撮影順序=5の画像を撮影順序=1の画像とマッチングする処理を説明するイメージ図である。It is an image figure explaining the process which matches the image of imaging | photography order = 5 with the image of imaging | photography order = 1. 撮影順序=6の画像を撮影順序=5の画像とマッチングする処理を説明するイメージ図である。It is an image figure explaining the process which matches the image of imaging | photography order = 6 with the image of imaging | photography order = 5. 合成画像生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of a synthesized image generation process. 他の画像との位置関係が特定された画像のみを配置して全体画像を作成する処理を説明するイメージ図である。It is an image figure explaining the process which arrange | positions only the image in which positional relationship with the other image was specified, and produces a whole image. 撮影順序=6の画像の位置を決定する処理を説明するイメージ図である。It is an image figure explaining the process which determines the position of the image of imaging | photography order = 6. 最終的に得られる合成画像の一例を示すイメージ図である。It is an image figure which shows an example of the synthesized image finally obtained. 第1出力画像の一例を示すイメージ図である。It is an image figure which shows an example of a 1st output image. 第2出力画像の一例を示すイメージ図である。It is an image figure which shows an example of a 2nd output image. 対象物を部分毎に撮影した場合の複数の画像及び各画像の撮影範囲の一例を示すイメージ図である。It is an image figure which shows an example of the several image at the time of image | photographing a target object for every part, and the imaging range of each image.

以下、図面を参照して本発明の実施形態の一例を詳細に説明する。図1に示す画像合成装置10は、画像取得部12、ひび検出部14、位置関係特定試行部16、カメラワーク推定部18、カメラワークパターン情報22を記憶する記憶部20、位置関係決定部24、画像合成部26及び画像出力部28を含んでいる。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. An image composition device 10 shown in FIG. 1 includes an image acquisition unit 12, a crack detection unit 14, a positional relationship specifying trial unit 16, a camera work estimation unit 18, a storage unit 20 that stores camera work pattern information 22, and a positional relationship determination unit 24. The image composition unit 26 and the image output unit 28 are included.

本実施形態では、図2に示すように、トンネルの壁面や橋梁の床板等の点検対象物30(以下、単に「対象物30」という)に対し、作業者32が、撮影装置34を操作して対象物30の部分毎に複数の画像を撮影する。なお、図2では対象物30に生じているひびに符号「30A」を付して示している。作業者32は、図3に破線で示すように、隣り合う撮影範囲の一部が重複するように、対象物30の各回の撮影操作を行う。対象物30の各回の撮影で図3に破線で示す撮影範囲が撮影された場合、図3に示す画像I1〜I12が得られる。   In the present embodiment, as shown in FIG. 2, an operator 32 operates an imaging device 34 on an inspection object 30 (hereinafter simply referred to as “object 30”) such as a tunnel wall surface or a bridge floor board. A plurality of images are taken for each portion of the object 30. In FIG. 2, a crack “30A” is given to the crack generated in the object 30. As shown by a broken line in FIG. 3, the worker 32 performs the shooting operation of the object 30 each time so that adjacent shooting ranges partially overlap each other. When the shooting range indicated by the broken line in FIG. 3 is shot in each shooting of the object 30, images I1 to I12 shown in FIG. 3 are obtained.

また、図3に示す画像I1〜I12は、作業者32が、撮影装置34による撮影範囲を図4に示すパターン1に沿って移動させるカメラワークを行いながら、対象物30を複数回撮影することで得られる。但し、作業者32が対象物30を撮影する際のカメラワークはパターン1に限られず、カメラワークのパターンとしては、例えば図4に示すパターン1〜20等の何れかが実施され得る。なお、カメラワークのパターンは図4に示すパターン1〜20に限定されるものではない。   Also, the images I1 to I12 shown in FIG. 3 are obtained when the operator 32 takes a picture of the object 30 a plurality of times while performing camerawork for moving the shooting range of the shooting device 34 along the pattern 1 shown in FIG. It is obtained with. However, the camera work when the operator 32 captures the object 30 is not limited to the pattern 1, and as the camera work pattern, for example, any one of the patterns 1 to 20 shown in FIG. 4 can be implemented. The camerawork pattern is not limited to the patterns 1 to 20 shown in FIG.

記憶部20に記憶されているカメラワークパターン情報22は、一例として図5に示すように、カメラワークの個々のパターンを、時系列に切り替わる撮影範囲の移動方向の組み合わせ(図5では第1方向(D1)〜第4方向(D4))で表している。また、カメラワークパターン情報22は、カメラワークの個々のパターンを表す情報に、互いに異なるパターン番号が各々付与されている。   As shown in FIG. 5 as an example, the camera work pattern information 22 stored in the storage unit 20 is a combination of moving directions of shooting ranges in which individual camera work patterns are switched in time series (the first direction in FIG. 5). (D1) to 4th direction (D4)). In the camerawork pattern information 22, different pattern numbers are assigned to information representing individual camerawork patterns.

画像合成装置10の画像取得部12は、撮影された対象物30の部分毎の複数の画像(例えば図3に示す画像I1〜I12)を撮影装置34から取得する。ひび検出部14は、画像取得部12によって取得された複数の画像に対し、ひび割れ等の損傷に相当する画像特徴(以下、単に「ひび」という)の有無を探索する。そして、ひび検出部14は、前記探索によりひびを検出した場合に、検出したひびの幅、長さ、形状等の性状を検出し、ひびの性状を表す情報を、ひびを検出した画像を特定する情報と共に出力する。   The image acquisition unit 12 of the image composition device 10 acquires a plurality of images (for example, images I1 to I12 shown in FIG. 3) for each portion of the captured object 30 from the imaging device 34. The crack detection unit 14 searches the plurality of images acquired by the image acquisition unit 12 for the presence or absence of image features corresponding to damage such as cracks (hereinafter simply referred to as “cracks”). When the crack is detected by the search, the crack detection unit 14 detects properties such as the width, length, and shape of the detected crack, and specifies information indicating the property of the crack to identify the image from which the crack has been detected. Output together with the information.

位置関係特定試行部16は、画像取得部12によって取得された複数の画像から、撮影順序が連続する2つの画像を順に取り出し、取り出した2つの画像の各々の画像特徴に基づき、前記2つの画像に写る対象物30の部分の位置関係の特定を試行する。カメラワーク推定部18は、位置関係特定試行部16によって位置関係が特定された複数の画像の位置関係と、記憶部20に記憶されているカメラワークパターン情報22と、に基づいて、作業者32が対象物30を撮影した際のカメラワークを推定する。位置関係決定部24は、カメラワーク推定部18によって推定されたカメラワークに基づいて、位置関係特定試行部16によって他の画像との位置関係が特定されなかった画像の位置を決定する。   The positional relationship specifying trial unit 16 sequentially extracts two images having a continuous shooting order from the plurality of images acquired by the image acquisition unit 12, and based on the image characteristics of the two extracted images, the two images Attempt to specify the positional relationship of the part of the object 30 that appears in The camera work estimating unit 18 is based on the positional relationship between the plurality of images whose positional relationship has been specified by the positional relationship specifying trial unit 16 and the camera work pattern information 22 stored in the storage unit 20. Estimates the camera work when the object 30 is photographed. The positional relationship determination unit 24 determines the position of an image whose positional relationship with another image is not specified by the positional relationship specifying trial unit 16 based on the camera work estimated by the camera work estimation unit 18.

画像合成部26は、位置関係特定試行部16によって特定された複数の画像の位置関係及び位置関係決定部24によって決定された画像の位置に基づいて、画像取得部12によって取得された複数の画像を、対象物30全体を被写体とする1つの画像に合成する。また、画像合成部26は、ひび検出部14から出力されたひびの情報を、合成した画像(第1出力画像)、及び、ひびが検出された合成前の画像(第2出力画像)に各々重畳する。   The image composition unit 26 uses the positional relationship between the plurality of images identified by the positional relationship identification trial unit 16 and the positions of the images determined by the positional relationship determination unit 24 to obtain a plurality of images acquired by the image acquisition unit 12. Are combined into one image having the entire object 30 as a subject. In addition, the image composition unit 26 divides the crack information output from the crack detection unit 14 into a synthesized image (first output image) and an image before synthesis (second output image) in which cracks are detected. Superimpose.

画像出力部28は、画像合成部26によって生成された第1出力画像及び第2出力画像を出力する。画像出力部28が出力した第1出力画像及び第2出力画像は、例えば作業者32等によって目視確認され、対象物30の点検に供せられる。   The image output unit 28 outputs the first output image and the second output image generated by the image composition unit 26. The first output image and the second output image output by the image output unit 28 are visually confirmed by, for example, the operator 32 and the like and used for inspection of the object 30.

なお、図1において、位置関係特定試行部16は本発明における特定部の一例であり、カメラワーク推定部18は本発明における推定部の一例であり、位置関係決定部24及び画像合成部26は本発明における決定部の一例である。   In FIG. 1, the positional relationship specifying trial unit 16 is an example of a specifying unit in the present invention, the camera work estimating unit 18 is an example of an estimating unit in the present invention, and the positional relationship determining unit 24 and the image composition unit 26 are It is an example of the determination part in this invention.

また、本実施形態において、画像合成装置10は、例えば図6に示すコンピュータ50で実現される。コンピュータ50は、CPU52、メモリ54、不揮発性の記憶部56、入力部58、表示部60、記録媒体64に対するデータの読み出しおよび書き込みを行う読出書込装置(R/W)62、及び、通信I/F部66を含む。CPU52、メモリ54、記憶部56、入力部58、表示部60、R/W62及び通信I/F部66は、バス68を介して互いに接続されている。画像合成装置10は、通信I/F部66に接続されたネットワークを経由して撮影装置34と通信可能とされている。   In the present embodiment, the image composition device 10 is realized by, for example, a computer 50 shown in FIG. The computer 50 includes a CPU 52, a memory 54, a non-volatile storage unit 56, an input unit 58, a display unit 60, a read / write device (R / W) 62 that reads and writes data to and from the recording medium 64, and a communication I / F part 66 is included. The CPU 52, the memory 54, the storage unit 56, the input unit 58, the display unit 60, the R / W 62, and the communication I / F unit 66 are connected to each other via a bus 68. The image composition device 10 can communicate with the photographing device 34 via a network connected to the communication I / F unit 66.

記憶部56はHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶部56には、コンピュータ50を画像合成装置10として機能させるための画像合成プログラム70が記憶されている。CPU52は、画像合成プログラム70を記憶部56から読み出してメモリ54に展開し、画像合成プログラム70に含まれる各プロセスを順次実行する。   The storage unit 56 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The storage unit 56 stores an image composition program 70 for causing the computer 50 to function as the image composition apparatus 10. The CPU 52 reads the image composition program 70 from the storage unit 56 and develops it in the memory 54, and sequentially executes each process included in the image composition program 70.

画像合成プログラム70は、画像取得プロセス72、ひび検出プロセス74、位置関係特定試行プロセス76、カメラワーク推定プロセス78、位置関係決定プロセス80、画像合成プロセス82及び画像出力プロセス84を含む。CPU52は、画像取得プロセス72を実行することで、図1に示す画像取得部12として動作する。また、CPU52は、ひび検出プロセス74を実行することで、図1に示すひび検出部14として動作する。また、CPU52は、位置関係特定試行プロセス76を実行することで、図1に示す位置関係特定試行部16として動作する。また、CPU52は、カメラワーク推定プロセス78を実行することで、図1に示すカメラワーク推定部18として動作する。また、CPU52は、位置関係決定プロセス80を実行することで、図1に示す位置関係決定部24として動作する。また、CPU52は、画像合成プロセス82を実行することで、図1に示す画像合成部26として動作する。また、CPU52は、画像出力プロセス84を実行することで、図1に示す画像出力部28として動作する。   The image composition program 70 includes an image acquisition process 72, a crack detection process 74, a position relationship identification trial process 76, a camera work estimation process 78, a position relationship determination process 80, an image composition process 82 and an image output process 84. The CPU 52 operates as the image acquisition unit 12 illustrated in FIG. 1 by executing the image acquisition process 72. Further, the CPU 52 operates as the crack detection unit 14 illustrated in FIG. 1 by executing the crack detection process 74. Further, the CPU 52 operates as the positional relationship specifying trial unit 16 shown in FIG. 1 by executing the positional relationship specifying trial process 76. Further, the CPU 52 operates as the camera work estimation unit 18 shown in FIG. 1 by executing the camera work estimation process 78. Further, the CPU 52 operates as the positional relationship determination unit 24 illustrated in FIG. 1 by executing the positional relationship determination process 80. The CPU 52 operates as the image composition unit 26 illustrated in FIG. 1 by executing the image composition process 82. The CPU 52 operates as the image output unit 28 shown in FIG. 1 by executing the image output process 84.

これにより、画像合成プログラム70を実行したコンピュータ50が画像合成装置10として機能することになる。画像合成プログラム70は開示の技術に係る画像合成プログラムの一例である。また、記憶部56にはカメラワークパターン情報記憶領域86が設けられており、カメラワークパターン情報記憶領域86にはカメラワークパターン情報22が記憶されている。これにより、記憶部56は図1に示す記憶部20として機能する。   As a result, the computer 50 that has executed the image composition program 70 functions as the image composition apparatus 10. The image composition program 70 is an example of an image composition program according to the disclosed technology. The storage unit 56 is provided with a camera work pattern information storage area 86, and the camera work pattern information storage area 86 stores camera work pattern information 22. Thereby, the memory | storage part 56 functions as the memory | storage part 20 shown in FIG.

なお、画像合成装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   Note that the image composition device 10 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に本実施形態の作用として、図7を参照し、作業者32が、撮影装置34を操作して対象物30の部分毎に対象物30を複数の画像を撮影する作業を完了した後に、画像合成装置10によって実行される画像合成処理を説明する。   Next, as an operation of the present embodiment, referring to FIG. 7, after the operator 32 completes the operation of operating the imaging device 34 to capture a plurality of images of the object 30 for each part of the object 30, An image composition process executed by the image composition apparatus 10 will be described.

画像合成処理のステップ100において、画像取得部12は、対象物30を部分毎に撮影した複数の画像(例えば図3に示す画像I1〜I12)を撮影装置34から取得する。ステップ102において、画像取得部12は、ステップ100で取得した複数の画像の撮影時刻を認識し、複数の画像を撮影時刻の昇順にソートし、個々の画像に撮影時刻の昇順の画像番号を各々付与する。画像の撮影時刻は、例えば画像がJPEG(Joint Photographic Experts Group)形式であればEXIF(Exchangeable Image File Format)情報に設定されている。ステップ102のソートにより、図8に一例を示すように、対象物30を部分毎に撮影した画像I1〜I12は撮影時刻順に並べられる。   In step 100 of the image composition processing, the image acquisition unit 12 acquires a plurality of images (for example, images I1 to I12 shown in FIG. 3) obtained by capturing the object 30 for each part from the imaging device 34. In step 102, the image acquisition unit 12 recognizes the shooting times of the plurality of images acquired in step 100, sorts the plurality of images in ascending order of the shooting times, and assigns the image numbers in ascending order of the shooting times to the individual images. Give. For example, if the image is in JPEG (Joint Photographic Experts Group) format, the image shooting time is set in EXIF (Exchangeable Image File Format) information. As a result of the sorting in step 102, as shown in an example in FIG. 8, the images I1 to I12 obtained by shooting the object 30 for each part are arranged in order of shooting time.

ステップ104において、ひび検出部14は、画像取得部12によって取得された複数の画像に各々に対してひびの有無を探索する。そして、ひび検出部14は、前記探索によりひびを検出した場合に、検出したひびの幅、長さ、形状等の性状を検出し、ひびの性状を表す情報を、ひびを検出した画像を特定する情報と共にメモリ54等に記憶させる。   In step 104, the crack detection unit 14 searches for a crack in each of the plurality of images acquired by the image acquisition unit 12. When the crack is detected by the search, the crack detection unit 14 detects properties such as the width, length, and shape of the detected crack, and specifies information indicating the property of the crack to identify the image from which the crack has been detected. Together with information to be stored in the memory 54 or the like.

次のステップ106において、位置関係特定試行部16及びカメラワーク推定部18は、画像相対位置推定処理を行う。以下、図9を参照し、画像相対位置推定処理の詳細を説明する。   In the next step 106, the positional relationship specifying trial unit 16 and the camera work estimation unit 18 perform an image relative position estimation process. The details of the image relative position estimation process will be described below with reference to FIG.

画像相対位置推定処理のステップ120において、位置関係特定試行部16は、処理画像(処理対象の画像)を指し示す画像番号cnに2を設定し、比較画像(処理画像とマッチングを行う画像)を指し示す画像番号rnに1を設定する。また位置関係特定試行部16は、撮影位置の概略の移動方向(以下「概略方向」という)の順番を識別するための変数i、及び、カメラワークの主撮影方向に沿った各行を識別するための変数jに各々1を設定し、j番目の行内の画像数L(j)に0を各々設定する。   In step 120 of the image relative position estimation process, the positional relationship specifying trial unit 16 sets 2 to the image number cn indicating the processed image (the image to be processed), and indicates the comparison image (the image that matches the processed image). Set 1 to the image number rn. The positional relationship specifying trial unit 16 also identifies a variable i for identifying the order of the approximate moving direction of the shooting position (hereinafter referred to as “schematic direction”) and each row along the main shooting direction of the camera work. 1 is set for each variable j, and 0 is set for the number of images L (j) in the jth row.

なお、本実施形態において、カメラワークの主撮影方向は、図5に示すカメラワークパターン情報22における第1方向(D1)に相当し、カメラワークパターン情報22における第2方向(D2)はカメラワークの副撮影方向と称する。   In the present embodiment, the main shooting direction of the camera work corresponds to the first direction (D1) in the camera work pattern information 22 shown in FIG. 5, and the second direction (D2) in the camera work pattern information 22 is the camera work. Is referred to as the sub-shooting direction.

次のステップ122において、位置関係特定試行部16は、画像番号cnの処理画像(以下「処理画像cn」という)と、画像番号rnの比較画像(以下「比較画像rn」という)と、のマッチングを行う。このマッチングは、例えば比較画像rnに対する処理画像cnの相対位置P1〜P4(図11参照)を全て包含する探索範囲90内で、処理画像cnを1画素刻みでX方向及びY方向に移動させながら、各相対位置で比較画像rnと処理画像cnとの相関評価値を各々演算する。   In the next step 122, the positional relationship specifying trial unit 16 matches the processed image with the image number cn (hereinafter referred to as “processed image cn”) with the comparison image with the image number rn (hereinafter referred to as “comparative image rn”). I do. This matching is performed, for example, by moving the processed image cn in the X and Y directions in increments of one pixel within the search range 90 that includes all the relative positions P1 to P4 (see FIG. 11) of the processed image cn with respect to the comparison image rn. The correlation evaluation value between the comparative image rn and the processed image cn is calculated at each relative position.

なお、相対位置P1は処理画像cnの右下隅が比較画像rnの左上隅と所定幅(一例としては1画素幅)だけ重複する位置であり、相対位置P2は処理画像cnの左下隅が比較画像rnの右上隅と所定幅だけ重複する位置である。また、相対位置P3は処理画像cnの右上隅が比較画像rnの左下隅と所定幅だけ重複する位置であり、相対位置P4は処理画像cnの左上隅が比較画像rnの右下隅と所定幅だけ重複する位置である。また、相関評価値としては、画像間の相関を評価する公知の様々なパラメータの何れかを用いることができる   The relative position P1 is a position where the lower right corner of the processed image cn overlaps the upper left corner of the comparative image rn by a predetermined width (for example, one pixel width), and the relative position P2 is the lower left corner of the processed image cn. It is a position that overlaps the upper right corner of rn by a predetermined width. The relative position P3 is a position where the upper right corner of the processed image cn overlaps with the lower left corner of the comparative image rn by a predetermined width, and the relative position P4 is the upper left corner of the processed image cn of the lower right corner of the comparative image rn and a predetermined width. It is an overlapping position. As the correlation evaluation value, any of various known parameters for evaluating the correlation between images can be used.

また、位置関係特定試行部16は、探索範囲90内の各相対位置毎に演算した相関評価値から最大値を抽出し、抽出した最大値が所定の閾値以上か否かを判定する。相関評価値の最大値が閾値未満の場合、処理画像cnは比較画像rnと連続していないと判断できる一方、相関評価値の最大値が閾値以上の場合は、相関評価値が最大値を示した相対位置で処理画像cnが比較画像rnと繋がる(連続する)と判断できる。   Further, the positional relationship specifying trial unit 16 extracts the maximum value from the correlation evaluation value calculated for each relative position in the search range 90, and determines whether or not the extracted maximum value is equal to or greater than a predetermined threshold value. If the maximum correlation evaluation value is less than the threshold value, it can be determined that the processed image cn is not continuous with the comparison image rn. On the other hand, if the maximum correlation evaluation value is greater than or equal to the threshold value, the correlation evaluation value indicates the maximum value. It can be determined that the processed image cn is connected (continuous) to the comparative image rn at the relative position.

このため、位置関係特定試行部16は、相関評価値の最大値が閾値以上の場合、図12に示すように、相関評価値が最大値を示した相対位置から、比較画像rnを原点とする処理画像cnの相対座標(Xcn,Ycn)を求める。また、位置関係特定試行部16は、原点から相対座標(Xcn,Ycn)へ向かうベクトル92の角度を求め、比較画像rnに対する処理画像cnの概略方向を、ベクトル92の角度に基づいて右、上、左、下の何れかに分類する。なお、一例として、ベクトル92の角度が315°〜45°の範囲内であれば概略方向を右、45°〜135°の範囲内であれば概略方向を上、135°〜225°の範囲内であれば概略方向を左、225°〜315°の範囲内であれば概略方向を上に分類することができる。   Therefore, when the maximum correlation evaluation value is greater than or equal to the threshold value, the positional relationship specifying trial unit 16 uses the comparison image rn as the origin from the relative position where the correlation evaluation value indicates the maximum value, as shown in FIG. The relative coordinates (Xcn, Ycn) of the processed image cn are obtained. Further, the positional relationship specifying trial unit 16 obtains the angle of the vector 92 from the origin to the relative coordinates (Xcn, Ycn), and sets the approximate direction of the processed image cn relative to the comparison image rn to the right, up Categorized as either left or bottom. As an example, if the angle of the vector 92 is within the range of 315 ° to 45 °, the approximate direction is right, if it is within the range of 45 ° to 135 °, the approximate direction is up, and within the range of 135 ° to 225 °. If so, the approximate direction can be classified to the left, and the approximate direction can be classified to the upper if it is within the range of 225 ° to 315 °.

ステップ122における処理画像cnと比較画像rnとのマッチングが完了すると、次のステップ124において、位置関係特定試行部16は、処理画像cnは比較画像rnと連続しているか否かを判定する。処理画像cn及び比較画像rnが、例えば図8に示す画像I1,I2のように、対象物30の縁が各々含まれる画像であれば、対象物30の縁に相当する画像特徴から相関評価値の最大値が閾値以上になる。   When the matching between the processed image cn and the comparative image rn in step 122 is completed, in the next step 124, the positional relationship specifying trial unit 16 determines whether or not the processed image cn is continuous with the comparative image rn. If the processed image cn and the comparative image rn are images including the edges of the object 30 such as images I1 and I2 shown in FIG. 8, for example, the correlation evaluation value is calculated from the image features corresponding to the edges of the object 30. The maximum value of becomes greater than or equal to the threshold value.

しかし、例えば比較画像rnの撮影範囲が図8に示す画像I1の撮影範囲の左側に位置していた場合、比較画像rnには対象物30の縁に相当する画像特徴が存在しないので、処理画像cnと比較画像rnとの相関評価値の最大値は閾値未満になる。この場合はステップ124の判定が否定されてステップ126へ移行する。ステップ126において、位置関係特定試行部16は、他の画像との位置関係が不明な画像の情報を登録するための位置不明テーブルに、処理画像の画像番号cnを登録する。   However, for example, when the shooting range of the comparative image rn is located on the left side of the shooting range of the image I1 shown in FIG. 8, the image characteristics corresponding to the edge of the object 30 does not exist in the comparative image rn. The maximum correlation evaluation value between cn and the comparative image rn is less than the threshold value. In this case, the determination at step 124 is negative and the routine proceeds to step 126. In step 126, the positional relationship specifying trial unit 16 registers the image number cn of the processed image in the positional unknown table for registering information of an image whose positional relationship with other images is unknown.

次のステップ128において、位置関係特定試行部16は、画像番号cnが、画像取得部12によって取得された画像の総数に達したか否か判定する。ステップ128の判定が否定された場合はステップ130へ移行し、ステップ130において、位置関係特定試行部16は、画像番号rn,cnを各々1だけインクリメントし、ステップ122に戻る。これにより、ステップ124、128の判定が各々否定されている間はステップ122〜130が繰り返され、処理画像cn及び比較画像rnを撮影順序の昇順に切り替えながら、相関評価値の最大値が閾値以上になる処理画像cn及び比較画像rnの組が探索される。   In the next step 128, the positional relationship specifying trial unit 16 determines whether or not the image number cn has reached the total number of images acquired by the image acquisition unit 12. If the determination in step 128 is negative, the process proceeds to step 130. In step 130, the positional relationship specifying trial unit 16 increments the image numbers rn and cn by 1, and returns to step 122. As a result, while the determinations of steps 124 and 128 are respectively denied, steps 122 to 130 are repeated, and the maximum correlation evaluation value is greater than or equal to the threshold value while switching the processed image cn and the comparative image rn in ascending order of the photographing order. A set of the processed image cn and the comparison image rn is searched.

なお、ステップ128の判定が肯定されるのは、画像取得部12によって取得された複数の画像の中に、相関評価値の最大値が閾値以上になる処理画像cn及び比較画像rnの組が存在しなかった場合である。この場合は、対象物30の撮影に失敗した等が考えられるので、エラーを報知する処理等を行って画像相対位置推定処理を終了する。   Note that the determination in step 128 is affirmative because there is a set of a processed image cn and a comparative image rn in which the maximum correlation evaluation value is greater than or equal to a threshold value among the plurality of images acquired by the image acquisition unit 12. This is the case. In this case, it is conceivable that the photographing of the object 30 has failed, so that an error notification process or the like is performed and the image relative position estimation process is terminated.

一方、処理画像cn及び比較画像rnが、例えば図8に示す画像I1,I2のように、対象物30の縁が各々含まれる画像であれば、対象物30の縁に相当する画像特徴から相関評価値の最大値が閾値以上になる。これにより、ステップ124の判定が肯定されてステップ132へ移行する。   On the other hand, if the processed image cn and the comparative image rn are images including the edges of the object 30 such as the images I1 and I2 shown in FIG. The maximum evaluation value is equal to or greater than the threshold value. As a result, the determination at step 124 is affirmed and the routine proceeds to step 132.

ステップ132において、位置関係特定試行部16は、ステップ122で分類した比較画像rnに対する処理画像cnの概略方向を概略方向Diに設定する。一例として、図8に示す画像I1が比較画像rnで、画像I2が処理画像cnである場合、図13に示すように、画像I1に対する画像I2の概略方向は「右」と分類され、概略方向D1には「右」が設定される。位置関係特定試行部16は、設定した概略方向Diを、画像I1を原点とする画像I2の相対座標(X2,Y2)と共にメモリ54等に記憶させる。また、位置関係特定試行部16は、処理画像cnの相対座標の原点に相当する比較画像の画像番号rnを基準画像REFcnに設定し、画像数L(j)を1だけインクリメントし、基準画像REFcn及び画像数L(j)もメモリ54等に記憶させる。図13に示す例では、画像I1,I2が位置関係が特定された画像(基準画像REFcn及び相対座標(Xcn,Ycn)がメモリ54等に記憶された画像)になり、インクリメント後の画像数L(1)=1になる。   In step 132, the positional relationship specifying trial unit 16 sets the approximate direction of the processed image cn for the comparison image rn classified in step 122 as the approximate direction Di. As an example, when the image I1 shown in FIG. 8 is the comparative image rn and the image I2 is the processed image cn, as shown in FIG. 13, the approximate direction of the image I2 with respect to the image I1 is classified as “right”. “Right” is set in D1. The positional relationship specifying trial unit 16 stores the set approximate direction Di in the memory 54 and the like together with the relative coordinates (X2, Y2) of the image I2 with the image I1 as the origin. Further, the positional relationship specifying trial unit 16 sets the image number rn of the comparison image corresponding to the origin of the relative coordinates of the processed image cn to the reference image REFcn, increments the number of images L (j) by 1, and sets the reference image REFcn. The number of images L (j) is also stored in the memory 54 or the like. In the example shown in FIG. 13, the images I1 and I2 are images whose positional relationships are specified (reference images REFcn and relative coordinates (Xcn, Ycn) are stored in the memory 54, etc.), and the number of images after increment L (1) = 1.

次のステップ134において、カメラワーク推定部18は、カメラワークパターン情報22に規定されているカメラワークの個々のパターンから、第1方向が概略方向Diに一致する全てのパターンを抽出する。例えば、図13に示す例では、概略方向D1が「右」であるので、第1方向が「右」のパターン、すなわちパターン番号1,2,5,6,7,10が抽出される。そして、カメラワーク推定部18は、抽出した全てのパターンのパターン番号をパターンテーブルに設定する。   In the next step 134, the camera work estimation unit 18 extracts all patterns whose first direction matches the general direction Di from the individual camera work patterns defined in the camera work pattern information 22. For example, in the example shown in FIG. 13, since the approximate direction D1 is “right”, patterns whose first direction is “right”, that is, pattern numbers 1, 2, 5, 6, 7, and 10 are extracted. And the camerawork estimation part 18 sets the pattern number of all the extracted patterns to a pattern table.

ステップ136において、位置関係特定試行部16は、画像番号rn,cnを各々1だけインクリメントする。また、ステップ138において、位置関係特定試行部16は、前述のステップ122と同様に、処理画像cnと比較画像rnとのマッチングを行う。そして、ステップ140において、位置関係特定試行部16は、前述のステップ124と同様に、処理画像cnは比較画像rnと連続しているか否かを判定する。   In step 136, the positional relationship specifying trial unit 16 increments the image numbers rn and cn by 1, respectively. In step 138, the positional relationship specifying trial unit 16 matches the processed image cn and the comparative image rn in the same manner as in step 122 described above. In step 140, the positional relationship specifying trial unit 16 determines whether or not the processed image cn is continuous with the comparative image rn, as in step 124 described above.

処理画像cn及び比較画像rnが、例えば図8に示す画像I2,I3のように、対象物30の縁が各々含まれる画像であれば、対象物30の縁に相当する画像特徴から相関評価値の最大値が閾値以上になる。この場合、ステップ140の判定が肯定されてステップ142へ移行する。ステップ142において、位置関係特定試行部16は、比較画像rnに対する処理画像cnの概略方向が概略方向Diに一致しているか否か判定する。   If the processed image cn and the comparative image rn are images including the edges of the object 30 such as images I2 and I3 shown in FIG. 8, for example, the correlation evaluation value is calculated from the image features corresponding to the edges of the object 30. The maximum value of becomes greater than or equal to the threshold value. In this case, the determination at step 140 is affirmed and the routine proceeds to step 142. In step 142, the positional relationship specifying trial unit 16 determines whether or not the approximate direction of the processed image cn with respect to the comparative image rn matches the approximate direction Di.

一例として、図8に示す画像I2が比較画像rnで、画像I3が処理画像cnである場合、図14に示すように、画像I2に対する画像I3の概略方向は「右」と分類され、概略方向D1に一致している。このような場合、ステップ142の判定が肯定されてステップ144へ移行する。ステップ144において、位置関係特定試行部16は、画像I2を原点とする画像I3の相対座標(X3,Y3)をメモリ54等に記憶させる。また、位置関係特定試行部16は、画像I3の相対座標の原点に相当する画像I2の画像番号=2を基準画像REF3に設定し、画像数L(1)を1だけインクリメントし、基準画像REF3及び画像数L(1)もメモリ54等に記憶させる。図14に示す例では、他の画像との位置関係が特定された画像(基準画像REFcn及び相対座標(Xcn,Ycn)がメモリ54等に記憶された画像)として画像I3が追加され、インクリメント後の画像数L(1)=2になる。   As an example, when the image I2 shown in FIG. 8 is the comparative image rn and the image I3 is the processed image cn, the schematic direction of the image I3 with respect to the image I2 is classified as “right” as shown in FIG. It matches D1. In such a case, the determination at step 142 is affirmed and the routine proceeds to step 144. In step 144, the positional relationship specifying trial unit 16 stores the relative coordinates (X3, Y3) of the image I3 with the image I2 as the origin in the memory 54 or the like. Further, the positional relationship specifying trial unit 16 sets the image number = 2 of the image I2 corresponding to the origin of the relative coordinates of the image I3 to the reference image REF3, increments the number of images L (1) by 1, and the reference image REF3. The number of images L (1) is also stored in the memory 54 or the like. In the example shown in FIG. 14, the image I3 is added as an image in which the positional relationship with another image is specified (an image in which the reference image REFcn and the relative coordinates (Xcn, Ycn) are stored in the memory 54 etc.). The number of images L (1) = 2.

ステップ144の処理を行うとステップ154へ移行する。ステップ154において、位置関係特定試行部16は、画像番号cnが、画像取得部12によって取得された画像の総数に達したか否か判定する。ステップ154の判定が否定された場合はステップ136に戻る。これにより、ステップ140,142の判定が各々肯定され、かつステップ154の判定が否定されている間は、画像番号rn,cnを各々1ずつインクリメントしながら、ステップ144が繰り返される。   When the processing of step 144 is performed, the routine proceeds to step 154. In step 154, the positional relationship specifying trial unit 16 determines whether or not the image number cn has reached the total number of images acquired by the image acquisition unit 12. If the determination in step 154 is negative, the process returns to step 136. As a result, while the determinations at steps 140 and 142 are both affirmed and the determination at step 154 is negative, step 144 is repeated while incrementing the image numbers rn and cn by 1, respectively.

例えば、画像番号rn,cnのインクリメントに伴い、図8に示す画像I3が比較画像rnになり、画像I4が処理画像cnになった場合、図15に示すように、画像I3に対する画像I4の概略方向は「右」と分類される。この例では、他の画像との位置関係が特定された画像として画像I4が追加され、インクリメント後の画像数L(1)=3になる。   For example, if the image I3 shown in FIG. 8 becomes the comparative image rn and the image I4 becomes the processed image cn with the increment of the image numbers rn and cn, as shown in FIG. 15, the outline of the image I4 with respect to the image I3. The direction is classified as “right”. In this example, an image I4 is added as an image whose positional relationship with other images is specified, and the number of images after increment L (1) = 3.

ところで、作業者32が対象物30を撮影する際に、例えば図4に示すパターン2に相当するカメラワークを行った場合、図8に示す画像I1〜I4が順に撮影された後、図8に示す画像I8が撮影される。これにより、画像I4が比較画像rn、画像I8が処理画像cnになる場面が生ずる。この場合、図示は省略するが、比較画像rnに対する処理画像cnの概略方向は「下」と分類され、概略方向D1の「右」と一致しないので、ステップ142の判定が否定されてステップ146へ移行する。   By the way, when the worker 32 performs the camera work corresponding to the pattern 2 shown in FIG. 4 when shooting the object 30, for example, the images I1 to I4 shown in FIG. The image I8 shown is taken. As a result, a scene occurs in which the image I4 becomes the comparative image rn and the image I8 becomes the processed image cn. In this case, although not shown, the approximate direction of the processed image cn with respect to the comparative image rn is classified as “down” and does not coincide with “right” in the approximate direction D1, so the determination in step 142 is negative and the process proceeds to step 146. Transition.

ステップ146において、位置関係特定試行部16は、変数i,jを各々1ずつインクリメントし、画像数L(j)に1を設定し、比較画像rnに対する処理画像cnの概略方向を概略方向Diに設定する。そして、位置関係特定試行部16は、設定した概略方向Di、比較画像rnを原点とする処理画像cnの相対座標(Xcn,Ycn)、比較画像の画像番号rnを設定した基準画像REFcn、及び、画像数L(j)をメモリ54等に記憶させる。例えば、画像I4が比較画像rnになり、画像I8が処理画像cnになった場合は、概略方向D2が「下」に設定され、画像数L(2)=1になる。   In step 146, the positional relationship specifying trial unit 16 increments the variables i and j by one, sets 1 to the number of images L (j), and sets the approximate direction of the processed image cn relative to the comparative image rn to the approximate direction Di. Set. The positional relationship specifying trial unit 16 then sets the set approximate direction Di, the relative coordinates (Xcn, Ycn) of the processed image cn with the comparison image rn as the origin, the reference image REFcn set with the image number rn of the comparison image, and The number of images L (j) is stored in the memory 54 or the like. For example, when the image I4 becomes the comparative image rn and the image I8 becomes the processed image cn, the approximate direction D2 is set to “down” and the number of images L (2) = 1.

次のステップ150において、カメラワーク推定部18は、パターンテーブル内に登録されているパターン番号の数が1か否か判定する。ステップ150の判定が否定された場合はステップ152へ移行する。   In the next step 150, the camera work estimation unit 18 determines whether or not the number of pattern numbers registered in the pattern table is one. If the determination in step 150 is negative, the process proceeds to step 152.

ステップ152において、カメラワーク推定部18は、パターンテーブルにパターン番号が登録されている個々のパターンについて、カメラワークパターン情報22に規定されている第1方向〜第i方向が、概略方向D1〜Diと全て一致しているか否か判定する。そして、カメラワーク推定部18は、第1方向〜第i方向の中に、概略方向D1〜Diと不一致が含まれるパターンについては、パターンテーブルからパターン番号を全て削除する。   In step 152, the camera work estimation unit 18 determines that the first direction to the i-th direction specified in the camera work pattern information 22 are the approximate directions D1 to Di for the individual patterns whose pattern numbers are registered in the pattern table. And whether or not all match. Then, the camera work estimation unit 18 deletes all the pattern numbers from the pattern table for the patterns in which the first direction to the i-th direction include a mismatch with the approximate directions D1 to Di.

例えば、概略方向D1が「右」で、概略方向D2が「下」の場合、概略方向D1の「右」が判明した時点で、第1方向が「右」のパターン1,2,5,6,7,10がパターンテーブルに登録される。その後、概略方向D2の「下」が判明した場合、パターン6,7,10は第2方向が「下」ではなく、概略方向D2と不一致であるので、パターンテーブルから削除される。   For example, when the approximate direction D1 is “right” and the approximate direction D2 is “down”, when the “right” of the approximate direction D1 is found, the patterns 1, 2, 5, 6 with the first direction being “right” , 7, 10 are registered in the pattern table. Thereafter, when “down” in the approximate direction D2 is found, the patterns 6, 7, and 10 are deleted from the pattern table because the second direction is not “down” and does not match the approximate direction D2.

上記のステップ152の処理を行うと、ステップ154へ移行する。また、ステップ150の判定が肯定された場合は、ステップ152をスキップしてステップ154へ移行する。なお、ステップ152は、パターンテーブル内に登録されているパターン番号の数が1まで減少すると、ステップ150の判定が肯定されることで実行されない。このように、パターンテーブル内に登録されているパターン番号の数が1になると、カメラワーク推定部18によるカメラワークのパターンの推定が完了したことになる。   When the process of step 152 is performed, the process proceeds to step 154. If the determination in step 150 is affirmative, step 152 is skipped and the process proceeds to step 154. If the number of pattern numbers registered in the pattern table decreases to 1, step 152 is not executed because the determination in step 150 is affirmed. Thus, when the number of pattern numbers registered in the pattern table becomes 1, the camera work estimation unit 18 has completed the estimation of the camera work pattern.

一方、作業者32が対象物30を撮影する際に、例えば図4に示すパターン1に相当するカメラワークを行った場合、図8に示す画像I1〜I4が順に撮影された後、画像I5が撮影されることで、画像I4が比較画像rn、画像I5が処理画像cnになる場面が生ずる。この場合、例として図16に示すように、比較画像rnと処理画像cnとの相関評価値の最大値が閾値未満になることで、ステップ140の判定が否定されてステップ148へ移行する。ステップ148において、位置関係特定試行部16は、画像相対位置推定処理2を行う。以下、図10を参照して画像相対位置推定処理2を説明する。   On the other hand, when the operator 32 takes a camera work corresponding to the pattern 1 shown in FIG. 4 when the object 30 is taken, for example, after the images I1 to I4 shown in FIG. By taking a picture, a scene occurs in which the image I4 becomes the comparative image rn and the image I5 becomes the processed image cn. In this case, as shown in FIG. 16 as an example, when the maximum correlation evaluation value between the comparison image rn and the processed image cn is less than the threshold, the determination in step 140 is denied and the process proceeds to step 148. In step 148, the positional relationship specifying trial unit 16 performs image relative position estimation processing 2. Hereinafter, the image relative position estimation process 2 will be described with reference to FIG.

画像相対位置推定処理2のステップ160において、位置関係特定試行部16は、画像cn-1が位置不明テーブルに登録されているか否かを判定する。例えば、図8に示すI5が処理画像となった場合、画像cn-1はI4となる。I4は、図15のようにI3に対する相対位置が決まっているため位置不明テーブルには登録されていない。そのため、ステップ160の判定は否定され、ステップ162に移行する。一方、処理画像がI7の場合、画像cn-1はI6となる。I6は、図18のように、I5に対する相対位置が定まっていないため位置不明テーブルに登録されている。そのため、ステップ160の判定は肯定され、ステップ178に移行する。 In step 160 of the image relative position estimation process 2, the positional relationship specifying trial unit 16 determines whether or not the image cn-1 is registered in the position unknown table. For example, when I5 shown in FIG. 8 is a processed image, the image cn-1 is I4. I4 is not registered in the position unknown table because the relative position with respect to I3 is determined as shown in FIG. Therefore, the determination at step 160 is negative and the process proceeds to step 162. On the other hand, when the processed image is I7, the image cn-1 is I6. As shown in FIG. 18, I6 is registered in the position unknown table because the relative position with respect to I5 is not fixed. Therefore, the determination at step 160 is affirmed, and the routine proceeds to step 178.

ステップ162において、位置関係特定試行部16は、処理中のカメラワークの概略方向に含まれる画像数L(j)が1であるか判定する。L(j)が1で無い場合は、図4のパターン1、3、6、8、11、13、16、18のように、主撮影方向が一定なカメラワークの副撮影方向への切り替わり部分として、ステップ164に移行する。L(j)が1の場合は、図4のパターン2,4、5、7、9、10、12、14、15、17、19、20のように、主撮影方向が変わるカメラワークの方向変更部分として、ステップ170に移行する。 In step 162, the positional relationship specifying trial unit 16 determines whether the number of images L (j) included in the approximate direction of the camera work being processed is one. When L (j) is not 1, a portion where the main shooting direction is switched to the sub shooting direction of the camera work with a fixed main shooting direction as in patterns 1, 3, 6, 8, 11, 13, 16, and 18 in FIG. As shown in FIG. When L (j) is 1, the direction of camera work in which the main shooting direction changes as in patterns 2, 4, 5, 7, 9, 10, 12, 14, 15, 17, 19, 20 in FIG. As a changed part, the process proceeds to step 170.

ステップ164において、位置関係特定試行部16は、主撮影方向が一定なカメラワークの副撮影方向への切り替わり部分での相対位置を求めるために、前述のステップ122と同様のマッチングを、処理画像cnと比較画像cn-L(j)-1について行う。例えば、処理画像が図8に示すI5の場合、cn=5、j=1、L(1)=3、となり、比較画像はI1となるため、I5とI1のマッチングを行う。 In step 164, the positional relationship specifying trial unit 16 performs matching similar to that in step 122 described above to obtain the relative position at the portion of the camera work in which the main shooting direction is constant and switches to the sub shooting direction. And the comparison image cn-L (j) -1. For example, when the processed image is I5 shown in FIG. 8, cn = 5, j = 1, L (1) = 3, and the comparison image is I1, and therefore I5 and I1 are matched.

ステップ166において、位置関係特定試行部16は、前述のステップ124と同様に、処理画像cnと比較画像cn-L(j)-1が連続しているか否かを判定する。ステップ166の判定が肯定された場合はステップ168に移行する。 In step 166, the positional relationship specifying trial unit 16 determines whether or not the processed image cn and the comparison image cn-L (j) -1 are continuous, as in step 124 described above. If the determination at step 166 is affirmative, the routine proceeds to step 168.

ステップ168において、位置関係特定試行部16は、iとjを1増加し、画像数L(j)を1に設定する。さらに、概略方向Diを、処理画像cnと比較画像cn-L(j)-1に対する概略方向に「斜」を付加する。例えば、図8に示す画像I5が処理画像で、画像I1が比較画像である場合、図17に示すように、画像I1に対する画像I5の概略方向は「下」と分類され、概略方向D2には、「斜」を付加した「斜下」が設定される。位置関係特定試行部16は、設定した概略方向Diを、比較画像を原点とする処理画像の相対座標(Xcn,Ycn)と共にメモリ54等に記憶させる。また、位置関係特定試行部16は、処理画像cnの相対座標の原点に相当する比較画像の画像番号cn-L(j)-1を基準画像REFcnに設定し、基準画像REFcn及び画像数L(j)もメモリ54等に記憶させる。 In step 168, the positional relationship specifying trial unit 16 increments i and j by 1, and sets the number of images L (j) to 1. Furthermore, “oblique” is added to the approximate direction Di with respect to the approximate direction with respect to the processed image cn and the comparison image cn-L (j) −1. For example, when the image I5 shown in FIG. 8 is a processed image and the image I1 is a comparative image, as shown in FIG. 17, the approximate direction of the image I5 with respect to the image I1 is classified as “down”, and the approximate direction D2 includes , “Below” with “bevel” added is set. The positional relationship specifying trial unit 16 stores the set approximate direction Di in the memory 54 and the like together with the relative coordinates (Xcn, Ycn) of the processed image with the comparison image as the origin. Further, the positional relationship specifying trial unit 16 sets the image number cn-L (j) -1 of the comparison image corresponding to the origin of the relative coordinates of the processed image cn as the reference image REFcn, and sets the reference image REFcn and the image number L ( j) is also stored in the memory 54 or the like.

ステップ170において、カメラワーク推定部18は、前述のステップ150と同様に、パターンテーブル内に登録されているパターン番号の数が1か否か判定する。ステップ170の判定が否定された場合はステップ172へ移行する。 In step 170, the camera work estimation unit 18 determines whether the number of pattern numbers registered in the pattern table is 1 as in step 150 described above. If the determination in step 170 is negative, the process proceeds to step 172.

ステップ172において、カメラワーク推定部18は、前述のステップ152と同様に、パターンテーブルに登録されている個々のパターンについて、カメラワークパターン情報22に規定されている第1方向〜第i方向が、概略方向D1〜Diと全て一致しているか否か判定する。そして、カメラワーク推定部18は、第1方向〜第i方向の中に、概略方向D1〜Diと不一致が含まれるパターンについては、パターンテーブルからパターン番号を全て削除する。さらに、パターンテーブルに登録されているパターンが一つでない場合は、図5に示す各パターンに付与した優先の識別子が無のパターン番号を、パターンテーブルから削除する。例えば、図25に示すように画像I1’から画像I12’が図5のカメラワークのパターン2で撮影されたとする。この場合、画像I1’から画像I5’までの処理が終わり、画像I6’が処理画像となった場合、ステップ172が実行される前には、パターンテーブルに、パターン2とパターン5が登録されている。ステップ172では、図5に示すパターン2の優先の識別子は有、パターン5の優先の識別子は無なので、カメラワーク推定部18は、パターン5をパターンテーブルから削除する。 In step 172, the camera work estimation unit 18 determines that the first direction to the i-th direction specified in the camera work pattern information 22 for each pattern registered in the pattern table is the same as in step 152 described above. It is determined whether or not all the approximate directions D1 to Di coincide. Then, the camera work estimation unit 18 deletes all the pattern numbers from the pattern table for the patterns in which the first direction to the i-th direction include a mismatch with the approximate directions D1 to Di. Further, when there is not one pattern registered in the pattern table, the pattern number having no priority identifier assigned to each pattern shown in FIG. 5 is deleted from the pattern table. For example, as shown in FIG. 25, it is assumed that images I1 'to I12' are taken with the camerawork pattern 2 of FIG. In this case, when the processing from the image I1 ′ to the image I5 ′ is completed and the image I6 ′ becomes a processed image, the pattern 2 and the pattern 5 are registered in the pattern table before step 172 is executed. Yes. In step 172, since the priority identifier of the pattern 2 shown in FIG. 5 is present and the priority identifier of the pattern 5 is not present, the camera work estimation unit 18 deletes the pattern 5 from the pattern table.

ステップ174において、位置関係特定試行部16は、iとjを1増加し、画像数L(j)を1に設定する。さらに、パターンテーブルに残ったカメラワークのパターンの第i番目の方向を図5のテーブルから読み出し、概略方向Diに設定する。 In step 174, the positional relationship specifying trial unit 16 increases i and j by 1, and sets the number of images L (j) to 1. Further, the i-th direction of the camerawork pattern remaining in the pattern table is read from the table of FIG. 5 and set to the approximate direction Di.

ステップ176において、位置関係特定試行部16は、前述のステップ126と同様に、他の画像との位置関係が不明な画像の情報を登録するための位置不明テーブルに、処理画像の画像番号cnを登録する。 In step 176, as in step 126 described above, the positional relationship specifying trial unit 16 sets the image number cn of the processed image in the positional unknown table for registering information of the image whose positional relationship with other images is unknown. sign up.

ステップ178において、位置関係特定試行部16は、パターンテーブルに登録されているパターンの主撮影方向が一定であるか否かを判定するため、登録されたパターンが1,3、6、8、11、13、16、18のいずれかと一致するか判定する。ステップ178の判定が肯定されれば、ステップ180に移行する。ステップ178の判定が否定されれば、ステップ182に移行する。 In step 178, the positional relationship specifying trial unit 16 determines whether the main shooting direction of the pattern registered in the pattern table is constant, so that the registered pattern is 1, 3, 6, 8, 11 , 13, 16, or 18 is determined. If the determination in step 178 is affirmed, the process proceeds to step 180. If the determination in step 178 is negative, the process proceeds to step 182.

ステップ180において、位置関係特定試行部16は、前述のステップ122と同様のマッチングを、処理画像cnと比較画像cn-L(j) -L(j-1)-1について行う。例えば、処理画像が図8に示すI8の場合、cn=8、j=3、L(3)=2、L(2)=1となり、比較画像はI4となるため、I8とI4のマッチングを行う。 In step 180, the positional relationship specifying trial unit 16 performs matching similar to that in step 122 described above for the processed image cn and the comparison image cn-L (j) -L (j-1) -1. For example, if the processed image is I8 shown in FIG. 8, cn = 8, j = 3, L (3) = 2, L (2) = 1, and the comparison image is I4. Do.

ステップ182において、位置関係特定試行部16は、前述のステップ122と同様のマッチングを、処理画像cnと比較画像cn-L(j) -L(j-1) -L(j-2)-1について行う。例えば、処理画像が図25に示すI8’の場合、cn=8、j=3、L(3)=2、L(2)=1、L(1)=3となり、比較画像はI1’となるため、I8’とI1’のマッチングを行う。 In step 182, the positional relationship specifying trial unit 16 performs matching similar to that in step 122 described above, and performs processing image cn and comparison image cn-L (j) -L (j-1) -L (j-2) -1 Do about. For example, when the processed image is I8 ′ shown in FIG. 25, cn = 8, j = 3, L (3) = 2, L (2) = 1, L (1) = 3, and the comparison image is I1 ′. Therefore, I8 ′ and I1 ′ are matched.

ステップ184において、位置関係特定試行部16は、前述のステップ124と同様に、処理画像と比較画像が連続しているか否かを判定する。ステップ184の判定が肯定された場合はステップ186に移行する。ステップ184の判定が否定された場合はステップ188に移行する。 In step 184, the positional relationship specifying trial unit 16 determines whether or not the processed image and the comparison image are continuous, as in step 124 described above. If the determination in step 184 is affirmed, the process proceeds to step 186. If the determination in step 184 is negative, the process proceeds to step 188.

ステップ186において、位置関係特定試行部16は、画像数L(j)を1増加する。さらに、比較画像を原点とする処理画像の相対座標(Xcn,Ycn)をメモリ54等に記憶させる。また、処理画像の相対座標の原点に相当する比較画像の画像番号を基準画像REFcnに設定し、基準画像REFcn及び画像数L(j)もメモリ54等に記憶させる。ステップ188において、位置関係特定試行部16は、画像数L(j)を1増加し、メモリ54等に記憶させる。ステップ190において、位置関係特定試行部16は、前述のステップ126と同様に、他の画像との位置関係が不明な画像の情報を登録するための位置不明テーブルに、処理画像の画像番号cnを登録する。 In step 186, the positional relationship specifying trial unit 16 increases the number of images L (j) by one. Further, the relative coordinates (Xcn, Ycn) of the processed image with the comparison image as the origin are stored in the memory 54 or the like. Further, the image number of the comparison image corresponding to the origin of the relative coordinates of the processed image is set as the reference image REFcn, and the reference image REFcn and the image number L (j) are also stored in the memory 54 or the like. In step 188, the positional relationship specifying trial unit 16 increases the number of images L (j) by 1 and stores it in the memory 54 or the like. In step 190, as in step 126 described above, the positional relationship specifying trial unit 16 sets the image number cn of the processed image in the positional unknown table for registering information of an image whose positional relationship with other images is unknown. sign up.

上述した画像相対位置推定処理2を終了すると、画像相対位置推定処理(図9)のステップ150へ移行する。従って、画像相対位置推定処理(図9)では、画像番号=2以降の画像に対し、ステップ144又はステップ146又は上述した画像相対位置推定処理2が選択的に実行される。これにより、撮影された複数の画像は、他の画像との位置関係を特定できた画像、すなわち基準画像REFcn及び相対座標(Xcn,Ycn)がメモリ54等に記憶された画像と、他の画像との位置関係を特定できず位置不明テーブルに登録された画像と、に弁別される。   When the above-described image relative position estimation process 2 ends, the process proceeds to step 150 of the image relative position estimation process (FIG. 9). Accordingly, in the image relative position estimation process (FIG. 9), step 144 or step 146 or the above-described image relative position estimation process 2 is selectively executed for the images after image number = 2. As a result, the plurality of captured images include an image in which the positional relationship with other images can be specified, that is, an image in which the reference image REFcn and relative coordinates (Xcn, Ycn) are stored in the memory 54 and the like, And the image registered in the position unknown table cannot be identified.

画像相対位置推定処理を終了すると、画像合成処理(図7)のステップ108へ移行し、ステップ108において、位置関係決定部24及び画像合成部26は、合成画像生成処理を行う。この合成画像生成処理の詳細について、図19を参照して説明する。   When the image relative position estimation process ends, the process proceeds to step 108 of the image composition process (FIG. 7). In step 108, the positional relationship determination unit 24 and the image composition unit 26 perform a composite image generation process. Details of the composite image generation processing will be described with reference to FIG.

合成画像生成処理のステップ200において、画像合成部26は、処理画像の画像番号cnに1を設定する。次のステップ202において、画像合成部26は、処理画像の画像番号cnが位置不明テーブルに登録されているか否か判定する。ステップ202の判定が肯定された場合はステップ204へ移行する。   In step 200 of the composite image generation process, the image composition unit 26 sets 1 to the image number cn of the processed image. In the next step 202, the image composition unit 26 determines whether or not the image number cn of the processed image is registered in the position unknown table. If the determination in step 202 is affirmed, the process proceeds to step 204.

ステップ204において、画像合成部26は、画像番号cnを1だけインクリメントし、ステップ202に戻る。これにより、ステップ202の判定が否定される迄、ステップ202,204が繰り返される。従って、画像番号=1の画像が位置不明テーブルに登録されていた場合は、位置不明テーブルに登録されていない画像が出現する迄、画像番号cnが1ずつ増加される。   In step 204, the image composition unit 26 increments the image number cn by 1 and returns to step 202. Thus, steps 202 and 204 are repeated until the determination at step 202 is negative. Therefore, when the image with the image number = 1 is registered in the position unknown table, the image number cn is incremented by 1 until an image not registered in the position unknown table appears.

位置不明テーブルに登録されていない画像が出現すると、ステップ202の判定が否定されてステップ206へ移行する。合成画像生成処理が行われる時点では、パターンテーブル内に登録されているパターン番号の数が1になっており、カメラワーク推定部18によるカメラワークのパターンの推定は完了している。このため、ステップ206において、画像合成部26は、メモリ54に予め確保した合成画像記憶領域のうち、推定されたカメラワークのパターンの開始点に対応する記憶位置に、処理画像のデータを展開して配置する。例えば、推定されたカメラワークのパターンがパターン1であれば、パターン1の開始点である左上隅に対応する位置に処理画像のデータが展開・配置される。   If an image that is not registered in the position unknown table appears, the determination in step 202 is negative and the process proceeds to step 206. At the time when the composite image generation process is performed, the number of pattern numbers registered in the pattern table is 1, and the camerawork estimation unit 18 has completed the estimation of the camerawork pattern. Therefore, in step 206, the image composition unit 26 expands the processed image data to a storage position corresponding to the estimated start point of the camera work pattern in the composite image storage area secured in advance in the memory 54. Arrange. For example, if the estimated camerawork pattern is pattern 1, the processed image data is developed and arranged at a position corresponding to the upper left corner that is the starting point of pattern 1.

次のステップ208において、画像合成部26は、画像番号cnを1だけインクリメントし、ステップ210において、画像合成部26は、処理画像の画像番号cnが位置不明テーブルに登録されているか否か判定する。ステップ210の判定が肯定された場合はステップ208に戻り、ステップ210の判定が肯定される迄、ステップ208,210を繰り返す。これにより、位置不明テーブルに登録されていない画像が出現する迄、画像番号cnが1ずつ増加される。   In the next step 208, the image composition unit 26 increments the image number cn by 1. In step 210, the image composition unit 26 determines whether or not the image number cn of the processed image is registered in the position unknown table. . If the determination in step 210 is affirmed, the process returns to step 208, and steps 208 and 210 are repeated until the determination in step 210 is affirmed. Thus, the image number cn is incremented by 1 until an image not registered in the position unknown table appears.

位置不明テーブルに登録されていない画像が出現すると、ステップ210の判定が否定されてステップ212へ移行する。ステップ212において、画像合成部26は、メモリ54に記憶されている処理画像cnに対応する基準画像REFcn及び相対座標(Xcn,Ycn)を参照する。また、画像合成部26は、合成画像記憶領域に既に展開・配置されている基準画像REFcnを原点として、相対座標(Xcn,Ycn)に対応する位置のXY座標を、基準画像REFcnの合成画像記憶領域内でのXY座標に基づいて演算する。そして、画像合成部26は、合成画像記憶領域内のうち演算したXY座標に対応する位置に、処理画像cnのデータを展開して配置する。   If an image that is not registered in the position unknown table appears, the determination in step 210 is denied and the process proceeds to step 212. In step 212, the image composition unit 26 refers to the reference image REFcn and relative coordinates (Xcn, Ycn) corresponding to the processed image cn stored in the memory 54. In addition, the image composition unit 26 stores the XY coordinates of the position corresponding to the relative coordinates (Xcn, Ycn) with the reference image REFcn already developed and arranged in the composite image storage area as the origin, and the composite image storage of the reference image REFcn. Calculation is performed based on the XY coordinates in the region. Then, the image composition unit 26 expands and arranges the data of the processed image cn at a position corresponding to the calculated XY coordinates in the composite image storage area.

次のステップ214において、画像合成部26は、画像番号cnが、画像取得部12によって取得された画像の総数に達したか否か判定する。ステップ214の判定が否定された場合はステップ208に戻り、ステップ214の判定が肯定される迄、ステップ208〜ステップ214を繰り返す。これにより、例として図20に示すように、画像I1〜I12のうち、画像特徴が乏しく位置不明テーブルに画像番号が登録された画像I6,I7を除いた各画像が、基準画像REFcn及び相対座標(Xcn,Ycn)に基づき、合成画像記憶領域に各々展開・配置される。   In the next step 214, the image composition unit 26 determines whether or not the image number cn has reached the total number of images acquired by the image acquisition unit 12. If the determination in step 214 is negative, the process returns to step 208, and steps 208 to 214 are repeated until the determination in step 214 is positive. Accordingly, as shown in FIG. 20 as an example, among the images I1 to I12, the images except the images I6 and I7 whose image features are poor and whose image numbers are registered in the position unknown table are the reference image REFcn and the relative coordinates. Based on (Xcn, Ycn), each is developed and arranged in the composite image storage area.

画像番号cnが画像の総数に達すると、ステップ214の判定が肯定されてステップ216へ移行する。ステップ216において、位置関係決定部24は、位置不明テーブルは空になったか否か判定する。ステップ216の判定が否定された場合はステップ218へ移行し、ステップ218において、位置関係決定部24は、位置不明テーブルに登録されている画像番号の中から最小の画像番号cnを選択し、選択した画像番号cnを位置不明テーブルから取り出す。   When the image number cn reaches the total number of images, the determination in step 214 is affirmed and the process proceeds to step 216. In step 216, the positional relationship determination unit 24 determines whether or not the position unknown table is empty. If the determination in step 216 is negative, the process proceeds to step 218. In step 218, the positional relationship determination unit 24 selects and selects the smallest image number cn from the image numbers registered in the position unknown table. The taken image number cn is taken out from the position unknown table.

次のステップ220において、位置関係決定部24は、パターンテーブルに登録されている唯一のパターン番号のカメラワークパターン情報22及び画像数L(j)の配列に基づいて、処理画像cnに隣接する上下左右の4方向の画像の画像番号を認識する。画像数L(j)の配列の各要素は、作業者32が行ったカメラワークにおいて、撮影範囲の移動の概略方向が変化する迄に撮影された個々の画像群の画像数−1の値が設定されている。また、個々の画像群の画像が撮影された際の撮影範囲の移動の概略方向はカメラワークパターン情報22に規定されている。従って、これらの情報から、例えばカメラワークのパターンがパターン1であれば、図20に示す画像I6に隣接する上下左右の4方向の画像が画像I2,I5,I7,I10であると認識できる。   In the next step 220, the positional relationship determination unit 24 determines the upper and lower sides adjacent to the processed image cn based on the camera pattern information 22 of the only pattern number registered in the pattern table and the arrangement of the number of images L (j). Recognize the image numbers of the left and right four-direction images. Each element of the array of the number of images L (j) has the value of the number of images minus 1 for each group of images captured until the approximate direction of movement of the imaging range changes in the camera work performed by the operator 32. Is set. Further, the approximate direction of movement of the shooting range when images of individual image groups are shot is defined in the camera work pattern information 22. Therefore, from these pieces of information, if the camerawork pattern is pattern 1, for example, it can be recognized that the images in the four directions of the top, bottom, left and right adjacent to the image I6 shown in FIG. 20 are the images I2, I5, I7 and I10.

ステップ222において、位置関係決定部24は、ステップ220で画像番号を認識した、処理画像cnに隣接する上下左右の4方向の画像の中から、合成画像記憶領域に配置済みの画像を抽出する。例えば、図20に示す画像I6については、画像I6に隣接する上下左右の4方向の画像I2,I5,I7,I10の中から、合成画像記憶領域に配置済みの画像として画像I2,I5,I10が抽出される。   In step 222, the positional relationship determination unit 24 extracts an image that has been placed in the composite image storage area from the four images in the upper, lower, left, and right directions adjacent to the processed image cn whose image number has been recognized in step 220. For example, with respect to the image I6 shown in FIG. 20, the images I2, I5, I10 are arranged as images already arranged in the composite image storage area from the four images I2, I5, I7, I10 in the four directions up, down, left and right adjacent to the image I6. Is extracted.

次のステップ224において、位置関係決定部24は、ステップ222で抽出した配置済みの画像に対する処理画像cnの概略方向及び配置済みの合成画像記憶領域内での画像の位置に基づき、処理画像cnの合成画像記憶領域内での位置(XY座標)を決定する。処理画像の位置の決定は、例えば以下の処理で実現できる。   In the next step 224, the positional relationship determination unit 24 determines the processing image cn based on the approximate direction of the processed image cn with respect to the arranged image extracted in step 222 and the position of the image in the arranged composite image storage area. A position (XY coordinate) in the composite image storage area is determined. The determination of the position of the processed image can be realized by the following processing, for example.

すなわち、まずステップ222で抽出した、処理画像cnに隣接しかつ合成画像記憶領域内に配置済みの画像を、処理画像cnに対してX方向に隣接する(概略方向が「左」又は「右」)画像と、Y方向に隣接する(概略方向が「上」又は「下」)画像と、に分類する。次に、処理画像cnに対してX方向に隣接する画像の合成画像記憶領域内でのY座標値から、処理画像cnの合成画像記憶領域内でのY座標値を決定する。例えば、処理画像cnに対してX方向に隣接する配置済みの画像の数が1個であれば、当該画像のY座標値を処理画像cnの合成画像記憶領域内でのY座標値に設定してもよい。また、例えば、処理画像cnに対してX方向に隣接する配置済みの画像の数が2個であれば、当該2個の画像のY座標値の平均値を処理画像cnの合成画像記憶領域内でのY座標値に設定してもよい。   That is, first, the image extracted in step 222 that is adjacent to the processed image cn and already arranged in the composite image storage area is adjacent to the processed image cn in the X direction (the approximate direction is “left” or “right”). ) Images and images adjacent in the Y direction (the approximate direction is “up” or “down”). Next, the Y coordinate value in the composite image storage area of the processed image cn is determined from the Y coordinate value in the composite image storage area of the image adjacent to the processed image cn in the X direction. For example, if the number of arranged images adjacent to the processed image cn in the X direction is 1, the Y coordinate value of the image is set to the Y coordinate value in the composite image storage area of the processed image cn. May be. For example, if the number of arranged images adjacent to the processed image cn in the X direction is two, the average value of the Y coordinate values of the two images is stored in the composite image storage area of the processed image cn. You may set to the Y coordinate value in.

また、処理画像cnに対してY方向に隣接する画像の合成画像記憶領域内でのX座標値から、処理画像cnの合成画像記憶領域内でのX座標値を決定する。例えば、処理画像cnに対してY方向に隣接する配置済みの画像の数が1個であれば、当該画像のX座標値を処理画像cnの合成画像記憶領域内でのX座標値に設定してもよい。また、例えば、処理画像cnに対してY方向に隣接する配置済みの画像の数が2個であれば、当該2個の画像のX座標値の平均値を処理画像cnの合成画像記憶領域内でのX座標値に設定してもよい。   Further, the X coordinate value in the composite image storage area of the processed image cn is determined from the X coordinate value in the composite image storage area of the image adjacent to the processed image cn in the Y direction. For example, if the number of arranged images adjacent to the processed image cn in the Y direction is 1, the X coordinate value of the image is set to the X coordinate value in the composite image storage area of the processed image cn. May be. For example, if the number of arranged images adjacent to the processed image cn in the Y direction is two, the average value of the X coordinate values of the two images is stored in the composite image storage area of the processed image cn. You may set to the X coordinate value in.

なお、図21には、図20に示す画像I6の位置を、画像I2,I5の座標値から決定する例を示す。このように、処理画像cnに対してX方向に隣接する画像及びY方向に隣接する画像が各々1個以上あれば、処理画像cnの位置は決定できるので、X,Yの方向毎に各々1個の画像から処理画像cnの位置を決定してもよい。   FIG. 21 shows an example in which the position of the image I6 shown in FIG. 20 is determined from the coordinate values of the images I2 and I5. In this way, if there are at least one image adjacent to the processed image cn in the X direction and one image adjacent in the Y direction, the position of the processed image cn can be determined, so that one for each of the X and Y directions. The position of the processed image cn may be determined from the individual images.

次のステップ226において、画像合成部26は、ステップ224で決定した処理画像cnの合成画像記憶領域内での位置に、処理画像cnのデータを展開して配置する。ステップ226を行うとステップ216に戻り、ステップ216の判定が肯定される迄、ステップ216〜ステップ226を繰り返す。これにより、位置不明テーブルに画像番号が登録されている画像が、画像番号の昇順に合成画像記憶領域内に展開・配置される。そして、位置不明テーブルが空になり、ステップ216の判定が肯定される時点では、一例として図22に示すように、画像取得部12によって取得された全ての画像が合成された合成画像が生成される。合成画像は、対象物30全体を被写体とする1つの画像である。   In the next step 226, the image composition unit 26 develops and arranges the data of the processed image cn at the position in the composite image storage area of the processed image cn determined in step 224. If step 226 is performed, it will return to step 216 and will repeat step 216-step 226 until determination of step 216 is affirmed. As a result, the images whose image numbers are registered in the position unknown table are developed and arranged in the composite image storage area in ascending order of the image numbers. Then, at the time when the position unknown table becomes empty and the determination in step 216 is affirmed, as shown in FIG. 22 as an example, a composite image in which all images acquired by the image acquisition unit 12 are combined is generated. The The composite image is an image having the entire object 30 as a subject.

ステップ216の判定が肯定されると合成画像生成処理を終了し、画像合成処理(図7)のステップ110へ移行する。ステップ110において、画像合成部26は、ひび検出部14によって検出されたひびに関する情報をメモリ54等から読み出す。そして、画像合成部26は、取得したひびに関する情報に基づき、合成画像生成処理(図19)で生成した合成画像から、当該合成画像上でひびを強調表示した第1出力画像を生成する。画像合成部26によって生成される第1出力画像の一例を図23に示す。   If the determination in step 216 is affirmative, the composite image generation process is terminated, and the process proceeds to step 110 of the image composition process (FIG. 7). In step 110, the image composition unit 26 reads out information related to the crack detected by the crack detection unit 14 from the memory 54 or the like. Then, the image composition unit 26 generates a first output image in which the crack is highlighted on the composite image from the composite image generated by the composite image generation process (FIG. 19) based on the acquired information on the crack. An example of the first output image generated by the image composition unit 26 is shown in FIG.

次のステップ112において、画像合成部26は、読み出したひびに関する情報に基づき、画像取得部12によって取得された複数の画像の中から、ひび検出部14によってひびが検出された画像を選択する。そして、画像合成部26は、ひびに関する情報に基づき、選択した画像(ひびが検出された画像)から、当該画像上でひびを強調表示すると共に、ひびの詳細情報を付加した第2出力画像を生成する。画像合成部26によって生成される第2出力画像の一例を図23に示す。   In the next step 112, the image composition unit 26 selects an image in which the crack is detected by the crack detection unit 14 from the plurality of images acquired by the image acquisition unit 12 based on the read information on the crack. Then, the image composition unit 26 highlights the crack on the selected image (the image from which the crack has been detected) based on the information on the crack, and outputs the second output image to which the detailed information of the crack is added. Generate. An example of the second output image generated by the image composition unit 26 is shown in FIG.

ステップ114において、画像出力部28は、画像合成部26によって生成された第1出力画像及び第2出力画像を、例えば表示部60に表示する等によって出力し、画像合成処理を終了する。   In step 114, the image output unit 28 outputs the first output image and the second output image generated by the image composition unit 26 by, for example, displaying them on the display unit 60, and the image composition process ends.

作業者は、画像出力部28によって出力された第1出力画像を参照することで、対象物30全体におけるひびの数や概略位置等を容易に把握することができる。また、作業者は、画像出力部28によって出力された第2出力画像を参照することで、対象物30に生じている個々のひびの性状等を容易に把握することができる。   By referring to the first output image output by the image output unit 28, the operator can easily grasp the number of cracks, the approximate position, and the like in the entire object 30. Further, the operator can easily grasp the properties of individual cracks generated on the object 30 by referring to the second output image output by the image output unit 28.

このように、本実施形態では、位置関係特定試行部16が、対象物30が部分毎に撮影された複数の画像の各々を処理画像として以下の処理を行う。すなわち、位置関係特定試行部16は、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、比較画像に写る対象物30の部分に対する処理画像に写る対象物30の部分の位置関係の特定を試行する。また、カメラワーク推定部18は、位置関係特定試行部16によって前記位置関係が特定できた画像の前記位置関係からカメラワークを推定する。また、位置関係決定部24は、カメラワーク推定部18によって推定されたカメラワークに基づき、位置関係特定試行部16によって前記位置関係が特定できなかった画像に写る対象物30の部分の位置を決定する。そして、画像合成部26は複数の画像を合成する。これにより、対象物が部分毎に撮影された複数の画像に画像特徴の乏しい画像が含まれる場合にも、複数の画像から対象物の画像を得ることができる。   As described above, in the present embodiment, the positional relationship specifying trial unit 16 performs the following processing using each of the plurality of images obtained by capturing the object 30 for each portion as a processed image. In other words, the positional relationship specifying trial unit 16 determines the object 30 that appears in the processed image for the portion of the object 30 that appears in the comparison image based on the image features of the processed image and the comparison image in which the processed image and the imaging order are continuous. Attempt to identify the positional relationship of the parts. Further, the camera work estimation unit 18 estimates camera work from the positional relationship of the images whose positional relationship has been identified by the positional relationship identification trial unit 16. The positional relationship determination unit 24 determines the position of the portion of the object 30 that appears in the image whose positional relationship could not be specified by the positional relationship specifying trial unit 16 based on the camera work estimated by the camera work estimation unit 18. To do. Then, the image composition unit 26 composes a plurality of images. Thereby, even when an image with poor image characteristics is included in a plurality of images taken for each part of the object, an image of the object can be obtained from the plurality of images.

また、本実施形態では、位置関係特定試行部16が、比較画像に対する前記位置関係が特定できなかった処理画像について、以下の処理を行う。すなわち、位置関係特定試行部16は、処理画像に写る対象物30の部分に対し、画像に写る対象物30の部分が、カメラワークの主撮影方向と交差する副撮影方向に隣接する位置関係にある可能性がある前記画像を複数の画像から選択する。そして、位置関係特定試行部16は、選択した画像に対する処理画像の前記位置関係の特定を試行する。これにより、撮影順序が連続する処理画像と比較画像の一方の画像特徴が乏しい、或いは、2つの画像の対象物上での撮影範囲が離れている等の場合にも、画像特徴に基づいて位置関係が特定される画像の数を増やすことができ、画像合成の精度が向上する。   Moreover, in this embodiment, the positional relationship specification trial part 16 performs the following processes about the process image in which the said positional relationship with respect to the comparison image was not able to be specified. That is, the positional relationship specifying trial unit 16 has a positional relationship in which the portion of the object 30 that appears in the image is adjacent to the sub-shooting direction that intersects the main shooting direction of the camera work with respect to the portion of the object 30 that appears in the processed image. The possible image is selected from a plurality of images. Then, the positional relationship specifying trial unit 16 tries to specify the positional relationship of the processed image with respect to the selected image. As a result, even if the image characteristics of one of the processed image and the comparison image in which the shooting order is continuous are poor, or the shooting range on the object of the two images is separated, the position based on the image features The number of images for which the relationship is specified can be increased, and the accuracy of image synthesis is improved.

また、本実施形態では、カメラワーク推定部18が、記憶部20に予め記憶されたカメラワークの複数のパターンのうち、位置関係特定試行部16が特定できた前記位置関係と整合しないパターンを候補から除外することで、カメラワークを推定する。これにより、位置関係特定試行部16が特定できた位置関係からパターンを表す情報を生成する場合と比較して、カメラワークを推定する処理を簡単にすることができる。   In this embodiment, the camera work estimation unit 18 selects a pattern that does not match the positional relationship that the positional relationship specifying trial unit 16 can identify from among a plurality of camera work patterns stored in advance in the storage unit 20. Camerawork is estimated by excluding from the above. Thereby, compared with the case where the information showing a pattern is produced | generated from the positional relationship which the positional relationship specific trial part 16 was able to identify, the process which estimates a camera work can be simplified.

なお、上記では画像取得部12によって取得された複数の画像から、撮影順序が連続する2つの画像を撮影順序の昇順に選択する態様を説明したが、これに限定されるものではなく、撮影順序が連続する2つの画像を撮影順序の降順に選択してもよい。   In the above description, a mode has been described in which two images having a continuous shooting order are selected from a plurality of images acquired by the image acquisition unit 12 in ascending order of the shooting order. However, the present invention is not limited to this. May be selected in descending order of the photographing order.

また、上記では位置関係特定試行部16による画像の位置関係の特定と並行して、カメラワーク推定部18がカメラワークの推定を行う態様を説明したが、これに限定されるものではない。例えば、位置関係特定試行部16による画像の位置関係の特定が完了した後で、位置関係特定試行部16が位置関係を特定できた全ての画像の位置関係に基づいて、カメラワーク推定部18がカメラワークの推定を行うようにしてもよい。   Moreover, although the camera work estimation part 18 estimated the camera work estimation in parallel with the specification of the positional relation of the image by the positional relation specification trial part 16 above, it is not limited to this. For example, after the positional relationship specifying trial unit 16 completes specifying the positional relationship of the images, the camera work estimating unit 18 determines the positional relationship of all the images for which the positional relationship specifying trial unit 16 has been able to specify the positional relationship. Camera work estimation may be performed.

また、上記では概略方向を上下左右の4方向とし、この4方向でカメラワークのパターンを表す態様を説明したが、これに限定されるものではない。例えば、図4に示すパターン1の第2方向は、図5によれば「下」であるが、正確には「次行先頭(左斜め下)」であり、パターン6の第2方向は、図5によれば「上」であるが、正確には「前行先頭(左斜め上)」である。このように、概略方向をより細分化するようにしてもよい。この場合、例えばパターン1とパターン2とは第2方向が相違することになり、より早い段階でカメラワークの推定を完了させることができる。   Further, in the above description, the general direction is the four directions of up, down, left, and right, and the mode in which the camerawork pattern is represented in these four directions has been described, but the present invention is not limited to this. For example, the second direction of the pattern 1 shown in FIG. 4 is “down” according to FIG. 5, but is exactly “the beginning of the next line (left diagonally down)”, and the second direction of the pattern 6 is According to FIG. 5, it is “up”, but it is precisely “the front of the previous line (upward left)”. In this way, the general direction may be further subdivided. In this case, for example, the second direction is different between the pattern 1 and the pattern 2, and the estimation of the camera work can be completed at an earlier stage.

また、上記では本発明に係る画像合成プログラムの一例である画像合成プログラム70が記憶部56に予め記憶(インストール)されている態様を説明した。しかし、これに限定されるものではなく、本発明に係る画像合成プログラムは、CD−ROMやDVD−ROM、メモリカード等の記録媒体に記録されている形態で提供することも可能である。   In the above description, the mode in which the image composition program 70 which is an example of the image composition program according to the present invention is stored (installed) in the storage unit 56 in advance has been described. However, the present invention is not limited to this, and the image composition program according to the present invention can be provided in a form recorded on a recording medium such as a CD-ROM, a DVD-ROM, or a memory card.

本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。   All documents, patent applications and technical standards mentioned in this specification are to the same extent as if each individual document, patent application and technical standard were specifically and individually stated to be incorporated by reference. Incorporated by reference in the book.

以上の実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記1)
対象物が部分毎に撮影された複数の画像のうち、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、前記比較画像に写る前記対象物の部分に対する前記処理画像に写る前記対象物の部分の位置関係を特定し、
特定した前記処理画像の前記位置関係からカメラワークを推定し、
推定した前記カメラワークに基づき、前記位置関係が特定できなかった画像に写る前記対象物の部分の位置を決定して前記複数の画像を合成する
処理をコンピュータに実行させる画像合成プログラム。
(Appendix 1)
The processing for the portion of the object that appears in the comparison image based on the image characteristics of the processed image and the comparison image in which the imaging order is continuous with the processed image among a plurality of images in which the object is captured for each portion. Identify the positional relationship of the part of the object in the image,
Camera work is estimated from the positional relationship of the identified processed image,
An image composition program for causing a computer to execute a process of determining a position of a portion of the object in an image for which the positional relationship cannot be specified based on the estimated camera work and combining the plurality of images.

(付記2)
前記比較画像に対する前記位置関係が特定できなかった前記処理画像について、前記処理画像に写る前記対象物の部分に対し、画像に写る前記対象物の部分が、カメラワークの主撮影方向と交差する副撮影方向に隣接する位置関係にある可能性がある前記画像を前記複数の画像から選択し、前記選択した画像に対する前記処理画像の前記位置関係の特定を試行する付記1記載の画像合成プログラム。
(Appendix 2)
For the processed image in which the positional relationship with respect to the comparison image cannot be specified, the portion of the object that appears in the image intersects the main shooting direction of the camera work with respect to the portion of the object that appears in the processed image. The image composition program according to appendix 1, wherein the image that may be in a positional relationship adjacent to a shooting direction is selected from the plurality of images, and the positional relationship of the processed image with respect to the selected image is tried.

(付記3)
記憶部に予め記憶されたカメラワークの複数のパターンのうち、特定できた前記位置関係と整合しないパターンを候補から除外することで、前記カメラワークを推定する付記1又は付記2記載の画像合成プログラム。
(Appendix 3)
The image composition program according to appendix 1 or appendix 2, wherein the camerawork is estimated by excluding a pattern that does not match the positional relationship that can be identified from a plurality of camerawork patterns stored in advance in a storage unit .

(付記4)
対象物が部分毎に撮影された複数の画像のうち、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、前記比較画像に写る前記対象物の部分に対する前記処理画像に写る前記対象物の部分の位置関係を特定し、
特定した前記処理画像の前記位置関係からカメラワークを推定し、
推定した前記カメラワークに基づき、前記位置関係が特定できなかった画像に写る前記対象物の部分の位置を決定して前記複数の画像を合成する
処理をコンピュータが実行する画像合成方法。
(Appendix 4)
The processing for the portion of the object that appears in the comparison image based on the image characteristics of the processed image and the comparison image in which the imaging order is continuous with the processed image among a plurality of images in which the object is captured for each portion. Identify the positional relationship of the part of the object in the image,
Camera work is estimated from the positional relationship of the identified processed image,
An image composition method in which a computer executes a process of determining a position of a portion of the object in an image for which the positional relationship could not be specified based on the estimated camera work and combining the plurality of images.

(付記5)
前記比較画像に対する前記位置関係が特定できなかった前記処理画像について、前記処理画像に写る前記対象物の部分に対し、画像に写る前記対象物の部分が、カメラワークの主撮影方向と交差する副撮影方向に隣接する位置関係にある可能性がある前記画像を前記複数の画像から選択し、前記選択した画像に対する前記処理画像の前記位置関係の特定を試行する付記4記載の画像合成方法。
(Appendix 5)
For the processed image in which the positional relationship with respect to the comparison image cannot be specified, the portion of the object that appears in the image intersects the main shooting direction of the camera work with respect to the portion of the object that appears in the processed image. The image composition method according to appendix 4, wherein the image that may be in a positional relationship adjacent to the imaging direction is selected from the plurality of images, and the positional relationship of the processed image with respect to the selected image is tried.

(付記6)
記憶部に予め記憶されたカメラワークの複数のパターンのうち、特定できた前記位置関係と整合しないパターンを候補から除外することで、前記カメラワークを推定する付記4又は付記5記載の画像合成方法。
(Appendix 6)
The image synthesizing method according to appendix 4 or appendix 5, wherein the camerawork is estimated by excluding, from candidates, a pattern that does not match the identified positional relationship among a plurality of camerawork patterns stored in advance in a storage unit .

(付記7)
対象物が部分毎に撮影された複数の画像のうち、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、前記比較画像に写る前記対象物の部分に対する前記処理画像に写る前記対象物の部分の位置関係を特定する特定部と、
特定した前記処理画像の前記位置関係からカメラワークを推定する推定部と、
推定した前記カメラワークに基づき、前記位置関係が特定できなかった画像に写る前記対象物の部分の位置を決定して前記複数の画像を合成する決定部と、
を含む画像合成装置。
(Appendix 7)
The processing for the portion of the object that appears in the comparison image based on the image characteristics of the processed image and the comparison image in which the imaging order is continuous with the processed image among a plurality of images in which the object is captured for each portion. A specifying unit for specifying a positional relationship of the part of the object in the image;
An estimation unit that estimates camera work from the positional relationship of the identified processed image;
Based on the estimated camera work, a determination unit that determines the position of the part of the object in the image for which the positional relationship could not be specified, and combines the plurality of images;
An image synthesizing apparatus.

(付記8)
前記特定部は、前記比較画像に対する前記位置関係が特定できなかった前記処理画像について、前記処理画像に写る前記対象物の部分に対し、画像に写る前記対象物の部分が、カメラワークの主撮影方向と交差する副撮影方向に隣接する位置関係にある可能性がある前記画像を前記複数の画像から選択し、前記選択した画像に対する前記処理画像の前記位置関係の特定を試行する付記7記載の画像合成装置。
(Appendix 8)
For the processed image in which the positional relationship with respect to the comparison image could not be specified, the specifying unit is configured such that the portion of the object that appears in the image is the main image of the camera work. The supplementary note 7 wherein the image that may be in a positional relationship adjacent to the sub-photographing direction intersecting the direction is selected from the plurality of images, and the positional relationship of the processed image with respect to the selected image is tried. Image composition device.

(付記9)
前記推定部は、記憶部に予め記憶されたカメラワークの複数のパターンのうち、特定できた前記位置関係と整合しないパターンを候補から除外することで、前記カメラワークを推定する付記7又は付記8記載の画像合成装置。
(Appendix 9)
The estimation unit estimates the camera work by excluding, from candidates, a pattern that does not match the identified positional relationship among a plurality of camera work patterns stored in advance in the storage unit. The image composition apparatus described.

10 画像合成装置
16 位置関係特定試行部
18 カメラワーク推定部
20 記憶部
24 位置関係決定部
26 画像合成部
30 対象物
32 作業者
34 撮影装置
50 コンピュータ
52 CPU
54 メモリ
56 記憶部
70 画像合成プログラム
DESCRIPTION OF SYMBOLS 10 Image composition apparatus 16 Positional relationship specific trial part 18 Camerawork estimation part 20 Storage part 24 Positional relationship determination part 26 Image composition part 30 Object 32 Operator 34 Imaging device 50 Computer 52 CPU
54 Memory 56 Storage 70 Image composition program

Claims (5)

対象物が部分毎に撮影された複数の画像のうち、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、前記比較画像に写る前記対象物の部分に対する前記処理画像に写る前記対象物の部分の位置関係を特定し、
特定した前記処理画像の前記位置関係からカメラワークを推定し、
推定した前記カメラワークに基づき、前記位置関係が特定できなかった画像に写る前記対象物の部分の位置を決定して前記複数の画像を合成する
処理をコンピュータに実行させる画像合成プログラム。
The processing for the portion of the object that appears in the comparison image based on the image characteristics of the processed image and the comparison image in which the imaging order is continuous with the processed image among a plurality of images in which the object is captured for each portion. Identify the positional relationship of the part of the object in the image,
Camera work is estimated from the positional relationship of the identified processed image,
An image composition program for causing a computer to execute a process of determining a position of a portion of the object in an image for which the positional relationship cannot be specified based on the estimated camera work and combining the plurality of images.
前記比較画像に対する前記位置関係が特定できなかった前記処理画像について、前記処理画像に写る前記対象物の部分に対し、画像に写る前記対象物の部分が、カメラワークの主撮影方向と交差する副撮影方向に隣接する位置関係にある可能性がある前記画像を前記複数の画像から選択し、前記選択した画像に対する前記処理画像の前記位置関係の特定を試行する請求項1記載の画像合成プログラム。   For the processed image in which the positional relationship with respect to the comparison image cannot be specified, the portion of the object that appears in the image intersects the main shooting direction of the camera work with respect to the portion of the object that appears in the processed image. The image synthesis program according to claim 1, wherein the image that may be in a positional relationship adjacent to a photographing direction is selected from the plurality of images, and the positional relationship of the processed image with respect to the selected image is tried. 記憶部に予め記憶されたカメラワークの複数のパターンのうち、特定できた前記位置関係と整合しないパターンを候補から除外することで、前記カメラワークを推定する請求項1又は請求項2記載の画像合成プログラム。   3. The image according to claim 1, wherein the camera work is estimated by excluding, from candidates, a pattern that does not match the identified positional relationship among a plurality of camera work patterns stored in advance in a storage unit. 4. Synthesis program. 対象物が部分毎に撮影された複数の画像のうち、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、前記比較画像に写る前記対象物の部分に対する前記処理画像に写る前記対象物の部分の位置関係を特定し、
特定した前記処理画像の前記位置関係からカメラワークを推定し、
推定した前記カメラワークに基づき、前記位置関係が特定できなかった画像に写る前記対象物の部分の位置を決定して前記複数の画像を合成する
処理をコンピュータが実行する画像合成方法。
The processing for the portion of the object that appears in the comparison image based on the image characteristics of the processed image and the comparison image in which the imaging order is continuous with the processed image among a plurality of images in which the object is captured for each portion. Identify the positional relationship of the part of the object in the image,
Camera work is estimated from the positional relationship of the identified processed image,
An image composition method in which a computer executes a process of determining a position of a portion of the object in an image for which the positional relationship could not be specified based on the estimated camera work and combining the plurality of images.
対象物が部分毎に撮影された複数の画像のうち、処理画像及び当該処理画像と撮影順序が連続する比較画像の各々の画像特徴に基づき、前記比較画像に写る前記対象物の部分に対する前記処理画像に写る前記対象物の部分の位置関係を特定する特定部と、
特定した前記処理画像の前記位置関係からカメラワークを推定する推定部と、
推定した前記カメラワークに基づき、前記位置関係が特定できなかった画像に写る前記対象物の部分の位置を決定して前記複数の画像を合成する決定部と、
を含む画像合成装置。
The processing for the portion of the object that appears in the comparison image based on the image characteristics of the processed image and the comparison image in which the imaging order is continuous with the processed image among a plurality of images in which the object is captured for each portion. A specifying unit for specifying a positional relationship of the part of the object in the image;
An estimation unit that estimates camera work from the positional relationship of the identified processed image;
Based on the estimated camera work, a determination unit that determines the position of the part of the object in the image for which the positional relationship could not be specified, and combines the plurality of images;
An image synthesizing apparatus.
JP2017069074A 2017-03-30 2017-03-30 Image composition programs, methods and equipment Active JP6863007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017069074A JP6863007B2 (en) 2017-03-30 2017-03-30 Image composition programs, methods and equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017069074A JP6863007B2 (en) 2017-03-30 2017-03-30 Image composition programs, methods and equipment

Publications (2)

Publication Number Publication Date
JP2018169967A true JP2018169967A (en) 2018-11-01
JP6863007B2 JP6863007B2 (en) 2021-04-21

Family

ID=64019211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017069074A Active JP6863007B2 (en) 2017-03-30 2017-03-30 Image composition programs, methods and equipment

Country Status (1)

Country Link
JP (1) JP6863007B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128519A (en) * 1995-10-26 1997-05-16 Sharp Corp Image compositing device
JP2011211260A (en) * 2010-03-26 2011-10-20 Fujifilm Corp Panoramic image pickup device and panoramic image synthesizing method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128519A (en) * 1995-10-26 1997-05-16 Sharp Corp Image compositing device
JP2011211260A (en) * 2010-03-26 2011-10-20 Fujifilm Corp Panoramic image pickup device and panoramic image synthesizing method thereof

Also Published As

Publication number Publication date
JP6863007B2 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
JP4887374B2 (en) A method for obtaining scattered parallax field in stereo vision
JP5263694B2 (en) Object position estimation information creation apparatus, object position estimation information creation method, and program
JP6702097B2 (en) Image processing program, image processing method, and image processing apparatus
CN106469455B (en) Image processing method, image processing apparatus, and recording medium
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP2005100407A (en) System and method for creating panorama image from two or more source images
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP2007334625A (en) Image processing method, program of image processing method, recording medium for recording program of image processing method, and image processing apparatus
JP2003006619A (en) Method and device for matching plurality of images
CN109313805A (en) Image processing apparatus, image processing system, image processing method and program
JP2011134012A (en) Image processor, image processing method for the same and program
JPWO2007074605A1 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
JP4496992B2 (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
JP5082856B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
JP2010165052A (en) Image processor and image processing method
JP6715217B2 (en) Video processing device, video processing method, and video processing program
KR101558573B1 (en) Method for compositing stereo camera images
JP2009123150A (en) Object detection apparatus and method, object detection system and program
JP5310402B2 (en) Image conversion parameter calculation apparatus, image conversion parameter calculation method, and program
JP6863007B2 (en) Image composition programs, methods and equipment
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
RU2647645C1 (en) Method of eliminating seams when creating panoramic images from video stream of frames in real-time
JP4321251B2 (en) Apparatus and method for generating and displaying composite image
RU2626551C1 (en) Method for generating panoramic images from video stream of frames in real time mode
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6863007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150