WO2018180551A1 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
WO2018180551A1
WO2018180551A1 PCT/JP2018/010278 JP2018010278W WO2018180551A1 WO 2018180551 A1 WO2018180551 A1 WO 2018180551A1 JP 2018010278 W JP2018010278 W JP 2018010278W WO 2018180551 A1 WO2018180551 A1 WO 2018180551A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
divided
unit
reduced
projective transformation
Prior art date
Application number
PCT/JP2018/010278
Other languages
French (fr)
Japanese (ja)
Inventor
與那覇 誠
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019509255A priority Critical patent/JP6779368B2/en
Publication of WO2018180551A1 publication Critical patent/WO2018180551A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Abstract

The present invention has a purpose of providing an image processing device, an image processing method and a program which can perform displaying, through which the presence of an imaging omission and the location of the imaging omission can be checked without a calculation cost in a short time. The image processing device (400) is provided with: an image input unit (401); a corresponding point information acquisition unit (403); a reference divided image specifying unit (405); a matrix calculation unit (407) which calculates a projection transformation matrix for a reference divided image; a first projection transformation unit (411) which performs projection transformation on contour location information, which indicates a contour of a divided image to be transformed, by means of the calculated projection transformation matrix; a synthesis information generation unit (413) which generates, on the basis of the projection-transformed contour location information, contour location information on a synthesized image in which the reference divided image and the divided image to be transformed after the projection transformation are synthesized; and a display unit (415).

Description

画像処理装置、画像処理方法、およびプログラムImage processing apparatus, image processing method, and program
 本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に分割撮影を行う場合に撮りこぼしの発生を抑制する技術に関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a technique for suppressing the occurrence of missing shots when performing divided shooting.
 従来より、一つの撮影対象物について分割撮影を行い分割画像を取得し、その取得した分割画像を合成して撮影対象の全体像が写った合成画像を取得する手法が知られている。 Conventionally, there has been known a technique of performing divided shooting on one shooting target object to acquire a divided image, and combining the acquired divided images to obtain a combined image in which an entire image of the shooting target is reflected.
 例えば、橋梁等の構造物の損傷の検出検査を行う場合には、格間単位に検査が行われることが多く、その場合格間の領域の床版を分割撮影して複数の分割画像が取得され、得られた分割画像により格間全体の床版が写った合成画像が生成される。 For example, when detecting and inspecting damage to structures such as bridges, inspection is often performed in units of gaps, and in that case, a plurality of divided images are obtained by dividing and photographing floor slabs in the area of the gap. Then, a composite image in which the floor slab of the entire space is reflected is generated by the obtained divided image.
 また例えば、特許文献1には、三次元計測用の画像を撮影する場合に、撮りこぼし(撮り漏れ)を防ぐことを意図した技術が記載されている。具体的には特許文献1には、測定対象物の撮影範囲を三次元空間に表現する撮影範囲画像の座標空間に、三次元座標が求められた各特徴点を書き込み、撮影範囲画像の座標空間に書き込まれた特徴点のうち、撮影領域を囲む3以上の特徴点を結線して撮影領域毎に区画し、撮影範囲画像をワイヤーフレーム画像として形成し、その撮影範囲画像において撮影不足領域が有るか否かを判定する技術が記載されている。 Also, for example, Patent Document 1 describes a technique intended to prevent spillage (shooting omission) when shooting an image for three-dimensional measurement. Specifically, in Patent Document 1, each feature point for which the three-dimensional coordinates are obtained is written in the coordinate space of the photographing range image that represents the photographing range of the measurement object in the three-dimensional space, and the coordinate space of the photographing range image is written. Among the feature points written in, three or more feature points surrounding the shooting area are connected and divided for each shooting area, and the shooting range image is formed as a wire frame image, and the shooting range image has an insufficient shooting area. Techniques for determining whether or not are described.
特開2010-256253号公報JP 2010-256253 A
 しかしながら、特許文献1に記載された技術では、撮影範囲画像を3次元座標において求められた特徴点に基づくワイヤーフレーム画像で生成しているために、撮影範囲画像を生成するための時間を要する。すなわち、三次元座標が求められた各特徴点が3次元座標空間に書き込まれ、その特徴点のうち撮影領域を囲む3以上の特徴点を結線してワイヤーフレーム画像を生成しているので、ワイヤーフレーム画像は多くの情報量を有する画像であり、ワイヤーフレーム画像を合成するための時間を要してしまう。 However, in the technique described in Patent Document 1, since a shooting range image is generated as a wire frame image based on feature points obtained in three-dimensional coordinates, it takes time to generate a shooting range image. That is, each feature point for which three-dimensional coordinates are obtained is written in a three-dimensional coordinate space, and a wire frame image is generated by connecting three or more feature points surrounding the imaging region among the feature points. A frame image is an image having a large amount of information, and it takes time to synthesize a wire frame image.
 また、例えば橋梁等の構造物の損傷の検出検査を行う場合には、上述したように格間の領域の床版を分割撮影して得られた分割画像により合成画像を生成するが、分割画像も多くの情報量を有する画像であるので、分割画像を合成して合成画像を生成する処理は時間を要してしまう。 For example, when performing a detection inspection for damage to a structure such as a bridge, a composite image is generated using a divided image obtained by dividing and shooting a floor slab in a space as described above. Since this is an image having a large amount of information, it takes time to generate a composite image by combining the divided images.
 ここで、短時間で撮りこぼしの確認を行うことができれば、点検(撮影)現場においても簡便に撮りこぼしの確認を行うことができ、点検現場から事務所に帰ってきて合成画像を生成した時に撮りこぼしを発見して再度点検現場に行かなければならないという事態の発生を抑制することができる。すなわち、短時間で撮りこぼしの確認を行うことができれば、点検作業を効率的に進めることができる。 Here, if you can confirm the spillage in a short time, you can easily check the spillover even at the inspection (shooting) site. When you return to the office from the inspection site and generate a composite image It is possible to suppress the occurrence of a situation where it is necessary to discover a spillage and go to the inspection site again. In other words, if it is possible to confirm the spillage in a short time, the inspection work can proceed efficiently.
 本発明はこのような事情に鑑みてなされたもので、その目的は、短時間で計算コストをかけずに、撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を行うことができる画像処理装置、画像処理方法、およびプログラムを提供することである。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a display capable of confirming the presence / absence of a spill and the position of the spill over in a short time without incurring calculation costs. An image processing apparatus, an image processing method, and a program are provided.
 上記目的を達成するために、本発明の一の態様である画像処理装置は、撮影対象が分割撮影されて得られた複数の分割画像が入力される画像入力部と、複数の分割画像間の対応点を探索して対応点に関する対応点情報を取得する対応点情報取得部と、複数の分割画像のうちの射影変換の基準となる基準分割画像を特定する基準分割画像特定部と、対応点情報および基準分割画像に基づいて、複数の分割画像のうち基準分割画像以外の被変換分割画像の基準分割画像に対する射影変換行列を算出する行列算出部と、算出された射影変換行列により、被変換分割画像の輪郭を示す輪郭位置情報を射影変換する第1の射影変換部と、射影変換された輪郭位置情報に基づいて、基準分割画像および射影変換された後の被変換分割画像を合成した場合の合成画像の輪郭位置情報を生成する合成情報生成部と、合成画像の輪郭位置情報に基づき、合成画像の輪郭を表示する表示部と、を備える。 In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes an image input unit to which a plurality of divided images obtained by subjecting an imaging target to division imaging are input, and a plurality of divided images. A corresponding point information acquisition unit that searches for corresponding points and acquires corresponding point information about the corresponding points, a reference divided image specifying unit that specifies a reference divided image that is a reference for projective transformation among a plurality of divided images, and corresponding points Based on the information and the reference divided image, a matrix calculation unit that calculates a projective transformation matrix for the reference divided image of the converted divided image other than the reference divided image among the plurality of divided images, and a converted projection matrix by the calculated projective transformation matrix When the first projective conversion unit that performs projective transformation on the contour position information indicating the contour of the divided image and the reference divided image and the converted divided image after the projective transformation are synthesized based on the projective transformed contour position information Comprising the synthesis information generation unit for generating a contour position information of the composite image, on the basis of the contour position information of the composite image, and a display unit for displaying the contour of the composite image.
 本態様によれば、第1の射影変換部により、算出された射影変換行列で、被変換分割画像の輪郭を示す輪郭位置情報が射影変換され、合成情報生成部により、射影変換された輪郭位置情報に基づいて、基準分割画像および射影変換された後の被変換分割画像を合成した場合の合成画像の輪郭位置情報が生成され、その合成画像の輪郭位置情報に基づき、合成画像の輪郭が表示される。すなわち本態様は、射影変換された分割画像の輪郭位置情報に基づく合成画像の輪郭を表示する。これにより本態様は、短時間で計算コストをかけずに撮りこぼしの有無および撮りこぼしの位置を確認することができる表示をユーザに提供することができる。 According to this aspect, the contour position information indicating the contour of the transformed divided image is projectively converted by the first projective transformation unit using the calculated projective transformation matrix, and the contour position subjected to the projective transformation by the synthesis information generating unit. Based on the information, the outline position information of the synthesized image when the reference divided image and the converted divided image after projective transformation are synthesized is generated, and the outline of the synthesized image is displayed based on the outline position information of the synthesized image. Is done. That is, this aspect displays the contour of the composite image based on the contour position information of the divided image that has undergone the projective transformation. Thereby, this aspect can provide a user with a display that can confirm the presence or absence of a spill and the position of the spill over in a short time without incurring calculation costs.
 好ましくは、画像処理装置は、射影変換行列に基づいて、一部の被変換分割画像を射影変換する第2の射影変換部を備え、表示部は、第2の射影変換部で変換された一部の被変換分割画像および基準分割画像のうち少なくとも一方を、合成画像の輪郭に表示する。 Preferably, the image processing apparatus includes a second projective conversion unit that performs projective conversion on a part of the converted divided images based on the projective conversion matrix, and the display unit is the one converted by the second projective conversion unit. At least one of the converted divided image and the reference divided image is displayed on the outline of the composite image.
 本態様によれば、第2の射影変換部により、射影変換行列に基づいて、一部の被変換分割画像が射影変換され、表示部により、第2の射影変換部で変換された一部の被変換分割画像および基準分割画像のうち少なくとも一方が、合成画像の輪郭に表示される。これにより本態様は合成画像の輪郭に合わせて一部の分割画像も表示部に表示されるので、より正確に撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を提供することができる。 According to this aspect, the second projective transform unit performs projective transformation on a part of the converted divided image based on the projective transformation matrix, and the display unit converts the partial projective image converted by the second projective transform unit. At least one of the converted divided image and the reference divided image is displayed on the contour of the synthesized image. Thus, according to the present aspect, since some of the divided images are also displayed on the display unit in accordance with the contour of the composite image, it is possible to provide a display that can more accurately confirm the presence / absence of the shooting and the position of the shooting failure. it can.
 好ましくは、第2の射影変換部は、合成画像の隅に対応する被変換分割画像を射影変換する。 Preferably, the second projective transformation unit performs projective transformation on the transformed divided image corresponding to the corner of the composite image.
 本態様によれば、第2の射影変換部により、合成画像の隅に対応する被変換分割画像を射影変換されて、合成画像の輪郭に合わせて分割画像も表示部に表示されるので、ユーザはより正確に撮りこぼしの有無および撮りこぼしの位置を確認することができる。 According to this aspect, the second projective conversion unit performs projective conversion on the converted divided image corresponding to the corner of the synthesized image, and the divided image is also displayed on the display unit according to the outline of the synthesized image. Can more accurately confirm the presence / absence of a spill and the position of the spill.
 好ましくは、第2の射影変換部は、合成画像の4隅に対応する被変換分割画像を射影変換する。 Preferably, the second projective transformation unit performs projective transformation on the transformed divided image corresponding to the four corners of the composite image.
 本態様によれば、第2の射影変換部により、合成画像の4隅に対応する被変換分割画像が射影変換されて、合成画像の輪郭に合わせて分割画像も表示部に表示されるので、より正確に撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を提供することができる。 According to this aspect, the second projective conversion unit performs projective conversion on the converted divided image corresponding to the four corners of the composite image, and the split image is also displayed on the display unit in accordance with the contour of the composite image. It is possible to provide a display that can more accurately confirm the presence / absence of a shooting failure and the position of the shooting failure.
 好ましくは、第2の射影変換部は、合成画像の辺に対応する被変換分割画像を射影変換する。 Preferably, the second projective transformation unit performs projective transformation on the transformed divided image corresponding to the side of the composite image.
 本態様によれば、第2の射影変換部により、合成画像の辺に対応する被変換分割画像が射影変換されて、合成画像の輪郭に合わせて分割画像も表示部に表示されるので、より正確に撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を提供することができる。 According to this aspect, the second projective conversion unit performs projective conversion on the converted divided image corresponding to the side of the combined image, and the divided image is also displayed on the display unit according to the outline of the combined image. It is possible to provide a display capable of accurately confirming the presence / absence of a spill and the position of the spill.
 好ましくは、第2の射影変換部は、合成画像の4辺に対応する被変換分割画像を射影変換する。 Preferably, the second projective transformation unit performs projective transformation on the transformed divided image corresponding to the four sides of the composite image.
 本態様によれば、第2の射影変換部により、合成画像の4辺に対応する被変換分割画像が射影変換されて、合成画像の輪郭に合わせて分割画像も表示部に表示されるので、より正確に撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を提供することができる。 According to this aspect, the second projective conversion unit performs projective conversion on the converted divided image corresponding to the four sides of the composite image, and the split image is also displayed on the display unit in accordance with the contour of the composite image. It is possible to provide a display that can more accurately confirm the presence / absence of a shooting failure and the position of the shooting failure.
 好ましくは、画像処理装置は、表示部に表示された合成画像の輪郭における位置の指定を受け付ける第1の指定受付部を備え、第2の射影変換部は、第1の指定受付部で受け付けられた位置に対応する被変換分割画像を射影変換する。 Preferably, the image processing apparatus includes a first designation receiving unit that receives a designation of a position in the contour of the composite image displayed on the display unit, and the second projective conversion unit is received by the first designation receiving unit. Projective transformation is performed on the transformed divided image corresponding to the selected position.
 本態様によれば、第1の指定受付部により、表示部に表示された合成画像の輪郭における位置の指定が受け付けられて、第2の射影変換部により、第1の指定受付部で受け付けられた位置に対応する被変換分割画像が射影変換される。そして、本態様では第1の指定受付部で受け付けられた位置に対応する分割画像が合成画像の輪郭に合わせて表示部に表示される。これにより本態様は、より正確に撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を提供することができる。 According to this aspect, the first designation accepting unit accepts designation of the position in the outline of the composite image displayed on the display unit, and the second projective transformation unit accepts the first designation accepting unit. The transformed divided image corresponding to the selected position is projectively transformed. In this aspect, the divided image corresponding to the position received by the first designation receiving unit is displayed on the display unit in accordance with the contour of the synthesized image. Thereby, this aspect can provide the display which can confirm the presence or absence of a shooting spill and the position of a shooting spill more accurately.
 好ましくは、画像処理装置は、画像入力部に入力された分割画像の解像度を下げた縮小画像を生成する縮小画像生成部と、射影変換行列に基づいて、一部の縮小画像を射影変換する第3の射影変換部とを備え、表示部は、第3の射影変換部で変換された一部の縮小画像を、合成画像の輪郭に表示する。 Preferably, the image processing apparatus performs projective conversion on a part of the reduced images based on the reduced image generation unit that generates a reduced image with a reduced resolution of the divided image input to the image input unit and the projective transformation matrix. 3 projection conversion units, and the display unit displays a part of the reduced image converted by the third projection conversion unit on the outline of the composite image.
 本態様によれば、縮小画像生成部により、画像入力部に入力された分割画像の解像度を下げた縮小画像が生成され、第3の射影変換部により、射影変換行列に基づいて、縮小画像が射影変換される。これにより本態様は、縮小画像の情報量は分割画像よりも少ないため縮小画像の射影変換は分割画像の射影変換よりも短時間に行うことができ、より高速に撮りこぼしの有無および撮りこぼしの位置の確認をできる表示をユーザに提供することができる。 According to this aspect, the reduced image generation unit generates a reduced image in which the resolution of the divided image input to the image input unit is reduced, and the third projective conversion unit generates a reduced image based on the projective transformation matrix. Projective transformation is performed. As a result, since the amount of information of the reduced image is smaller than that of the divided image, the projection conversion of the reduced image can be performed in a shorter time than the projection conversion of the divided image. A display capable of confirming the position can be provided to the user.
 好ましくは、画像処理装置は、画像入力部に入力された分割画像の解像度を下げた縮小画像を生成する縮小画像生成部と、射影変換行列に基づいて、縮小画像を射影変換する第3の射影変換部と、表示部に表示された縮小画像の指定を受け付ける第2の指定受付部と、を備え、表示部は、第2の指定受付部で指定された縮小画像を、縮小画像に対応する、第2の射影変換部で射影変換された被変換分割画像または基準分割画像に切り替える。 Preferably, the image processing apparatus includes a reduced image generation unit that generates a reduced image with a reduced resolution of the divided image input to the image input unit, and a third projection that performs projective conversion on the reduced image based on the projection conversion matrix. A conversion unit, and a second designation receiving unit that receives designation of the reduced image displayed on the display unit, and the display unit corresponds to the reduced image designated by the second designation receiving unit as the reduced image. Then, the image is switched to the converted divided image or the reference divided image that has undergone projective conversion by the second projective conversion unit.
 本態様によれば、縮小画像生成部により、画像入力部に入力された分割画像の解像度を下げた縮小画像が生成され、第3の射影変換部により、射影変換行列に基づいて、縮小画像が射影変換され、第2の指定受付部により、表示部に表示された縮小画像の指定が受け付けられて、縮小画像に対応する分割画像が表示される。これにより本態様は、縮小画像の表示では撮りこぼしの有無または撮りこぼしの位置が分かりにくいような場合に、指定された箇所が分割画像に表示されるので、より正確に撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を提供することができる。 According to this aspect, the reduced image generation unit generates a reduced image in which the resolution of the divided image input to the image input unit is reduced, and the third projective conversion unit generates a reduced image based on the projective transformation matrix. Projection conversion is performed, and the second designation accepting unit accepts designation of a reduced image displayed on the display unit, and a divided image corresponding to the reduced image is displayed. As a result, this mode can display the specified location in the divided image when the presence or absence of the shot or the position of the shot is not easily understood in the reduced image display. A display that can confirm the position of the spill can be provided.
 好ましくは、基準分割画像特定部は、基準分割画像の指定、または基準分割画像となる分割画像の入力順序に関する情報に基づいて、基準分割画像を特定する。 Preferably, the reference divided image specifying unit specifies the reference divided image based on designation of the reference divided image or information on the input order of the divided images to be the reference divided image.
 本態様によれば、基準分割画像の指定、または基準分割画像となる分割画像の入力順序に関する情報に基づいて基準分割画像が特定されるので、基準分割画像として相応しい基準分割画像が特定され、より適切な合成画像の輪郭位置情報を取得することができる。 According to this aspect, since the reference divided image is specified based on the designation of the reference divided image or the information related to the input order of the divided images to be the reference divided image, the reference divided image suitable as the reference divided image is specified. Appropriate composite image contour position information can be acquired.
 本発明の他の態様である画像処理装置は、撮影対象が分割撮影されて得られた複数の分割画像が入力される画像入力部と、画像入力部に入力された分割画像の解像度を下げた縮小画像を生成する縮小画像生成部と、縮小画像間の対応点を探索して対応点に関する対応点情報を取得する対応点情報取得部と、複数の縮小画像のうちの射影変換の基準となる基準縮小画像を特定する基準縮小画像特定部と、対応点情報および基準縮小画像に基づいて、複数の縮小画像のうち基準縮小画像以外の被変換縮小画像の基準縮小画像に対する射影変換行列を算出する行列算出部と、算出された射影変換行列により、被変換縮小画像の輪郭を示す輪郭位置情報を射影変換する第3の射影変換部と、射影変換された輪郭位置情報に基づいて、基準縮小画像および射影変換された後の被変換縮小画像を合成した場合の合成画像の輪郭位置情報を生成する合成情報生成部と、合成画像の輪郭位置情報に基づき、合成画像の輪郭を表示する表示部と、を備える。 An image processing apparatus according to another aspect of the present invention reduces the resolution of an image input unit to which a plurality of divided images obtained by dividing and shooting an imaging target are input, and the divided image input to the image input unit. A reduced image generation unit that generates reduced images, a corresponding point information acquisition unit that searches for corresponding points between the reduced images and acquires corresponding point information about the corresponding points, and is a reference for projective transformation among a plurality of reduced images Based on the reference reduced image specifying unit for specifying the reference reduced image, the corresponding point information, and the reference reduced image, a projection transformation matrix for the reference reduced image of the converted reduced image other than the reference reduced image among the plurality of reduced images is calculated. Based on the matrix calculation unit, the third projective transformation unit that performs projective transformation on the contour position information indicating the contour of the transformed reduced image by the calculated projective transformation matrix, and the reference reduced image based on the projective transformed contour position information Oh A composite information generating unit that generates contour position information of the composite image when the converted reduced image after projective conversion is combined, and a display unit that displays the contour of the composite image based on the contour position information of the composite image; .
 本態様によれば、第1の射影変換部により、算出された射影変換行列で、被変換縮小画像の輪郭を示す輪郭位置情報が射影変換され、合成情報生成部により、射影変換された輪郭位置情報に基づいて、基準縮小画像および射影変換された後の被変換縮小画像を合成した場合の合成画像の輪郭位置情報が生成され、その合成画像の輪郭位置情報に基づき、合成画像の輪郭が表示される。すなわち本態様は、射影変換された縮小画像の輪郭位置情報に基づく合成画像の輪郭を表示する。これにより本態様は、短時間で計算コストをかけずに撮りこぼしの有無および撮りこぼしの位置を確認することができる表示をユーザに提供することができる。 According to this aspect, the contour position information indicating the contour of the converted reduced image is projectively converted by the first projective transformation unit using the calculated projective transformation matrix, and the contour position subjected to the projective transformation by the composite information generating unit. Based on the information, the outline position information of the synthesized image when the reference reduced image and the converted reduced image after projective transformation are synthesized is generated, and the outline of the synthesized image is displayed based on the outline position information of the synthesized image. Is done. That is, this aspect displays the contour of the composite image based on the contour position information of the reduced image subjected to the projective transformation. Thereby, this aspect can provide a user with a display that can confirm the presence or absence of a spill and the position of the spill over in a short time without incurring calculation costs.
 本発明の他の態様である画像処理方法は、撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、複数の分割画像間の対応点を探索して対応点に関する対応点情報を取得するステップと、複数の分割画像のうちの射影変換の基準となる基準分割画像を特定するステップと、対応点情報および基準分割画像に基づいて、複数の分割画像のうち基準分割画像以外の被変換分割画像の基準分割画像に対する射影変換行列を算出するステップと、算出された射影変換行列により、被変換分割画像の輪郭を示す輪郭位置情報を射影変換するステップと、射影変換された輪郭位置情報に基づいて、基準分割画像および射影変換された後の被変換分割画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、合成画像の輪郭位置情報に基づき、合成画像の輪郭を表示するステップと、を含む。 According to another aspect of the present invention, there is provided an image processing method including a step of inputting a plurality of divided images obtained by subjecting a subject to a divided photographing, and searching for corresponding points between the plurality of divided images, A step of acquiring point information, a step of identifying a reference divided image serving as a reference for projective transformation among the plurality of divided images, and a reference divided image of the plurality of divided images based on the corresponding point information and the reference divided image A step of calculating a projective transformation matrix with respect to a reference divided image of a non-converted divided image, a step of performing projective transformation of contour position information indicating an outline of the converted divided image by the calculated projective transformation matrix, and a projective transformation Based on the contour position information, a step of generating the contour position information of the synthesized image when the reference divided image and the transformed divided image after the projective transformation are synthesized; Based on Guo position information, and displaying the contour of the composite image.
 本発明の他の態様である画像処理方法は、撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、分割画像の解像度を下げた縮小画像を生成するステップと、縮小画像間の対応点を探索して対応点に関する対応点情報を取得するステップと、複数の縮小画像のうちの射影変換の基準となる基準縮小画像を特定するステップと、対応点情報および基準縮小画像に基づいて、複数の縮小画像のうち基準縮小画像以外の被変換縮小画像の基準縮小画像に対する射影変換行列を算出するステップと、算出された射影変換行列により、被変換縮小画像の輪郭を示す輪郭位置情報を射影変換するステップと、射影変換された輪郭位置情報に基づいて、基準縮小画像および射影変換された後の被変換縮小画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、合成画像の輪郭位置情報に基づき、合成画像の輪郭を表示するステップと、を含む。 An image processing method according to another aspect of the present invention includes a step of inputting a plurality of divided images obtained by dividing and photographing an object to be imaged, a step of generating a reduced image with a reduced resolution of the divided image, and a reduction Searching for corresponding points between images to obtain corresponding point information about the corresponding points; identifying a reference reduced image as a reference for projective transformation among a plurality of reduced images; corresponding point information and reference reduced image Based on the above, a step of calculating a projection transformation matrix for a reference reduced image of a converted reduced image other than the reference reduced image among a plurality of reduced images, and a contour indicating an outline of the converted reduced image by the calculated projective transformation matrix A step of projective conversion of position information, and a composite image obtained by combining the reference reduced image and the converted reduced image after the projective conversion based on the contour position information subjected to the projective conversion. Comprising the steps of generating a contour position information, based on the contour position information of the composite image, and displaying the contour of the composite image.
 本発明の他の態様であるプログラムは、撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、複数の分割画像間の対応点を探索して対応点に関する対応点情報を取得するステップと、複数の分割画像のうちの射影変換の基準となる基準分割画像を特定するステップと、対応点情報および基準分割画像に基づいて、複数の分割画像のうち基準分割画像以外の被変換分割画像の基準分割画像に対する射影変換行列を算出するステップと、算出された射影変換行列により、被変換分割画像の輪郭を示す輪郭位置情報を射影変換するステップと、射影変換された輪郭位置情報に基づいて、基準分割画像および射影変換された後の被変換分割画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、合成画像の輪郭位置情報に基づき、合成画像の輪郭を表示するステップと、を含む工程をコンピュータに実行させる。 The program according to another aspect of the present invention includes a step in which a plurality of divided images obtained by subjecting a subject to division photographing are input, and corresponding point information on the corresponding points by searching for corresponding points between the plurality of divided images. Obtaining a reference divided image serving as a reference for projective transformation among the plurality of divided images, and other than the reference divided image among the plurality of divided images based on the corresponding point information and the reference divided image A step of calculating a projective transformation matrix of the converted divided image with respect to a reference divided image, a step of performing projective transformation of contour position information indicating a contour of the converted divided image by the calculated projective transformation matrix, and a contour position subjected to the projective transformation Generating the contour position information of the composite image when combining the reference divided image and the converted divided image after the projective transformation based on the information; Based on the position information, to execute a step of displaying the contour of the composite image, the process including the computer.
 本発明の他の態様であるプログラムは、撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、分割画像の解像度を下げた縮小画像を生成するステップと、縮小画像間の対応点を探索して対応点に関する対応点情報を取得するステップと、複数の縮小画像のうちの射影変換の基準となる基準縮小画像を特定するステップと、対応点情報および基準縮小画像に基づいて、複数の縮小画像のうち基準縮小画像以外の被変換縮小画像の基準縮小画像に対する射影変換行列を算出するステップと、算出された射影変換行列により、被変換縮小画像の輪郭を示す輪郭位置情報を射影変換するステップと、射影変換された輪郭位置情報に基づいて、基準縮小画像および射影変換された後の被変換縮小画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、合成画像の輪郭位置情報に基づき、合成画像の輪郭を表示するステップと、を含む工程をコンピュータに実行させる。 The program according to another aspect of the present invention includes a step of inputting a plurality of divided images obtained by subjecting a subject to division photographing, a step of generating a reduced image with a reduced resolution of the divided images, and a reduction image between A step of searching corresponding points and acquiring corresponding point information on the corresponding points, a step of identifying a reference reduced image as a reference for projective transformation among a plurality of reduced images, and the corresponding point information and the reference reduced image Calculating a projection transformation matrix for the reference reduced image of the converted reduced image other than the reference reduced image among the plurality of reduced images, and contour position information indicating an outline of the reduced reduced image by the calculated projection transformation matrix And a combined image obtained by combining the reference reduced image and the converted reduced image after the projective transformation based on the projective transformed contour position information. Generating a contour position information, based on the contour position information of the composite image, and executes a step of displaying the contour of the composite image, the process including the computer.
 本発明によれば、第1の射影変換部により、算出された射影変換行列で、被変換分割画像の輪郭を示す輪郭位置情報が射影変換され、合成情報生成部により、射影変換された輪郭位置情報に基づいて、基準分割画像および射影変換された後の被変換分割画像を合成した場合の合成画像の輪郭位置情報が生成され、その合成画像の輪郭位置情報に基づき、合成画像の輪郭が表示されるので、短時間で計算コストをかけずに撮りこぼしの有無および撮りこぼしの位置を確認することができる表示をユーザに提供することができる。 According to the present invention, the contour position information indicating the contour of the converted divided image is projectively converted by the first projective transformation unit using the calculated projective transformation matrix, and the contour position subjected to the projective transformation by the synthesis information generating unit. Based on the information, the outline position information of the synthesized image when the reference divided image and the converted divided image after projective transformation are synthesized is generated, and the outline of the synthesized image is displayed based on the outline position information of the synthesized image. As a result, it is possible to provide the user with a display that allows the user to confirm the presence / absence of shooting and the position of shooting failure without incurring calculation costs in a short time.
橋梁の構造を示す斜視図である。It is a perspective view which shows the structure of a bridge. 撮影システムを示す概念図である。It is a conceptual diagram which shows an imaging | photography system. 移動体の撮影位置を概念的に示した図である。It is the figure which showed notionally the photography position of a mobile. コンピュータのシステム構成例を示すブロック図である。It is a block diagram which shows the system configuration example of a computer. 撮りこぼしが発生している合成画像を示す図である。It is a figure which shows the synthetic | combination image in which the spilling has occurred. 撮りこぼしが発生している合成画像を示す図である。It is a figure which shows the synthetic | combination image in which the spilling has occurred. 画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of an image processing apparatus. 輪郭位置情報の射影変換について説明する図である。It is a figure explaining the projective transformation of outline position information. 合成画像の輪郭を示す図である。It is a figure which shows the outline of a synthesized image. 合成画像の輪郭を示す図である。It is a figure which shows the outline of a synthesized image. 画像処理装置の動作を示すフロー図である。It is a flowchart which shows operation | movement of an image processing apparatus. 合成画像を示す図である。It is a figure which shows a synthesized image. 合成画像の輪郭を示す図である。It is a figure which shows the outline of a synthesized image. 画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of an image processing apparatus. 合成画像の輪郭を示す図である。It is a figure which shows the outline of a synthesized image. 画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of an image processing apparatus. 画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of an image processing apparatus. 画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of an image processing apparatus.
 以下、添付図面にしたがって本発明にかかる画像処理装置、画像処理方法、およびプログラムの好ましい実施の形態について説明する。 Hereinafter, preferred embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be described with reference to the accompanying drawings.
 図1は、撮影対象物である構造物の一つである橋梁の構造を示す斜視図であり、橋梁を下から見た斜視図である。本発明における撮影対象物は、特に限定されるものではないが、例えば、構造物の損傷の検出検査を行う場合に使用される撮影画像を合成する場合に本発明が適用される。具体的には格間単位で床版6(図1)の損傷検出検査を行う場合に、格間502(図5)の領域の床版6を分割撮影し、その分割撮影された撮影画像を合成する場合に本発明が適用される。 FIG. 1 is a perspective view showing the structure of a bridge, which is one of the structures to be photographed, and is a perspective view of the bridge as viewed from below. The object to be imaged in the present invention is not particularly limited. For example, the present invention is applied to the case of synthesizing a photographed image that is used when a detection inspection for damage to a structure is performed. Specifically, when the damage detection inspection of the floor slab 6 (FIG. 1) is performed in units of spaces, the floor slab 6 in the area of the space 502 (FIG. 5) is divided and the captured images obtained by the division are displayed. The present invention is applied when synthesizing.
 図1に示す橋梁1は、主桁2と、横桁3と、対傾構4と、横構5とを有し、これらがボルト、リベットまたは溶接により連結されて構成されている。また、主桁2等の上部には、車輌等が走行するための床版6が打設されている。床版6は、鉄筋コンクリート製のものが一般的である。 The bridge 1 shown in FIG. 1 has a main girder 2, a cross girder 3, a counter-tilt 4 and a horizontal 5 which are connected by bolts, rivets or welding. In addition, a floor slab 6 for driving a vehicle or the like is provided on the upper portion of the main beam 2 or the like. The floor slab 6 is generally made of reinforced concrete.
 主桁2は、橋台または橋脚の間に渡され、床版6上の車輌等の荷重を支える部材である。横桁3は、荷重を複数の主桁2で支持するため、主桁2を連結する部材である。対傾構4および横構5は、それぞれ風および地震の横荷重に抵抗するため、主桁2を相互に連結する部材である。 The main girder 2 is a member that is passed between the abutment or the pier and supports the load of the vehicle on the floor slab 6. The cross beam 3 is a member that connects the main beams 2 in order to support the load by the plurality of main beams 2. The anti-tilt frame 4 and the horizontal frame 5 are members for connecting the main girders 2 to each other in order to resist lateral loads of wind and earthquake, respectively.
 図2は、床版6を分割撮影することにより分割画像を取得する撮影システムを示す概念図である。 FIG. 2 is a conceptual diagram showing a photographing system that obtains divided images by separately photographing the floor slab 6.
 撮影システム500は、移動体100とコンピュータ300とで構成されている。すなわち撮影システム500において、移動体100で取得された分割画像はコンピュータ300に送信され、コンピュータ300には画像処理装置400(図7)が備えられている。 The imaging system 500 includes a moving body 100 and a computer 300. That is, in the photographing system 500, the divided images acquired by the moving body 100 are transmitted to the computer 300, and the computer 300 is provided with the image processing device 400 (FIG. 7).
 移動体100は、カメラ101を備えており、コンピュータ300の制御により移動およびカメラ101による撮影を行う。移動体100は、コンピュータ300の制御により移動および撮影を行えるものであれば特に限定されるものではない。例えば移動体100は、走行型ロボット、小型のヘリコプター、マルチコプター、ドローンまたはUAV(Unmanned Aerial Vehicles、無人航空機)と呼ばれる装置があげられる。 The moving body 100 includes a camera 101 and moves and takes an image with the camera 101 under the control of the computer 300. The moving body 100 is not particularly limited as long as it can move and shoot under the control of the computer 300. For example, the moving body 100 includes a device called a traveling robot, a small helicopter, a multicopter, a drone, or UAV (Unmanned Aerial Vehicles).
 コンピュータ300および移動体100は相互に通信可能であり、コンピュータ300は、移動体100の移動の制御およびカメラ101での撮影制御を遠隔で行うことができる。また、移動体100が撮影した撮影画像は、コンピュータ300の表示部326(図4)と入力部328(図4)とを兼ねたタッチパネルディスプレイ302に表示される。 The computer 300 and the mobile unit 100 can communicate with each other, and the computer 300 can remotely control the movement of the mobile unit 100 and the imaging control by the camera 101. The captured image captured by the moving body 100 is displayed on the touch panel display 302 that also serves as the display unit 326 (FIG. 4) and the input unit 328 (FIG. 4) of the computer 300.
 図3は、移動体100の撮影位置を概念的に示した図である。なお、図3は図1においてX軸方向から床版6を見た概念的な図である。またカメラ101は、図2で示したように移動体100に備えられ、移動体100の移動によって移動させられる。なお、図3では移動体100は省略されている。また床版6上には車輌10が走行し、床版6の下方からの撮影画像を取得して床版6の損傷の検出検査が行われる。 FIG. 3 is a diagram conceptually showing the shooting position of the moving body 100. FIG. 3 is a conceptual diagram of the floor slab 6 viewed from the X-axis direction in FIG. The camera 101 is provided in the moving body 100 as shown in FIG. 2 and is moved by the movement of the moving body 100. In addition, the mobile body 100 is abbreviate | omitted in FIG. Further, the vehicle 10 travels on the floor slab 6, and a photographed image from below the floor slab 6 is acquired and a detection inspection for damage to the floor slab 6 is performed.
 移動体100は、コンピュータ300の制御により各撮影位置に移動させられ、撮影を行って撮影画像を取得する。床版6の格間単位で検査が行われる場合には、分割撮影により床版6の分割画像が取得される。 The moving body 100 is moved to each shooting position under the control of the computer 300 and performs shooting to acquire a shot image. When the inspection is performed in units of spaces of the floor slab 6, a divided image of the floor slab 6 is acquired by divided photographing.
 図4は、コンピュータ300のシステム構成例を示すブロック図である。 FIG. 4 is a block diagram illustrating a system configuration example of the computer 300.
 図4に示すように、コンピュータ300は、コンピュータ300の全体の動作を制御するCPU(Central Processing Unit)310を備え、このCPU310にシステムバス312を介して、メインメモリ314、不揮発性メモリ316、モバイル通信部318、無線LAN通信部320、近距離無線通信部322、有線通信部324、表示部326、入力部328、キー入力部330、音声処理部332、画像処理部334等が接続されて構成される。 As shown in FIG. 4, a computer 300 includes a CPU (Central Processing Unit) 310 that controls the overall operation of the computer 300. The CPU 310 is connected to a main memory 314, a nonvolatile memory 316, a mobile device via a system bus 312. A communication unit 318, a wireless LAN communication unit 320, a short-range wireless communication unit 322, a wired communication unit 324, a display unit 326, an input unit 328, a key input unit 330, an audio processing unit 332, an image processing unit 334, and the like are connected. Is done.
 CPU310は、不揮発性メモリ316に記憶された動作プログラム(OS(Operating System)、および、そのOS上で動作するアプリケーションプログラム)、および、定型データ等を読み出し、メインメモリ314に展開して、当動作プログラムを実行することにより、このコンピュータ全体の動作を制御する制御部として機能する。 The CPU 310 reads out an operation program (OS (Operating System) and application program that operates on the OS), standard data, and the like stored in the non-volatile memory 316, expands them in the main memory 314, and performs this operation. By executing the program, it functions as a control unit that controls the operation of the entire computer.
 メインメモリ314は、たとえば、RAM(Random Access Memory)で構成され、CPU310のワークメモリとして機能する。 The main memory 314 is composed of, for example, a RAM (Random Access Memory) and functions as a work memory for the CPU 310.
 不揮発性メモリ316は、たとえば、フラッシュEEPROM(EEPROM:Electrically Erasable Programmable Read Only Memory)で構成され、上述した動作プログラムや各種定型データを記憶する。また、不揮発性メモリ316は、コンピュータ300の記憶部として機能し、各種データを記憶する。 The non-volatile memory 316 is composed of, for example, a flash EEPROM (EEPROM: Electrically Erasable Programmable Read Only Memory), and stores the above-described operation program and various fixed data. The nonvolatile memory 316 functions as a storage unit of the computer 300 and stores various data.
 モバイル通信部318は、IMT-2000規格(International Mobile Telecommunication-2000)に準拠した第3世代移動通信システム、および、IMT-Advance規格(International Mobile Telecommunications-Advanced)に準拠した第4世代移動通信システムに基づき、アンテナ318Aを介して、最寄りの図示しない基地局との間でデータの送受を実行する。 The mobile communication unit 318 is a third-generation mobile communication system compliant with the IMT-2000 standard (International Mobile Telecommunication-2000) and a fourth-generation mobile communication system compliant with the IMT-Advanced standard (International Mobile Telecommunications-Advanced). Based on this, data is transmitted / received to / from the nearest base station (not shown) via the antenna 318A.
 無線LAN通信部320は、アンテナ320Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の無線LAN通信規格(たとえば、例えばIEEE802.11a/b/g/n規格)に従った無線LAN通信を行う。 The wireless LAN communication unit 320 uses a predetermined wireless LAN communication standard (for example, IEEE802.11a / b / g / n standard) between the wireless LAN access point and an external device capable of wireless LAN communication via the antenna 320A. ) To perform wireless LAN communication.
 近距離無線通信部322は、アンテナ322Aを介して、たとえばクラス2(半径約10m内)の範囲内にある他のBluetooth(登録商標)規格の機器とデータの送受を実行する。 The short-range wireless communication unit 322 transmits / receives data to / from other Bluetooth (registered trademark) equipment within the range of, for example, class 2 (within a radius of about 10 m) via the antenna 322A.
 有線通信部324は、外部接続端子306を介してケーブルで接続された外部機器との間で所定の通信規格に従った通信を行う。たとえば、USB(Universal Serial Bus)通信を行う。 The wired communication unit 324 performs communication according to a predetermined communication standard with an external device connected by a cable via the external connection terminal 306. For example, USB (Universal Serial Bus) communication is performed.
 表示部326は、タッチパネルディスプレイ302のディスプレイ部分を構成するカラーLCD(liquid crystal display)パネルと、その駆動回路と、で構成され、各種画像を表示する。 The display unit 326 includes a color LCD (liquid crystal display) panel that constitutes a display portion of the touch panel display 302 and a driving circuit thereof, and displays various images.
 入力部328は、タッチパネルディスプレイ302のタッチパネル部分を構成する。入力部328は、透明電極を用いてカラーLCDパネルと一体的に構成される。 The input unit 328 constitutes a touch panel portion of the touch panel display 302. The input unit 328 is configured integrally with the color LCD panel using a transparent electrode.
 キー入力部330は、コンピュータ300の筐体に備えられた複数の操作ボタンと、その駆動回路と、で構成される。 The key input unit 330 includes a plurality of operation buttons provided on the casing of the computer 300 and a drive circuit thereof.
 音声処理部332は、システムバス312を介して与えられるデジタル音声データをアナログ化してスピーカー304から出力する。 The audio processing unit 332 converts the digital audio data provided via the system bus 312 into an analog signal and outputs it from the speaker 304.
 画像処理部334は、撮影レンズおよびイメージセンサーを備えた内蔵カメラ305から出力されるアナログの画像信号をデジタル化し、所要の信号処理を施して出力する。 The image processing unit 334 digitizes an analog image signal output from the built-in camera 305 including a photographing lens and an image sensor, performs necessary signal processing, and outputs it.
 次に、撮りこぼしの例に関して説明する。特に以下で説明する例は、床版6の損傷検出検査を格間単位で行う場合に発生しうる撮りこぼしの例である。 Next, an example of shooting spills will be described. In particular, the example described below is an example of spilling that may occur when the damage detection inspection of the floor slab 6 is performed in units of spaces.
 図5はタイプ1の撮りこぼしが発生している合成画像501を示す図であり、図6はタイプ2の撮りこぼしが発生している合成画像501を示す図である。なお、図5および図6に示された合成画像501は、床版6を分割撮影して得られた複数の分割画像を射影変換して合成したものである。すなわち床版6を撮影した分割画像は、射影変換されて合成され、合成画像501を形成している。 FIG. 5 is a diagram showing a composite image 501 in which type 1 shooting has been missed, and FIG. 6 is a diagram showing a composite image 501 in which type 2 shooting has been missed. The composite image 501 shown in FIGS. 5 and 6 is obtained by projecting and combining a plurality of divided images obtained by dividing and photographing the floor slab 6. That is, the divided images obtained by photographing the floor slab 6 are projected and combined to form a composite image 501.
 図5に示された合成画像501では、撮りこぼし503が発生している。すなわち本来、合成画像501には格間502の領域の床版6が漏れなく写っているはずであるが、撮りこぼし503の箇所は、床版6に対応する画像が無い。分割画像を合成する場合には、合成される各画像において糊代を設けて、糊代の領域において合成される。したがって、糊代の領域の見積もりを含めて分割画像を撮影する必要があるが、見積もりが誤りであった場合には、例えば撮りこぼし503が発生してしまう。 In the composite image 501 shown in FIG. That is, the floor slab 6 in the area 502 is supposed to be captured without omission in the composite image 501, but there is no image corresponding to the floor slab 6 at the location of the spilled 503. When combining divided images, a margin is provided for each image to be combined, and the images are combined in the margin area. Therefore, it is necessary to take a divided image including an estimate of the margin area. However, if the estimate is incorrect, for example, a shooting spill 503 occurs.
 図6に示された合成画像501では、撮りこぼし507が発生している。すなわち本来、合成画像501には格間502の領域の床版6が漏れなく写っているはずであるが、撮りこぼし507の箇所は、床版6に対応する画像が無い。撮りこぼし507は、いわゆる中抜けであり、合成画像501は中抜けを有する画像となってしまっている。 In the composite image 501 shown in FIG. That is, the floor slab 6 in the area 502 is supposed to be captured without omission in the composite image 501, but there is no image corresponding to the floor slab 6 at the location of the shot spill 507. The shooting spill 507 is a so-called hollow and the composite image 501 is an image having a hollow.
 ここで、図5および図6には合成画像501が示されており、合成画像501をユーザが確認することにより、撮りこぼし503および撮りこぼし507の発生を確認することができる。しかしながら、合成画像501は分割画像で構成されているため、各分割画像を射影変化しなければならず、合成画像501の生成には時間および計算コストを要する。例えば、橋梁1の損傷の検出検査を行う場合には、合計800の格間についてそれぞれ分割画像から構成される合成画像501を生成することを考えると、撮りこぼしの確認のために合成画像501を撮影現場で生成していては、点検作業の効率を大幅に下げてしまう。 Here, the composite image 501 is shown in FIGS. 5 and 6, and the user can confirm the occurrence of the overshoot 503 and the overshoot 507 by checking the composite image 501. However, since the composite image 501 is composed of divided images, each of the divided images must be projected and changed, and generation of the composite image 501 requires time and calculation cost. For example, in the case of performing a detection inspection for damage to the bridge 1, considering that a composite image 501 composed of divided images is generated for a total of 800 spaces, the composite image 501 is used for confirmation of overshooting. If it is generated at the shooting site, the efficiency of the inspection work is greatly reduced.
 したがって、本発明では短時間で計算コストをかけずに、撮りこぼしの有無および撮りこぼしの位置を確認することができる表示を提案する。 Therefore, the present invention proposes a display capable of confirming the presence / absence of a spill and the position of the spill over in a short time without incurring calculation costs.
 <第1の実施形態>
 本発明の第1の実施形態に関して説明する。図7は、本実施形態の画像処理装置400の機能構成例を示す図である。
<First Embodiment>
The first embodiment of the present invention will be described. FIG. 7 is a diagram illustrating a functional configuration example of the image processing apparatus 400 according to the present embodiment.
 画像処理装置400は、画像入力部401、対応点情報取得部403、基準分割画像特定部405、行列算出部407、射影変換部409、合成情報生成部413、および表示部415を備える。 The image processing apparatus 400 includes an image input unit 401, a corresponding point information acquisition unit 403, a reference divided image specification unit 405, a matrix calculation unit 407, a projective conversion unit 409, a composite information generation unit 413, and a display unit 415.
 画像入力部401は、撮影対象が分割撮影されることにより、得られた複数の分割画像が入力される。例えば、移動体100で取得された床版6の分割画像が画像入力部401に、分割画像が取得される毎にまたは一つの格間502を撮影し終える毎に入力される。画像入力部401は、例えばコンピュータ300のモバイル通信部318、無線LAN通信部320、または近距離無線通信部322で実現される。 The image input unit 401 inputs a plurality of obtained divided images by subjecting the subject to division photography. For example, the divided image of the floor slab 6 acquired by the moving body 100 is input to the image input unit 401 every time a divided image is acquired or every time a single space 502 is captured. The image input unit 401 is realized by the mobile communication unit 318, the wireless LAN communication unit 320, or the short-range wireless communication unit 322 of the computer 300, for example.
 対応点情報取得部403は、複数の分割画像間の対応点を探索して対応点に関する対応点情報を取得する。具体的には対応点情報取得部403は、各分割画像において特徴点を抽出し、抽出された特徴点において分割画像間の対応点に関する情報を取得する。対応点に関する情報とは、例えば対応点の座標である。なお、対応点情報取得部403は、公知の手法により対応分割画像間における対応点に関する情報を取得することができる。例えば、対応点に関する情報の取得の手法として、画像間の拡大縮小、回転および照明変化等に強いロバストな局所特徴量として、SIFT (Scale-invariant feature transform)特徴量、SURF(Speed-Upped Robust Feature)特徴量、およびAKAZE (Accelerated KAZE)特徴量が知られている。 Corresponding point information acquisition unit 403 searches for corresponding points between a plurality of divided images and acquires corresponding point information related to the corresponding points. Specifically, the corresponding point information acquisition unit 403 extracts feature points in each divided image, and acquires information on the corresponding points between the divided images at the extracted feature points. The information regarding the corresponding point is, for example, the coordinates of the corresponding point. Note that the corresponding point information acquisition unit 403 can acquire information on corresponding points between corresponding divided images by a known method. For example, as a method for acquiring information about corresponding points, SIFT (Scale-invariant feature transform) feature, SURF (Speed-Upped Robust Feature) ) Features and AKAZE (Accelerated KAZE) features are known.
 基準分割画像特定部405は、複数の分割画像のうちの射影変換の基準となる基準分割画像を特定する。基準分割画像は、その後の射影変換および合成画像の輪郭位置情報の生成に必要となるので、少なくとも1枚特定される必要がある。特定される基準分割画像は、射影変換の基準となり、合成画像の輪郭位置情報に影響する。すなわち、特定する基準分割画像によっては、被写体に対して正対した合成画像の輪郭位置情報が生成される場合もあり、アオリを有する合成画像の輪郭位置情報が生成される場合もある。撮りこぼしの確認をするためであれば、合成画像の形状および正対しているか否かは、決定的な問題とならいため、基準分割画像の特定は無作為(ランダム)に特定されてもよい。 The reference divided image specifying unit 405 specifies a reference divided image serving as a reference for projective transformation among the plurality of divided images. Since the reference divided image is necessary for the subsequent projective transformation and generation of the contour position information of the composite image, at least one reference divided image needs to be specified. The specified reference divided image becomes a reference for projective transformation and affects the contour position information of the composite image. That is, depending on the specified reference divided image, the contour position information of the composite image facing the subject may be generated, or the contour position information of the composite image having tilt may be generated. In order to check for missed shots, the shape of the composite image and whether or not it is facing is not a decisive problem, and therefore, the reference divided image may be specified randomly (randomly).
 また、基準分割画像特定部405は、複数の分割画像のうちの射影変換の基準となる基準分割画像の指定、または基準分割画像となる分割画像の入力順序に関する情報に基づいて、基準分割画像を特定してもよい。例えば基準分割画像特定部405は、コンピュータ300のタッチパネルディスプレイ302に表示された分割画像をユーザが選択することにより、ユーザの指定を受け付けて基準分割画像の指定を受け付ける。また基準分割画像特定部405は、コンピュータ300のメインメモリ314に記憶されている基準分割画像となる分割画像の入力順序に関する情報を受け付けることにより、基準分割画像を特定する。例えば、基準分割画像となる分割画像の入力順序に関する情報とは、格間毎の撮影において最初に入力された分割画像を基準分割画像とする、または入力された分割画像の真ん中の順番に入力された分割画像を基準分割画像とするなどである。基準分割画像特定部405は、例えばコンピュータ300のCPU310で実現される。 In addition, the reference divided image specifying unit 405 selects a reference divided image based on information regarding designation of a reference divided image serving as a reference for projective transformation among a plurality of divided images or input order of divided images serving as a reference divided image. You may specify. For example, when the user selects a divided image displayed on the touch panel display 302 of the computer 300, the reference divided image specifying unit 405 receives the user's specification and receives the reference divided image specification. In addition, the reference divided image specifying unit 405 specifies the reference divided image by receiving information on the input order of the divided images to be the reference divided images stored in the main memory 314 of the computer 300. For example, the information related to the input order of the divided images to be the reference divided images is the divided image input first in the shooting for each case as the reference divided image, or is input in the middle order of the input divided images. The divided image is used as a reference divided image. The reference divided image specifying unit 405 is realized by the CPU 310 of the computer 300, for example.
 行列算出部407は、対応点情報および基準分割画像に基づいて、複数の分割画像のうち基準分割画像以外の被変換分割画像の基準分割画像に対する射影変換行列を算出する。すなわち行列算出部407は、基準分割画像特定部405で特定された基準分割画像に隣接する被変換分割画像の対応点情報に基づき、基準分割画像に合わせるように射影変換を行い、順次被変換分割画像の対応点情報に基づき被変換分割画像の射影変換行列を算出する。 The matrix calculation unit 407 calculates a projective transformation matrix for the reference divided image of the converted divided image other than the reference divided image among the plurality of divided images based on the corresponding point information and the reference divided image. That is, the matrix calculation unit 407 performs projective transformation so as to match the reference divided image based on the corresponding point information of the converted divided image adjacent to the reference divided image specified by the reference divided image specifying unit 405, and sequentially converts the converted divided image. A projection transformation matrix of the transformed divided image is calculated based on the corresponding point information of the image.
 射影変換部409は、輪郭位置情報を射影変換する第1の射影変換部411を有する。第1の射影変換部411は、算出された射影変換行列により、被変換分割画像の輪郭を示す輪郭位置情報を射影変換する。すなわち、行列算出部407で算出された各被変換分割画像毎の射影変換行列により、各被変換分割画像の輪郭を示す輪郭位置情報を射影変換する。射影変換部409は、例えばコンピュータ300のCPU310で実現される。 The projective conversion unit 409 includes a first projective conversion unit 411 that performs projective conversion of the contour position information. The first projective transformation unit 411 performs projective transformation on the contour position information indicating the contour of the transformed divided image using the calculated projective transformation matrix. That is, the projective transformation is performed on the contour position information indicating the contour of each transformed divided image by the projection transformation matrix for each transformed divided image calculated by the matrix calculation unit 407. The projection conversion unit 409 is realized by the CPU 310 of the computer 300, for example.
 図8は、第1の射影変換部411が行う被変換分割画像の輪郭位置情報の射影変換について説明する図である。 FIG. 8 is a diagram for explaining the projective conversion of the contour position information of the converted divided image performed by the first projective conversion unit 411.
 図8(A)は、射影変換前の被変換分割画像D1の輪郭位置情報を示す図である。具体的には被変換分割画像D1の四隅の座標E1、F1、G1およびH1が輪郭位置情報として示されている。 FIG. 8A is a diagram showing the contour position information of the transformed divided image D1 before projective transformation. Specifically, the coordinates E1, F1, G1, and H1 of the four corners of the converted divided image D1 are shown as the contour position information.
 図8(B)は、射影変換後の被変換分割画像D2の輪郭位置情報を示す図である。被変換分割画像D1の輪郭位置情報を示す座標E1、F1、G1、およびH1を射影変換行列により射影変換し、座標E2、F2、G2、およびH2に変換する。座標E2、F2、G2、およびH2は射影変換後の被変換分割画像D2の輪郭を示す。 FIG. 8B is a diagram showing the contour position information of the converted divided image D2 after projective transformation. The coordinates E1, F1, G1, and H1 indicating the contour position information of the divided image D1 to be converted are projectively transformed by the projective transformation matrix to be transformed into coordinates E2, F2, G2, and H2. Coordinates E2, F2, G2, and H2 indicate the contour of the transformed divided image D2 after projective transformation.
 ここで、第1の射影変換部411は、被変換分割画像D1の輪郭位置情報を示す座標E1、F1、G1、およびH1を射影変換しており、被変換分割画像D1を構成する全ての画素を射影変換しない。すなわち第1の射影変換部411は、被変換分割画像D1の輪郭のみ射影変換して、射影変換後の被変換分割画像D2の輪郭位置情報を算出する。このように第1の射影変換部411に、分割画像の輪郭のみの射影変換をさせることにより、射影変換にかかる時間を短縮することができ、射影変換にかかる計算コストを抑制することができる。なお、図8に示した例では、輪郭位置情報として被変換分割画像の四隅の座標を示したが、これに限定されるものではない。被変換分割画像の輪郭を示す情報であれば他の態様の情報も使われる。 Here, the first projective transformation unit 411 performs projective transformation on the coordinates E1, F1, G1, and H1 indicating the contour position information of the transformed divided image D1, and all the pixels constituting the transformed divided image D1. Is not projective transformed. That is, the first projective transformation unit 411 performs projective transformation only on the contour of the transformed divided image D1, and calculates the contour position information of the transformed divided image D2 after the projective transformation. Thus, by causing the first projective transformation unit 411 to perform projective transformation of only the outline of the divided image, the time required for the projective transformation can be shortened, and the calculation cost for the projective transformation can be suppressed. In the example shown in FIG. 8, the coordinates of the four corners of the converted divided image are shown as the contour position information, but the present invention is not limited to this. Other forms of information may be used as long as the information indicates the contour of the converted divided image.
 図7に戻って、合成情報生成部413は、射影変換された輪郭位置情報に基づいて、基準分割画像および射影変換された後の被変換分割画像を合成した場合の合成画像501の輪郭位置情報を生成する。すなわち合成情報生成部413は、第1の射影変換部411で変換された被変換分割画像の輪郭位置情報を合成することにより、基準分割画像および被変換分割画像を合成した合成画像501の輪郭位置情報を算出する。合成情報生成部413は、例えばコンピュータ300のCPU310で実現される。 Returning to FIG. 7, the composite information generation unit 413 combines the reference divided image and the converted divided image after the projective conversion based on the contour position information subjected to the projective conversion, and outputs the contour position information of the composite image 501. Is generated. That is, the composite information generation unit 413 combines the contour position information of the converted divided image converted by the first projective conversion unit 411, thereby synthesizing the contour position of the composite image 501 obtained by combining the reference divided image and the converted divided image. Calculate information. The composite information generation unit 413 is realized by the CPU 310 of the computer 300, for example.
 表示部415は、合成画像501の輪郭位置情報に基づき合成画像501の輪郭505を表示する。すなわち表示部415は、合成情報生成部413で生成された合成画像501の輪郭位置情報により、コンピュータ300のタッチパネルディスプレイ302に合成画像501の輪郭505を表示する。タッチパネルディスプレイ302に合成画像501の輪郭505が表示されることにより、ユーザは撮りこぼしの有無および撮りこぼしの位置について確認することができる。表示部415は、例えばコンピュータ300の表示部326で実現される。 The display unit 415 displays the contour 505 of the composite image 501 based on the contour position information of the composite image 501. That is, the display unit 415 displays the contour 505 of the composite image 501 on the touch panel display 302 of the computer 300 based on the contour position information of the composite image 501 generated by the composite information generation unit 413. By displaying the outline 505 of the composite image 501 on the touch panel display 302, the user can confirm the presence / absence of shooting and the position of shooting failure. The display unit 415 is realized by the display unit 326 of the computer 300, for example.
 図9および図10は、合成情報生成部413が生成する合成画像501の輪郭情報に基づいて、表示部415がタッチパネルディスプレイ302に表示した合成画像501の輪郭505を示す図である。図9は図5で説明した撮りこぼし503を有する合成画像501についての合成画像501の輪郭505の表示であり、図10は図6で説明した撮りこぼし507を有する合成画像501の輪郭505の表示である。 9 and 10 are diagrams showing the contour 505 of the composite image 501 displayed on the touch panel display 302 by the display unit 415 based on the contour information of the composite image 501 generated by the composite information generation unit 413. 9 is a display of the contour 505 of the composite image 501 with respect to the composite image 501 having the spillover 503 described in FIG. 5, and FIG. 10 is a display of the contour 505 of the composite image 501 having the spillover 507 described in FIG. It is.
 図9(A)には比較のために、通常に分割画像(基準分割画像および射影変換後の被変換分割画像)を合成して得られた合成画像501が示されている。 For comparison, FIG. 9A shows a composite image 501 obtained by synthesizing a divided image (a reference divided image and a converted divided image after projective transformation).
 一方図9(B)には、合成情報生成部413で生成された合成画像501の輪郭情報に基づいて合成画像501の輪郭505が示されている。具体的には、図8で説明したように第1の射影変換部411により各被変換分割画像の輪郭位置情報を射影変換し、合成情報生成部413により合成画像501の輪郭位置情報を生成し、合成画像501の輪郭505を表示部415に示している。 On the other hand, FIG. 9B shows a contour 505 of the composite image 501 based on the contour information of the composite image 501 generated by the composite information generation unit 413. Specifically, as described with reference to FIG. 8, the first projective transformation unit 411 performs projective transformation on the contour position information of each converted divided image, and the composite information generation unit 413 generates the contour position information of the composite image 501. The outline 505 of the composite image 501 is shown on the display unit 415.
 例えばユーザは、一つの格間502の床版6について分割画像を複数枚取得した後に、合成画像501の輪郭505を確認する。そしてユーザは、格間502の床版6についての合成画像501の輪郭505であれば略矩形となっているので、撮りこぼし503に対応する輪郭505の表示を確認することにより、格間502の床版6について撮りこぼしが発生していることがわかる。 For example, the user confirms the outline 505 of the composite image 501 after acquiring a plurality of divided images for the floor slab 6 of one space 502. Then, since the user has a substantially rectangular outline 505 of the composite image 501 for the floor slab 6 of the space 502, the user can confirm the display of the contour 505 corresponding to the overshoot 503, thereby It can be seen that spillage has occurred in the floor slab 6.
 図10(A)には比較のために、通常に分割画像(基準分割画像および射影変換後の被変換分割画像)を合成して得られた合成画像501が示されている。 For comparison, FIG. 10A shows a composite image 501 obtained by normally combining a split image (a reference split image and a converted split image after projective transformation).
 一方図10(B)には、図9(B)と同様に合成情報生成部413で生成された合成画像501の輪郭情報に基づいて合成画像501の輪郭505が示されている。 On the other hand, FIG. 10B shows the contour 505 of the composite image 501 based on the contour information of the composite image 501 generated by the composite information generation unit 413 as in FIG. 9B.
 ユーザは、一つの格間502の床版6について分割画像を複数枚取得した後に、合成画像501の輪郭505を確認する。そしてユーザは、格間502の床版6についての合成画像501の輪郭505が、撮りこぼし507に対応する輪郭505のような中抜けとはならないので、格間502の床版6について撮りこぼしが発生していることがわかる。 The user confirms the outline 505 of the composite image 501 after acquiring a plurality of divided images for the floor slab 6 of one space 502. Then, since the contour 505 of the composite image 501 for the floor slab 6 of the space 502 does not become a hollow like the contour 505 corresponding to the shooting spill 507, the user does not spill the floor slab 6 of the space 502. You can see that it has occurred.
 図11は、画像処理装置400の動作を示すフロー図である。 FIG. 11 is a flowchart showing the operation of the image processing apparatus 400.
 先ず、格間502の床版6について、移動体100により分割画像が撮影される。格間502の床版6について分割画像の撮影が一通り終了すると、コンピュータ300に分割画像が送信される。そして、画像入力部401に撮影対象が分割撮影されて得られた複数の分割画像が入力される(ステップS10)。 First, a divided image is taken by the moving body 100 for the floor slab 6 of the space 502. When the shooting of the divided images is completed for the floor slab 6 of the space 502, the divided images are transmitted to the computer 300. Then, a plurality of divided images obtained by dividing and shooting the shooting target are input to the image input unit 401 (step S10).
 次に、対応点情報取得部403により、入力された複数の分割画像間の対応点が探索されて、探索された対応点に関する対応点情報が取得される(ステップS11)。そして、基準分割画像特定部405により、基準分割画像が特定される(ステップS12)。例えば、基準分割画像の指定は入力部328を介してユーザにより入力され、また例えばコンピュータ300のメインメモリ314に記憶されていた基準分割画像となる分割画像の入力順序に関する情報を受け付ける。 Next, the corresponding point information acquisition unit 403 searches for corresponding points between the plurality of input divided images, and acquires corresponding point information regarding the searched corresponding points (step S11). Then, the reference divided image specifying unit 405 specifies the reference divided image (step S12). For example, the designation of the reference divided image is input by the user via the input unit 328, and information regarding the input order of the divided images to be the reference divided image stored in the main memory 314 of the computer 300 is received, for example.
 次に、行列算出部407により、対応点情報および基準分割画像に基づいて、複数の分割画像のうち基準分割画像以外の被変換分割画像の基準分割画像に対する射影変換行列が算出される(ステップS13)。そして、射影変換部409の第1の射影変換部411により、算出された射影変換行列により、被変換分割画像の輪郭505を示す輪郭位置情報が射影変換される(ステップS14)。その後、合成情報生成部413により、射影変換された輪郭位置情報に基づいて、基準分割画像および射影変換された後の被変換分割画像を合成した場合の合成画像の輪郭位置情報が生成される(ステップS15)。そして、表示部415により合成画像501の輪郭505が表示される(ステップS16)。 Next, the matrix calculation unit 407 calculates a projective transformation matrix for the reference divided image of the converted divided image other than the reference divided image among the plurality of divided images based on the corresponding point information and the reference divided image (step S13). ). Then, the first projective transformation unit 411 of the projective transformation unit 409 performs projective transformation on the contour position information indicating the contour 505 of the transformed divided image using the calculated projective transformation matrix (step S14). Thereafter, the composition information generation unit 413 generates contour position information of the composite image when the reference divided image and the converted divided image after the projective conversion are combined based on the contour position information subjected to the projective conversion ( Step S15). Then, the outline 505 of the composite image 501 is displayed on the display unit 415 (step S16).
 上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 In the above-described embodiment, the hardware structure of a processing unit (processing unit) that executes various processes is the following various processors. For various processors, the circuit configuration can be changed after manufacturing a CPU (Central Processing Unit) or FPGA (Field Programmable Gate Array) that is a general-purpose processor that functions as various processing units by executing software (programs). Includes dedicated logic circuits such as programmable logic devices (Programmable Logic Devices: PLDs) and ASICs (Application Specific Specific Integrated Circuits) that have specially designed circuit configurations to execute specific processing. It is.
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of CPU and FPGA). May be. Further, the plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or server, one processor is configured with a combination of one or more CPUs and software. There is a form in which the processor functions as a plurality of processing units. Second, as represented by a system-on-chip (SoC), a form of using a processor that realizes the functions of the entire system including a plurality of processing units with a single IC (integrated circuit) chip. is there. As described above, various processing units are configured using one or more of the various processors as a hardware structure.
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is more specifically an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
 上述の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータ300に実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータ300に対しても本発明を適用することが可能である。 The above-described configurations and functions can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes the computer 300 to execute the above-described processing steps (processing procedure), a computer-readable recording medium (non-temporary recording medium) that records such a program, or a computer 300 that can install such a program The present invention can also be applied to the above.
 <第2の実施形態>
 次に、本発明の第2の実施形態に関して説明する。先ず本実施形態で解決される撮りこぼしの例について説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. First, an example of shooting spill that is solved in the present embodiment will be described.
 図12は、タイプ3の撮りこぼしが発生している合成画像501を示す図である。 FIG. 12 is a diagram showing a composite image 501 in which type 3 shooting has been missed.
 図12に示された合成画像501では、撮りこぼし509が発生している。なお、図12に示された合成画像501は、床版6を分割撮影して得られた複数の分割画像を射影変換して合成したものである。すなわち床版6を撮影した分割画像は、射影変換されて合成され、合成画像501を形成している。 In the composite image 501 shown in FIG. Note that the composite image 501 shown in FIG. 12 is obtained by projecting and combining a plurality of divided images obtained by dividing and photographing the floor slab 6. That is, the divided images obtained by photographing the floor slab 6 are projected and combined to form a composite image 501.
 図12に示された合成画像501では、撮りこぼし509が発生している。すなわち本来、合成画像501には格間502の領域の床版6が漏れなく写っているはずであるが、撮りこぼし509の箇所は、格間502の端部に対応する床版6の画像が欠如している。 In the composite image 501 shown in FIG. In other words, the floor slab 6 in the area 502 of the space 502 should be shown without omission in the composite image 501, but the image of the floor slab 6 corresponding to the end of the space 502 is displayed at the location of the overshoot 509. Lack.
 図13は、合成情報生成部413が生成する合成画像501の輪郭情報に基づいて、表示部415がタッチパネルディスプレイ302に表示した合成画像501の輪郭505を示す図である。図13は図12で説明した撮りこぼし509を有する合成画像501についての合成画像501の輪郭505の表示である。 FIG. 13 is a diagram showing a contour 505 of the composite image 501 displayed on the touch panel display 302 by the display unit 415 based on the contour information of the composite image 501 generated by the composite information generation unit 413. FIG. 13 is a display of the outline 505 of the composite image 501 for the composite image 501 having the spillover 509 described in FIG.
 図13(A)には比較のために、通常に分割画像(基準分割画像および射影変換後の被変換分割画像)を合成して得られた合成画像501が示されている。 For comparison, FIG. 13A shows a composite image 501 obtained by normally combining a split image (a reference split image and a converted split image after projective transformation).
 一方図13(B)には、合成情報生成部413で生成された合成画像501の輪郭情報に基づいて合成画像501の輪郭505が示されている。ここで、タイプ3のような撮りこぼし509の場合には、ユーザは、第1の実施形態で説明したように合成画像501の輪郭505を確認しただけでは撮りこぼしがあることを確認することが困難である。すなわち、図13に示すように、表示部415に表示された合成画像501の輪郭505だけでは格間502の床版6について漏れなく撮影が行えているかの判別は困難である。 On the other hand, FIG. 13B shows a contour 505 of the composite image 501 based on the contour information of the composite image 501 generated by the composite information generation unit 413. Here, in the case of a shooting spill 509 such as type 3, the user may confirm that there is a shooting spill by simply checking the outline 505 of the composite image 501 as described in the first embodiment. Have difficulty. That is, as shown in FIG. 13, it is difficult to determine whether the floor slab 6 of the space 502 can be photographed without omission only by the outline 505 of the composite image 501 displayed on the display unit 415.
 本実施形態では、タイプ3のような撮りこぼしをも確認できるように、部分的に合成画像501の輪郭505と共に分割画像(基準分割画像または射影変換された被変換分割画像)も表示する。 In the present embodiment, a divided image (a reference divided image or a converted divided image obtained by projective transformation) is also displayed together with the outline 505 of the composite image 501 so that a shooting failure such as type 3 can also be confirmed.
 図14は、本実施形態の画像処理装置400の機能構成例を示す図である。図7で既に説明を行った箇所は同じ符号を付し説明は省略する。 FIG. 14 is a diagram illustrating a functional configuration example of the image processing apparatus 400 according to the present embodiment. The parts already described with reference to FIG.
 画像処理装置400は、画像入力部401、対応点情報取得部403、基準分割画像特定部405、行列算出部407、射影変換部409、合成情報生成部413、表示部415、第1の指定受付部419を備える。なお、図7で既に説明を行った箇所は、同じ符号を付し説明は省略する。 The image processing apparatus 400 includes an image input unit 401, a corresponding point information acquisition unit 403, a reference divided image specification unit 405, a matrix calculation unit 407, a projective conversion unit 409, a composite information generation unit 413, a display unit 415, and a first designation reception. Part 419 is provided. In addition, the part already demonstrated in FIG. 7 attaches the same code | symbol, and abbreviate | omits description.
 射影変換部409は、第1の射影変換部411および第2の射影変換部417で構成されている。なお、射影変換部409は、複数の機能(第1の射影変換部411および第2の射影変換部417)を備えるが、射影変換部409一つにより実現してもよいし、各機能にそれぞれハードウェア(またはソフトウェア、或いは両者の組み合わせ)が割り当てられていてもよい。 The projection conversion unit 409 includes a first projection conversion unit 411 and a second projection conversion unit 417. The projection conversion unit 409 includes a plurality of functions (a first projection conversion unit 411 and a second projection conversion unit 417). However, the projection conversion unit 409 may be realized by one projection conversion unit 409, or each function may be provided. Hardware (or software, or a combination of both) may be assigned.
 第2の射影変換部417は、射影変換行列に基づいて、一部の被変換分割画像を射影変換する。すなわち第2の射影変換部417は、射影変換行列に基づいて一部の被変換分割画像を射影変換し、射影変換された被変換分割画像を生成する。 The second projective transformation unit 417 performs projective transformation on a part of the converted divided images based on the projective transformation matrix. That is, the second projective transformation unit 417 performs projective transformation on a part of the transformed divided images based on the projective transformation matrix, and generates a transformed divided image that has undergone projective transformation.
 第2の射影変換部417が射影変換を行う被変換分割画像の具体例としては、合成画像501の隅に対応する被変換分割画像、合成画像501の4隅に対応する被変換分割画像があげられる。また第2の射影変換部417が射影変換を行う被変換分割画像の他の具体例としては、合成画像501の辺に対応する被変換分割画像、合成画像501の4辺に対応する被変換分割画像があげられる。 Specific examples of the converted divided image to which the second projective conversion unit 417 performs projective conversion include a converted divided image corresponding to the corner of the composite image 501 and a converted divided image corresponding to the four corners of the composite image 501. It is done. As another specific example of the converted divided image for which the second projective conversion unit 417 performs the projective conversion, a converted divided image corresponding to the side of the composite image 501 and a converted split corresponding to the four sides of the composite image 501 are shown. An image is given.
 合成情報生成部413は、第1の射影変換部411で射影変換された輪郭位置情報と第2の射影変換部417で射影変換された被変換分割画像とを合成する。すなわち、合成画像501の輪郭位置情報を生成するとともに、第2の射影変換部417で射影変換された被変換分割画像を、合成画像501の輪郭505に合わせるように合成する。 The composition information generation unit 413 synthesizes the contour position information subjected to the projective conversion by the first projective conversion unit 411 and the converted divided image subjected to the projective conversion by the second projective conversion unit 417. That is, the contour position information of the synthesized image 501 is generated, and the transformed divided image that has undergone projective transformation by the second projective transformation unit 417 is synthesized so as to match the contour 505 of the synthesized image 501.
 表示部415は、合成情報生成部413で生成された合成画像501の輪郭位置情報および射影変換後の被変換分割画像または基準分割画像を表示する。すなわち表示部415は、合成画像501の輪郭位置情報が示す輪郭505に、被変換分割画像および基準分割画像のうち少なくとも一方を、合成して表示する。 The display unit 415 displays the contour position information of the composite image 501 generated by the composite information generation unit 413 and the converted divided image or the reference divided image after projective conversion. That is, the display unit 415 synthesizes and displays at least one of the converted divided image and the reference divided image on the contour 505 indicated by the contour position information of the synthesized image 501.
 第1の指定受付部419は、表示部415に表示された合成画像501の輪郭505における位置の指定を受け付ける。具体的には第1の指定受付部419は、コンピュータ300のタッチパネルディスプレイ302に表示された合成画像501の輪郭505がユーザに指定されることにより、合成画像501の位置の指定が受け付けられる。そして、第1の指定受付部419で指定が受け付けられた場合に、第2の射影変換部417は、第1の指定受付部419で受け付けられた位置に対応する被変換分割画像を射影変換してもよい。すなわち、表示部415に表示される合成画像501の輪郭505に合わせて表示される基準分割画像または変換された被変換分割画像の表示を、第1の指定受付部419を介してユーザが行ってもよい。 The first designation accepting unit 419 accepts designation of a position in the contour 505 of the composite image 501 displayed on the display unit 415. Specifically, the first designation receiving unit 419 receives the designation of the position of the composite image 501 when the contour 505 of the composite image 501 displayed on the touch panel display 302 of the computer 300 is designated by the user. Then, when the designation is received by the first designation receiving unit 419, the second projective conversion unit 417 performs projective transformation on the converted divided image corresponding to the position received by the first designation receiving unit 419. May be. In other words, the user performs display of the reference divided image displayed in accordance with the outline 505 of the composite image 501 displayed on the display unit 415 or the converted divided divided image via the first designation receiving unit 419. Also good.
 図15は、合成情報生成部413が生成する合成画像501の輪郭情報に基づいて、表示部415がタッチパネルディスプレイ302に表示した合成画像501の輪郭505を示す図である。 FIG. 15 is a diagram showing a contour 505 of the composite image 501 displayed on the touch panel display 302 by the display unit 415 based on the contour information of the composite image 501 generated by the composite information generation unit 413.
 図15(A)には比較のために、通常に分割画像(基準分割画像および射影変換後の被変換分割画像)を合成して得られた合成画像501の輪郭505が示されている。 For comparison, FIG. 15A shows an outline 505 of a composite image 501 obtained by normally combining a split image (a reference split image and a converted split image after projective transformation).
 一方図15(B)には、合成画像501の輪郭505および一部の分割画像が表示されている。具体的には、合成画像501の輪郭505と合成画像501の輪郭505の四隅に対応する分割画像511、分割画像513、分割画像515、および分割画像517が合成画像501の輪郭505に合わせて表示されている。 On the other hand, in FIG. 15B, the outline 505 of the composite image 501 and a part of the divided images are displayed. Specifically, the divided image 511, the divided image 513, the divided image 515, and the divided image 517 corresponding to the contour 505 of the composite image 501 and the four corners of the contour 505 of the composite image 501 are displayed in accordance with the contour 505 of the composite image 501. Has been.
 ユーザは、一つの格間502の床版6について分割画像を複数枚取得した後に、合成画像501の輪郭505および一部の分割画像の表示を確認することにより、分割画像513では格間502の床版6が欠如していることを確認することができ、撮りこぼし509に対応する輪郭505は、格間502の床版6について撮りこぼしが発生していることがわかる。 After the user acquires a plurality of divided images for the floor slab 6 of one space 502, the user confirms the display of the outline 505 of the composite image 501 and a part of the divided images. It can be confirmed that the floor slab 6 is missing, and the outline 505 corresponding to the shooting spill 509 indicates that spilling has occurred for the floor slab 6 in the space 502.
 <第3の実施形態>
 次に、本発明の第3の実施形態に関して説明する。本実施形態では第2の実施形態で表示された分割画像に対応して、合成画像501の一部の箇所に縮小画像が表示される。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. In the present embodiment, a reduced image is displayed at a part of the composite image 501 corresponding to the divided image displayed in the second embodiment.
 図16は、本実施形態の画像処理装置400の機能構成例を示す図である。図7で既に説明を行った箇所は同じ符号を付し説明は省略する。 FIG. 16 is a diagram illustrating a functional configuration example of the image processing apparatus 400 according to the present embodiment. The parts already described with reference to FIG.
 画像処理装置400は、画像入力部401、縮小画像生成部423、対応点情報取得部403、基準分割画像特定部405、行列算出部407、射影変換部409、合成情報生成部413、および表示部415を備える。 The image processing apparatus 400 includes an image input unit 401, a reduced image generation unit 423, a corresponding point information acquisition unit 403, a reference divided image specification unit 405, a matrix calculation unit 407, a projective conversion unit 409, a composite information generation unit 413, and a display unit. 415.
 縮小画像生成部423は、画像入力部401に入力された分割画像の解像度を下げた縮小画像を生成する。具体的には縮小画像生成部423は、分割画像が有する画素数の90%から50%、好ましくは80%から60%の縮小画像を生成する。縮小画像生成部423は公知の技術により、縮小画像を生成する。 The reduced image generation unit 423 generates a reduced image in which the resolution of the divided image input to the image input unit 401 is lowered. Specifically, the reduced image generation unit 423 generates reduced images of 90% to 50%, preferably 80% to 60% of the number of pixels included in the divided image. The reduced image generation unit 423 generates a reduced image by a known technique.
 射影変換部409は、第1の射影変換部411および第3の射影変換部421を備える。第3の射影変換部421は、射影変換行列に基づいて、一部の縮小画像を射影変換する。すなわち、第3の射影変換部421は、射影変換行列に基づいて一部の縮小画像を射影変換し、射影変換された縮小画像を生成する。なお、射影変換部409は、3つの機能(第1の射影変換部411および第3の射影変換部421)を備えるが、射影変換部409一つにより実現してもよいし、各機能にそれぞれハードウェア(またはソフトウェア、或いは両者の組み合わせ)が割り当てられていてもよい。 The projection conversion unit 409 includes a first projection conversion unit 411 and a third projection conversion unit 421. The third projective transformation unit 421 performs projective transformation on a part of the reduced images based on the projective transformation matrix. That is, the third projective transformation unit 421 performs projective transformation on a part of the reduced images based on the projective transformation matrix, and generates a reduced image subjected to the projective transformation. The projective conversion unit 409 includes three functions (a first projective conversion unit 411 and a third projective conversion unit 421). However, the projective conversion unit 409 may be realized by one projective conversion unit 409. Hardware (or software, or a combination of both) may be assigned.
 第3の射影変換部421が射影変換を行う縮小画像の具体例としては、合成画像501の隅に対応する縮小画像、合成画像501の4隅に対応する縮小画像があげられる。また第3の射影変換部421が射影変換を行う縮小画像の他の具体例としては、合成画像501の辺に対応する縮小画像、合成画像501の4辺に対応する縮小画像があげられる。 Specific examples of the reduced image for which the third projective conversion unit 421 performs the projective conversion include a reduced image corresponding to the corner of the composite image 501 and a reduced image corresponding to the four corners of the composite image 501. Other specific examples of the reduced image for which the third projective conversion unit 421 performs projective conversion include a reduced image corresponding to the side of the composite image 501 and a reduced image corresponding to the four sides of the composite image 501.
 表示部415は、第3の射影変換部421で変換された一部の縮小画像を、合成画像501の輪郭505に表示する。このように、表示部415に射影変換された縮小画像または基準分割画像に対応する縮小画像が表示されることにより、第2の実施形態で説明したように、合成画像501の輪郭505の表示だけでは判別が困難な撮りこぼしをユーザに確認させることができる。また、本実施形態では、縮小画像を射影変換していることから、より短時間での処理および計算コストの軽減が実現される。 The display unit 415 displays a part of the reduced image converted by the third projective conversion unit 421 on the outline 505 of the composite image 501. In this way, by displaying the reduced image corresponding to the projection-converted reduced image or the reference divided image on the display unit 415, only the display of the outline 505 of the composite image 501 as described in the second embodiment. Then, it is possible to make the user confirm a shooting spill that is difficult to distinguish. In the present embodiment, since the reduced image is projectively transformed, processing in a shorter time and reduction in calculation cost can be realized.
 <第4の実施形態>
 次に、本発明の第4の実施形態に関して説明する。本実施形態では、第3の実施形態で表示された縮小画像が指定され、指定された縮小画像の表示が解像度の高い分割画像の表示に切り替えられる。
<Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described. In the present embodiment, the reduced image displayed in the third embodiment is specified, and the display of the specified reduced image is switched to the display of a divided image having a high resolution.
 図17は、本実施形態の画像処理装置400の機能構成例を示す図である。図7で既に説明を行った箇所は同じ符号を付し説明は省略する。 FIG. 17 is a diagram illustrating a functional configuration example of the image processing apparatus 400 of the present embodiment. The parts already described with reference to FIG.
 画像処理装置400は、画像入力部401、縮小画像生成部423、対応点情報取得部403、基準分割画像特定部405、行列算出部407、射影変換部409、合成情報生成部413、表示部415、および第2の指定受付部425を備える。 The image processing apparatus 400 includes an image input unit 401, a reduced image generation unit 423, a corresponding point information acquisition unit 403, a reference divided image specification unit 405, a matrix calculation unit 407, a projective conversion unit 409, a composite information generation unit 413, and a display unit 415. , And a second designation receiving unit 425.
 射影変換部409は、第1の射影変換部411、第2の射影変換部417、および第3の射影変換部421を備える。なお、射影変換部409は、3つの機能(第1の射影変換部411、第2の射影変換部417、および第3の射影変換部421)を備えるが、射影変換部409一つにより実現してもよいし、各機能にそれぞれハードウェア(またはソフトウェア、或いは両者の組み合わせ)が割り当てられていてもよい。 The projection conversion unit 409 includes a first projection conversion unit 411, a second projection conversion unit 417, and a third projection conversion unit 421. The projective conversion unit 409 includes three functions (a first projective conversion unit 411, a second projective conversion unit 417, and a third projective conversion unit 421), and is realized by a single projective conversion unit 409. Alternatively, hardware (or software, or a combination of both) may be assigned to each function.
 第2の射影変換部417は、第2の指定部で受け付けられた位置に対応する分割画像が被変換分割画像である場合には、射影変換行列を使用して被変換分割画像を射影変換する。 The second projective transformation unit 417 performs projective transformation on the transformed divided image using the projective transformation matrix when the divided image corresponding to the position received by the second designation unit is the transformed divided image. .
 第2の指定受付部425は、表示部415に表示された縮小画像の指定を受け付ける。具体的には第2の指定受付部425は、コンピュータ300のタッチパネルディスプレイ302に表示された合成画像501の縮小画像がユーザに指定されることにより、合成画像501の位置の指定が受け付けられる。 The second designation receiving unit 425 receives the designation of the reduced image displayed on the display unit 415. Specifically, the second designation receiving unit 425 receives the designation of the position of the composite image 501 when the user designates a reduced image of the composite image 501 displayed on the touch panel display 302 of the computer 300.
 表示部415は、第2の指定受付部425で指定された縮小画像を、縮小画像に対応する、第2の射影変換部417で射影変換された被変換分割画像または基準分割画像に切り替える。すなわち表示部415は、第2の指定受付部425で指定された縮小画像を、より解像度の高い分割画像に切り替えて表示する。このように、ユーザからの指定により解像度の低い縮小画像から解像度の高い分割画像へ切り替えることにより、より正確な撮りこぼしの確認をできる表示を提供することができる。 The display unit 415 switches the reduced image designated by the second designation receiving unit 425 to the converted divided image or the reference divided image corresponding to the reduced image and subjected to the projective transformation by the second projective transformation unit 417. That is, the display unit 415 switches the reduced image designated by the second designation receiving unit 425 to a divided image with higher resolution and displays it. As described above, by switching from a reduced image having a low resolution to a divided image having a high resolution in accordance with a designation from the user, it is possible to provide a display that enables more accurate confirmation of the spillage.
 <第5の実施形態>
 次に、本発明の第5の実施形態に関して説明する。本実施形態では、入力された分割画像を解像度を下げた縮小画像に変換し、変換された縮小画像に基づいて第1の実施形態で説明したように合成画像501の輪郭505の表示がされる。本実施形態では縮小画像に基づいて、処理が行われることから、処理時間の短縮化がより図られる。
<Fifth Embodiment>
Next, a fifth embodiment of the present invention will be described. In the present embodiment, the input divided image is converted into a reduced image with reduced resolution, and the outline 505 of the composite image 501 is displayed based on the converted reduced image as described in the first embodiment. . In the present embodiment, the processing is performed based on the reduced image, so that the processing time can be further shortened.
 図18は、本実施形態の画像処理装置400の機能構成例を示す図である。なお、図7で既に説明を行った箇所は同じ符号を付し説明は省略する。 FIG. 18 is a diagram illustrating a functional configuration example of the image processing apparatus 400 according to the present embodiment. In addition, the part already demonstrated in FIG. 7 attaches | subjects the same code | symbol, and abbreviate | omits description.
 画像処理装置400は、画像入力部401、縮小画像生成部423、対応点情報取得部403、基準縮小画像特定部427、行列算出部407、射影変換部409、合成情報生成部413、および表示部415を備える。 The image processing apparatus 400 includes an image input unit 401, a reduced image generation unit 423, a corresponding point information acquisition unit 403, a reference reduced image specification unit 427, a matrix calculation unit 407, a projective conversion unit 409, a composite information generation unit 413, and a display unit. 415.
 対応点情報取得部403は、縮小画像間の対応点を探索して対応点に関する対応点情報を取得する。 Corresponding point information acquisition unit 403 searches for corresponding points between the reduced images and acquires corresponding point information regarding the corresponding points.
 基準縮小画像特定部427は、前記複数の縮小画像のうちの射影変換の基準となる基準縮小画像を特定する。 The reference reduced image specifying unit 427 specifies a reference reduced image serving as a reference for projective transformation among the plurality of reduced images.
 行列算出部407は、対応点情報および基準縮小画像に基づいて、複数の縮小画像のうち基準縮小画像以外の被変換縮小画像の基準縮小画像に対する射影変換行列を算出する。 The matrix calculation unit 407 calculates a projective transformation matrix for the reference reduced image of the converted reduced image other than the reference reduced image among the plurality of reduced images based on the corresponding point information and the reference reduced image.
 第3の射影変換部421は、算出された射影変換行列により、被変換縮小画像の輪郭を示す輪郭位置情報を射影変換する。 The third projective transformation unit 421 performs projective transformation on the contour position information indicating the contour of the transformed reduced image using the calculated projective transformation matrix.
 合成画像生成部413は、射影変換された輪郭位置情報に基づいて、基準縮小画像および射影変換された後の被変換縮小画像を合成した場合の合成画像501の輪郭位置情報を生成する。 The composite image generation unit 413 generates the contour position information of the composite image 501 when the reference reduced image and the converted reduced image after the projective conversion are combined based on the projective converted contour position information.
 表示部415は、合成画像501の輪郭位置情報に基づき、合成画像501の輪郭505を表示する。 The display unit 415 displays the contour 505 of the composite image 501 based on the contour position information of the composite image 501.
 以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 The examples of the present invention have been described above, but the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.
1    橋梁
2    主桁
3    横桁
4    対傾構
5    横構
6    床版
10   車輌
100  移動体
101  カメラ
300  コンピュータ
302  タッチパネルディスプレイ
304  スピーカー
305  内蔵カメラ
306  外部接続端子
310  CPU
312  システムバス
314  メインメモリ
316  不揮発性メモリ
318  モバイル通信部
318A アンテナ
320  無線LAN通信部
320A アンテナ
322  近距離無線通信部
322A アンテナ
324  有線通信部
326  表示部
328  入力部
330  キー入力部
332  音声処理部
334  画像処理部
400  画像処理装置
401  画像入力部
403  対応点情報取得部
405  基準分割画像特定部
407  行列算出部
409  射影変換部
411  第1の射影変換部
413  合成情報生成部
415  表示部
417  第2の射影変換部
419  第1の指定受付部
421  第3の射影変換部
423  縮小画像生成部
425  第2の指定受付部
427  基準縮小画像特定部
500  撮影システム
501  合成画像
502  格間
505  輪郭
511  分割画像
513  分割画像
515  分割画像
517  分割画像
S10-S16  画像処理の工程
DESCRIPTION OF SYMBOLS 1 Bridge 2 Main girder 3 Horizontal girder 4 Opposite structure 5 Horizontal structure 6 Floor slab 10 Vehicle 100 Mobile body 101 Camera 300 Computer 302 Touch panel display 304 Speaker 305 Built-in camera 306 External connection terminal 310 CPU
312 System bus 314 Main memory 316 Non-volatile memory 318 Mobile communication unit 318A Antenna 320 Wireless LAN communication unit 320A Antenna 322 Short-range wireless communication unit 322A Antenna 324 Wired communication unit 326 Display unit 328 Input unit 330 Key input unit 332 Audio processing unit 334 Image processing unit 400 Image processing device 401 Image input unit 403 Corresponding point information acquisition unit 405 Reference divided image specification unit 407 Matrix calculation unit 409 Projection conversion unit 411 First projection conversion unit 413 Composite information generation unit 415 Display unit 417 Second Projection conversion unit 419 First designation reception unit 421 Third projection conversion unit 423 Reduced image generation unit 425 Second designation reception unit 427 Reference reduced image specification unit 500 Shooting system 501 Composite image 502 Space 505 Outline 511 Divided image 5 13 divided image 515 divided image 517 divided image S10-S16 image processing steps

Claims (17)

  1.  撮影対象が分割撮影されて得られた複数の分割画像が入力される画像入力部と、
     前記複数の分割画像間の対応点を探索して前記対応点に関する対応点情報を取得する対応点情報取得部と、
     前記複数の分割画像のうちの射影変換の基準となる基準分割画像を特定する基準分割画像特定部と、
     前記対応点情報および前記基準分割画像に基づいて、前記複数の分割画像のうち前記基準分割画像以外の被変換分割画像の前記基準分割画像に対する射影変換行列を算出する行列算出部と、
     前記算出された前記射影変換行列により、前記被変換分割画像の輪郭を示す輪郭位置情報を射影変換する第1の射影変換部と、
     前記射影変換された前記輪郭位置情報に基づいて、前記基準分割画像および前記射影変換された後の前記被変換分割画像を合成した場合の合成画像の輪郭位置情報を生成する合成情報生成部と、
     前記合成画像の輪郭位置情報に基づき、前記合成画像の輪郭を表示する表示部と、
     を備えた画像処理装置。
    An image input unit for inputting a plurality of divided images obtained by dividing and shooting the shooting target;
    A corresponding point information acquisition unit that searches for corresponding points between the plurality of divided images and acquires corresponding point information about the corresponding points;
    A reference divided image specifying unit for specifying a reference divided image serving as a reference for projective transformation among the plurality of divided images;
    A matrix calculation unit that calculates a projective transformation matrix for the reference divided image of the converted divided image other than the reference divided image among the plurality of divided images based on the corresponding point information and the reference divided image;
    A first projective transformation unit that performs projective transformation on contour position information indicating a contour of the transformed divided image, based on the calculated projective transformation matrix;
    Based on the contour-converted contour position information, a composite information generation unit that generates contour position information of a composite image when the reference split image and the conversion-converted split image after the projective conversion are combined;
    Based on the contour position information of the composite image, a display unit that displays the contour of the composite image;
    An image processing apparatus.
  2.  前記射影変換行列に基づいて、一部の前記被変換分割画像を射影変換する第2の射影変換部を備え、
     前記表示部は、前記第2の射影変換部で変換された前記一部の被変換分割画像および前記基準分割画像のうち少なくとも一方を、前記合成画像の輪郭に表示する請求項1に記載の画像処理装置。
    Based on the projective transformation matrix, comprising a second projective transformation unit for projective transformation of a part of the transformed divided images,
    The image according to claim 1, wherein the display unit displays at least one of the partial converted divided image and the reference divided image converted by the second projective conversion unit on an outline of the composite image. Processing equipment.
  3.  前記第2の射影変換部は、前記合成画像の隅に対応する前記被変換分割画像を射影変換する請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the second projective conversion unit performs projective conversion on the converted divided image corresponding to a corner of the composite image.
  4.  前記第2の射影変換部は、前記合成画像の4隅に対応する前記被変換分割画像を射影変換する請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the second projective conversion unit performs projective conversion on the converted divided image corresponding to four corners of the composite image.
  5.  前記第2の射影変換部は、前記合成画像の辺に対応する前記被変換分割画像を射影変換する請求項2から4のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 2 to 4, wherein the second projective conversion unit performs projective conversion on the converted divided image corresponding to a side of the composite image.
  6.  前記第2の射影変換部は、前記合成画像の4辺に対応する前記被変換分割画像を射影変換する請求項5に記載の画像処理装置。 6. The image processing apparatus according to claim 5, wherein the second projective conversion unit performs projective conversion on the converted divided image corresponding to four sides of the composite image.
  7.  前記表示部に表示された前記合成画像の輪郭における位置の指定を受け付ける第1の指定受付部を備え、
     前記第2の射影変換部は、前記第1の指定受付部で受け付けられた前記位置に対応する前記被変換分割画像を射影変換する請求項2から6のいずれか1項に記載の画像処理装置。
    A first designation accepting unit that accepts designation of a position in the outline of the composite image displayed on the display unit;
    The image processing apparatus according to claim 2, wherein the second projective conversion unit performs projective conversion on the converted divided image corresponding to the position received by the first designation receiving unit. .
  8.  前記画像入力部に入力された前記分割画像の解像度を下げた縮小画像を生成する縮小画像生成部と、
     前記射影変換行列に基づいて、一部の前記縮小画像を射影変換する第3の射影変換部とを備え、
     前記表示部は、前記第3の射影変換部で変換された前記一部の前記縮小画像を、前記合成画像の輪郭に表示する請求項1から7のいずれか1項に記載の画像処理装置。
    A reduced image generation unit that generates a reduced image with a reduced resolution of the divided image input to the image input unit;
    A third projective transformation unit that performs projective transformation on a part of the reduced image based on the projective transformation matrix;
    The image processing apparatus according to claim 1, wherein the display unit displays the part of the reduced image converted by the third projective conversion unit on an outline of the composite image.
  9.  前記画像入力部に入力された前記分割画像の解像度を下げた縮小画像を生成する縮小画像生成部と、
     前記射影変換行列に基づいて、前記縮小画像を射影変換する第3の射影変換部と、
     前記表示部に表示された前記縮小画像の指定を受け付ける第2の指定受付部と、
     を備え、
     前記表示部は、前記第2の指定受付部で前記指定された前記縮小画像を、前記縮小画像に対応する、前記第2の射影変換部で射影変換された前記被変換分割画像または前記基準分割画像に切り替える請求項2から7のいずれか1項に記載の画像処理装置。
    A reduced image generation unit that generates a reduced image with a reduced resolution of the divided image input to the image input unit;
    A third projective transformation unit for projective transformation of the reduced image based on the projective transformation matrix;
    A second designation accepting unit for accepting designation of the reduced image displayed on the display unit;
    With
    The display unit includes the converted divided image or the reference divided image obtained by performing projective conversion on the reduced image designated by the second designation receiving unit and corresponding to the reduced image by the second projective transformation unit. The image processing apparatus according to claim 2, wherein the image processing apparatus is switched to an image.
  10.  前記基準分割画像特定部は、前記基準分割画像の指定、または前記基準分割画像となる前記分割画像の入力順序に関する情報に基づいて、前記基準分割画像を特定する請求項1から9のいずれか1項に記載の画像処理装置。 The reference divided image specifying unit specifies the reference divided image based on designation of the reference divided image or information on an input order of the divided images to be the reference divided image. The image processing apparatus according to item.
  11.  撮影対象が分割撮影されて得られた複数の分割画像が入力される画像入力部と、
     前記画像入力部に入力された前記分割画像の解像度を下げた縮小画像を生成する縮小画像生成部と、
     前記縮小画像間の対応点を探索して前記対応点に関する対応点情報を取得する対応点情報取得部と、
     前記複数の縮小画像のうちの射影変換の基準となる基準縮小画像を特定する基準縮小画像特定部と、
     前記対応点情報および前記基準縮小画像に基づいて、前記複数の縮小画像のうち前記基準縮小画像以外の被変換縮小画像の前記基準縮小画像に対する射影変換行列を算出する行列算出部と、
     前記算出された前記射影変換行列により、前記被変換縮小画像の輪郭を示す輪郭位置情報を射影変換する第3の射影変換部と、
     前記射影変換された前記輪郭位置情報に基づいて、前記基準縮小画像および前記射影変換された後の前記被変換縮小画像を合成した場合の合成画像の輪郭位置情報を生成する合成情報生成部と、
     前記合成画像の輪郭位置情報に基づき、前記合成画像の輪郭を表示する表示部と、
     を備えた画像処理装置。
    An image input unit for inputting a plurality of divided images obtained by dividing and shooting the shooting target;
    A reduced image generation unit that generates a reduced image with a reduced resolution of the divided image input to the image input unit;
    A corresponding point information acquisition unit that searches for corresponding points between the reduced images and acquires corresponding point information about the corresponding points;
    A reference reduced image specifying unit for specifying a reference reduced image serving as a reference for projective transformation among the plurality of reduced images;
    A matrix calculation unit that calculates a projective transformation matrix for the reference reduced image of the converted reduced image other than the reference reduced image among the plurality of reduced images based on the corresponding point information and the reference reduced image;
    A third projective transformation unit that performs projective transformation on contour position information indicating the contour of the transformed reduced image by the calculated projective transformation matrix;
    Based on the contour-converted contour position information, a composite information generating unit that generates contour position information of a composite image when the reference reduced image and the converted reduced image after the projective conversion are combined;
    Based on the contour position information of the composite image, a display unit that displays the contour of the composite image;
    An image processing apparatus.
  12.  撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、
     前記複数の分割画像間の対応点を探索して前記対応点に関する対応点情報を取得するステップと、
     前記複数の分割画像のうちの射影変換の基準となる基準分割画像を特定するステップと、
     前記対応点情報および前記基準分割画像に基づいて、前記複数の分割画像のうち前記基準分割画像以外の被変換分割画像の前記基準分割画像に対する射影変換行列を算出するステップと、
     前記算出された前記射影変換行列により、前記被変換分割画像の輪郭を示す輪郭位置情報を射影変換するステップと、
     前記射影変換された前記輪郭位置情報に基づいて、前記基準分割画像および前記射影変換された後の前記被変換分割画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、
     前記合成画像の輪郭位置情報に基づき、前記合成画像の輪郭を表示するステップと、
     を含む画像処理方法。
    A step of inputting a plurality of divided images obtained by dividing and shooting the shooting target;
    Searching for corresponding points between the plurality of divided images to obtain corresponding point information on the corresponding points;
    Identifying a reference divided image as a reference for projective transformation among the plurality of divided images;
    Calculating a projective transformation matrix for the reference divided image of the converted divided image other than the reference divided image among the plurality of divided images based on the corresponding point information and the reference divided image;
    Projective transformation of contour position information indicating the contour of the transformed divided image by the calculated projective transformation matrix;
    Generating outline position information of a synthesized image when the reference divided image and the transformed divided image after the projection transformation are synthesized based on the outline position information obtained by the projective transformation;
    Displaying the contour of the composite image based on the contour position information of the composite image;
    An image processing method including:
  13.  撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、
     前記分割画像の解像度を下げた縮小画像を生成するステップと、
     前記縮小画像間の対応点を探索して前記対応点に関する対応点情報を取得するステップと、
     前記複数の縮小画像のうちの射影変換の基準となる基準縮小画像を特定するステップと、
     前記対応点情報および前記基準縮小画像に基づいて、前記複数の縮小画像のうち前記基準縮小画像以外の被変換縮小画像の前記基準縮小画像に対する射影変換行列を算出するステップと、
     前記算出された前記射影変換行列により、前記被変換縮小画像の輪郭を示す輪郭位置情報を射影変換するステップと、
     前記射影変換された前記輪郭位置情報に基づいて、前記基準縮小画像および前記射影変換された後の前記被変換縮小画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、
     前記合成画像の輪郭位置情報に基づき、前記合成画像の輪郭を表示するステップと、
     を含む画像処理方法。
    A step of inputting a plurality of divided images obtained by dividing and shooting the shooting target;
    Generating a reduced image with reduced resolution of the divided image;
    Searching for corresponding points between the reduced images to obtain corresponding point information about the corresponding points;
    Identifying a reference reduced image serving as a reference for projective transformation among the plurality of reduced images;
    Calculating a projective transformation matrix for the reference reduced image of the converted reduced image other than the reference reduced image among the plurality of reduced images based on the corresponding point information and the reference reduced image;
    A projective transformation of contour position information indicating a contour of the transformed reduced image by the calculated projective transformation matrix;
    Generating contour position information of a composite image when the reference reduced image and the converted reduced image after the projective conversion are combined based on the projective-converted contour position information;
    Displaying the contour of the composite image based on the contour position information of the composite image;
    An image processing method including:
  14.  撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、
     前記複数の分割画像間の対応点を探索して前記対応点に関する対応点情報を取得するステップと、
     前記複数の分割画像のうちの射影変換の基準となる基準分割画像を特定するステップと、
     前記対応点情報および前記基準分割画像に基づいて、前記複数の分割画像のうち前記基準分割画像以外の被変換分割画像の前記基準分割画像に対する射影変換行列を算出するステップと、
     前記算出された前記射影変換行列により、前記被変換分割画像の輪郭を示す輪郭位置情報を射影変換するステップと、
     前記射影変換された前記輪郭位置情報に基づいて、前記基準分割画像および前記射影変換された後の前記被変換分割画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、
     前記合成画像の輪郭位置情報に基づき、前記合成画像の輪郭を表示するステップと、
     を含む工程をコンピュータに実行させるプログラム。
    A step of inputting a plurality of divided images obtained by dividing and shooting the shooting target;
    Searching for corresponding points between the plurality of divided images to obtain corresponding point information on the corresponding points;
    Identifying a reference divided image as a reference for projective transformation among the plurality of divided images;
    Calculating a projective transformation matrix for the reference divided image of the converted divided image other than the reference divided image among the plurality of divided images based on the corresponding point information and the reference divided image;
    Projective transformation of contour position information indicating the contour of the transformed divided image by the calculated projective transformation matrix;
    Generating outline position information of a synthesized image when the reference divided image and the transformed divided image after the projection transformation are synthesized based on the outline position information obtained by the projective transformation;
    Displaying the contour of the composite image based on the contour position information of the composite image;
    A program for causing a computer to execute a process including:
  15.  請求項14に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 14 is recorded.
  16.  撮影対象が分割撮影されて得られた複数の分割画像が入力されるステップと、
     前記分割画像の解像度を下げた縮小画像を生成するステップと、
     前記縮小画像間の対応点を探索して前記対応点に関する対応点情報を取得するステップと、
     前記複数の縮小画像のうちの射影変換の基準となる基準縮小画像を特定するステップと、
     前記対応点情報および前記基準縮小画像に基づいて、前記複数の縮小画像のうち前記基準縮小画像以外の被変換縮小画像の前記基準縮小画像に対する射影変換行列を算出するステップと、
     前記算出された前記射影変換行列により、前記被変換縮小画像の輪郭を示す輪郭位置情報を射影変換するステップと、
     前記射影変換された前記輪郭位置情報に基づいて、前記基準縮小画像および前記射影変換された後の前記被変換縮小画像を合成した場合の合成画像の輪郭位置情報を生成するステップと、
     前記合成画像の輪郭位置情報に基づき、前記合成画像の輪郭を表示するステップと、
     を含む工程をコンピュータに実行させるプログラム。
    A step of inputting a plurality of divided images obtained by dividing and shooting the shooting target;
    Generating a reduced image with reduced resolution of the divided image;
    Searching for corresponding points between the reduced images to obtain corresponding point information about the corresponding points;
    Identifying a reference reduced image serving as a reference for projective transformation among the plurality of reduced images;
    Calculating a projective transformation matrix for the reference reduced image of the converted reduced image other than the reference reduced image among the plurality of reduced images based on the corresponding point information and the reference reduced image;
    A projective transformation of contour position information indicating a contour of the transformed reduced image by the calculated projective transformation matrix;
    Generating contour position information of a composite image when the reference reduced image and the converted reduced image after the projective conversion are combined based on the projective-converted contour position information;
    Displaying the contour of the composite image based on the contour position information of the composite image;
    A program for causing a computer to execute a process including:
  17.  請求項16に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
     
    The computer-readable recording medium which recorded the program of Claim 16.
PCT/JP2018/010278 2017-03-30 2018-03-15 Image processing device, image processing method and program WO2018180551A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019509255A JP6779368B2 (en) 2017-03-30 2018-03-15 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-068561 2017-03-30
JP2017068561 2017-03-30

Publications (1)

Publication Number Publication Date
WO2018180551A1 true WO2018180551A1 (en) 2018-10-04

Family

ID=63676950

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010278 WO2018180551A1 (en) 2017-03-30 2018-03-15 Image processing device, image processing method and program

Country Status (2)

Country Link
JP (1) JP6779368B2 (en)
WO (1) WO2018180551A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113954A1 (en) * 2020-11-24 2022-06-02 住友重機械工業株式会社 Information processing device, information processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000134537A (en) * 1998-10-28 2000-05-12 Ricoh Co Ltd Image input device and its method
JP2010256253A (en) * 2009-04-27 2010-11-11 Topcon Corp Image capturing device for three-dimensional measurement and method therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000134537A (en) * 1998-10-28 2000-05-12 Ricoh Co Ltd Image input device and its method
JP2010256253A (en) * 2009-04-27 2010-11-11 Topcon Corp Image capturing device for three-dimensional measurement and method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113954A1 (en) * 2020-11-24 2022-06-02 住友重機械工業株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JPWO2018180551A1 (en) 2019-11-21
JP6779368B2 (en) 2020-11-04

Similar Documents

Publication Publication Date Title
JP6486069B2 (en) Image processing apparatus, inspection apparatus, inspection method, and image processing program
US11189009B2 (en) Image processing apparatus and image processing method
US20170289447A1 (en) Computer-readable recording medium, information processing method, and information processing apparatus
US10951821B2 (en) Imaging control device, imaging system, and imaging control method
WO2017119202A1 (en) Structure member specifying device and method
US20230419661A1 (en) Input apparatus, input method of input apparatus, and output apparatus
US20220136979A1 (en) Information processing apparatus, information processing method, and non- transitory computer-readable storage medium
US11423511B2 (en) Image composition method, image composition device, and recording medium
US20220215582A1 (en) Conversion parameter calculation method, displacement amount calculation method, conversion parameter calculation device, and displacement amount calculation device
WO2018180551A1 (en) Image processing device, image processing method and program
JP2017151026A (en) Three-dimensional information acquiring device, three-dimensional information acquiring method, and program
KR20200096426A (en) Moving body detecting device, moving body detecting method, and moving body detecting program
CN114175019A (en) Image display device, method, and program
WO2018180214A1 (en) Image processing device, camera device, and image processing method
US11920913B2 (en) Conversion parameter calculation method, displacement amount calculation method, conversion parameter calculation device, and displacement amount calculation device
US20220130030A1 (en) Information display apparatus, information display method, and information display program
EP4075093A1 (en) Image processing method, image processing device, and image processing program
JP7263983B2 (en) Photography omission detection device and photography omission detection method
CN115176281A (en) Three-dimensional display device, method, and program
WO2018070354A1 (en) Image-capturing plan generation device, image-capturing plan generation method, and program
JP5126020B2 (en) Image processing apparatus, image processing method, and program
WO2023084602A1 (en) Information processing device, information processing method, and information processing program
JP2019100979A (en) Position adjustment method for structure constitution member
JP2023007147A (en) Position detection marker and information processing system
WO2023135910A1 (en) Image-capturing device, image-capturing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18774568

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509255

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18774568

Country of ref document: EP

Kind code of ref document: A1