JP2020088647A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2020088647A
JP2020088647A JP2018221559A JP2018221559A JP2020088647A JP 2020088647 A JP2020088647 A JP 2020088647A JP 2018221559 A JP2018221559 A JP 2018221559A JP 2018221559 A JP2018221559 A JP 2018221559A JP 2020088647 A JP2020088647 A JP 2020088647A
Authority
JP
Japan
Prior art keywords
image
reference image
shooting
evaluation value
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018221559A
Other languages
Japanese (ja)
Other versions
JP7387261B2 (en
Inventor
敦史 野上
Atsushi Nogami
敦史 野上
裕輔 御手洗
Hirosuke Mitarai
裕輔 御手洗
優和 真継
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018221559A priority Critical patent/JP7387261B2/en
Priority to PCT/JP2019/042487 priority patent/WO2020110576A1/en
Publication of JP2020088647A publication Critical patent/JP2020088647A/en
Priority to US17/327,892 priority patent/US20210281748A1/en
Application granted granted Critical
Publication of JP7387261B2 publication Critical patent/JP7387261B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To easily set image-taking parameters for taking a desired image even if the detail of a taken image cannot be checked.SOLUTION: An evaluation value is obtained from a reference image and plural taken images obtained by taking images of an image-taking target with plural image-taking parameters and receiving from an image-taking unit for taking plural images, and an image-taking method suitable for taking images of the image-taking target is estimated on the basis of the evaluation value.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

橋梁、ダム、トンネル等の構造物のコンクリート壁面の点検では、調査技術者がコンクリート壁面に接近し、ひび割れ等の変状を目視で確認することが行われている。このような近接目視と呼ばれる点検作業は作業コストが高いため、近年、コンクリート壁面を撮影した画像で変状を確認する画像点検が行われている。
ここで、細いひび割れ等の見えづらいひび割れを確認できる画像を撮影するためには、撮影パラメータを適切に設定する必要がある。ユーザーは、フォーカス又は露出等の撮影パラメータを、撮影時の天候及び撮影機材に応じて適切に調整して、ひび割れが確認できる画像を撮影しなければならない。しかし、細いひび割れ等、不鮮明な変状を確認するための画像を撮影する撮影パラメータ調整は難しく、微妙な撮影パラメータの違いにより、変状が確認できたり、できなかったりする。
撮影パラメータを調整する方法の従来例として、例えば、特許文献1の方法がある。特許文献1では、まず、複数の異なる撮影パラメータで複数の画像を撮影し、撮影した複数の画像をディスプレイに表示する。ユーザーは、複数の画像の中から、最も好ましいと判断する画像を選択する。この結果、選択された画像を撮影した撮影パラメータが設定される。
When inspecting the concrete wall surface of structures such as bridges, dams, and tunnels, survey engineers are approaching the concrete wall surface and visually checking for deformations such as cracks. Since such an inspection work called close-up visual inspection has a high work cost, an image inspection for confirming the deformation by the image of the concrete wall surface has recently been performed.
Here, in order to shoot an image in which cracks such as thin cracks that are difficult to see are confirmed, it is necessary to set shooting parameters appropriately. The user must appropriately adjust shooting parameters such as focus and exposure according to the weather at the time of shooting and the shooting equipment, and shoot an image in which cracks can be confirmed. However, it is difficult to adjust the shooting parameters for shooting an image for confirming an unclear deformation such as a thin crack, and the deformation may or may not be confirmed due to a slight difference in the shooting parameters.
As a conventional example of the method of adjusting the shooting parameter, there is, for example, the method of Patent Document 1. In Patent Document 1, first, a plurality of images are photographed with a plurality of different photographing parameters, and the plurality of photographed images are displayed on a display. The user selects the image that is judged most preferable from the plurality of images. As a result, shooting parameters for shooting the selected image are set.

特許第4534816号公報Japanese Patent No. 4534816

Chopra, Sumit, Raia Hadsell, and Yann LeCun. "Learning a similarity metric discriminatively, with application to face verification." Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on. Vol. 1. IEEE, 2005.Chopra, Sumit, Raia Hadsell, and Yann LeCun. "Learning a similarity metric discriminatively, with application to face verification." Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on. Vol. 1. IEEE, 2005. Xie, Junyuan, Linli Xu, and Enhong Chen. "Image denoising and inpainting with deep neural networks." Advances in Neural Information Processing Systems. 2012.Xie, Junyuan, Linli Xu, and Enhong Chen. "Image denoising and inpainting with deep neural networks." Advances in Neural Information Processing Systems. 2012. Dong, Chao, et al. "Image super-resolution using deep convolutional networks." IEEE transactions on pattern analysis and machine intelligence 38.2 (2016): 295-307.Dong, Chao, et al. "Image super-resolution using deep convolutional networks." IEEE transactions on pattern analysis and machine intelligence 38.2 (2016): 295-307. Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems. 2014.Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems. 2014. Gatys, Leon A., Alexander S. Ecker, and Matthias Bethge. "Image style transfer using convolutional neural networks." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.Gatys, Leon A., Alexander S. Ecker, and Matthias Bethge. "Image style transfer using convolutional neural networks." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.

しかし、構造物点検のための撮影では、微妙な撮影パラメータ調整が必要となるため、特許文献1の方法を適用すると、画像間の変化が小さな複数画像を表示することになる。ユーザーにとって、このような変化が小さな画像を比較して、最適な画像を選択することは難しい。更に、点検画像は屋外で撮影するため、外光の影響、及び利用可能なディスプレイサイズの問題で、画像の微妙な差を判断することが難しい。 However, since imaging for structure inspection requires fine adjustment of imaging parameters, application of the method of Patent Document 1 causes display of a plurality of images with small changes between images. It is difficult for the user to compare images with such small changes and select the optimum image. Further, since the inspection image is taken outdoors, it is difficult to determine a subtle difference in the image due to the influence of external light and the available display size.

本発明は、基準画像を取得する取得手段と、前記基準画像と、複数の撮影パラメータで撮影対象を撮影し、複数の撮影画像を撮影する撮影部から受け取った前記複数の撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、を有する。 The present invention evaluates from an acquisition unit that acquires a reference image, the reference image, and the plurality of captured images that are captured from a capturing unit that captures a plurality of captured images by capturing a plurality of captured images of an object to be captured. Estimating means for obtaining a value and estimating a photographing method suitable for photographing the photographing target based on the evaluation value.

本発明によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。 According to the present invention, it becomes possible to easily set shooting parameters for shooting a desired image without confirming the details of the shot image.

情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an information processing apparatus. 情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an information processing apparatus. 画像格納部に格納される情報を説明する図である。It is a figure explaining the information stored in an image storage part. 情報処理の一例を示すフローチャートである。It is a flow chart which shows an example of information processing. 画像検索時の画面の一例を示す図である。It is a figure which shows an example of the screen at the time of image search. 撮影パラメータの設定を説明する図である。It is a figure explaining the setting of a photography parameter. ひび割れ位置の部分画像に基づいた評価値の算出方法を説明する図である。It is a figure explaining the calculation method of the evaluation value based on the partial image of a crack position. 各撮影パラメータの評価について説明する図である。It is a figure explaining evaluation of each photography parameter. 撮影パラメータ調整を行う場合の操作部について説明する図である。It is a figure explaining the operation part at the time of performing photography parameter adjustment. 実施形態4の情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing apparatus of Embodiment 4. 実施形態5の画像格納部に格納される情報を説明する図である。It is a figure explaining the information stored in the image storage part of Embodiment 5.

以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
実施形態1では、インフラ構造物の画像点検のための撮影における撮影パラメータ調整を例にして、説明を行う。インフラ構造物は、例えば、橋梁、ダム、トンネル等であり、画像点検では、これらの構造物のコンクリート壁面を撮影して、点検のための画像を作成する。したがって、本実施形態では、これらのコンクリート壁面が撮影対象となる。画像点検の対象は、他の構造物、コンクリート以外の材質表面を撮影対象とした画像であってもよい。例えば、点検対象が道路の場合、アスファルト表面を撮影対象としてもよい。
本実施形態では、理想的な画質の画像である基準画像を準備し、撮影対象を撮影した画像が基準画像と類似するように撮影方法を調整する。基準画像は、過去に撮影したコンクリート壁面画像のうち、細いひび割れ等の撮影が困難な点検対象が、明瞭に確認できる画像である。つまり、基準画像は、フォーカス、明るさ、色合い等が点検画像として好ましい品質で撮影された画像である。また、本実施形態で調整する主な撮影方法は、撮影部の撮影パラメータで、例えば、露出、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、等である。以下、基準画像を利用した撮影方法の調整方法について説明する。
<Embodiment 1>
In the first embodiment, description will be given by taking as an example the adjustment of imaging parameters in imaging for inspecting an image of an infrastructure structure. The infrastructure structure is, for example, a bridge, a dam, a tunnel, or the like, and in the image inspection, the concrete wall surface of these structures is photographed to create an image for the inspection. Therefore, in this embodiment, these concrete wall surfaces are objects to be photographed. The object of image inspection may be an image of the surface of a material other than concrete or other structures. For example, if the inspection target is a road, the asphalt surface may be the imaging target.
In the present embodiment, a reference image having an ideal image quality is prepared, and the shooting method is adjusted so that the image of the shooting target is similar to the reference image. The reference image is an image that can be clearly confirmed as an inspection target, such as a thin crack, which is difficult to photograph, among the concrete wall surface images photographed in the past. That is, the reference image is an image in which the focus, the brightness, the color tone, and the like are taken with the quality that is preferable as the inspection image. The main shooting method adjusted in the present embodiment is shooting parameters of the shooting unit, such as exposure, focus, white balance (color temperature), shutter speed, and aperture. Hereinafter, a method of adjusting the shooting method using the reference image will be described.

図1は、情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は後述する図2の撮影部101と一体化して、カメラの筐体内に含まれる構成としてもよいし、撮影部101で撮影した画像を無線、又は有線により送信し、撮影部101を含むカメラとは異なる筐体(例えば、コンピュータ、又はタブレット)で構成してもよい。図1の例では、情報処理装置100は、ハードウェア構成として、CPU10、記憶部11、操作部12、通信部13を含む。CPU10は、情報処理装置100の全体を制御する。CPU10が記憶部11に記憶されたプログラムに基づき処理を実行することによって、後述する図2、図10の102、104、105で示される構成、及び後述する図4のフローチャートの処理が実現される。記憶部11は、プログラム、CPU10がプログラムに基づき処理を実行する際に用いるデータ、画像等を記憶する。操作部12は、CPU10の処理の結果を表示したり、ユーザーの操作をCPU10に入力したりする。操作部12は、カメラ背面のディスプレイ及びタッチパネル、又はノートPCのディスプレイ及びインターフェースで構成することができる。通信部13は、情報処理装置100をネットワークに接続し、他の装置等との通信を制御する。 FIG. 1 is a diagram illustrating an example of a hardware configuration of the information processing device 100. The information processing apparatus 100 may be integrated with a photographing unit 101 of FIG. 2 to be described later and included in the housing of the camera. Alternatively, the image photographed by the photographing unit 101 may be wirelessly or wired transmitted to the photographing unit 101. The camera may include a housing (for example, a computer or a tablet) different from the camera. In the example of FIG. 1, the information processing device 100 includes a CPU 10, a storage unit 11, an operation unit 12, and a communication unit 13 as a hardware configuration. The CPU 10 controls the entire information processing device 100. When the CPU 10 executes the process based on the program stored in the storage unit 11, the configuration shown by 102, 104, 105 in FIG. 2, which will be described later, and the process of the flowchart of FIG. 4, which will be described later, are realized. .. The storage unit 11 stores a program, data used when the CPU 10 executes processing based on the program, an image, and the like. The operation unit 12 displays the result of the processing of the CPU 10 and inputs a user operation to the CPU 10. The operation unit 12 can be configured by a display and a touch panel on the back of the camera, or a display and an interface of a notebook PC. The communication unit 13 connects the information processing device 100 to a network and controls communication with other devices and the like.

図2は、実施形態1の情報処理装置100の構成の一例を示す図である。情報処理装置100は、構成として、撮影部101、基準画像処理部102、画像格納部103、推定部104、撮影パラメータ設定部105を含む。但し、上述したように、撮像部は、情報処理装置100に含まれてもよいし、含まれなくてもよい。基準画像処理部102、推定部104、撮影パラメータ設定部105は、ソフトウェアである。また、画像格納部103は、記憶部11に設けられてもよいし、情報処理装置100と通信可能なストレージサーバに設けられてもよい。画像格納部103がストレージサーバに設けられる場合、基準画像処理部102は、ネットワークを介して画像格納部103に保存された画像、及び画像に関連した情報を取得する。画像格納部103は、基準画像の候補となる画像群を格納するストレージである。 FIG. 2 is a diagram illustrating an example of the configuration of the information processing device 100 according to the first embodiment. The information processing apparatus 100 includes a photographing unit 101, a reference image processing unit 102, an image storage unit 103, an estimation unit 104, and a photographing parameter setting unit 105 as a configuration. However, as described above, the image capturing unit may or may not be included in the information processing device 100. The reference image processing unit 102, the estimation unit 104, and the shooting parameter setting unit 105 are software. The image storage unit 103 may be provided in the storage unit 11 or a storage server that can communicate with the information processing apparatus 100. When the image storage unit 103 is provided in the storage server, the reference image processing unit 102 acquires the image stored in the image storage unit 103 and the information related to the image via the network. The image storage unit 103 is a storage that stores a group of images that are candidates for reference images.

図3は、画像格納部103に格納される情報を説明する図である。まず、画像格納部103には、複数の画像(図3では、画像201、202)が格納されている。以下、画像格納部103に格納された画像201、202を格納画像と呼ぶ。格納画像は、様々な構造物のコンクリート壁面を撮影した画像から、画像点検に好ましい画質で撮影されている画像を収集して準備された画像である。画像点検に好ましい画質は、人間が画像を確認したときに、ひび割れ等の変状が確認しやすい画質であり、例えば、フォーカス、明るさ、色合い等が好ましい画像である。例えば、格納画像201は、ひび割れ211が明瞭に確認できる画像である。また、格納画像はひび割れが写っていることに限定されない。格納画像202ではコンクリート壁面の目地212が写っている画像である。この格納画像202は、目地212のエッジが明瞭に写っていることから、点検に好ましい画質の画像と判断されたものである。 FIG. 3 is a diagram illustrating information stored in the image storage unit 103. First, the image storage unit 103 stores a plurality of images (images 201 and 202 in FIG. 3). Hereinafter, the images 201 and 202 stored in the image storage unit 103 will be referred to as stored images. The stored image is an image prepared by collecting images taken with image quality suitable for image inspection from images taken of concrete wall surfaces of various structures. The image quality preferable for the image inspection is an image quality in which a deformation such as a crack can be easily confirmed when a person confirms the image, and, for example, an image in which the focus, the brightness, and the hue are preferable. For example, the stored image 201 is an image in which the crack 211 can be clearly confirmed. Further, the stored image is not limited to the one in which cracks are shown. The stored image 202 is an image showing the joint 212 of the concrete wall surface. Since the edge of the joint 212 is clearly reflected in the stored image 202, it is determined that the image has a preferable image quality for inspection.

また、撮影画像に対して、ひび割れを自動検知する技術を用いて、撮影画像を点検する場合、自動検知が好適に動作する画質を、画像点検に好ましい画質としてもよい。この場合、自動検知の検知結果の正解率等を算出し、これが高くなる画質の画像を格納画像とする。
図3の画像格納部103には、格納画像に画像情報と撮影パラメータとが関連付けられて記録されている。画像情報は、格納画像の撮影内容に関する情報で、例えば、対象物の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所・地域、経過年数、等の情報が含まれる。また、撮影パラメータは、それぞれの基準画像を撮影したときの撮影パラメータである。
Further, when inspecting a captured image using a technique for automatically detecting cracks in the captured image, the image quality at which automatic detection preferably operates may be the image quality preferable for image inspection. In this case, the correct answer rate and the like of the detection result of the automatic detection is calculated, and an image having a high image quality is used as the stored image.
In the image storage unit 103 of FIG. 3, the stored image is recorded in association with the image information and the shooting parameter. The image information is information related to the shooting content of the stored image, and includes, for example, the type of structure of the object, the type of concrete, the weather at the time of shooting, the target in the image, the installation location/region of the structure, the number of years elapsed, etc. Be done. The shooting parameters are shooting parameters when the respective reference images are shot.

図4は、情報処理の一例を示すフローチャートである。以下、フローチャートに従って、情報処理装置100の動作について説明する。
S301及びS302は、基準画像処理部102が実行する処理である。実施形態1の基準画像処理部102は、画像格納部103に格納された格納画像から基準画像を選択する処理を実行する。図5には、S301及びS302の実行時に、操作部12に表示される情報を示している。
S301において、基準画像処理部102は、検索条件に基づいて、画像格納部103から基準画像候補を検索する。基準画像候補の検索方法としては、画像情報を用いた方法がある。図3に示したように、画像格納部103に格納された画像には、画像情報が関連付けられている。基準画像処理部102は、この情報を基に、撮影対象に類似する格納画像を検索することができる。図5には、操作部12で格納画像を検索する画面の例を示している。例えば、撮影対象が橋梁の床版で、撮影時の天候が曇りであったとする。ユーザーは、このような撮影対象、又は撮影状況に関わる条件を画像検索条件に設定する。そして、検索ボタン410を選択することで、画像格納部103から検索条件に該当する格納画像を検索することができる。検索結果は、基準画像候補として基準画像候補表示欄420に表示される。基準画像候補は、検索条件と画像情報とが一致した格納画像だけを基準画像候補としてもよいし、項目の一致度が高い格納画像を所定数選択して基準画像候補としてもよい。また、図5の例では、検索のための画像情報は、構造物種類、コンクリート種類、天候のみを表示しているが、画像検索のための条件はこれらに限定する物ではない。更にまた、図5では、検索の方法としてプルダウンメニューで検索内容を設定する方法を示しているが、ユーザーが検索のための画像情報を入力する方法もこれに限定されない。例えば、自由な文字列をキーワードとして入力することにより、格納画像を検索することができる操作方法でもよい。
FIG. 4 is a flowchart showing an example of information processing. Hereinafter, the operation of the information processing apparatus 100 will be described according to the flowchart.
S301 and S302 are processes executed by the reference image processing unit 102. The reference image processing unit 102 of the first embodiment executes a process of selecting a reference image from the stored images stored in the image storage unit 103. FIG. 5 shows information displayed on the operation unit 12 when executing S301 and S302.
In S301, the reference image processing unit 102 searches the image storage unit 103 for a reference image candidate based on the search condition. As a reference image candidate search method, there is a method using image information. As shown in FIG. 3, image information is associated with the image stored in the image storage unit 103. The reference image processing unit 102 can search for a stored image similar to the shooting target based on this information. FIG. 5 shows an example of a screen for searching the stored image on the operation unit 12. For example, suppose that the shooting target is a bridge floor slab and the weather at the time of shooting was cloudy. The user sets the conditions related to such a shooting target or shooting condition as the image search condition. Then, by selecting the search button 410, the stored image corresponding to the search condition can be searched from the image storage unit 103. The search result is displayed in the reference image candidate display field 420 as a reference image candidate. As the reference image candidates, only the stored images in which the search conditions and the image information match may be used as the reference image candidates, or a predetermined number of stored images having a high degree of item matching may be selected as the reference image candidates. Further, in the example of FIG. 5, the image information for the search displays only the structure type, the concrete type, and the weather, but the conditions for the image search are not limited to these. Furthermore, although FIG. 5 shows a method of setting the search content by a pull-down menu as the search method, the method of the user inputting image information for the search is not limited to this. For example, the operation method may be such that the stored image can be searched by inputting a free character string as a keyword.

また、別の基準画像候補の検索方法として、仮撮影画像を用いる方法もある。この場合、まず、ユーザーは撮影部101で撮影対象を撮影する。この撮影は仮撮影で、このときの撮影パラメータは、オート設定等を用いる。この仮撮影で撮影した画像を仮撮影画像とする。ユーザーは、仮撮影画像を基準画像候補選択の検索キーとして設定する。図5には、基準画像候補選択の検索条件として、仮撮影画像450が設定されていることを示す。この状態で、検索ボタン410を選択することにより、画像格納部103から、仮撮影画像に類似した画像が検索される。検索の結果、類似度が高い上位の格納画像が、基準画像候補として選定され、基準画像候補表示欄420に表示される。ここで、仮撮影画像を用いた検索では、例えば、画像全体の特徴(コンクリート壁面の色味、又はテクスチャ感)を基に、格納画像との類似度を算出し、基準画像候補を選択する。これにより、これから点検のための撮影を行う撮影対象のコンクリート壁面が類似した格納画像を検索することができるようになる。また、上述の画像情報(キーワード)による検索と、仮撮影画像による検索とを同時に用いて基準画像候補を検索するようにしてもよい。
以上のようにして、基準画像候補が選択され、基準画像候補表示欄420に表示される。
Further, as another search method of reference image candidates, there is a method of using a tentative captured image. In this case, first, the user shoots a shooting target with the shooting unit 101. This shooting is tentative shooting, and automatic setting or the like is used as the shooting parameter at this time. The image photographed by this temporary photographing is referred to as a temporary photographed image. The user sets the tentative captured image as a search key for selecting a reference image candidate. FIG. 5 shows that the tentative captured image 450 is set as the search condition for selecting the reference image candidate. In this state, by selecting the search button 410, the image storage unit 103 is searched for an image similar to the tentative captured image. As a result of the search, the upper stored image having a high degree of similarity is selected as the reference image candidate and displayed in the reference image candidate display field 420. Here, in the search using the tentatively photographed image, for example, the degree of similarity with the stored image is calculated based on the characteristics of the entire image (color tone or texture of the concrete wall surface), and the reference image candidate is selected. As a result, it becomes possible to search for stored images in which the concrete wall surface to be photographed for inspection is similar. Further, the reference image candidates may be searched by simultaneously using the above-described search by the image information (keyword) and the search by the tentative captured image.
As described above, the reference image candidate is selected and displayed in the reference image candidate display field 420.

図4のS302において、基準画像処理部102は、基準画像候補表示欄420に表示された基準画像候補の中から1枚の画像を基準画像として選択する。まず、基準画像選択の初期値として、自動的に検索の一致度合いが最も高い基準画像候補が基準画像として選択される。図5には、このようにして選択された基準画像430が、基準画像表示欄に表示されている様子を示している。ユーザーは、このようにして表示された基準画像を確認することで、撮影方法調整の基準を確認することができる。選択された基準画像430が、調整の基準として不適であるとユーザーが判断する場合、ユーザーは基準画像候補から別の画像を基準画像として選択することができる。基準画像候補から別の画像が選択された場合、基準画像処理部102は、選択された画像を基準画像とする。
なお、図5の画像には、ひび割れ(例えば440、441)が写っている。後述するように、ひび割れ部分の画像を用いて評価値を算出する場合には、基準画像にひび割れが含まれている必要がある。また、仮撮影画像450にひび割れ440を含む画像を設定することで、基準画像候補の検索において、撮影対象のひび割れと類似のひび割れを含む格納画像を検索できるようにしてもよい。
In S302 of FIG. 4, the reference image processing unit 102 selects one image as a reference image from the reference image candidates displayed in the reference image candidate display field 420. First, as an initial value of reference image selection, a reference image candidate with the highest degree of matching in search is automatically selected as a reference image. FIG. 5 shows a state in which the reference image 430 thus selected is displayed in the reference image display field. The user can check the reference for adjusting the shooting method by checking the reference image displayed in this manner. If the user determines that the selected reference image 430 is not suitable as the reference for adjustment, the user can select another image from the reference image candidates as the reference image. When another image is selected from the reference image candidates, the reference image processing unit 102 sets the selected image as the reference image.
Note that cracks (for example, 440 and 441) are reflected in the image of FIG. As will be described later, when the evaluation value is calculated using the image of the crack portion, the reference image needs to include the crack. In addition, by setting an image including the crack 440 in the temporary captured image 450, it is possible to search for a stored image including a crack similar to the crack to be captured in the reference image candidate search.

S303において、撮影パラメータ設定部105は、撮影パラメータの初期値(以下、初期撮影パラメータ)を決定する。初期撮影パラメータの設定は、撮影装置の通常の撮影パラメータ調整方法(オートパラメータ調整)で決定した撮影パラメータを初期パラメータとして設定すればよい。また、別の方法として、基準画像に関連付けられた撮影パラメータを初期パラメータとしてもよい。図3で示したように、画像格納部103では、各格納画像について、その画像を撮影したときの撮影パラメータを記録している。したがって、基準画像に関連付けられた撮影パラメータを初期パラメータとする場合には、基準画像処理部102は、基準画像として選択された画像に関連付けられた撮影パラメータを画像格納部103から呼び出して、初期パラメータとして設定する。 In S303, the shooting parameter setting unit 105 determines initial values of shooting parameters (hereinafter, initial shooting parameters). To set the initial shooting parameters, the shooting parameters determined by the normal shooting parameter adjustment method (automatic parameter adjustment) of the shooting apparatus may be set as the initial parameters. Further, as another method, the shooting parameter associated with the reference image may be used as the initial parameter. As shown in FIG. 3, the image storage unit 103 records, for each stored image, shooting parameters at the time of shooting the image. Therefore, when the shooting parameter associated with the reference image is used as the initial parameter, the reference image processing unit 102 calls the shooting parameter associated with the image selected as the reference image from the image storage unit 103 to set the initial parameter. Set as.

S304において、撮影パラメータ設定部105は、初期撮影パラメータを基に、複数の撮影パラメータを設定する。図6には、初期撮影パラメータを基に、複数の撮影パラメータを設定する様子を示している。まず、図6(A)は、本実施形態の方法で調整する撮影パラメータの例として、露出(EV)を調整する実施形態について説明する図である。図6(A)では、初期パラメータとしてEV0が設定されている様子を白三角501で示している。撮影パラメータ設定部105は、この初期パラメータを中心に、複数の撮影パラメータを設定する。図6(A)では、撮影パラメータ設定部105は、EV0を中心にそれぞれ露出を1段変化させて、EV−1(図6の黒三角502)とEV+1(図6の黒三角503)を複数パラメータとして設定している。この例では、初期撮影パラメータと合わせて3つの撮影パラメータを設定している様子を示しているが、設定する撮影パラメータの数はこれに限らない。例えば、撮影パラメータ設定部105は、更に2段異なる露出を設定して、合計5つの撮影パラメータを設定するようにしてもよい。また、この例では、露出を1段変更するルールにより、複数の撮影パラメータを設定しているが、撮影パラメータの変更の刻みは、これ以外の設定方法としてもよい。例えば、撮影パラメータ設定部105は、露出を1/2段刻みで設定するようにしてもよいし、初期撮影パラメータ周辺でランダムに設定するようにしてもよい。 In S304, the shooting parameter setting unit 105 sets a plurality of shooting parameters based on the initial shooting parameters. FIG. 6 shows how a plurality of shooting parameters are set based on the initial shooting parameters. First, FIG. 6A is a diagram illustrating an embodiment in which the exposure (EV) is adjusted as an example of a shooting parameter adjusted by the method of the present embodiment. In FIG. 6A, a white triangle 501 indicates that EV0 is set as the initial parameter. The shooting parameter setting unit 105 sets a plurality of shooting parameters centered on the initial parameters. In FIG. 6A, the shooting parameter setting unit 105 changes the exposure by one step centering on EV0, and sets a plurality of EV-1 (black triangle 502 in FIG. 6) and EV+1 (black triangle 503 in FIG. 6). It is set as a parameter. In this example, three shooting parameters are set together with the initial shooting parameters, but the number of shooting parameters to be set is not limited to this. For example, the shooting parameter setting unit 105 may set two different exposures and set a total of five shooting parameters. Further, in this example, a plurality of shooting parameters are set according to the rule that the exposure is changed by one step, but the steps of changing the shooting parameters may be set by other methods. For example, the shooting parameter setting unit 105 may set the exposure in half steps, or may set the exposure randomly around the initial shooting parameters.

以上では、撮影パラメータを露出とした場合についての実施形態を説明したが、本実施形態で設定する撮影パラメータは露出に限定されない。撮影部101を制御するパラメータであれば、撮影パラメータはどのようなものを用いてもよく、例えば、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、ISO感度、画像の彩度、色合い等を撮影パラメータとしてもよい。
また、図6(A)では、露出のみを本実施形態で調整する撮影パラメータとする実施形態について説明したが、複数の撮影パラメータを同時に調整するようにしてもよい。例えば、図6(B)は、露出とフォーカスとの組み合わせを調整する撮影パラメータとした場合の実施形態について説明する図である。図6(B)では、ある露出とフォーカスとのパラメータの組み合わせが初期パラメータとして設定されており、白丸511として示されている。撮影パラメータ設定部105は、この初期パラメータを中心に、例えば黒丸512のような撮影パラメータの組み合わせを、複数の撮影パラメータとして設定してもよい。
In the above, the embodiment has been described in which the shooting parameter is the exposure, but the shooting parameter set in this embodiment is not limited to the exposure. Any shooting parameter may be used as long as it is a parameter for controlling the shooting unit 101. For example, focus, white balance (color temperature), shutter speed, aperture, ISO sensitivity, image saturation, tint, etc. May be used as the shooting parameter.
Further, in FIG. 6A, the embodiment in which only the exposure is used as the shooting parameter to be adjusted in the present embodiment has been described, but a plurality of shooting parameters may be simultaneously adjusted. For example, FIG. 6B is a diagram illustrating an embodiment in which a combination of exposure and focus is used as a shooting parameter for adjusting. In FIG. 6B, a combination of a certain parameter of exposure and focus is set as an initial parameter and is shown as a white circle 511. The shooting parameter setting unit 105 may set a combination of shooting parameters, such as a black circle 512, as a plurality of shooting parameters centering on the initial parameters.

なお、調整する対象となる撮影パラメータの組み合わせは、図6(B)の露出とフォーカスとの組み合わせに限らず、他の撮影パラメータの組み合わせでもよい。また、上記の説明では、2つのパラメータの組み合わせを調整する実施形態について説明したが、撮影パラメータの組み合わせ数もこれに限らず、3つ以上の撮影パラメータの組み合わせを同時に調整するようにしてもよい。
S304では、以上のようにして、撮影パラメータ設定部105で複数の撮影パラメータを設定する。以降の処理の説明については、調整する撮影パラメータを、図6(A)のように露出とした場合について説明する。
Note that the combination of the shooting parameters to be adjusted is not limited to the combination of the exposure and focus shown in FIG. 6B, and may be a combination of other shooting parameters. Further, in the above description, the embodiment in which the combination of two parameters is adjusted has been described, but the number of combinations of shooting parameters is not limited to this, and combinations of three or more shooting parameters may be adjusted at the same time. ..
In S304, as described above, the shooting parameter setting unit 105 sets a plurality of shooting parameters. Regarding the subsequent processing, a case will be described in which the shooting parameter to be adjusted is exposure as shown in FIG.

図4のS305において、撮影部101は、S304で設定された複数の撮影パラメータを用いて、撮影対象を撮影する。より具体的には、図6(A)のように複数の撮影パラメータとして3つの露出が設定された場合には、撮影部101は、ユーザーのシャッター操作に応じて露出を変更しながら3枚の画像を自動的に撮影する。以下、このステップで撮影された画像を撮影画像と呼ぶ。 In step S305 of FIG. 4, the image capturing unit 101 captures an image of the image capturing target using the plurality of image capturing parameters set in step S304. More specifically, when three exposures are set as a plurality of shooting parameters as shown in FIG. 6A, the shooting unit 101 changes the exposure according to the user's shutter operation and changes the exposure to three. Take an image automatically. Hereinafter, the image captured in this step is referred to as a captured image.

図4のS306以降の処理は主に推定部104で実行する処理で、最適な撮影パラメータを選択する処理、又は、最適な撮影パラメータを更に探索するための処理である。
S306において、推定部104は、複数の撮影パラメータそれぞれについて評価値を算出する。評価値は、撮影パラメータが点検画像を撮影するために適切であるほど高い値を示すものである。推定部104は、この評価値を、各撮影パラメータで撮影した撮影画像と基準画像とを比較することで算出する。より具体的には、撮影画像が基準画像と類似する場合、その撮影画像を撮影した撮影パラメータは好ましいパラメータであると判断することができる。したがって、このような場合には、推定部104は、高い評価値を算出するようにする。この評価値算出のためには、撮影画像と基準画像との類似度を算出すればよい。以下では、評価値の算出方法の具体例について説明する。
The process from S306 onward in FIG. 4 is a process mainly executed by the estimation unit 104, and is a process for selecting the optimum shooting parameter or a process for further searching for the optimum shooting parameter.
In S306, the estimation unit 104 calculates an evaluation value for each of the plurality of shooting parameters. The evaluation value indicates a higher value as the shooting parameter is more appropriate for shooting the inspection image. The estimation unit 104 calculates this evaluation value by comparing the captured image captured with each capturing parameter with the reference image. More specifically, when the captured image is similar to the reference image, the capturing parameter for capturing the captured image can be determined to be a preferable parameter. Therefore, in such a case, the estimation unit 104 is configured to calculate a high evaluation value. In order to calculate this evaluation value, the degree of similarity between the photographed image and the reference image may be calculated. Hereinafter, a specific example of the method of calculating the evaluation value will be described.

撮影画像と基準画像との評価値算出方法の一つの例として、まず、画像全体の類似度を算出して評価値として用いる方法について説明する。例えば、画像全体の類似度を、画像全体の明るさで比較する場合は、撮影画像と基準画像とをグレースケール変換した後に、画像全体の輝度ヒストグラムを作成し、撮影画像の輝度ヒストグラムと基準画像の輝度ヒストグラムとの類似度を算出すればよい。ヒストグラムの類似度は、単純にユークリッド距離を算出する方法、又はHistogram Intersectio等の手法で計算することができる。また、画像全体の色あいの類似度を算出する場合には、グレースケール変換を行わずに、RGB、又はYCrCb等の色空間を基にそれぞれの画像の色ヒストグラムを作成し、色ヒストグラムの類似度を算出するようにすればよい。画像全体の類似度を判定するための特徴量は、これらのヒストグラム特徴量に限定することなく、他の特徴量を用いてもよい。 As one example of the method of calculating the evaluation value between the captured image and the reference image, first, a method of calculating the similarity of the entire image and using it as the evaluation value will be described. For example, when comparing the similarity of the entire image with the brightness of the entire image, after the grayscale conversion between the captured image and the reference image, a luminance histogram of the entire image is created, and the luminance histogram of the captured image and the reference image are compared. It is only necessary to calculate the degree of similarity with the luminance histogram of. The similarity of the histogram can be calculated by a method of simply calculating the Euclidean distance or a method such as Histogram Intersectio. Further, when calculating the similarity of the hue of the entire image, the color histogram of each image is created based on the color space such as RGB or YCrCb without performing the grayscale conversion, and the similarity of the color histogram is calculated. Should be calculated. The feature amount for determining the similarity of the entire image is not limited to these histogram feature amounts, and other feature amounts may be used.

また、他の評価値算出方法の例として、画像の部分的な類似度を算出するようにしてもよい。例えば、コンクリート壁面の点検画像を撮影したい場合に、興味がある部分は画像中のコンクリート壁面が写っている部分である。したがって、撮影画像及び基準画像にコンクリート壁面以外の部分が写っている場合には、その部分を除いたコンクリート壁面の部分の画像を基に類似度を算出するようにしてもよい。より具体的には、例えば、橋梁の床版を橋梁の下側から撮影するときに、撮影画像に空領域(背景部分)が含まれることがある。このような撮影画像では、推定部104は、空領域を除去し、床版のコンクリート壁面の画像部分と、基準画像との類似度を算出することにより評価値を算出する。この類似度の算出では、撮影画像の部分画像と基準画像全体それぞれについて上述のヒストグラム特徴量を作成し、ヒストグラム特徴量間の類似度を算出すればよい。この例は、基準画像は画像全体がコンクリート壁面画像である前提で、撮影画像側の部分画像と基準画像との類似度を算出する例である。しかし、基準画像の一部に背景と見なせる部分が含まれている場合には、基準画像の部分画像と撮影画像との類似度を算出するようにしてもよい。 As another example of the evaluation value calculation method, the partial similarity of images may be calculated. For example, when it is desired to take an inspection image of a concrete wall surface, the portion of interest is the portion in which the concrete wall surface is shown. Therefore, when a portion other than the concrete wall surface is shown in the captured image and the reference image, the similarity may be calculated based on the image of the portion of the concrete wall surface excluding the portion. More specifically, for example, when the floor slab of the bridge is photographed from below the bridge, the photographed image may include a sky region (background portion). In such a captured image, the estimation unit 104 removes the sky region and calculates the evaluation value by calculating the similarity between the image portion of the concrete wall surface of the floor slab and the reference image. In the calculation of the similarity, the above-described histogram feature amount may be created for each of the partial image of the captured image and the entire reference image, and the similarity between the histogram feature amounts may be calculated. This example is an example of calculating the degree of similarity between the partial image on the captured image side and the reference image on the assumption that the entire reference image is a concrete wall surface image. However, when a part of the reference image includes a part that can be regarded as the background, the similarity between the partial image of the reference image and the captured image may be calculated.

また、更に、画像の部分的な類似度を算出する別の方法を説明する。画像点検のためのコンクリート壁面画像の撮影では、細いひび割れが撮影画像で確認できる画質で撮影を行うことが重要である。基準画像は、細いひび割れが十分に確認できる理想的な点検画像であるとすると、撮影画像の細いひび割れ部分が基準画像の細いひび割れ部分と同様に撮影されることが好ましい。ひび割れ部分が同様に撮影されているかを判定するために、推定部104は、画像中のひび割れ部分の部分画像を用いて評価値を算出する。ひび割れ部分の画像の評価値算出方法には、どのような方法を用いてもよいが、以下の例では、ひび割れ部分のエッジ強度が類似するほど高い評価値を算出するようにする。このために、まず、推定部104は、撮影画像と基準画像とのひび割れ部分を特定する。このひび割れ部分の特定方法は、自動で実行されるものでもよいし、ユーザーが手動で実施するものでもよい。自動的にひび割れを検知する場合には、推定部104は、ひび割れ自動検知の処理を用いるものとする。手動でひび割れ位置を特定する場合には、推定部104は、操作部12を介したユーザーによる画像中のひび割れ位置の入力を受け取る。撮影画像に対しては、これらの処理により撮影後にひび割れ位置を特定する必要があるが、基準画像のひび割れ位置は、予め特定しておいて、画像格納部103に格納画像と関連付けて記録しておいてもよい。以上のようにして、撮影画像と基準画像とのひび割れ位置が得られていれば、推定部104は、それぞれのひび割れ位置の画像のエッジ強度を算出する。エッジ強度は、単純にひび割れ位置の輝度値としてもよいし、Sobleフィルタ等でひび割れ位置の勾配を算出し、その勾配強度をエッジ強度としてもよい。これらのエッジ強度は画素単位で求められるため、撮影画像と基準画像とのエッジ強度の類似度を算出するためには、画像全体のエッジ強度特徴量を作成する必要がある。このためには、例えば、推定部104は、ひび割れ位置のエッジ強度をそれぞれの画像でヒストグラム化したヒストグラム特徴量を作成する等すればよい。推定部104は、撮影画像と基準画像とのエッジ強度ヒストグラム特徴量の類似度を算出し、類似度が高いほど撮影画像と基準画像との評価値が高くなるようにする。 Further, another method of calculating the partial similarity of images will be described. When taking images of concrete wall surfaces for image inspection, it is important to take images with the image quality that allows fine cracks to be confirmed in the taken images. Assuming that the reference image is an ideal inspection image in which thin cracks can be sufficiently confirmed, it is preferable that the thin crack portion of the photographed image be photographed in the same manner as the thin crack portion of the reference image. In order to determine whether the cracked portion is similarly photographed, the estimation unit 104 calculates the evaluation value using the partial image of the cracked portion in the image. Any method may be used to calculate the evaluation value of the image of the cracked portion, but in the following example, a higher evaluation value is calculated as the edge strength of the cracked portion is similar. For this purpose, first, the estimation unit 104 identifies the cracked portion between the captured image and the reference image. The method of identifying the cracked portion may be performed automatically or manually by the user. When automatically detecting a crack, the estimation unit 104 uses the automatic crack detection process. When manually specifying the crack position, the estimation unit 104 receives an input of the crack position in the image from the user via the operation unit 12. With respect to the captured image, it is necessary to specify the crack position after shooting by these processes, but the crack position of the reference image is specified in advance and recorded in the image storage unit 103 in association with the stored image. You can leave it. As described above, if the crack positions of the captured image and the reference image are obtained, the estimation unit 104 calculates the edge strength of the image at each crack position. The edge strength may be simply a luminance value at the crack position, or the gradient at the crack position may be calculated by a Sobel filter or the like, and the gradient strength may be used as the edge strength. Since these edge intensities are obtained on a pixel-by-pixel basis, in order to calculate the similarity of the edge intensities of the captured image and the reference image, it is necessary to create the edge intensity feature amount of the entire image. For this purpose, for example, the estimation unit 104 may create a histogram feature amount by histogramming the edge strength at the crack position in each image. The estimation unit 104 calculates the similarity of the edge strength histogram feature amount between the captured image and the reference image, and the higher the similarity, the higher the evaluation value between the captured image and the reference image.

なお、以上のように、ひび割れ部分のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にひび割れが含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、ひび割れが存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301〜S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、ひび割れが含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。
以上では、ひび割れ位置のエッジ強度を基に、撮影画像と基準画像との評価値を算出したが、撮影対象のコンクリート壁面に、常にひび割れが存在するとは限らない。したがって、推定部104は、例えば、コンクリートの目地、又は型枠跡等、コンクリートの構造上、確実に出現する画像エッジ部分のエッジ強度に基づいて評価値を算出するようにしてもよい。この場合、撮影画像及び基準画像に含まれるコンクリート目地、型枠跡の部分のエッジ強度を利用すること以外は、上述のひび割れ部分のエッジを用いた評価値算出方法と同様の手法で評価値を算出することができる。
As described above, in order to calculate the evaluation value based on the edge strength of the cracked portion, it is premised that both the photographed image and the reference image include cracks. With regard to the photographed image, the user can obtain a photographed image including a crack by photographing the portion where the crack exists from the concrete wall surface to be photographed. On the other hand, regarding the reference image, in the step of selecting the reference image in S301 to S302, the user searches and stores the stored image stored in the image storage unit 103 so that the image including the crack becomes the reference image. Select and set.
In the above, the evaluation values of the photographed image and the reference image are calculated based on the edge strength at the crack position, but the concrete wall surface of the photographed object does not always have a crack. Therefore, the estimation unit 104 may calculate the evaluation value based on the edge strength of the image edge portion that surely appears in the structure of concrete such as the joint of the concrete or the trace of the mold. In this case, except for using the concrete joints included in the captured image and the reference image, the edge strength of the portion of the mold trace, the evaluation value is calculated by the same method as the evaluation value calculation method using the edge of the cracked portion described above. It can be calculated.

なお、以上のように、コンクリート目地のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にコンクリート目地が含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、コンクリート目地が存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301〜S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、コンクリート目地が含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。 As described above, in order to calculate the evaluation value based on the edge strength of the concrete joint, it is premised that both the photographed image and the reference image include the concrete joint. With regard to the photographed image, the user can obtain a photographed image including cracks by photographing the portion where concrete joints are present from the concrete wall surface of the photographing target. On the other hand, regarding the reference image, in the step of selecting the reference image in S301 to S302, the user searches the stored images stored in the image storage unit 103 so that the image including the concrete joint becomes the reference image. Also, set by selecting.

また、ひび割れ位置のエッジ強度を用いた評価値算出の変形として、推定部104は、ひび割れ幅の情報を用いて、撮影画像と基準画像とのエッジ強度の評価値を算出するようにしてもよい。この方法では、推定部104は、撮影画像と基準画像とで同じ太さの幅のひび割れのエッジ強度が類似するほど、高い評価値を算出するようにする。図7には、ひび割れ幅の情報を用いて、ひび割れ位置の部分画像に基づいた評価値の算出方法を説明する図を示す。まず、図7(A)は、ある撮影パラメータで撮影した撮影画像620の例で、コンクリート壁面のひび割れ600が写った画像であるとする。ひび割れ600は、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。図7(A)では、このひび割れ600について、局所的なひび割れ幅が計測できているものとする。例えば、図7(A)には、0.15mm、0.50mm等のひび割れ幅が明らかな箇所が示されている。これらのひび割れ幅は、ユーザーが実際のコンクリート壁面のひび割れ幅を計測し、操作部12を介して画像を撮影中に入力するものとする。又は、ユーザーが撮影画像を確認して、ひび割れ幅を推定し、操作部12を介して画像を撮影中に入力してもよい。CPU10は、入力されたひび割れ幅を撮影画像と関連付けて画像格納部103に格納する。一方、図7(B)は基準画像621の例で、ひび割れ610が写ったコンクリート壁面の画像である。ひび割れ610もひび割れ600と同様に、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。ひび割れ600についても、局所的なひび割れ幅が記録されており、例えば、図7(B)には0.10mm、0.50mm等のひび割れ幅が記録されている。これらの基準画像のひび割れ幅情報は、画像格納部103に格納されており、基準画像621と共に画像格納部103から呼び出されるものとする。 Further, as a modification of the evaluation value calculation using the edge strength at the crack position, the estimation unit 104 may use the information about the crack width to calculate the evaluation value of the edge strength between the captured image and the reference image. .. In this method, the estimation unit 104 calculates a higher evaluation value as the edge strengths of the cracks having the same width in the captured image and the reference image are similar to each other. FIG. 7 is a diagram illustrating a method of calculating an evaluation value based on a partial image of a crack position by using the information on the crack width. First, FIG. 7A is an example of a photographed image 620 photographed with a certain photographing parameter, and is an image in which cracks 600 on a concrete wall surface are photographed. The crack 600 is a crack having various crack widths depending on the part in one crack. In FIG. 7A, it is assumed that a local crack width can be measured for this crack 600. For example, FIG. 7(A) shows places where the crack width is obvious, such as 0.15 mm and 0.50 mm. For these crack widths, the user measures the actual crack width of the concrete wall surface and inputs it through the operation unit 12 during image capturing. Alternatively, the user may check the captured image, estimate the crack width, and input the image via the operation unit 12 during capturing. The CPU 10 stores the input crack width in the image storage unit 103 in association with the captured image. On the other hand, FIG. 7B is an example of the reference image 621, which is an image of the concrete wall surface in which the crack 610 is reflected. Similarly to the crack 600, the crack 610 is also a crack having various crack widths depending on the part in one crack. A local crack width is also recorded for the crack 600, and for example, crack widths of 0.10 mm, 0.50 mm, etc. are recorded in FIG. 7B. The crack width information of these reference images is stored in the image storage unit 103 and is called together with the reference image 621 from the image storage unit 103.

図7の撮影画像620と基準画像621との評価値算出では、推定部104は、同じひび割れ幅のひび割れ部分のエッジ強度を比較する。例えば、ひび割れ幅0.50mmの部分として、推定部104は、撮影画像620の部分的な画像601と、基準画像621の部分的な画像611とのエッジ強度に基づいて類似度を算出する。また、ひび割れ幅0.10mmの部分として、推定部104は、撮影画像620の部分的な画像602と、基準画像621の部分的な画像612とのエッジ強度に基づいて類似度を算出する。このように、同じひび割れ幅の画像部分の類似度に基づいて、撮影画像620と基準画像621との評価値sは、以下の式で求められる。

Figure 2020088647
ここで、diは、あるひび割れ幅(例えば、0.10mm幅のひび割れ)の画像部分の類似度である。αiは、あるひび割れ幅の評価値への重みである。αiは、例えば、細いひび割れ幅に大きな重みを付けるようにする。このようにすることで、撮影画像の細いひび割れ部分が、基準画像の画質に一致するほど高い評価値が算出される。したがって、細いひび割れ部分が基準画像の画質に近づくことを重視して、撮影条件を調整することができるようになる。
なお、ひび割れ部分の画像を用いて評価値を算出する場合には、撮影画像と基準画像とのコンクリート壁面の撮影解像度は、同解像度とすることが好ましい。より具体的には、撮影画像と基準画像とに写るコンクリート壁面が、例えば1.0mm/画素となる解像度になるように調整する処理を予め実施する。これは、解像度によって、同じひび割れでもエッジ強度等の見た目が変化するためである。また、画像中のコンクリート壁面が正対するように、あおり補正を予め実施することも好適な実施形態である。 In the evaluation value calculation of the captured image 620 and the reference image 621 of FIG. 7, the estimation unit 104 compares the edge strengths of cracked portions having the same crack width. For example, the estimation unit 104 calculates the degree of similarity based on the edge strength between the partial image 601 of the captured image 620 and the partial image 611 of the reference image 621 as the portion having the crack width of 0.50 mm. Further, the estimation unit 104 calculates the degree of similarity based on the edge strength between the partial image 602 of the captured image 620 and the partial image 612 of the reference image 621 as the portion having the crack width of 0.10 mm. In this way, the evaluation value s between the captured image 620 and the reference image 621 is calculated by the following formula based on the similarity between the image portions having the same crack width.
Figure 2020088647
Here, d i is the degree of similarity of an image portion having a certain crack width (for example, a crack having a width of 0.10 mm). α i is a weight for the evaluation value of a certain crack width. For α i , for example, a large weight is given to a narrow crack width. By doing so, a higher evaluation value is calculated as the fine cracked portion of the captured image matches the image quality of the reference image. Therefore, it becomes possible to adjust the shooting conditions, placing importance on the fact that the thin cracked portion approaches the image quality of the reference image.
In addition, when the evaluation value is calculated using the image of the cracked portion, it is preferable that the photographing resolutions of the concrete wall surface of the photographed image and the reference image are the same. More specifically, a process of adjusting the concrete wall surfaces reflected in the photographed image and the reference image to have a resolution of, for example, 1.0 mm/pixel is performed in advance. This is because the appearance such as edge strength changes depending on the resolution even with the same crack. Further, it is also a preferable embodiment to carry out the tilt correction in advance so that the concrete wall surface in the image faces directly.

以上では、撮影画像と基準画像とそれぞれで画像特徴量を作成し、特徴量の距離等に基づいて画像間の類似度を算出して、これを評価値とする実施形態について説明した。画像の類似度を算出する方法は、これに限らず、予め学習した学習モデルを用いて評価値を算出するようにしてもよい。この方法では、入力画像と基準画像とが類似するほど高い評価値を出力するモデルを予め学習しておく。この学習は、例えば、以下のようなデータセットDを用いて学習することができる。

Figure 2020088647
ここで、xnは任意の基準画像である。ynは任意の撮影画像である。tnは、xnとynとが類似画像と見なせる場合には1をとり、類似画像と見なせない場合には0をとる教師データである。このデータセットを用いて学習を行う学習方法はどのようなものを用いてもよいが、例えば、CNN(Convolutional Neural Network)を用いた学習方法の例として、非特許文献1のような方法がある。非特許文献1に記載の方法でデータセットDを学習したモデルは、評価値を算出したい撮影画像と基準画像とをモデルに入力すると、評価値を算出することができる。
以上では、撮影画像と基準画像との評価値の算出方法について様々な手法を説明した。説明した方法以外にも、画像と画像との類似度の算出方法については、従来、様々な方法が提案されている。推定部104は、これら公知の手法を用いて本実施形態の評価値を算出してもよい。 The embodiment has been described above in which the image feature amount is created for each of the captured image and the reference image, the similarity between the images is calculated based on the distance of the feature amount, and the calculated similarity is used as the evaluation value. The method of calculating the image similarity is not limited to this, and the evaluation value may be calculated using a learning model learned in advance. In this method, a model that outputs a higher evaluation value as the input image and the reference image are similar to each other is learned in advance. This learning can be learned using the following data set D, for example.
Figure 2020088647
Here, x n is an arbitrary reference image. y n is an arbitrary captured image. t n is teacher data that takes 1 when x n and y n can be regarded as similar images, and takes 0 when they cannot be regarded as similar images. Although any learning method for performing learning using this data set may be used, as an example of a learning method using CNN (Convolutional Neural Network), there is a method as described in Non-Patent Document 1. .. The model in which the data set D is learned by the method described in Non-Patent Document 1 can calculate the evaluation value by inputting the captured image and the reference image for which the evaluation value is to be calculated into the model.
In the above, various methods have been described as the method of calculating the evaluation value of the captured image and the reference image. In addition to the method described above, various methods have been conventionally proposed as a method of calculating the similarity between images. The estimation unit 104 may calculate the evaluation value of this embodiment using these known methods.

また、以上では、評価値の算出方法について、複数の方法を説明したが、これらの評価値算出手法は、それぞれを単独で用いてもよいし、複数の手法を組み合わせて用いてもよい。複数の手法を組み合わせる場合には、推定部104は、例えば、以下の式により最終的な評価値sを算出する。

Figure 2020088647
ここで、sjは、ある方法により求めた評価値である。wjはその方法の重みである。
S306では、以上のような方法で、推定部104は、撮影画像と基準画像との評価値を算出する。また、S306では、推定部104は、複数の撮影パラメータで撮影した撮影画像それぞれについて評価値を算出する。 Further, although a plurality of methods for calculating the evaluation value have been described above, each of these evaluation value calculating methods may be used alone, or a plurality of methods may be used in combination. When combining a plurality of methods, the estimation unit 104 calculates the final evaluation value s by the following formula, for example.
Figure 2020088647
Here, s j is an evaluation value obtained by a certain method. w j is the weight of the method.
In S306, the estimation unit 104 calculates the evaluation values of the captured image and the reference image by the above method. Further, in S306, the estimation unit 104 calculates an evaluation value for each of the photographed images photographed with the plurality of photographing parameters.

S307において、推定部104は、S306で算出した評価値を基に撮影パラメータの評価を行う。
S308において、推定部104は、評価結果に基づいて、撮影パラメータを再調整するか否かを判定する。
撮影パラメータを再調整する場合、S309において、推定部104は、影パラメータを改善する方法を推定する。そして、推定部104は、S305の複数画像の撮影の処理に戻る。
撮影パラメータを再調整しない場合、S310において、撮影パラメータ設定部105は、撮影部101に撮影パラメータを設定する。そして、図4に示すフローチャートの処理を終了する。
以下、これらの処理について説明する。
In S307, the estimation unit 104 evaluates the shooting parameter based on the evaluation value calculated in S306.
In S308, the estimation unit 104 determines whether or not to readjust the imaging parameter based on the evaluation result.
When readjusting the imaging parameter, the estimation unit 104 estimates a method for improving the shadow parameter in S309. Then, the estimation unit 104 returns to the process of capturing a plurality of images in S305.
When the read parameters are not readjusted, the shooting parameter setting unit 105 sets the shooting parameters in the shooting unit 101 in step S310. Then, the processing of the flowchart shown in FIG. 4 ends.
Hereinafter, these processes will be described.

まず、S307の撮影パラメータ評価では、推定部104は、複数の撮影パラメータの評価値から最大の評価値を選択し、所定の閾値と比較する。図8(A)は、各撮影パラメータの評価について説明する図である。本実施形態では、複数の撮影パラメータとして、露出(EV)を3つ設定した。図8(A)には、複数の撮影パラメータとして、露出−1、0、+1を設定している様子を、図6(A)と同様に、三角501、502、503で表している。また、図8(A)の下部には、各撮影パラメータで撮影した撮影画像と基準画像とから得られる評価値s-1、s0、s+1を示している。図8(A)では、+1の露出503の評価値s+1が最も高い評価値となっており、かつ、所定の閾値sthを超える値を示している。所定の閾値sthを超える評価値を示す撮影パラメータが存在する場合、推定部104は、その撮影パラメータが点検画像の撮影パラメータとして適した撮影パラメータと判断する。図8(A)の場合、推定部104は、+1の露出503を最適パラメータとして選択する。そして、S308では、推定部104は、撮影パラメータの再調整は不要と判断し、撮影パラメータ設定のS310へ進む。S310では、撮影パラメータ設定部105が、撮影部101に+1の露出を設定して、図4に示す処理を終了する。 First, in the imaging parameter evaluation of S307, the estimation unit 104 selects the maximum evaluation value from the evaluation values of the plurality of imaging parameters and compares it with a predetermined threshold value. FIG. 8A is a diagram illustrating the evaluation of each shooting parameter. In this embodiment, three exposures (EV) are set as a plurality of shooting parameters. In FIG. 8(A), a state in which exposures -1, 0, +1 are set as a plurality of shooting parameters is represented by triangles 501, 502, 503, as in FIG. 6(A). The lower part of FIG. 8A shows evaluation values s -1 , s 0 , and s +1 obtained from the photographed image photographed with each photographing parameter and the reference image. In FIG. 8A, the evaluation value s +1 of the exposure 503 of +1 is the highest evaluation value, and indicates a value exceeding the predetermined threshold value s th . When there is a shooting parameter indicating an evaluation value that exceeds the predetermined threshold value s th , the estimation unit 104 determines that the shooting parameter is a shooting parameter suitable as the shooting parameter of the inspection image. In the case of FIG. 8A, the estimation unit 104 selects the exposure 503 of +1 as the optimum parameter. Then, in S308, the estimation unit 104 determines that the readjustment of the shooting parameter is not necessary, and proceeds to S310 of setting the shooting parameter. In S310, the shooting parameter setting unit 105 sets the exposure of the shooting unit 101 to +1 and ends the processing illustrated in FIG.

図8(B)は、図8(A)と同様に、露出−1、0、+1を複数の撮影パラメータとして設定し、評価値を算出した例であるが、図8(A)とは異なる評価値が得られている状況を示す。図8(B)において、最大の評価値を示しているのは、評価値s+1であるがs+1でも所定の閾値sthを超えていない。これらの撮影パラメータで撮影した撮影画像は、基準画像との類似度が低く、これらの撮影パラメータは点検画像の撮影パラメータとして適していない。この場合、S308では、推定部104は、撮影パラメータの再調整が必要と判断し、S309に進む。S309では、推定部104は、撮影パラメータの改善方法を推定する。 Similar to FIG. 8A, FIG. 8B is an example in which exposures -1, 0, and +1 are set as a plurality of shooting parameters and evaluation values are calculated, but different from FIG. 8A. The situation where the evaluation value is obtained is shown. In FIG. 8B, the maximum evaluation value is shown as the evaluation value s +1 but even s +1 does not exceed the predetermined threshold value s th . The photographed image photographed with these photographing parameters has a low degree of similarity to the reference image, and these photographing parameters are not suitable as the photographing parameters of the inspection image. In this case, in S308, the estimation unit 104 determines that readjustment of the imaging parameter is necessary, and proceeds to S309. In S309, the estimation unit 104 estimates a method for improving the shooting parameter.

撮影パラメータの改善方法の推定について、図8(B)を用いて説明する。図8(B)では、+1の露出の評価値s+1は閾値sth未満ではあるが、評価値s-1〜s+1の中では、最大の評価値を示している。したがって、撮影パラメータの再調整では、推定部104は、この撮影パラメータ(+1の露出)の周辺の撮影パラメータから、複数の撮影パラメータを設定する。例えば、次の撮影パラメータ調整でも、3つの撮影パラメータを設定する場合、推定部104は、図8(B)のように、+1の露出503の周辺の露出721、722、723を複数パラメータとして設定する。そして、S305に戻り、これらの撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定し、再び複数画像を撮影する。そして、推定部104は、図4のS306以降の処理(評価値算出処理)を再び実行し、最適な撮影パラメータを探索する。この撮影パラメータセットの評価でも、閾値sth以上となる評価値が得られなかった場合は、推定部104は、再び、最大評価値を示す撮影パラメータ周辺で、新しい複数の撮影パラメータを決定する。そして、再度、撮影処理を実行する。このループは、閾値sthを超える評価値が得られる撮影パラメータが決定するまで繰り返し実行される。なお、最大の繰り返し回数を予め決めておき、それまでに最適な撮影パラメータ(閾値sth以上の評価値が得られる撮影パラメータ)が得られない場合は、処理を打ち切るようにしてもよい。撮影パラメータの調整処理を打ち切った場合には、推定部104は、操作部12に警告を表示してユーザーに撮影パラメータが十分に調整されなかったことを通知する。また、処理の打ち切りまでに得られた最大の評価値を算出した画像を撮影した撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定してもよい。 The estimation of the imaging parameter improvement method will be described with reference to FIG. In FIG. 8B, the evaluation value s +1 of the exposure of +1 is less than the threshold value s th , but the maximum evaluation value is shown among the evaluation values s −1 to s +1 . Therefore, in the readjustment of the shooting parameters, the estimation unit 104 sets a plurality of shooting parameters from the shooting parameters around this shooting parameter (+1 exposure). For example, in the case of setting three shooting parameters even in the next shooting parameter adjustment, the estimation unit 104 sets the exposures 721, 722, and 723 around the +1 exposure 503 as a plurality of parameters as illustrated in FIG. 8B. To do. Then, the process returns to S305, sets these shooting parameters in the shooting unit 101 via the shooting parameter setting unit 105, and shoots a plurality of images again. Then, the estimation unit 104 again executes the processing (evaluation value calculation processing) after S306 in FIG. 4 to search for the optimum imaging parameter. If the evaluation value equal to or larger than the threshold value s th is not obtained even in the evaluation of this imaging parameter set, the estimation unit 104 again determines a plurality of new imaging parameters around the imaging parameter having the maximum evaluation value. Then, the photographing process is executed again. This loop is repeatedly executed until the imaging parameter for which the evaluation value exceeding the threshold value s th is obtained is determined. The maximum number of repetitions may be determined in advance, and if the optimum shooting parameter (shooting parameter for which an evaluation value equal to or greater than the threshold value s th is obtained) cannot be obtained by then, the processing may be terminated. When the shooting parameter adjustment processing is terminated, the estimation unit 104 displays a warning on the operation unit 12 to notify the user that the shooting parameters have not been sufficiently adjusted. Further, the shooting parameter for shooting the image for which the maximum evaluation value obtained until the processing is terminated may be set in the shooting unit 101 via the shooting parameter setting unit 105.

以上の説明では、S307で閾値sth以上の評価値が得られない場合のみ、改善撮影パラメータの推定と、繰り返し調整と、を行う実施形態について説明した。しかし、仮に閾値sth以上の評価値を示す撮影パラメータが見つかった場合でも、更に高い評価値を示す撮影パラメータを探索するようにしてもよい。この場合、情報処理装置100は、最大評価値を示した撮影パラメータ周辺の撮影パラメータを改善撮影パラメータとして設定した上で、再び複数画像を撮影し、評価値算出処理を繰り返し実行する。この繰り返し処理の終了条件は、予め決められた繰り返し回数に到達した場合、又は最大評価値付近で撮影パラメータを変更しても評価値に変化が生じなくなった場合とする。 In the above description, the embodiment in which the improved imaging parameter is estimated and the repeated adjustment is performed only when the evaluation value equal to or larger than the threshold value s th is not obtained in S307 has been described. However, even if a shooting parameter having an evaluation value equal to or higher than the threshold value s th is found, a shooting parameter having a higher evaluation value may be searched for. In this case, the information processing apparatus 100 sets a shooting parameter around the shooting parameter that shows the maximum evaluation value as an improved shooting parameter, shoots a plurality of images again, and repeatedly executes the evaluation value calculation process. The termination condition of this iterative process is when the predetermined number of iterations is reached, or when the evaluation value does not change even if the imaging parameter is changed near the maximum evaluation value.

一方、ユーザーが撮影パラメータを確認し、撮影パラメータ調整のための繰り返し処理の終了を判断するようにしてもよい。このようにする場合、図4のS308において、推定部104は、評価値の閾値sthを用いた最適な撮影パラメータ判定は実施せずに、撮影パラメータの再調整の実行の判断をユーザー操作に基づいて判断する。このために、推定部104は、操作部12にユーザーに必要な情報を提示し、更に操作部12を介してユーザーからの入力を受け付ける。図9は、ユーザー判断により撮影パラメータ調整を行う場合の操作部12について説明する図である。以下、図9を用いて、ユーザーに提示する情報、及び、ユーザーの操作について説明する。
まず、図9の操作部12は、情報を表示するためのディスプレイである。操作部12に表示された画面中の画像801は、露出+1の撮影パラメータで撮影した撮影画像で、撮影画像802、803は他の撮影パラメータで撮影された撮影画像である。ディスプレイには、基準画像804も表示されており、ユーザーは撮影画像と基準画像とを比較して確認することができる。
また、画像801の下部には、撮影パラメータの調整のために複数設定した撮影パラメータが示されている。図9には、複数の撮影パラメータの例として、3段階の露出(EV)を黒三角で示している。このうち、最大の評価値を示した露出+1を示す黒三角811は強調表示(大きく表示)されている。また、白抜きの三角812等は、露出+1の撮影パラメータ811を基にして設定した、撮影パラメータを更に調整するときの複数の撮影パラメータ候補を示す。
On the other hand, the user may check the shooting parameters and determine the end of the repeated process for adjusting the shooting parameters. In this case, in step S308 of FIG. 4, the estimation unit 104 does not perform the optimum shooting parameter determination using the threshold value s th of the evaluation value, but determines whether to perform readjustment of the shooting parameter as a user operation. Judge based on Therefore, the estimation unit 104 presents necessary information to the user on the operation unit 12, and further receives an input from the user via the operation unit 12. FIG. 9 is a diagram illustrating the operation unit 12 in the case of adjusting the shooting parameters according to the user's judgment. The information presented to the user and the user's operation will be described below with reference to FIG. 9.
First, the operation unit 12 in FIG. 9 is a display for displaying information. An image 801 on the screen displayed on the operation unit 12 is a photographed image photographed with a photographing parameter of exposure+1, and photographed images 802 and 803 are photographed images photographed with other photographing parameters. The reference image 804 is also displayed on the display, and the user can check the captured image and the reference image by comparing them.
Further, in the lower part of the image 801, a plurality of shooting parameters set for adjusting the shooting parameters are shown. In FIG. 9, as an example of a plurality of shooting parameters, three-step exposure (EV) is shown by a black triangle. Among these, the black triangle 811 indicating the exposure +1 showing the maximum evaluation value is highlighted (largely displayed). Further, a white triangle 812 and the like indicate a plurality of shooting parameter candidates for further adjustment of the shooting parameters, which are set based on the shooting parameter 811 of exposure+1.

この実施形態では、ユーザーは操作部12に表示されたこれらの情報を確認して、現在の撮影パラメータを採択するか、更に撮影パラメータ調整の処理を実行するか、を判断する。より具体的には、ユーザーは、最大の評価値が得られた画像801で、撮影画像と基準画像とを対比して、満足する一致度合いであれば、最大の評価値を示した撮影パラメータを採択すると判断することができる。ユーザーは、最大の評価値を示す撮影パラメータを採択する場合、「set」と表示されているアイコン821を選択する。この操作により、撮影パラメータ設定部105は、最大の評価値を示す撮影パラメータを、撮影部101に設定し(図4のS310)、撮影パラメータ調整の処理が終了する。一方、画像801を確認する等して、現在の最適撮影パラメータに満足しない場合、ユーザーは「再調整」と表示されたアイコン822を選択する。この指示により、次の複数の撮影パラメータ(例えば露出812等)を用いて、図4のS306以降の処理(評価値算出処理)が再び実行される。その後、再び、情報処理装置100は、各種の情報を図9のようにユーザーに提示する。ユーザーは提示された情報を基に、再び撮影パラメータを採択するか、更に撮影パラメータを調整するかの判断を行う。 In this embodiment, the user confirms these pieces of information displayed on the operation unit 12 and determines whether to adopt the current shooting parameter or to execute the shooting parameter adjustment process. More specifically, the user compares the photographed image with the reference image in the image 801 for which the maximum evaluation value is obtained, and if the degree of matching is satisfactory, the user sets the photographing parameter showing the maximum evaluation value. It can be judged to be adopted. When adopting the shooting parameter indicating the maximum evaluation value, the user selects the icon 821 displayed as “set”. By this operation, the shooting parameter setting unit 105 sets the shooting parameter indicating the maximum evaluation value in the shooting unit 101 (S310 in FIG. 4), and the shooting parameter adjustment process ends. On the other hand, if the user is not satisfied with the current optimum shooting parameters by checking the image 801 or the like, the user selects the icon 822 displayed as “readjustment”. By this instruction, the processing (evaluation value calculation processing) after S306 in FIG. 4 is executed again using the next plurality of shooting parameters (for example, exposure 812 and the like). After that, the information processing apparatus 100 again presents various kinds of information to the user as shown in FIG. 9. Based on the presented information, the user decides whether to adopt the shooting parameter again or further adjust the shooting parameter.

もし、撮影パラメータの調整を途中で辞める場合には、「終了」と表示されたアイコン823を選択する。この操作により、情報処理装置100は、撮影パラメータを調整する処理(図4のフローチャートのループ)を終了させることができる。このとき、情報処理装置100は、それまでに撮影、評価した撮影パラメータのうち、評価値が最大となる撮影パラメータを撮影部101に設定するようにしてもよい。
なお、ユーザー操作で撮影パラメータ調整の継続を判断する場合においても、予め評価値の閾値sthを設定しておき、閾値sthを超える評価値を得た撮影パラメータが存在することを表示するようにしてもよい。例えば、図9において、撮影パラメータ811で撮影した画像の評価値s811が閾値sthを超える場合には、情報処理装置100は、撮影パラメータを示す黒三角811を点滅表示するようにしてもよい。ユーザーは、評価値に関わらず撮影パラメータを採択することができるが、このように情報処理装置100が評価値を超えた撮影パラメータの存在を表示することで、撮影パラメータ採択の判断を補助することができるようになる。
If the adjustment of the shooting parameters is stopped on the way, the icon 823 displayed as “End” is selected. By this operation, the information processing apparatus 100 can end the process of adjusting the shooting parameters (loop of the flowchart of FIG. 4). At this time, the information processing apparatus 100 may set, in the image capturing unit 101, the image capturing parameter having the maximum evaluation value among the image capturing parameters that have been captured and evaluated so far.
Even when it is determined by the user operation that the shooting parameter adjustment is to be continued, the threshold value s th of the evaluation value is set in advance, and it is displayed that the shooting parameter having the evaluation value exceeding the threshold value s th exists. You can For example, in FIG. 9, when the evaluation value s 811 of the image shot with the shooting parameter 811 exceeds the threshold s th , the information processing apparatus 100 may blink the black triangle 811 indicating the shooting parameter. .. Although the user can adopt the shooting parameter regardless of the evaluation value, the information processing apparatus 100 displays the existence of the shooting parameter exceeding the evaluation value in this way to assist the determination of the shooting parameter selection. Will be able to.

以上、実施形態1では、撮影パラメータを改善する方法を推定する実施形態について説明したが、本実施形態の方法で推定する撮影方法は、撮影パラメータに限らず、他の撮影方法を推定してもよい。撮影パラメータ以外の撮影方法を推定する実施形態では、図4の処理フローのループを複数回実行しても、所定閾値以上の評価値が得られない場合に、推定部104は、更に画像、又は撮影状況を分析して、適切な撮影方法を提案する。例えば、画像の明るさが不足していると判断される場合、又はホワイトバランスの調整が撮影パラメータでは調整不可能と判断される場合には、推定部104は、ユーザーに照明を利用して照明条件を変更すること、又は撮影時刻を変更してより明るい時刻での撮影を推薦する通知を行うようにしてもよい。また別の例としては、撮影部101の位置及び姿勢が取得できる場合、推定部104は、点検対象構造物との位置関係を分析し、撮影を改善する位置及び姿勢を提案する。より具体的には、例えば、点検対象構造物の壁面に対するあおり角度が大きな位置及び姿勢で撮影している場合、推定部104は、あおりを減少させる位置及び姿勢で撮影することをユーザーに推薦する。 As described above, in the first embodiment, the embodiment in which the method for improving the shooting parameter is estimated has been described. However, the shooting method estimated by the method of the present embodiment is not limited to the shooting parameter, and other shooting methods may be estimated. Good. In the embodiment in which the imaging method other than the imaging parameters is estimated, when the evaluation value equal to or higher than the predetermined threshold is not obtained even if the loop of the processing flow of FIG. We analyze shooting conditions and propose appropriate shooting methods. For example, when it is determined that the brightness of the image is insufficient, or when it is determined that the adjustment of the white balance cannot be adjusted by the shooting parameter, the estimation unit 104 uses the illumination for the user to illuminate. The condition may be changed, or the shooting time may be changed to give a notification recommending shooting at a brighter time. As another example, when the position and orientation of the imaging unit 101 can be acquired, the estimation unit 104 analyzes the positional relationship with the structure to be inspected and proposes a position and orientation that improves imaging. More specifically, for example, when an image is taken at a position and orientation with a large tilt angle with respect to the wall surface of the structure to be inspected, the estimation unit 104 recommends to the user to take an image at a position and attitude that reduces tilt. ..

<実施形態2>
実施形態1では、画像格納部103から1枚の画像を選択し、これを基準画像とした。そして、この選択した1枚の基準画像に基づいて、撮影方法を調整する実施形態を説明した。実施形態2では、複数枚の基準画像を用いて、撮影方法を調整する実施形態について説明する。なお、以降の実施形態では、主に実施形態1と異なる部分について、説明を行う。
まず、実施形態2では、基準画像処理部102で、複数の基準画像を選択する。以下では、基準画像処理部102でM枚の基準画像を選択したとする。このM枚の基準画像は、どのような方法を用いて選択してもよいが、例えば、検索結果の上位M枚の格納画像をM枚の基準画像としてもよい。
<Embodiment 2>
In the first embodiment, one image is selected from the image storage unit 103 and used as the reference image. Then, the embodiment in which the shooting method is adjusted based on the selected one reference image has been described. In the second embodiment, an embodiment in which the shooting method is adjusted using a plurality of reference images will be described. It should be noted that in the following embodiments, the parts that are different from the first embodiment will be mainly described.
First, in the second embodiment, the reference image processing unit 102 selects a plurality of reference images. In the following, it is assumed that M reference images are selected by the reference image processing unit 102. The M reference images may be selected by any method. For example, the upper M stored images of the search result may be used as the M reference images.

次に、推定部104では、撮影画像とM枚の基準画像との評価値を算出する。この処理では、まず、撮影画像と各々の基準画像との評価値を算出する。例えば、推定部104は、撮影画像とm枚目の基準画像の評価値を算出し、この評価値をsmとする。撮影画像と基準画像との評価値算出方法は、実施形態1の方法と同様である。撮影画像とM枚の基準画像との評価値算出により、M個の評価値が得られたら、推定部104は、これらの平均により最終的な評価値sを算出する。

Figure 2020088647
以降の処理は、CPU10が、評価値sを基に、撮影パラメータの調整を実施する(実施形態1の図4S307以降の処理を実施する)。評価値smの平均を用いることにより、複数の基準画像と全体的に類似する画像が撮影されるように、撮影パラメータが調整される。 Next, the estimation unit 104 calculates evaluation values for the captured image and the M reference images. In this process, first, the evaluation values of the captured image and each reference image are calculated. For example, the estimation unit 104 calculates the evaluation value of the captured image and the m-th reference image and the evaluation value s m. The method of calculating the evaluation value of the captured image and the reference image is the same as the method of the first embodiment. When M evaluation values are obtained by calculating the evaluation values of the captured image and the M reference images, the estimation unit 104 calculates the final evaluation value s by averaging the evaluation values.
Figure 2020088647
In the subsequent processing, the CPU 10 adjusts the imaging parameter based on the evaluation value s (executes the processing from S307 in FIG. 4 of the first embodiment). By using the average of the evaluation value s m, as images similar plurality of the overall reference image is captured, the imaging parameter is adjusted.

また、複数の基準画像を用いる別の形態として、複数の基準画像のうち、最も類似する1枚の基準画像との評価値に基づいて、撮影パラメータを調整する方法がある。この場合、撮影画像とM枚の基準画像との最終的な評価値sは、以下の式で求められる。

Figure 2020088647
この方法では、M枚の基準画像のうち、いずれかに類似するように、撮影パラメータが調整される。M枚の基準画像は、それぞれ好ましい画質の画像であるから、撮影画像は、そのいずれかに類似していればよい。 Further, as another form using a plurality of reference images, there is a method of adjusting a shooting parameter based on an evaluation value of one reference image that is most similar among a plurality of reference images. In this case, the final evaluation value s of the captured image and the M reference images is obtained by the following formula.
Figure 2020088647
In this method, the shooting parameters are adjusted so as to resemble any of the M reference images. Since each of the M reference images is an image having a preferable image quality, the captured image may be similar to any of them.

<実施形態3>
以上の実施形態では、基準画像は、撮影対象の構造物と異なる構造物で撮影した画像という想定であったが、撮影対象の構造物の過去画像を基準画像としてもよい。インフラ点検では、過去の点検結果と最新の点検結果とを比較するが、この比較のためには、過去画像と最新画像とが同等の画質で撮影されていることが好ましい。撮影対象の構造物の過去画像が存在する場合には、これを基準画像とすることで、過去画像に類似した画像を撮影できるように撮影パラメータの調整を行うことができる。
<Embodiment 3>
In the above embodiments, the reference image is assumed to be an image captured by a structure different from the target structure, but a past image of the target structure may be used as the reference image. In the infrastructure inspection, the past inspection result and the latest inspection result are compared with each other. For this comparison, it is preferable that the past image and the latest image are captured with the same image quality. When there is a past image of the structure to be photographed, by using this as a reference image, the photographing parameters can be adjusted so that an image similar to the past image can be photographed.

過去画像を基準画像とするために、実施形態3の画像格納部103には、撮影対象の構造物の過去画像が格納されている。基準画像処理部102は、撮影対象の構造物の情報に基づいて、画像格納部103から過去画像を取得し、基準画像として設定する処理を行う。このために、実施形態3の基準画像処理部102は、画像格納部103の格納画像を、構造物の名称等の固有情報で検索できるようにしてもよい。基準画像に撮影対象の構造物の過去画像を設定した以降の処理は、実施形態1と同様の処理を実施することにより、撮影方法の調整を行うことができる。以上の構成により、過去画像と類似した撮影結果が得られるように、撮影パラメータを調整することができるようになる。 In order to use the past image as the reference image, the image storage unit 103 of the third embodiment stores the past image of the structure to be photographed. The reference image processing unit 102 performs a process of acquiring a past image from the image storage unit 103 and setting it as a reference image based on the information of the structure of the imaging target. Therefore, the reference image processing unit 102 according to the third embodiment may be able to search the stored image in the image storage unit 103 by using unique information such as the name of the structure. The processing after the setting of the past image of the structure to be captured as the reference image can be performed by performing the same processing as that of the first embodiment to adjust the imaging method. With the above configuration, the shooting parameters can be adjusted so that a shooting result similar to the past image can be obtained.

基準画像に過去画像を設定する場合、基準画像と撮影画像との撮影範囲を一致させることが好ましい。この場合、撮影対象の構造物に対して、基準画像に設定した過去画像で撮影された範囲と同じ範囲を今回の撮影でも撮影するように、撮影位置、及び撮影範囲を調整する。この撮影位置、及び範囲の調整をサポートするために、画像格納部103に格納した過去画像には、撮影位置、及び撮影範囲の情報を関連付けて保存して置いてもよい。
基準画像(過去画像)と撮影画像の撮影範囲が一致している場合、評価値の算出方法は、過去画像と撮影画像との画素間の誤差二乗和の逆数としてもよい。現実的には、過去と現在の撮影を画素レベルで合わせることは極めて困難であるため、若干の位置ずれを許容するような類似度算出方法を用いることが好ましい。
When the past image is set as the reference image, it is preferable that the shooting ranges of the reference image and the shot image match. In this case, the photographing position and the photographing range are adjusted so that the same range as the range photographed in the past image set as the reference image is photographed in the present photographing with respect to the structure to be photographed. In order to support the adjustment of the photographing position and the range, information of the photographing position and the photographing range may be stored in association with the past image stored in the image storage unit 103.
When the shooting ranges of the reference image (past image) and the shot image match, the evaluation value may be calculated by using the reciprocal of the sum of squared errors between the pixels of the past image and the shot image. In reality, it is extremely difficult to match the past and present shootings at the pixel level, so it is preferable to use a similarity calculation method that allows a slight positional deviation.

また、過去画像にコンクリート壁面の変状が含まれる場合、画像中の変状部分に基づいて評価値を算出するようにしてもよい。この場合、推定部104は、過去画像の変状と同じ部分を撮影し、過去画像の変状と撮影画像の変状とが類似するほど高い評価値を算出するようにする。このようにすることで、過去画像に写った変状が撮影画像でも確認できるように、撮影パラメータを調整することができるようになる。更に、推定部104は、変状の経年変化を考慮して、過去画像と撮影画像との評価値を算出するようにしてもよい。例えば、過去画像に含まれる変状がひび割れの場合について説明する。過去の点検で記録されたひび割れは、補修作業が実施されない限り、自然に消えることはない。一方、ひび割れは、経年劣化により伸展する可能性がある。したがって、撮影画像のひび割れと過去画像のひび割れとを比較する場合には、推定部104は、撮影画像のひび割れの伸展部分の画像は、ひび割れ部分の類似度算出に使わないようにする。 In addition, when the past image includes a deformation of the concrete wall surface, the evaluation value may be calculated based on the deformation portion in the image. In this case, the estimation unit 104 captures the same portion as the deformation of the past image, and calculates a higher evaluation value as the deformation of the past image and the deformation of the captured image are similar to each other. By doing so, it becomes possible to adjust the shooting parameters so that the deformations shown in the past images can be confirmed in the shot images. Furthermore, the estimation unit 104 may calculate the evaluation values of the past image and the captured image in consideration of the secular change of the deformation. For example, a case where the deformation included in the past image is a crack will be described. Cracks recorded in past inspections will not disappear spontaneously unless repair work is performed. On the other hand, cracks may spread due to aging. Therefore, when comparing the cracks of the captured image with the cracks of the past image, the estimation unit 104 does not use the image of the extended portion of the crack of the captured image for calculating the similarity of the cracked portion.

<実施形態4>
以上の実施形態の基準画像処理部102では、画像格納部103に格納された画像を検索して、基準画像を設定する実施形態について説明した。実施形態4では、基準画像処理部102で画像を生成し、この生成画像を基準画像とする実施形態について説明する。
近年、学習ベースの手法で、画像のノイズ除去及び超解像が発達している。例えば、非特許文献2は、オートエンコーダを用いた画像のノイズ除去技術である。この技術では、ノイズを含む画像とノイズがない画像でオートエンコーダを学習することにより、ノイズ除去モデルを学習する。このノイズ除去モデルに、ノイズ除去を行いたいノイズ画像を入力すると、出力としてノイズを除去した画像が得られる。また、非特許文献3はFully CNNによる画像の超解像技術である。この技術では、低解像度画像と高解像度画像とでFully CNNを学習することにより、超解像化モデルを学習する。この超解像化モデルに、高解像化を行いたい低解像度画像を入力すると、出力として高解像度画像が得られる。これらの技術は、学習により、画像の変換モデルを獲得する技術である。実施形態4では、これらの技術を用いて、仮撮影画像から基準画像を生成する。なお、ノイズ除去と超解像との技術を例にしたが、実施形態4で用いる技術は、画像変換を行うことができれば、どのような手法を用いてもよく、非特許文献2及び非特許文献3の技術に限定するものではない。
<Embodiment 4>
The reference image processing unit 102 of the above-described embodiment has described the embodiment in which the image stored in the image storage unit 103 is searched and the reference image is set. In the fourth embodiment, an embodiment will be described in which an image is generated by the reference image processing unit 102 and the generated image is used as the reference image.
In recent years, learning-based methods have been developed for image denoising and super-resolution. For example, Non-Patent Document 2 is an image noise removal technique using an auto encoder. In this technique, a noise removal model is learned by learning an auto encoder with an image including noise and an image without noise. When a noise image to be noise-removed is input to this noise-reduction model, an image from which noise is removed is obtained as an output. Further, Non-Patent Document 3 is a super-resolution technique of an image by Fully CNN. In this technique, a super-resolution model is learned by learning Full CNN with a low resolution image and a high resolution image. When a low-resolution image to be high-resolution is input to this super-resolution model, a high-resolution image is obtained as an output. These techniques are techniques for acquiring a conversion model of an image by learning. In the fourth embodiment, these techniques are used to generate a reference image from a temporary captured image. Note that the technology of noise removal and super-resolution has been described as an example, but the technology used in the fourth embodiment may use any method as long as image conversion can be performed. It is not limited to the technique of Document 3.

図10は、実施形態4の情報処理装置100の構成の一例を示す図である。実施形態4の情報処理装置100は、図2(実施形態1)と異なり、画像格納部103の代わりにモデル格納部106を備える構成となっている。モデル格納部106には、基準画像を生成するためのモデルが格納されている。以下、このモデルを基準画像生成モデルと呼ぶ。基準画像生成モデルは、非特許文献2、又は非特許文献3のような技術を用いて、画像の変換方法を学習により獲得するものである。基準画像生成モデルは、例えば、以下の学習データセットDを用いて学習する。

Figure 2020088647
ここで、xnは撮影パラメータを調整が不十分な状態で撮影した画像である。xnに対応するynは、xnと同一の撮影対象を好ましい撮影パラメータで撮影した画像である。この学習データセットDを用いると、基準画像生成モデルFの学習は、以下の式で表される。
Figure 2020088647
ここで、F(xn)−ynの部分は、基準画像生成モデルFで画像xnを変換した画像と、画像ynとの誤差を表す。したがって、データセットDのN個のデータについて、この誤差が最少となる基準が造成性モデルFを学習することになる。 FIG. 10 is a diagram illustrating an example of the configuration of the information processing device 100 according to the fourth embodiment. The information processing apparatus 100 of the fourth embodiment is different from FIG. 2 (first embodiment) in that the image storage unit 103 is replaced by a model storage unit 106. The model storage unit 106 stores a model for generating a reference image. Hereinafter, this model is referred to as a reference image generation model. The reference image generation model acquires a conversion method of an image by learning using a technique such as Non-Patent Document 2 or Non-Patent Document 3. The reference image generation model is learned using the following learning data set D, for example.
Figure 2020088647
Here, x n is an image photographed in a state where the photographing parameters are not sufficiently adjusted. y n corresponding to x n is the image captured by the preferred imaging parameters of the same imaging target and x n. Using this learning data set D, learning of the reference image generation model F is expressed by the following equation.
Figure 2020088647
Here, the part of F(x n )−y n represents the error between the image obtained by converting the image x n by the reference image generation model F and the image y n . Therefore, for N pieces of data in the data set D, the criterion that minimizes this error is to learn the plasticity model F.

学習した基準画像生成モデルFに、撮影パラメータを調整していない画像を入力すると、好ましい撮影パラメータで撮影した画像(生成画像)が出力される。但し、生成画像は、基準画像生成モデルFにより生成された偽物の画像であるため、そのまま点検画像等に利用するにはリスクがある。基準画像生成モデルの性能にも依存するが、例えば、生成画像には、画像生成処理に伴う細かいアーチファクトを含む可能性等がある。したがって、本実施形態では、生成画像そのものを撮影結果として利用するのではなく、撮影パラメータ調整の基準として用いることにする。
モデル格納部106には、以上のようにして学習した基準画像生成モデルFが格納されている。なお、画像生成モデルの学習方法として、近年、非特許文献4のような、GAN(Generative adversarial nets)と呼ばれる手法が発展している。基準画像生成モデルFの学習に、この手法を用いるようにしてもよい。
When an image for which the shooting parameters are not adjusted is input to the learned reference image generation model F, an image (generated image) shot with the preferred shooting parameters is output. However, since the generated image is a fake image generated by the reference image generation model F, there is a risk in using it as it is for an inspection image or the like. Although it depends on the performance of the reference image generation model, for example, the generated image may include fine artefacts associated with the image generation processing. Therefore, in the present embodiment, the generated image itself is not used as a shooting result, but is used as a reference for shooting parameter adjustment.
The model storage unit 106 stores the reference image generation model F learned as described above. In addition, as a learning method of an image generation model, a method called GAN (Generative advertisers nets) such as Non-Patent Document 4 has been developed in recent years. This method may be used for learning the reference image generation model F.

次に、この画像生成モデルFを用いた基準画像作成の処理について説明する。まず、ユーザーは撮影部101で撮影対象を仮撮影する。この仮撮影の撮影パラメータは、オート設定等を用いるもので、仮撮影画像は撮影対象を撮影する上で、撮影パラメータ調整が不十分な画像であるとする。基準画像処理部102では、仮撮影画像をモデル格納部106から読み出した画像生成モデルFに入力することで生成画像を作成し、この生成画像を撮影パラメータ調整の基準画像として設定する。
以上では、仮撮影画像を用いて生成画像を作成したが、撮影対象の情報も用いて生成画像を作成するようにしてもよい。例えば、1つの方法として、まず、基準画像生成モデルFを撮影対象の構造物種類ごと、又はコンクリート種類ごと等、条件別に学習しておく。モデル格納部106には、複数の基準画像生成モデルを、学習条件の情報と共に格納しておく。基準画像を作成する工程では、ユーザーが、撮影対象の条件(例えば、撮影対象の構造物種類)を指定することで、条件に一致する基準画像生成モデルをモデル格納部106から呼び出して、画像生成に用いる。以上のようにすることで、撮影対象に適した基準画像生成モデルを用いて、生成画像を作成することができるようになる。
Next, a process of creating a reference image using the image generation model F will be described. First, the user tentatively shoots a shooting target with the shooting unit 101. The shooting parameters for this temporary shooting use automatic settings and the like, and it is assumed that the temporary shooting image is an image for which shooting parameter adjustment is insufficient for shooting the shooting target. The reference image processing unit 102 creates a generated image by inputting the tentative captured image to the image generation model F read from the model storage unit 106, and sets this generated image as a reference image for capturing parameter adjustment.
In the above, the generated image is created using the tentative captured image, but the generated image may also be created using the information of the shooting target. For example, as one method, first, the reference image generation model F is learned for each condition such as each type of structure to be imaged or each type of concrete. The model storage unit 106 stores a plurality of reference image generation models together with information on learning conditions. In the step of creating the reference image, the user specifies a condition of the imaging target (for example, the type of structure of the imaging target) to call a reference image generation model that matches the condition from the model storage unit 106 to generate the image. Used for. As described above, the generated image can be created by using the reference image generation model suitable for the shooting target.

次に、撮影対象の情報を用いて生成画像を作成する別の実施形態について説明する。この実施形態では、モデル格納部106に加え、実施形態1のように、画像格納部103を備える。画像格納部103は、実施形態1と同様に、撮影対象の理想的な撮影結果画像が格納されている。ユーザーは、画像格納部103から、撮影対象の条件と類似する画像を選択する。この画像格納部103から画像を選択する操作は、実施形態1の基準画像選択と同様に、撮影対象の情報を基に画像格納部103を検索することで実施できる。本実施形態では、画像格納部103から選択した画像をスタイル画像と呼ぶ。そして、例えば、非特許文献5のような技術を用いて、仮撮影画像の見た目をスタイル画像に類似した画像に変換する。非特許文献5は、元画像とスタイル画像とを入力すると、元画像の見た目をスタイル画像のスタイルに類似した画像に変換する技術で、例えば、画像の画風を変換することができる技術である。本実施形態では、非特許文献5の元画像に、仮撮影画像を設定することにより、仮撮影画像の見た目をスタイル画像に似せて、理想的な撮影結果画像を作成することができる。このようにして作成した画像を基準画像として利用する。この実施形態によると、撮影対象の情報を用いて画像格納部103からスタイル画像を選択することにより、撮影対象に類似した画像を生成しやすくなる。
実施形態4では、以上のようにして、基準画像処理部102で生成した生成画像を基準画像とする。以降の処理は、実施形態1と同様に行うことで、基準画像に類似した画像を撮影するための撮影パラメータを調整することができる。
Next, another embodiment will be described in which a generated image is created using the information of the shooting target. In this embodiment, in addition to the model storage unit 106, the image storage unit 103 is provided as in the first embodiment. Similar to the first embodiment, the image storage unit 103 stores an ideal shooting result image of a shooting target. The user selects, from the image storage unit 103, an image similar to the condition of the shooting target. The operation of selecting an image from the image storage unit 103 can be performed by searching the image storage unit 103 based on the information of the photographing target, similarly to the reference image selection of the first embodiment. In the present embodiment, the image selected from the image storage unit 103 is called a style image. Then, for example, using the technique of Non-Patent Document 5, the appearance of the tentatively photographed image is converted into an image similar to the style image. Non-Patent Document 5 is a technique for converting the appearance of the original image into an image similar to the style of the style image when the original image and the style image are input, and is, for example, a technique capable of converting the style of the image. In the present embodiment, by setting a temporary captured image as the original image of Non-Patent Document 5, the appearance of the temporary captured image can be made to resemble a style image, and an ideal captured result image can be created. The image created in this way is used as a reference image. According to this embodiment, by selecting the style image from the image storage unit 103 using the information of the shooting target, it becomes easy to generate an image similar to the shooting target.
In the fourth embodiment, the generated image generated by the reference image processing unit 102 as described above is used as the reference image. By performing the subsequent processing in the same manner as in the first embodiment, it is possible to adjust shooting parameters for shooting an image similar to the reference image.

実施形態4では、更に、複数の撮影パラメータ設定、及び複数回の撮影(図4のS304、S305)を廃止し、基準画像と1枚の撮影画像から撮影パラメータを調整する実施形態についても説明する。
まず、実施形態4では、ある初期パラメータで、撮影対象の画像を1枚撮影する。この1枚の画像に対して、基準画像との比較により評価値を算出する処理(S306)を実行する。算出した評価値が閾値以上の場合、パラメータ設定を終了する処理(図4のS307、S308、S310)を実施する。
実施形態1の複数撮影パラメータを用いた構成と異なる処理は、評価値が閾値以下であった場合に、撮影パラメータの改善方法を推定するS309である。実施形態4では、ある1つの評価値、及びそのときの撮影パラメータから、統計的な手法により改善撮影パラメータを推定する。このために実施形態4では、予め、評価値と改善撮影パラメータとの関係を学習しておく。この関係は、例えば、以下のようなデータを用いた学習することができる。

Figure 2020088647
Figure 2020088647
ここで、式(8)のpnは撮影パラメータである。snはpnで撮影した画像から得られた評価値である。snは閾値以下の評価値とする。式(9)のpdst_nは、(sn、pn)の状態から撮影パラメータを調整し、最終的に評価値が閾値以上となったときの撮影パラメータである。これらのデータの組をn個収集し、学習データ(X、Y)を作成する。この学習データを用いて、ある閾値未満の評価値sと撮影パラメータpとが入力されたときに、改善パラメータpdstを出力するモデルEを学習する。
Figure 2020088647
このモデルの学習には、どのようなアルゴリズムを用いてもよく、例えば、撮影パラメータを連続値であるとすると、線形回帰等の回帰モデルを適用することができる。 In the fourth embodiment, further, an embodiment will be described in which a plurality of shooting parameter settings and a plurality of shootings (S304 and S305 in FIG. 4) are abolished and the shooting parameters are adjusted from the reference image and one shot image. .
First, in the fourth embodiment, one image to be photographed is photographed with certain initial parameters. A process (S306) of calculating an evaluation value by comparison with the reference image is executed for this one image. When the calculated evaluation value is equal to or more than the threshold value, the process of ending the parameter setting (S307, S308, S310 in FIG. 4) is performed.
The process different from the configuration using the multiple shooting parameters of the first embodiment is S309 of estimating the shooting parameter improvement method when the evaluation value is equal to or less than the threshold value. In the fourth embodiment, the improved shooting parameter is estimated by a statistical method from a certain evaluation value and the shooting parameter at that time. Therefore, in the fourth embodiment, the relationship between the evaluation value and the improved shooting parameter is learned in advance. This relationship can be learned using the following data, for example.
Figure 2020088647
Figure 2020088647
Here, p n in Expression (8) is a shooting parameter. s n is an evaluation value obtained from an image taken with pn . s n is an evaluation value equal to or less than the threshold value. P dst — n in the equation (9) is a shooting parameter when the shooting parameter is adjusted from the state of (s n , p n ) and the evaluation value finally becomes equal to or more than the threshold value. Learning data (X, Y) is created by collecting n sets of these data. The learning data is used to learn the model E that outputs the improvement parameter p dst when the evaluation value s less than a certain threshold and the shooting parameter p are input.
Figure 2020088647
Any algorithm may be used for learning this model. For example, if the imaging parameter is a continuous value, a regression model such as linear regression can be applied.

以上では、評価値sと撮影パラメータpとを入力として、改善パラメータpdstを算出するモデルを学習する実施形態について説明したが、このモデルに撮影画像の情報を入力するようにしてもよい。撮影画像の情報は、例えば、画像全体の特徴量で、より具体的には画像全体の輝度ヒストグラム等である。撮影画像の情報は、これに限らず、画像の部分的な特徴量でもよいし、モデルに画像そのものを入力する形態でもよい。このように画像情報もモデルに入力することで、評価値と撮影パラメータとだけでなく、撮影画像に基づいて改善パラメータpdstを推定することができるようになる。
以上のようにして予め準備したモデルEを、S309の改善パラメータ推定で用いることにより、実施形態4では、1枚の画像のみから改善撮影パラメータを推定することができるようになる。
In the above, the embodiment in which the model for calculating the improvement parameter p dst is learned by inputting the evaluation value s and the shooting parameter p has been described, but the information of the shot image may be input to this model. The information of the captured image is, for example, a feature amount of the entire image, and more specifically, a luminance histogram of the entire image. The information of the captured image is not limited to this, and may be a partial feature amount of the image, or the image itself may be input to the model. By thus inputting image information into the model as well, it becomes possible to estimate not only the evaluation value and the shooting parameter but also the improvement parameter p dst based on the shot image.
By using the model E prepared in advance as described above in the estimation of the improvement parameter in S309, in the fourth embodiment, the improved shooting parameter can be estimated from only one image.

なお、改善撮影パラメータを求める手法として、学習したモデルを用いる構成は、実施形態1の複数の撮影パラメータで画像を撮影する方法で用いてもよい。すなわち、モデルEは、1枚の画像から撮影パラメータを推定する構成に限定されず、複数の撮影画像から撮影パラメータを推定する方法で用いてもよい。この場合、実施形態1のように複数の撮影パラメータで撮影した撮影画像と基準画像とから評価値を算出し、複数の撮影パラメータと複数の評価値とを入力して改善パラメータを求めるモデルEを学習する。このモデルMを学習するための学習データXは、撮影パラメータ調整で撮影する複数画像の枚数をM枚とすると、式(8)から以下のように書き換えられる。

Figure 2020088647
なお、目的変数(又は教師データ)Yは、式(9)と同様である。 The configuration using the learned model as the method of obtaining the improved shooting parameter may be used in the method of shooting an image with a plurality of shooting parameters according to the first embodiment. That is, the model E is not limited to the configuration in which the shooting parameter is estimated from one image, and may be used in the method of estimating the shooting parameter from a plurality of shot images. In this case, as in the first embodiment, a model E that calculates an evaluation value from a captured image captured with a plurality of imaging parameters and a reference image and inputs a plurality of imaging parameters and a plurality of evaluation values to obtain an improvement parameter is obtained. learn. The learning data X for learning the model M can be rewritten from the equation (8) as follows, where M is the number of images to be captured by adjusting the imaging parameters.
Figure 2020088647
The objective variable (or teacher data) Y is the same as in equation (9).

<実施形態5>
実施形態4では、基準画像生成モデルを用いて、仮撮影画像から基準画像を生成する実施形態について説明した。基準画像生成モデルは、実施形態4の実施形態に限らず、格納画像から基準画像を生成するために利用する実施形態としてもよい。実施形態5では、予め画像格納部103に格納されている格納画像を変換して、基準画像を作成する実施形態について説明する。実施形態1では、画像格納部103に格納された格納画像を選択し、選択した格納画像を基準画像として設定したが、実施形態5では、選択した格納画像を撮影条件に応じて変換した上で基準画像として設定する。以下、この実施形態について説明する。
<Embodiment 5>
In the fourth embodiment, the reference image generation model is used to generate the reference image from the tentative captured image. The reference image generation model is not limited to the embodiment of Embodiment 4, and may be an embodiment used for generating a reference image from a stored image. In the fifth embodiment, an embodiment will be described in which a stored image previously stored in the image storage unit 103 is converted to create a reference image. In the first embodiment, the stored image stored in the image storage unit 103 is selected and the selected stored image is set as the reference image. However, in the fifth embodiment, the selected stored image is converted according to the shooting condition, and then the stored image is converted. Set as a reference image. Hereinafter, this embodiment will be described.

画像格納部103には、様々な撮影条件の多数の格納画像を格納しているが、全ての撮影条件に一致する画像を準備することは困難である。そのため、撮影条件に応じて、格納画像を変換、調整して新しい画像を生成し、この生成した画像を基準画像とする。例えば、撮影条件としてカメラ機種が異なる場合について説明する。まず、格納画像は、ある特定の機種のカメラ(以下、カメラA)で撮影した画像のみで構成されているとする。一方、撮影対象を撮影するときのカメラはカメラAとは異なる機種のカメラ(以下、カメラB)であるとする。ここで、カメラAとカメラBとは機種が異なるので、その撮影画像の画質は異なる。例えば、撮影画質の色合い等はカメラの機種ごとに異なるので、カメラAとカメラBとでは、同一の対象を同一の状況で撮影しても、色合い等の画質が異なる画像が得られる。
実施形態5では、このような場合に、カメラA画質の格納画像を、基準画像生成モデルを用いてカメラB画質の画像に変換した上で、基準画像として設定する。この場合の基準画像生成モデルは、例えば、カメラAの色合いをカメラBの色合いに変換する変換パラメータである。基準画像が設定された以降の処理については、実施形態1と同様の処理を行うことで、基準画像の画質に合わせるための撮影パラメータを調整することができる。
Although a large number of stored images under various shooting conditions are stored in the image storage unit 103, it is difficult to prepare images that match all shooting conditions. Therefore, the stored image is converted and adjusted according to shooting conditions to generate a new image, and the generated image is used as a reference image. For example, a case where the camera models are different as the shooting conditions will be described. First, it is assumed that the stored image is composed only of images captured by a camera of a specific model (hereinafter, camera A). On the other hand, it is assumed that the camera at the time of shooting the shooting target is a camera of a model different from the camera A (hereinafter, camera B). Here, since the models of the camera A and the camera B are different, the image quality of the captured image is different. For example, since the color tone of the image quality and the like differ depending on the model of the camera, even if the camera A and the camera B photograph the same object in the same situation, images having different image quality such as color tone can be obtained.
In the fifth embodiment, in such a case, the stored image of the camera A image quality is converted into an image of the camera B image quality by using the reference image generation model and then set as the reference image. The reference image generation model in this case is a conversion parameter for converting the hue of the camera A into the hue of the camera B, for example. By performing the same processing as that of the first embodiment for the processing after the reference image is set, it is possible to adjust the shooting parameters to match the image quality of the reference image.

次に、このような処理を実施するための処理について説明する。本実施形態の情報処理装置は、図2の情報処理装置100に、更にモデル格納部を備え、モデル格納部には撮影条件に応じた基準画像生成モデルが格納されている。まず、初めの処理では、実施形態1と同様に、基準画像処理部102は、撮影対象に類似する格納画像を、画像格納部から検索して取得する。実施形態5では、この検索結果の格納画像を仮基準画像とする。次の処理では、基準画像処理部102は、撮影条件に基づいて、仮基準画像を基準画像に変換するための基準画像生成モデルを準備する。上述の例では、基準画像処理部102は、撮影条件としてカメラの機種(カメラB)を設定することにより、カメラAの色合いからカメラBの色合いに変換する変換パラメータを含む基準画像生成モデルをモデル格納部から読み出す。このために、ユーザーは撮影条件の情報を、操作部12を介して入力する。又は、カメラ機種のような自動的に取得可能な撮影条件の情報は、自動的に取得され基準画像生成モデルの検索に用いるようにしてもよい。次の処理では、基準画像処理部102は、この基準画像生成モデルを用いて仮基準画像を変換し、基準画像を作成する。 Next, a process for carrying out such a process will be described. The information processing apparatus according to the present embodiment further includes a model storage unit in the information processing apparatus 100 in FIG. 2, and the model storage unit stores a reference image generation model according to a shooting condition. First, in the first process, as in the first embodiment, the reference image processing unit 102 retrieves a stored image similar to the shooting target from the image storage unit and acquires it. In the fifth embodiment, the stored image of the search result is used as the temporary reference image. In the next process, the reference image processing unit 102 prepares a reference image generation model for converting the temporary reference image into the reference image based on the shooting conditions. In the above-described example, the reference image processing unit 102 sets the model of the camera (camera B) as the photographing condition to model the reference image generation model including the conversion parameter for converting the hue of the camera A into the hue of the camera B. Read from storage. For this purpose, the user inputs the information on the photographing conditions via the operation unit 12. Alternatively, the information on the photographing conditions that can be automatically acquired, such as the camera model, may be automatically acquired and used for searching the reference image generation model. In the next process, the reference image processing unit 102 converts the temporary reference image using this reference image generation model to create a reference image.

上記の例では、撮影条件をカメラ機種として、撮影条件に基づいて基準画像生成モデルを選択し、仮撮影画像を変換して基準画像を生成する実施形態について説明した。基準画像を生成するための撮影条件は、カメラ機種に限らず、他の条件としてもよい。例えば、撮影条件として天候を設定するようにしてもよい。この場合、撮影対象に類似するとして選択された格納画像(仮基準画像)が晴れの天候で撮影された画像で、撮影対象を撮影するときの天候が曇りであったとすると、晴れの画像の画質(色合い、又は明るさ)を曇りの画像の画質に変換する基準画像生成モデルがモデル格納部から選択されるようにする。撮影条件のバリエーションとしては、他にも、撮影時刻、撮影の季節等でもよい。更に、手持ち撮影、三脚撮影、又はドローン等の動体に搭載したカメラでの撮影等の条件を撮影条件の1つとしてもよい。また、このような撮影条件は、複数の条件を合わせたものであってもよい。例えば、「カメラB、曇り」という撮影条件において、「カメラA、晴れ」の仮基準画像を「カメラB、曇り」の画質に変換する画像生成モデルが選択されるようにしてもよい。 In the above example, the embodiment has been described in which the photographing condition is set as the camera model, the reference image generation model is selected based on the photographing condition, and the temporary photographed image is converted to generate the reference image. The shooting condition for generating the reference image is not limited to the camera model and may be other conditions. For example, the weather may be set as the shooting condition. In this case, if the stored image (temporary reference image) selected as similar to the shooting target is an image shot in sunny weather and the weather when shooting the shooting target is cloudy, the image quality of the sunny image A reference image generation model for converting (hue or brightness) into the image quality of a cloudy image is selected from the model storage unit. Other variations of the shooting conditions may be the shooting time, the shooting season, and the like. Furthermore, a condition such as handheld shooting, tripod shooting, or shooting with a camera mounted on a moving body such as a drone may be one of the shooting conditions. Moreover, such an imaging condition may be a combination of a plurality of conditions. For example, under the shooting condition of “camera B, cloudy”, an image generation model for converting the temporary reference image of “camera A, sunny” into the image quality of “camera B, cloudy” may be selected.

また、以上では画像生成モデルの例を、画像を変換するパラメータとしたが、実施形態5における画像生成モデルはこれに限らず、実施形態4で説明したような学習に基づくモデルとしてもよい。この場合、例えば、画像を変換したい撮影条件ごとに、画像生成モデルを学習しておき、撮影条件に合わせて画像生成モデルを選択して利用する。この画像生成モデルの学習は、変換前の画像群と、好ましい変換後の画像群からなるデータセットを用いることで、実施形態4の学習と同様に実施できる。
実施形態4及び実施形態5では、基準画像処理部102は、生成した基準画像を操作部12に表示して、ユーザーが基準画像を確認できるようにする。ユーザーは撮影パラメータを調整する基準として、基準画像が相応しくないと判断した場合には、別の基準画像を再び生成できるようにしてもよい。この場合、別の基準画像を生成するための基準画像生成モデルを再選択することができるように、基準画像生成モデルの候補を表示したり、再び基準画像生成モデルを検索できるようにしたりしてもよい。更に、実施形態4と実施形態5との方法を同時に利用する場合に、仮撮影画像を変換した基準画像(実施形態4の方法で作成した基準画像)を利用するか、仮基準画像を変換した基準画像(実施形態5の方法で作成した基準画像)を利用するか、ユーザーが選択できるようにしてもよい。この場合、基準画像処理部102は、操作部12に、仮撮影画像を変換した基準画像と仮基準画像を変換した基準画像とを比較可能な状態で表示し、ユーザーは撮影パラメータの調整の基準として適した基準画像を選択できるようにする。
Further, in the above, the example of the image generation model is the parameter for converting the image, but the image generation model in the fifth embodiment is not limited to this, and may be a model based on learning as described in the fourth embodiment. In this case, for example, the image generation model is learned for each shooting condition for which an image is desired to be converted, and the image generation model is selected and used according to the shooting condition. The learning of the image generation model can be performed in the same manner as the learning of the fourth embodiment by using a data set including an image group before conversion and a preferable image group after conversion.
In the fourth and fifth embodiments, the reference image processing unit 102 displays the generated reference image on the operation unit 12 so that the user can check the reference image. If the user determines that the reference image is not suitable as a reference for adjusting the shooting parameters, another reference image may be generated again. In this case, the reference image generation model candidates are displayed so that the reference image generation model for generating another reference image can be reselected, and the reference image generation model can be searched again. Good. Further, when the methods of the fourth and fifth embodiments are used at the same time, the reference image obtained by converting the temporarily captured image (the reference image created by the method of the fourth embodiment) is used, or the temporary reference image is converted. The reference image (the reference image created by the method of the fifth embodiment) may be used, or the user may select it. In this case, the reference image processing unit 102 displays, on the operation unit 12, the reference image obtained by converting the temporary captured image and the reference image obtained by converting the temporary reference image in a comparable state, and the user displays the reference for adjusting the capturing parameters. So that a reference image suitable as can be selected.

<実施形態6>
以上の実施形態では、本実施形態の情報処理装置100をインフラ構造物の点検画像撮影に適用する実施形態について説明した。本実施形態の情報処理装置100は、点検画像撮影に限らず、他の撮影対象における撮影パラメータ調整にも適用することができる。実施形態6では、一般的な写真撮影における撮影パラメータ調整に、上述した処理等を適用する実施形態について説明する。
本実施形態では、一般的な写真撮影に上述した処理等を適用するために、実施形態1の画像格納部103に格納する格納画像を変更する。図11は、実施形態5において、画像格納部103に格納される情報について説明する図である。図11の画像格納部103には、図3と同様に、格納画像、画像情報、撮影パラメータが格納されている。図11の格納画像1010は海の風景写真であり、この格納画像の画像情報として、シーン:風景、天候:晴れ、詳細1:海、詳細2:夏、等の情報が記録されている。また、格納画像1011は、野球の画像で、この格納画像にも画像内容を示す画像情報が関連付けて記録されている。
<Sixth Embodiment>
In the above embodiment, the embodiment in which the information processing apparatus 100 of the present embodiment is applied to the inspection image capturing of the infrastructure structure has been described. The information processing apparatus 100 of the present embodiment can be applied not only to inspection image shooting but also to shooting parameter adjustment for other shooting targets. In the sixth embodiment, an embodiment will be described in which the above-described processing and the like are applied to shooting parameter adjustment in general photography.
In the present embodiment, the stored image stored in the image storage unit 103 of the first embodiment is changed in order to apply the above-described processing to general photography. FIG. 11 is a diagram illustrating information stored in the image storage unit 103 in the fifth embodiment. Similar to FIG. 3, the image storage unit 103 in FIG. 11 stores the stored image, image information, and shooting parameters. The stored image 1010 in FIG. 11 is a landscape photograph of the sea, and as the image information of the stored image, information such as scene: landscape, weather: sunny, detail 1: ocean, detail 2: summer is recorded. Further, the stored image 1011 is a baseball image, and image information indicating the image content is also recorded in association with this stored image.

本実施形態でも、実施形態1と同様に、ユーザーが撮影しようとしている撮影対象の情報を基に、画像格納部103から基準画像を選択する。ユーザーは、撮影対象のシーン種類、天候、その他の情報を選択、又はキーワードを入力する。基準画像処理部102は、このユーザーの入力情報を基に画像格納部103に格納された画像情報を検索し、基準画像として適した格納画像を選択する。基準画像の選択は、実施形態1と同様に、基準画像候補をユーザーに提示して、ユーザーが最適と判断する画像を選択して基準画像を設定してもよいし、検索結果の最上位を自動的に基準画像としてもよい。また、実施形態1と同様に、仮撮影画像を撮影して、仮撮影画像を基に画像格納部103から基準画像を検索するようにしてもよい。 In the present embodiment as well, similar to the first embodiment, the reference image is selected from the image storage unit 103 based on the information of the shooting target that the user is going to shoot. The user selects the type of scene to be photographed, weather, or other information, or inputs a keyword. The reference image processing unit 102 searches the image information stored in the image storage unit 103 based on the input information of the user, and selects the stored image suitable as the reference image. As with the first embodiment, the reference image may be selected by presenting the reference image candidates to the user, selecting the image that the user determines to be the most suitable, and setting the reference image. The reference image may be automatically used. Further, similarly to the first embodiment, the temporary captured image may be captured, and the reference image may be retrieved from the image storage unit 103 based on the temporary captured image.

以上の処理により、一般的な写真撮影の場合でも、撮影画像の撮影パラメータ調整の基準である基準画像を選択することができる。基準画像の設定以降の処理は、上述の実施形態と同様に、撮影画像と基準画像との評価値を算出し、撮影パラメータ調整を実行する。
以上の一般的な写真撮影の実施形態の説明では、画像格納部103の格納画像を変更することにより、一般的な写真撮影に上述した構成等を適用する実施形態について説明した。一般的な写真撮影に上述した構成等を適用する実施形態としては、実施形態4のように、基準画像生成モデルを用いて、基準画像を生成する構成にしてもよい。
Through the above processing, even in the case of general photography, it is possible to select the reference image that is the reference for adjusting the shooting parameters of the shot image. In the process after the setting of the reference image, the evaluation values of the captured image and the reference image are calculated and the shooting parameter adjustment is executed, as in the above-described embodiment.
In the above description of the general photography embodiment, the embodiment in which the configuration described above is applied to the general photography by changing the image stored in the image storage unit 103 has been described. As an embodiment in which the above-described configuration or the like is applied to general photography, a configuration in which a reference image is generated using a reference image generation model may be used as in the fourth embodiment.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium. Then, it can be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。 Although an example of the embodiment of the present invention has been described above in detail, the present invention is not limited to the specific embodiment.

以上、上述した各実施形態の情報処理装置100によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。 As described above, according to the information processing apparatus 100 of each of the above-described embodiments, it is possible to easily set the shooting parameter for shooting a desired image without confirming the details of the shot image.

10 CPU
11 記憶部
12 操作部
13 通信部
100 情報処理装置
10 CPU
11 storage unit 12 operation unit 13 communication unit 100 information processing device

Claims (20)

基準画像を取得する取得手段と、
前記基準画像と、複数の撮影パラメータで撮影対象を撮影し、複数の撮影画像を撮影する撮影部から受け取った前記複数の撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有する情報処理装置。
Acquisition means for acquiring a reference image,
An evaluation value is obtained from the reference image and the plurality of captured images received from the capturing unit that captures the plurality of captured images with the plurality of capturing parameters, and the target is captured based on the evaluation value. Estimating means for estimating a shooting method suitable for shooting
Information processing device having a.
前記基準画像の候補となる格納画像と前記格納画像の画像情報とを格納する画像格納手段を有し、
前記取得手段は、検索条件に基づき、前記画像格納手段に格納された格納画像から前記基準画像を選択することにより取得する請求項1に記載の情報処理装置。
An image storage unit that stores a stored image that is a candidate for the reference image and image information of the stored image;
The information processing apparatus according to claim 1, wherein the acquisition unit acquires the reference image by selecting the reference image from a stored image stored in the image storage unit based on a search condition.
前記取得手段は、前記検索条件に基づき、前記画像格納手段に格納された格納画像から複数の基準画像候補を選択し、選択した基準画像候補を操作部に表示し、前記操作部を介したユーザー操作に基づき前記基準画像を選択する請求項2に記載の情報処理装置。 The acquisition unit selects a plurality of reference image candidates from the stored images stored in the image storage unit based on the search condition, displays the selected reference image candidates on the operation unit, and the user via the operation unit. The information processing apparatus according to claim 2, wherein the reference image is selected based on an operation. 前記評価値は、前記複数の撮影画像と前記基準画像との類似度である請求項1乃至3のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the evaluation value is a degree of similarity between the plurality of captured images and the reference image. 前記撮影方法は、前記撮影部に関する撮影パラメータである請求項1乃至4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the shooting method is a shooting parameter related to the shooting unit. 前記撮影パラメータを前記撮影部に設定する設定手段を有する請求項1乃至5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a setting unit that sets the shooting parameter in the shooting unit. 前記撮影パラメータを調整しても前記評価値が閾値を超えない場合、前記推定手段は、前記撮影方法として、撮影の位置及び姿勢、撮影時刻、照明条件のいずれかを推定する請求項5に記載の情報処理装置。 The said estimation means estimates any one of the position and attitude|position of photography, photography time, and illumination conditions as said photography method, when the said evaluation value does not exceed a threshold value even if the said photography parameter is adjusted. Information processing equipment. 前記推定手段は、前記推定した撮影方法を操作部に表示し、前記操作部を介したユーザー操作に基づき、前記推定した撮影方法を選択するか、前記撮影方法の推定を再度、実行するかを判断する請求項1乃至7のいずれか1項に記載の情報処理装置。 The estimating means displays the estimated photographing method on the operation unit and selects whether the estimated photographing method is selected or the estimation of the photographing method is executed again based on a user operation via the operation unit. The information processing apparatus according to any one of claims 1 to 7, which makes a determination. 前記取得手段は、複数の基準画像を取得し、
前記推定手段は、前記複数の基準画像と、前記複数の撮影画像と、から評価値を求める請求項1乃至8のいずれか1項に記載の情報処理装置。
The acquisition means acquires a plurality of reference images,
The information processing apparatus according to claim 1, wherein the estimation unit obtains an evaluation value from the plurality of reference images and the plurality of captured images.
前記撮影対象は、インフラ構造物のコンクリート壁面であって、
前記画像情報には、撮影対象の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所及び地域、経過年数の少なくともいずれかが含まれる請求項2又は3に記載の情報処理装置。
The object to be photographed is a concrete wall surface of an infrastructure structure,
The image information includes at least one of the type of structure to be photographed, the type of concrete, the weather at the time of photography, the target in the image, the installation location and area of the structure, and the number of elapsed years. Information processing device.
前記撮影対象は、インフラ構造物のコンクリート壁面であって、
前記推定手段は、前記撮影画像と前記基準画像とに含まれる前記コンクリート壁面のひび割れ、目地、型枠のいずれかの部分画像の類似度を求めることで前記評価値を求める請求項1乃至10のいずれか1項に記載の情報処理装置。
The object to be photographed is a concrete wall surface of an infrastructure structure,
The said estimation means calculates|requires the said evaluation value by calculating|requiring the similarity of the partial image of the crack of the said concrete wall surface contained in the said image|photographed image and the said reference image, a joint, and a formwork. The information processing apparatus according to any one of items.
前記取得手段は、予め学習したモデルを用いて前記基準画像を生成することにより取得する請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the acquisition unit acquires the reference image by generating the reference image using a model learned in advance. 予め学習したモデルを用いて、撮影対象を撮影した仮撮影画像から基準画像を生成する生成手段と、
前記基準画像と、前記仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有する情報処理装置。
Generating means for generating a reference image from a tentatively photographed image of an object to be photographed using a model learned in advance;
An estimation unit that obtains an evaluation value from the reference image and the provisional captured image, and estimates a capturing method suitable for capturing the capturing target based on the evaluation value.
Information processing device having a.
予め学習したモデルを用いて、格納画像と撮影対象の撮影条件とから基準画像を生成する生成手段と、
前記基準画像と、仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有する情報処理装置。
Generating means for generating a reference image from the stored image and the shooting conditions of the shooting target using the model learned in advance;
An estimation unit that obtains an evaluation value from the reference image and the provisional captured image, and estimates a capturing method suitable for capturing the capturing target based on the evaluation value,
Information processing device having a.
基準画像を選択する選択手段と、
前記基準画像と、撮影対象を撮影する撮影部から受け取った撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有し、
前記推定手段は、前記基準画像と、前記推定した前記撮影方法で撮影された撮影画像と、から評価値を再び求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を再び推定する情報処理装置。
Selection means for selecting a reference image,
An estimation unit that obtains an evaluation value from the reference image and a captured image received from a capturing unit that captures the capturing target, and estimates a capturing method suitable for capturing the capturing target based on the evaluation value.
Have
The estimating unit again obtains an evaluation value from the reference image and a captured image captured by the estimated capturing method, and re-estimates a capturing method suitable for capturing the capturing target based on the evaluation value. Information processing device.
情報処理装置が実行する情報処理方法であって、
基準画像を取得する取得工程と、
前記基準画像と、複数の撮影パラメータで撮影対象を撮影し、複数の撮影画像を撮影する撮影部から受け取った前記複数の撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含む情報処理方法。
An information processing method executed by an information processing device, comprising:
An acquisition process for acquiring a reference image,
An evaluation value is obtained from the reference image and the plurality of captured images received from the capturing unit that captures the plurality of captured images with the plurality of capturing parameters, and the target is captured based on the evaluation value. An estimation step of estimating a shooting method suitable for shooting
Information processing method including.
情報処理装置が実行する情報処理方法であって、
予め学習したモデルを用いて、撮影対象を撮影した仮撮影画像から基準画像を生成する生成工程と、
前記基準画像と、前記仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含む情報処理方法。
An information processing method executed by an information processing device, comprising:
A generation step of generating a reference image from a tentatively photographed image of an object to be photographed using a model learned in advance;
An estimation step of obtaining an evaluation value from the reference image and the provisional captured image, and estimating a capturing method suitable for capturing the capturing target based on the evaluation value,
Information processing method including.
情報処理装置が実行する情報処理方法であって、
予め学習したモデルを用いて、格納画像と撮影対象の撮影条件とから基準画像を生成する生成工程と、
前記基準画像と、仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含む情報処理方法。
An information processing method executed by an information processing device, comprising:
A generation step of generating a reference image from the stored image and the shooting conditions of the shooting target using a model learned in advance;
An estimation step of obtaining an evaluation value from the reference image and the tentatively photographed image, and estimating a photographing method suitable for photographing the photographing target based on the evaluation value;
Information processing method including.
情報処理装置が実行する情報処理方法であって、
基準画像を取得する取得工程と、
前記基準画像と、撮影対象を撮影する撮影部から受け取った撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含み、
前記推定工程では、前記基準画像と、前記推定した前記撮影方法で撮影された撮影画像と、から評価値を再び求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を再び推定する情報処理方法。
An information processing method executed by an information processing device, comprising:
An acquisition process for acquiring a reference image,
An estimation step of obtaining an evaluation value from the reference image and a captured image received from a capturing unit that captures the capturing target, and estimating a capturing method suitable for capturing the capturing target based on the evaluation value.
Including,
In the estimating step, an evaluation value is obtained again from the reference image and a captured image captured by the estimated capturing method, and a capturing method suitable for capturing the capturing target is estimated again based on the evaluation value. Information processing method.
コンピュータを、請求項1乃至15のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit of the information processing apparatus according to claim 1.
JP2018221559A 2018-11-27 2018-11-27 Information processing device, information processing method and program Active JP7387261B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018221559A JP7387261B2 (en) 2018-11-27 2018-11-27 Information processing device, information processing method and program
PCT/JP2019/042487 WO2020110576A1 (en) 2018-11-27 2019-10-30 Information processing device
US17/327,892 US20210281748A1 (en) 2018-11-27 2021-05-24 Information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221559A JP7387261B2 (en) 2018-11-27 2018-11-27 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2020088647A true JP2020088647A (en) 2020-06-04
JP7387261B2 JP7387261B2 (en) 2023-11-28

Family

ID=70910161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221559A Active JP7387261B2 (en) 2018-11-27 2018-11-27 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7387261B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095017A (en) * 2018-12-07 2020-06-18 キヤノン株式会社 Information processing device, control method thereof, program, and storage medium
WO2022269891A1 (en) * 2021-06-25 2022-12-29 三菱電機株式会社 Image processing device, training device, image processing system, image processing method, generation method, image processing program, and generation program
JP7426544B1 (en) 2022-11-28 2024-02-01 楽天グループ株式会社 Image processing system, image processing method, and program
JP7485356B2 (en) 2020-09-28 2024-05-16 株式会社Pal構造 Crack detection method, crack detection device and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (en) * 2004-10-01 2006-04-20 Canon Inc Apparatus and method for image photographing
JP2015082830A (en) * 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) * 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (en) * 2004-10-01 2006-04-20 Canon Inc Apparatus and method for image photographing
JP2015082830A (en) * 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) * 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095017A (en) * 2018-12-07 2020-06-18 キヤノン株式会社 Information processing device, control method thereof, program, and storage medium
JP7305509B2 (en) 2018-12-07 2023-07-10 キヤノン株式会社 Information processing device, its control method, program, and storage medium
JP7485356B2 (en) 2020-09-28 2024-05-16 株式会社Pal構造 Crack detection method, crack detection device and program
WO2022269891A1 (en) * 2021-06-25 2022-12-29 三菱電機株式会社 Image processing device, training device, image processing system, image processing method, generation method, image processing program, and generation program
JP7426544B1 (en) 2022-11-28 2024-02-01 楽天グループ株式会社 Image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP7387261B2 (en) 2023-11-28

Similar Documents

Publication Publication Date Title
WO2020110576A1 (en) Information processing device
JP7387261B2 (en) Information processing device, information processing method and program
KR101643607B1 (en) Method and apparatus for generating of image data
TW202009805A (en) Image processing method and apparatus
JP5960513B2 (en) Video processing apparatus and method
CN108364292B (en) Illumination estimation method based on multiple visual angle images
JP2009080846A (en) Image processing device and image processing method
JP4624947B2 (en) Image trimming method, apparatus and program
CN110915193B (en) Image processing system, server device, image processing method, and recording medium
US20200389573A1 (en) Image processing system, image processing method and storage medium
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
JP2020149641A (en) Object tracking device and object tracking method
JP2006039689A (en) Image processor, image processing method, image processing program, and recording medium with the program recorded thereon
US20110085026A1 (en) Detection method and detection system of moving object
JP2013110484A (en) Image processing device, image processing method, and recording medium
JP2013117409A (en) Crack detection method
JP7092616B2 (en) Object detection device, object detection method, and object detection program
JP2020096325A (en) Information processor, control method of information processor, and program
JPH11306348A (en) Method and device for object detection
CN113808117B (en) Lamp detection method, device, equipment and storage medium
US20080199073A1 (en) Red eye detection in digital images
JP7194534B2 (en) Object detection device, image processing device, object detection method, image processing method, and program
CN114663299A (en) Training method and device suitable for image defogging model of underground coal mine
JP6615709B2 (en) Foreground region extraction apparatus, method, and program
CN113992904A (en) Information processing method and device, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231115

R151 Written notification of patent or utility model registration

Ref document number: 7387261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151