JP7387261B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7387261B2
JP7387261B2 JP2018221559A JP2018221559A JP7387261B2 JP 7387261 B2 JP7387261 B2 JP 7387261B2 JP 2018221559 A JP2018221559 A JP 2018221559A JP 2018221559 A JP2018221559 A JP 2018221559A JP 7387261 B2 JP7387261 B2 JP 7387261B2
Authority
JP
Japan
Prior art keywords
image
photographing
evaluation value
reference image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018221559A
Other languages
Japanese (ja)
Other versions
JP2020088647A (en
Inventor
敦史 野上
裕輔 御手洗
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018221559A priority Critical patent/JP7387261B2/en
Priority to PCT/JP2019/042487 priority patent/WO2020110576A1/en
Publication of JP2020088647A publication Critical patent/JP2020088647A/en
Priority to US17/327,892 priority patent/US20210281748A1/en
Application granted granted Critical
Publication of JP7387261B2 publication Critical patent/JP7387261B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

橋梁、ダム、トンネル等の構造物のコンクリート壁面の点検では、調査技術者がコンクリート壁面に接近し、ひび割れ等の変状を目視で確認することが行われている。このような近接目視と呼ばれる点検作業は作業コストが高いため、近年、コンクリート壁面を撮影した画像で変状を確認する画像点検が行われている。
ここで、細いひび割れ等の見えづらいひび割れを確認できる画像を撮影するためには、撮影パラメータを適切に設定する必要がある。ユーザーは、フォーカス又は露出等の撮影パラメータを、撮影時の天候及び撮影機材に応じて適切に調整して、ひび割れが確認できる画像を撮影しなければならない。しかし、細いひび割れ等、不鮮明な変状を確認するための画像を撮影する撮影パラメータ調整は難しく、微妙な撮影パラメータの違いにより、変状が確認できたり、できなかったりする。
撮影パラメータを調整する方法の従来例として、例えば、特許文献1の方法がある。特許文献1では、まず、複数の異なる撮影パラメータで複数の画像を撮影し、撮影した複数の画像をディスプレイに表示する。ユーザーは、複数の画像の中から、最も好ましいと判断する画像を選択する。この結果、選択された画像を撮影した撮影パラメータが設定される。
When inspecting concrete walls of structures such as bridges, dams, and tunnels, survey engineers approach the concrete walls and visually check for cracks and other deformations. Since such inspection work called close visual inspection is expensive, in recent years image inspections have been carried out to check for deformations using images taken of concrete walls.
Here, in order to capture an image in which difficult-to-see cracks such as thin cracks can be confirmed, it is necessary to appropriately set shooting parameters. The user must appropriately adjust photographing parameters such as focus and exposure according to the weather and photographic equipment at the time of photographing, and photograph an image in which cracks can be confirmed. However, it is difficult to adjust the imaging parameters to take images to confirm unclear deformities such as thin cracks, and depending on subtle differences in the imaging parameters, deformations may or may not be confirmed.
An example of a conventional method for adjusting imaging parameters is the method disclosed in Patent Document 1. In Patent Document 1, first, a plurality of images are photographed using a plurality of different photographing parameters, and the plurality of photographed images are displayed on a display. The user selects the image that he or she considers most desirable from among the plurality of images. As a result, the photographing parameters for photographing the selected image are set.

特許第4534816号公報Patent No. 4534816

Chopra, Sumit, Raia Hadsell, and Yann LeCun. "Learning a similarity metric discriminatively, with application to face verification." Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on. Vol. 1. IEEE, 2005.Chopra, Sumit, Raia Hadsell, and Yann LeCun. "Learning a similarity metric discriminatively, with application to face verification." Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on. Vol. 1. IEEE, 2005. Xie, Junyuan, Linli Xu, and Enhong Chen. "Image denoising and inpainting with deep neural networks." Advances in Neural Information Processing Systems. 2012.Xie, Junyuan, Linli Xu, and Enhong Chen. "Image denoising and inpainting with deep neural networks." Advances in Neural Information Processing Systems. 2012. Dong, Chao, et al. "Image super-resolution using deep convolutional networks." IEEE transactions on pattern analysis and machine intelligence 38.2 (2016): 295-307.Dong, Chao, et al. "Image super-resolution using deep convolutional networks." IEEE transactions on pattern analysis and machine intelligence 38.2 (2016): 295-307. Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems. 2014.Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems. 2014. Gatys, Leon A., Alexander S. Ecker, and Matthias Bethge. "Image style transfer using convolutional neural networks." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.Gatys, Leon A., Alexander S. Ecker, and Matthias Bethge. "Image style transfer using convolutional neural networks." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.

しかし、構造物点検のための撮影では、微妙な撮影パラメータ調整が必要となるため、特許文献1の方法を適用すると、画像間の変化が小さな複数画像を表示することになる。ユーザーにとって、このような変化が小さな画像を比較して、最適な画像を選択することは難しい。更に、点検画像は屋外で撮影するため、外光の影響、及び利用可能なディスプレイサイズの問題で、画像の微妙な差を判断することが難しい。 However, since photographing for inspecting a structure requires delicate adjustment of photographing parameters, applying the method of Patent Document 1 results in displaying a plurality of images with small changes between images. It is difficult for the user to compare images with such small changes and select the optimal image. Furthermore, since the inspection images are taken outdoors, it is difficult to judge subtle differences in the images due to the influence of external light and the available display size.

本発明は、所定の撮影パラメータで撮影対象を撮影した撮影画像を取得する第1の取得手段と、前記撮影画像の画像情報に関する検索条件に基づいて、複数の基準画像を取得する第2の取得手段と、前記第1の取得手段によって取得された前記撮影画像と、前記第2の取得手段によって取得された前記基準画像と、に基づいて前記基準画像ごとに第1の評価値を推定する推定手段と、を有し、前記推定手段は、推定された複数の前記第1の評価値に基づいて、前記撮影対象の撮影に適した撮影方法を、第1の評価値と、当該第1の評価値よりも大きな評価値に対応する撮影手段の撮影パラメータとの関係の学習結果に基づくモデルを用いて推定する。 The present invention includes a first acquisition means that acquires a photographed image of a photographed object with predetermined photographing parameters, and a second acquisition means that acquires a plurality of reference images based on a search condition regarding image information of the photographed image. Estimating a first evaluation value for each of the reference images based on an acquisition means, the photographed image acquired by the first acquisition means , and the reference image acquired by the second acquisition means. and an estimating means for estimating a photographing method suitable for photographing the photographing target based on the plurality of estimated first evaluation values, the first evaluation value, and the first evaluation value. Estimation is performed using a model based on the learning result of the relationship between the imaging means and the imaging parameter corresponding to the evaluation value larger than the evaluation value of 1 .

本発明によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。 According to the present invention, it becomes possible to easily set photographing parameters for photographing a desired image even if the details of the photographed image cannot be confirmed.

情報処理装置のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of an information processing device. 情報処理装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of an information processing device. 画像格納部に格納される情報を説明する図である。FIG. 3 is a diagram illustrating information stored in an image storage unit. 情報処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of information processing. 画像検索時の画面の一例を示す図である。FIG. 3 is a diagram showing an example of a screen during image search. 撮影パラメータの設定を説明する図である。FIG. 3 is a diagram illustrating setting of photographing parameters. ひび割れ位置の部分画像に基づいた評価値の算出方法を説明する図である。It is a figure explaining the calculation method of the evaluation value based on the partial image of a crack position. 各撮影パラメータの評価について説明する図である。FIG. 3 is a diagram illustrating evaluation of each imaging parameter. 撮影パラメータ調整を行う場合の操作部について説明する図である。FIG. 3 is a diagram illustrating an operation unit when adjusting shooting parameters. 実施形態4の情報処理装置の構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of the configuration of an information processing apparatus according to a fourth embodiment. 実施形態5の画像格納部に格納される情報を説明する図である。FIG. 7 is a diagram illustrating information stored in an image storage unit according to the fifth embodiment.

以下、本発明の実施形態について図面に基づいて説明する。 Embodiments of the present invention will be described below based on the drawings.

<実施形態1>
実施形態1では、インフラ構造物の画像点検のための撮影における撮影パラメータ調整を例にして、説明を行う。インフラ構造物は、例えば、橋梁、ダム、トンネル等であり、画像点検では、これらの構造物のコンクリート壁面を撮影して、点検のための画像を作成する。したがって、本実施形態では、これらのコンクリート壁面が撮影対象となる。画像点検の対象は、他の構造物、コンクリート以外の材質表面を撮影対象とした画像であってもよい。例えば、点検対象が道路の場合、アスファルト表面を撮影対象としてもよい。
本実施形態では、理想的な画質の画像である基準画像を準備し、撮影対象を撮影した画像が基準画像と類似するように撮影方法を調整する。基準画像は、過去に撮影したコンクリート壁面画像のうち、細いひび割れ等の撮影が困難な点検対象が、明瞭に確認できる画像である。つまり、基準画像は、フォーカス、明るさ、色合い等が点検画像として好ましい品質で撮影された画像である。また、本実施形態で調整する主な撮影方法は、撮影部の撮影パラメータで、例えば、露出、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、等である。以下、基準画像を利用した撮影方法の調整方法について説明する。
<Embodiment 1>
Embodiment 1 will be described by taking as an example the adjustment of photographing parameters in photographing for image inspection of infrastructure structures. Examples of infrastructure structures include bridges, dams, tunnels, etc., and in image inspection, images of concrete walls of these structures are photographed to create images for inspection. Therefore, in this embodiment, these concrete wall surfaces are to be photographed. The image inspection target may be an image of another structure or a surface of a material other than concrete. For example, if the inspection target is a road, the asphalt surface may be photographed.
In this embodiment, a reference image, which is an image of ideal image quality, is prepared, and the imaging method is adjusted so that the image of the object to be photographed resembles the reference image. The reference image is an image from among concrete wall images taken in the past, in which inspection targets that are difficult to photograph, such as thin cracks, can be clearly confirmed. In other words, the reference image is an image captured with focus, brightness, hue, etc. of quality preferable as an inspection image. Further, the main photographing methods adjusted in this embodiment are photographing parameters of the photographing unit, such as exposure, focus, white balance (color temperature), shutter speed, aperture, and the like. A method of adjusting the photographing method using the reference image will be described below.

図1は、情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は後述する図2の撮影部101と一体化して、カメラの筐体内に含まれる構成としてもよいし、撮影部101で撮影した画像を無線、又は有線により送信し、撮影部101を含むカメラとは異なる筐体(例えば、コンピュータ、又はタブレット)で構成してもよい。図1の例では、情報処理装置100は、ハードウェア構成として、CPU10、記憶部11、操作部12、通信部13を含む。CPU10は、情報処理装置100の全体を制御する。CPU10が記憶部11に記憶されたプログラムに基づき処理を実行することによって、後述する図2、図10の102、104、105で示される構成、及び後述する図4のフローチャートの処理が実現される。記憶部11は、プログラム、CPU10がプログラムに基づき処理を実行する際に用いるデータ、画像等を記憶する。操作部12は、CPU10の処理の結果を表示したり、ユーザーの操作をCPU10に入力したりする。操作部12は、カメラ背面のディスプレイ及びタッチパネル、又はノートPCのディスプレイ及びインターフェースで構成することができる。通信部13は、情報処理装置100をネットワークに接続し、他の装置等との通信を制御する。 FIG. 1 is a diagram illustrating an example of the hardware configuration of the information processing apparatus 100. The information processing device 100 may be integrated with a photographing section 101 shown in FIG. The camera may be configured in a different housing (for example, a computer or a tablet) than the camera including the camera. In the example of FIG. 1, the information processing device 100 includes a CPU 10, a storage section 11, an operation section 12, and a communication section 13 as a hardware configuration. The CPU 10 controls the entire information processing device 100. When the CPU 10 executes processing based on the program stored in the storage unit 11, the configurations shown in FIG. 2, 102, 104, and 105 in FIG. 10, which will be described later, and the processing in the flowchart in FIG. . The storage unit 11 stores programs, data, images, etc. used when the CPU 10 executes processing based on the programs. The operation unit 12 displays the results of processing by the CPU 10 and inputs user operations to the CPU 10. The operation unit 12 can be configured with a display and a touch panel on the back of the camera, or a display and an interface of a notebook PC. The communication unit 13 connects the information processing device 100 to a network and controls communication with other devices and the like.

図2は、実施形態1の情報処理装置100の構成の一例を示す図である。情報処理装置100は、構成として、撮影部101、基準画像処理部102、画像格納部103、推定部104、撮影パラメータ設定部105を含む。但し、上述したように、撮像部は、情報処理装置100に含まれてもよいし、含まれなくてもよい。基準画像処理部102、推定部104、撮影パラメータ設定部105は、ソフトウェアである。また、画像格納部103は、記憶部11に設けられてもよいし、情報処理装置100と通信可能なストレージサーバに設けられてもよい。画像格納部103がストレージサーバに設けられる場合、基準画像処理部102は、ネットワークを介して画像格納部103に保存された画像、及び画像に関連した情報を取得する。画像格納部103は、基準画像の候補となる画像群を格納するストレージである。 FIG. 2 is a diagram illustrating an example of the configuration of the information processing apparatus 100 according to the first embodiment. The information processing apparatus 100 includes a photographing section 101, a reference image processing section 102, an image storage section 103, an estimating section 104, and a photographing parameter setting section 105. However, as described above, the imaging unit may or may not be included in the information processing device 100. The reference image processing unit 102, the estimation unit 104, and the imaging parameter setting unit 105 are software. Furthermore, the image storage unit 103 may be provided in the storage unit 11 or may be provided in a storage server that can communicate with the information processing apparatus 100. When the image storage unit 103 is provided in a storage server, the reference image processing unit 102 acquires images stored in the image storage unit 103 and information related to the images via the network. The image storage unit 103 is a storage that stores a group of images that are candidates for reference images.

図3は、画像格納部103に格納される情報を説明する図である。まず、画像格納部103には、複数の画像(図3では、画像201、202)が格納されている。以下、画像格納部103に格納された画像201、202を格納画像と呼ぶ。格納画像は、様々な構造物のコンクリート壁面を撮影した画像から、画像点検に好ましい画質で撮影されている画像を収集して準備された画像である。画像点検に好ましい画質は、人間が画像を確認したときに、ひび割れ等の変状が確認しやすい画質であり、例えば、フォーカス、明るさ、色合い等が好ましい画像である。例えば、格納画像201は、ひび割れ211が明瞭に確認できる画像である。また、格納画像はひび割れが写っていることに限定されない。格納画像202ではコンクリート壁面の目地212が写っている画像である。この格納画像202は、目地212のエッジが明瞭に写っていることから、点検に好ましい画質の画像と判断されたものである。 FIG. 3 is a diagram illustrating information stored in the image storage unit 103. First, the image storage unit 103 stores a plurality of images (images 201 and 202 in FIG. 3). Hereinafter, the images 201 and 202 stored in the image storage unit 103 will be referred to as stored images. The stored image is an image prepared by collecting images taken with image quality suitable for image inspection from images taken of concrete walls of various structures. The preferred image quality for image inspection is one in which deformations such as cracks can be easily confirmed by a human being when checking the image, and for example, an image with preferable focus, brightness, color tone, etc. For example, the stored image 201 is an image in which the crack 211 can be clearly seen. Furthermore, the stored image is not limited to showing cracks. The stored image 202 is an image that shows joints 212 on the concrete wall surface. Since this stored image 202 clearly shows the edges of the joints 212, it has been determined that the image quality is suitable for inspection.

また、撮影画像に対して、ひび割れを自動検知する技術を用いて、撮影画像を点検する場合、自動検知が好適に動作する画質を、画像点検に好ましい画質としてもよい。この場合、自動検知の検知結果の正解率等を算出し、これが高くなる画質の画像を格納画像とする。
図3の画像格納部103には、格納画像に画像情報と撮影パラメータとが関連付けられて記録されている。画像情報は、格納画像の撮影内容に関する情報で、例えば、対象物の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所・地域、経過年数、等の情報が含まれる。また、撮影パラメータは、それぞれの基準画像を撮影したときの撮影パラメータである。
Furthermore, when a captured image is inspected using a technique for automatically detecting cracks, the image quality at which the automatic detection operates preferably may be set as the image quality preferable for image inspection. In this case, the accuracy rate of the detection result of the automatic detection is calculated, and an image with a higher quality is set as a stored image.
In the image storage unit 103 of FIG. 3, image information and photographing parameters are recorded in association with stored images. The image information is information about the content of the stored image, and includes information such as the type of structure of the object, the type of concrete, the weather at the time of shooting, the target in the image, the location/area where the structure is installed, the number of years that have passed, etc. It will be done. Further, the photographing parameters are photographing parameters when each reference image is photographed.

図4は、情報処理の一例を示すフローチャートである。以下、フローチャートに従って、情報処理装置100の動作について説明する。
S301及びS302は、基準画像処理部102が実行する処理である。実施形態1の基準画像処理部102は、画像格納部103に格納された格納画像から基準画像を選択する処理を実行する。図5には、S301及びS302の実行時に、操作部12に表示される情報を示している。
S301において、基準画像処理部102は、検索条件に基づいて、画像格納部103から基準画像候補を検索する。基準画像候補の検索方法としては、画像情報を用いた方法がある。図3に示したように、画像格納部103に格納された画像には、画像情報が関連付けられている。基準画像処理部102は、この情報を基に、撮影対象に類似する格納画像を検索することができる。図5には、操作部12で格納画像を検索する画面の例を示している。例えば、撮影対象が橋梁の床版で、撮影時の天候が曇りであったとする。ユーザーは、このような撮影対象、又は撮影状況に関わる条件を画像検索条件に設定する。そして、検索ボタン410を選択することで、画像格納部103から検索条件に該当する格納画像を検索することができる。検索結果は、基準画像候補として基準画像候補表示欄420に表示される。基準画像候補は、検索条件と画像情報とが一致した格納画像だけを基準画像候補としてもよいし、項目の一致度が高い格納画像を所定数選択して基準画像候補としてもよい。また、図5の例では、検索のための画像情報は、構造物種類、コンクリート種類、天候のみを表示しているが、画像検索のための条件はこれらに限定する物ではない。更にまた、図5では、検索の方法としてプルダウンメニューで検索内容を設定する方法を示しているが、ユーザーが検索のための画像情報を入力する方法もこれに限定されない。例えば、自由な文字列をキーワードとして入力することにより、格納画像を検索することができる操作方法でもよい。
FIG. 4 is a flowchart showing an example of information processing. Hereinafter, the operation of the information processing device 100 will be explained according to the flowchart.
S301 and S302 are processes executed by the reference image processing unit 102. The reference image processing unit 102 of the first embodiment executes a process of selecting a reference image from stored images stored in the image storage unit 103. FIG. 5 shows information displayed on the operation unit 12 when S301 and S302 are executed.
In S301, the reference image processing unit 102 searches the image storage unit 103 for reference image candidates based on the search conditions. As a search method for reference image candidates, there is a method using image information. As shown in FIG. 3, images stored in the image storage unit 103 are associated with image information. Based on this information, the reference image processing unit 102 can search for a stored image similar to the subject to be photographed. FIG. 5 shows an example of a screen for searching stored images using the operation unit 12. For example, assume that the object to be photographed is the deck slab of a bridge, and the weather at the time of photographing was cloudy. The user sets conditions related to the subject to be photographed or the photographing situation as image search conditions. By selecting the search button 410, it is possible to search the image storage unit 103 for stored images that meet the search conditions. The search results are displayed in the reference image candidate display field 420 as reference image candidates. As reference image candidates, only stored images whose search conditions and image information match may be used as reference image candidates, or a predetermined number of stored images with a high degree of item matching may be selected as reference image candidates. Further, in the example of FIG. 5, the image information for search displays only the structure type, concrete type, and weather, but the conditions for image search are not limited to these. Furthermore, although FIG. 5 shows a method of setting the search content using a pull-down menu as a search method, the method by which the user inputs image information for the search is not limited to this. For example, an operation method may be used in which stored images can be searched by inputting a free character string as a keyword.

また、別の基準画像候補の検索方法として、仮撮影画像を用いる方法もある。この場合、まず、ユーザーは撮影部101で撮影対象を撮影する。この撮影は仮撮影で、このときの撮影パラメータは、オート設定等を用いる。この仮撮影で撮影した画像を仮撮影画像とする。ユーザーは、仮撮影画像を基準画像候補選択の検索キーとして設定する。図5には、基準画像候補選択の検索条件として、仮撮影画像450が設定されていることを示す。この状態で、検索ボタン410を選択することにより、画像格納部103から、仮撮影画像に類似した画像が検索される。検索の結果、類似度が高い上位の格納画像が、基準画像候補として選定され、基準画像候補表示欄420に表示される。ここで、仮撮影画像を用いた検索では、例えば、画像全体の特徴(コンクリート壁面の色味、又はテクスチャ感)を基に、格納画像との類似度を算出し、基準画像候補を選択する。これにより、これから点検のための撮影を行う撮影対象のコンクリート壁面が類似した格納画像を検索することができるようになる。また、上述の画像情報(キーワード)による検索と、仮撮影画像による検索とを同時に用いて基準画像候補を検索するようにしてもよい。
以上のようにして、基準画像候補が選択され、基準画像候補表示欄420に表示される。
Furthermore, as another method of searching for reference image candidates, there is also a method of using temporarily captured images. In this case, the user first photographs an object to be photographed using the photographing unit 101. This photographing is a temporary photographing, and the photographing parameters at this time use automatic settings or the like. The image photographed in this temporary photographing is set as a temporary photographed image. The user sets the temporarily captured image as a search key for selecting reference image candidates. FIG. 5 shows that a temporary photographed image 450 is set as a search condition for selecting a reference image candidate. In this state, by selecting the search button 410, an image similar to the temporarily captured image is searched from the image storage unit 103. As a result of the search, the top stored images with a high degree of similarity are selected as reference image candidates and displayed in the reference image candidate display field 420. Here, in the search using the temporarily photographed image, for example, the degree of similarity with the stored image is calculated based on the characteristics of the entire image (the color or texture of the concrete wall surface), and a reference image candidate is selected. This makes it possible to search for stored images that have a similar concrete wall surface to be photographed for inspection. Further, the reference image candidates may be searched by simultaneously using the above-described search using the image information (keyword) and the search using the temporarily captured image.
As described above, a reference image candidate is selected and displayed in the reference image candidate display field 420.

図4のS302において、基準画像処理部102は、基準画像候補表示欄420に表示された基準画像候補の中から1枚の画像を基準画像として選択する。まず、基準画像選択の初期値として、自動的に検索の一致度合いが最も高い基準画像候補が基準画像として選択される。図5には、このようにして選択された基準画像430が、基準画像表示欄に表示されている様子を示している。ユーザーは、このようにして表示された基準画像を確認することで、撮影方法調整の基準を確認することができる。選択された基準画像430が、調整の基準として不適であるとユーザーが判断する場合、ユーザーは基準画像候補から別の画像を基準画像として選択することができる。基準画像候補から別の画像が選択された場合、基準画像処理部102は、選択された画像を基準画像とする。
なお、図5の画像には、ひび割れ(例えば440、441)が写っている。後述するように、ひび割れ部分の画像を用いて評価値を算出する場合には、基準画像にひび割れが含まれている必要がある。また、仮撮影画像450にひび割れ440を含む画像を設定することで、基準画像候補の検索において、撮影対象のひび割れと類似のひび割れを含む格納画像を検索できるようにしてもよい。
In S302 of FIG. 4, the reference image processing unit 102 selects one image as a reference image from among the reference image candidates displayed in the reference image candidate display field 420. First, as an initial value for reference image selection, the reference image candidate with the highest degree of match in the search is automatically selected as the reference image. FIG. 5 shows how the reference image 430 selected in this manner is displayed in the reference image display field. By checking the reference image displayed in this way, the user can check the standard for adjusting the photographing method. If the user determines that the selected reference image 430 is inappropriate as a reference for adjustment, the user can select another image from the reference image candidates as the reference image. When another image is selected from the reference image candidates, the reference image processing unit 102 sets the selected image as the reference image.
Note that the image in FIG. 5 shows cracks (for example, 440 and 441). As will be described later, when calculating an evaluation value using an image of a cracked portion, the crack must be included in the reference image. Further, by setting an image including the crack 440 in the temporary photographed image 450, it may be possible to search for a stored image including a crack similar to the crack to be photographed when searching for a reference image candidate.

S303において、撮影パラメータ設定部105は、撮影パラメータの初期値(以下、初期撮影パラメータ)を決定する。初期撮影パラメータの設定は、撮影装置の通常の撮影パラメータ調整方法(オートパラメータ調整)で決定した撮影パラメータを初期パラメータとして設定すればよい。また、別の方法として、基準画像に関連付けられた撮影パラメータを初期パラメータとしてもよい。図3で示したように、画像格納部103では、各格納画像について、その画像を撮影したときの撮影パラメータを記録している。したがって、基準画像に関連付けられた撮影パラメータを初期パラメータとする場合には、基準画像処理部102は、基準画像として選択された画像に関連付けられた撮影パラメータを画像格納部103から呼び出して、初期パラメータとして設定する。 In S303, the imaging parameter setting unit 105 determines initial values of imaging parameters (hereinafter referred to as initial imaging parameters). The initial photographing parameters may be set by setting the photographing parameters determined by the normal photographing parameter adjustment method (auto parameter adjustment) of the photographing device as the initial parameters. Alternatively, the imaging parameters associated with the reference image may be used as the initial parameters. As shown in FIG. 3, the image storage unit 103 records the shooting parameters for each stored image when the image was shot. Therefore, when setting the imaging parameters associated with the reference image as initial parameters, the reference image processing unit 102 reads the imaging parameters associated with the image selected as the reference image from the image storage unit 103, and sets the initial parameters. Set as .

S304において、撮影パラメータ設定部105は、初期撮影パラメータを基に、複数の撮影パラメータを設定する。図6には、初期撮影パラメータを基に、複数の撮影パラメータを設定する様子を示している。まず、図6(A)は、本実施形態の方法で調整する撮影パラメータの例として、露出(EV)を調整する実施形態について説明する図である。図6(A)では、初期パラメータとしてEV0が設定されている様子を白三角501で示している。撮影パラメータ設定部105は、この初期パラメータを中心に、複数の撮影パラメータを設定する。図6(A)では、撮影パラメータ設定部105は、EV0を中心にそれぞれ露出を1段変化させて、EV-1(図6の黒三角502)とEV+1(図6の黒三角503)を複数パラメータとして設定している。この例では、初期撮影パラメータと合わせて3つの撮影パラメータを設定している様子を示しているが、設定する撮影パラメータの数はこれに限らない。例えば、撮影パラメータ設定部105は、更に2段異なる露出を設定して、合計5つの撮影パラメータを設定するようにしてもよい。また、この例では、露出を1段変更するルールにより、複数の撮影パラメータを設定しているが、撮影パラメータの変更の刻みは、これ以外の設定方法としてもよい。例えば、撮影パラメータ設定部105は、露出を1/2段刻みで設定するようにしてもよいし、初期撮影パラメータ周辺でランダムに設定するようにしてもよい。 In S304, the imaging parameter setting unit 105 sets a plurality of imaging parameters based on the initial imaging parameters. FIG. 6 shows how a plurality of imaging parameters are set based on the initial imaging parameters. First, FIG. 6A is a diagram illustrating an embodiment in which exposure (EV) is adjusted as an example of photographing parameters to be adjusted by the method of this embodiment. In FIG. 6A, a white triangle 501 indicates that EV0 is set as an initial parameter. The photographing parameter setting unit 105 sets a plurality of photographing parameters centering on these initial parameters. In FIG. 6(A), the shooting parameter setting unit 105 changes the exposure by one step centering on EV0, and sets a plurality of EV-1 (black triangle 502 in FIG. 6) and EV+1 (black triangle 503 in FIG. 6). It is set as a parameter. Although this example shows how three imaging parameters are set together with the initial imaging parameters, the number of imaging parameters to be set is not limited to this. For example, the shooting parameter setting unit 105 may further set an exposure that is two steps different to set a total of five shooting parameters. Further, in this example, a plurality of photographing parameters are set according to the rule of changing the exposure by one step, but the increments of changing the photographing parameters may be set using other setting methods. For example, the shooting parameter setting unit 105 may set the exposure in 1/2-stop increments, or may set the exposure randomly around the initial shooting parameters.

以上では、撮影パラメータを露出とした場合についての実施形態を説明したが、本実施形態で設定する撮影パラメータは露出に限定されない。撮影部101を制御するパラメータであれば、撮影パラメータはどのようなものを用いてもよく、例えば、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、ISO感度、画像の彩度、色合い等を撮影パラメータとしてもよい。
また、図6(A)では、露出のみを本実施形態で調整する撮影パラメータとする実施形態について説明したが、複数の撮影パラメータを同時に調整するようにしてもよい。例えば、図6(B)は、露出とフォーカスとの組み合わせを調整する撮影パラメータとした場合の実施形態について説明する図である。図6(B)では、ある露出とフォーカスとのパラメータの組み合わせが初期パラメータとして設定されており、白丸511として示されている。撮影パラメータ設定部105は、この初期パラメータを中心に、例えば黒丸512のような撮影パラメータの組み合わせを、複数の撮影パラメータとして設定してもよい。
In the above, an embodiment has been described in which exposure is used as a photographing parameter, but the photographing parameter set in this embodiment is not limited to exposure. Any shooting parameters may be used as long as they control the shooting unit 101, such as focus, white balance (color temperature), shutter speed, aperture, ISO sensitivity, image saturation, hue, etc. may be used as a shooting parameter.
Further, in FIG. 6A, an embodiment has been described in which only exposure is the shooting parameter to be adjusted in this embodiment, but a plurality of shooting parameters may be adjusted simultaneously. For example, FIG. 6(B) is a diagram illustrating an embodiment in which a combination of exposure and focus is used as a shooting parameter to be adjusted. In FIG. 6B, a certain combination of exposure and focus parameters is set as an initial parameter, and is shown as a white circle 511. The photographing parameter setting unit 105 may set a combination of photographing parameters, such as the black circle 512, as a plurality of photographing parameters, centering on these initial parameters.

なお、調整する対象となる撮影パラメータの組み合わせは、図6(B)の露出とフォーカスとの組み合わせに限らず、他の撮影パラメータの組み合わせでもよい。また、上記の説明では、2つのパラメータの組み合わせを調整する実施形態について説明したが、撮影パラメータの組み合わせ数もこれに限らず、3つ以上の撮影パラメータの組み合わせを同時に調整するようにしてもよい。
S304では、以上のようにして、撮影パラメータ設定部105で複数の撮影パラメータを設定する。以降の処理の説明については、調整する撮影パラメータを、図6(A)のように露出とした場合について説明する。
Note that the combination of shooting parameters to be adjusted is not limited to the combination of exposure and focus shown in FIG. 6(B), but may be a combination of other shooting parameters. Further, in the above description, an embodiment in which a combination of two parameters is adjusted has been described, but the number of combinations of imaging parameters is not limited to this, and combinations of three or more imaging parameters may be adjusted simultaneously. .
In S304, a plurality of imaging parameters are set in the imaging parameter setting unit 105 as described above. The following processing will be described in the case where the photographing parameter to be adjusted is exposure as shown in FIG. 6(A).

図4のS305において、撮影部101は、S304で設定された複数の撮影パラメータを用いて、撮影対象を撮影する。より具体的には、図6(A)のように複数の撮影パラメータとして3つの露出が設定された場合には、撮影部101は、ユーザーのシャッター操作に応じて露出を変更しながら3枚の画像を自動的に撮影する。以下、このステップで撮影された画像を撮影画像と呼ぶ。 In S305 of FIG. 4, the photographing unit 101 photographs the subject using the plurality of photographing parameters set in S304. More specifically, when three exposures are set as multiple shooting parameters as shown in FIG. 6A, the shooting unit 101 shoots three images while changing the exposure according to the user's shutter operation. Capture images automatically. Hereinafter, the image photographed in this step will be referred to as a photographed image.

図4のS306以降の処理は主に推定部104で実行する処理で、最適な撮影パラメータを選択する処理、又は、最適な撮影パラメータを更に探索するための処理である。
S306において、推定部104は、複数の撮影パラメータそれぞれについて評価値を算出する。評価値は、撮影パラメータが点検画像を撮影するために適切であるほど高い値を示すものである。推定部104は、この評価値を、各撮影パラメータで撮影した撮影画像と基準画像とを比較することで算出する。より具体的には、撮影画像が基準画像と類似する場合、その撮影画像を撮影した撮影パラメータは好ましいパラメータであると判断することができる。したがって、このような場合には、推定部104は、高い評価値を算出するようにする。この評価値算出のためには、撮影画像と基準画像との類似度を算出すればよい。以下では、評価値の算出方法の具体例について説明する。
The processes after S306 in FIG. 4 are mainly executed by the estimation unit 104, and are processes for selecting optimal imaging parameters or processing for further searching for optimal imaging parameters.
In S306, the estimation unit 104 calculates evaluation values for each of the plurality of imaging parameters. The evaluation value indicates a higher value as the photographing parameters are more appropriate for photographing the inspection image. The estimation unit 104 calculates this evaluation value by comparing a photographed image photographed with each photographing parameter and a reference image. More specifically, if the captured image is similar to the reference image, it can be determined that the imaging parameters used to capture the captured image are preferable parameters. Therefore, in such a case, the estimation unit 104 calculates a high evaluation value. In order to calculate this evaluation value, it is sufficient to calculate the degree of similarity between the photographed image and the reference image. A specific example of the evaluation value calculation method will be described below.

撮影画像と基準画像との評価値算出方法の一つの例として、まず、画像全体の類似度を算出して評価値として用いる方法について説明する。例えば、画像全体の類似度を、画像全体の明るさで比較する場合は、撮影画像と基準画像とをグレースケール変換した後に、画像全体の輝度ヒストグラムを作成し、撮影画像の輝度ヒストグラムと基準画像の輝度ヒストグラムとの類似度を算出すればよい。ヒストグラムの類似度は、単純にユークリッド距離を算出する方法、又はHistogram Intersectio等の手法で計算することができる。また、画像全体の色あいの類似度を算出する場合には、グレースケール変換を行わずに、RGB、又はYCrCb等の色空間を基にそれぞれの画像の色ヒストグラムを作成し、色ヒストグラムの類似度を算出するようにすればよい。画像全体の類似度を判定するための特徴量は、これらのヒストグラム特徴量に限定することなく、他の特徴量を用いてもよい。 As an example of a method for calculating an evaluation value between a photographed image and a reference image, a method of calculating the similarity of the entire image and using it as an evaluation value will be described first. For example, if you want to compare the similarity of the entire image by the brightness of the entire image, after converting the captured image and the reference image to grayscale, create a luminance histogram of the entire image, and then compare the luminance histogram of the captured image and the reference image. What is necessary is to calculate the degree of similarity with the brightness histogram of . The degree of similarity between histograms can be calculated by simply calculating Euclidean distance, or by a method such as Histogram Intersection. In addition, when calculating the similarity in color tone of the entire image, create a color histogram for each image based on a color space such as RGB or YCrCb without performing gray scale conversion, and calculate the similarity of the color histogram. All you have to do is calculate. The feature amounts for determining the similarity of the entire image are not limited to these histogram feature amounts, and other feature amounts may be used.

また、他の評価値算出方法の例として、画像の部分的な類似度を算出するようにしてもよい。例えば、コンクリート壁面の点検画像を撮影したい場合に、興味がある部分は画像中のコンクリート壁面が写っている部分である。したがって、撮影画像及び基準画像にコンクリート壁面以外の部分が写っている場合には、その部分を除いたコンクリート壁面の部分の画像を基に類似度を算出するようにしてもよい。より具体的には、例えば、橋梁の床版を橋梁の下側から撮影するときに、撮影画像に空領域(背景部分)が含まれることがある。このような撮影画像では、推定部104は、空領域を除去し、床版のコンクリート壁面の画像部分と、基準画像との類似度を算出することにより評価値を算出する。この類似度の算出では、撮影画像の部分画像と基準画像全体それぞれについて上述のヒストグラム特徴量を作成し、ヒストグラム特徴量間の類似度を算出すればよい。この例は、基準画像は画像全体がコンクリート壁面画像である前提で、撮影画像側の部分画像と基準画像との類似度を算出する例である。しかし、基準画像の一部に背景と見なせる部分が含まれている場合には、基準画像の部分画像と撮影画像との類似度を算出するようにしてもよい。 Further, as another example of an evaluation value calculation method, partial similarity of images may be calculated. For example, when you want to take an inspection image of a concrete wall, the part of the image that is of interest is the part of the image that shows the concrete wall. Therefore, if a portion other than the concrete wall surface is captured in the photographed image and the reference image, the degree of similarity may be calculated based on the image of the portion of the concrete wall surface excluding that portion. More specifically, for example, when a bridge deck is photographed from below the bridge, a sky area (background portion) may be included in the photographed image. In such a photographed image, the estimation unit 104 calculates an evaluation value by removing the sky area and calculating the degree of similarity between the image portion of the concrete wall surface of the floor slab and the reference image. In calculating this degree of similarity, the above-described histogram feature amounts may be created for each of the partial image of the captured image and the entire reference image, and the degree of similarity between the histogram feature amounts may be calculated. In this example, the degree of similarity between a partial image on the photographed image side and the reference image is calculated on the premise that the entire reference image is a concrete wall image. However, if a portion of the reference image includes a portion that can be considered as a background, the degree of similarity between the partial image of the reference image and the photographed image may be calculated.

また、更に、画像の部分的な類似度を算出する別の方法を説明する。画像点検のためのコンクリート壁面画像の撮影では、細いひび割れが撮影画像で確認できる画質で撮影を行うことが重要である。基準画像は、細いひび割れが十分に確認できる理想的な点検画像であるとすると、撮影画像の細いひび割れ部分が基準画像の細いひび割れ部分と同様に撮影されることが好ましい。ひび割れ部分が同様に撮影されているかを判定するために、推定部104は、画像中のひび割れ部分の部分画像を用いて評価値を算出する。ひび割れ部分の画像の評価値算出方法には、どのような方法を用いてもよいが、以下の例では、ひび割れ部分のエッジ強度が類似するほど高い評価値を算出するようにする。このために、まず、推定部104は、撮影画像と基準画像とのひび割れ部分を特定する。このひび割れ部分の特定方法は、自動で実行されるものでもよいし、ユーザーが手動で実施するものでもよい。自動的にひび割れを検知する場合には、推定部104は、ひび割れ自動検知の処理を用いるものとする。手動でひび割れ位置を特定する場合には、推定部104は、操作部12を介したユーザーによる画像中のひび割れ位置の入力を受け取る。撮影画像に対しては、これらの処理により撮影後にひび割れ位置を特定する必要があるが、基準画像のひび割れ位置は、予め特定しておいて、画像格納部103に格納画像と関連付けて記録しておいてもよい。以上のようにして、撮影画像と基準画像とのひび割れ位置が得られていれば、推定部104は、それぞれのひび割れ位置の画像のエッジ強度を算出する。エッジ強度は、単純にひび割れ位置の輝度値としてもよいし、Sobleフィルタ等でひび割れ位置の勾配を算出し、その勾配強度をエッジ強度としてもよい。これらのエッジ強度は画素単位で求められるため、撮影画像と基準画像とのエッジ強度の類似度を算出するためには、画像全体のエッジ強度特徴量を作成する必要がある。このためには、例えば、推定部104は、ひび割れ位置のエッジ強度をそれぞれの画像でヒストグラム化したヒストグラム特徴量を作成する等すればよい。推定部104は、撮影画像と基準画像とのエッジ強度ヒストグラム特徴量の類似度を算出し、類似度が高いほど撮影画像と基準画像との評価値が高くなるようにする。 Furthermore, another method of calculating the partial similarity of images will be explained. When taking images of concrete walls for image inspection, it is important to take the images at a quality that allows thin cracks to be seen in the images. Assuming that the reference image is an ideal inspection image in which thin cracks can be sufficiently confirmed, it is preferable that the thin crack portion in the photographed image is photographed in the same manner as the thin crack portion in the reference image. In order to determine whether the cracked portion is similarly photographed, the estimation unit 104 calculates an evaluation value using a partial image of the cracked portion in the image. Any method may be used to calculate the evaluation value of the image of the cracked portion, but in the following example, the more similar the edge strengths of the cracked portion, the higher the evaluation value is calculated. For this purpose, first, the estimating unit 104 identifies cracks between the photographed image and the reference image. This method of identifying the cracked portion may be performed automatically or may be performed manually by the user. When automatically detecting cracks, the estimation unit 104 uses automatic crack detection processing. When manually specifying the crack position, the estimating unit 104 receives an input of the crack position in the image from the user via the operation unit 12. Although it is necessary to specify the crack position in a photographed image after photographing through these processes, the crack position in the reference image is specified in advance and recorded in the image storage unit 103 in association with the stored image. You can leave it there. If the crack positions between the photographed image and the reference image have been obtained as described above, the estimation unit 104 calculates the edge strength of the image at each crack position. The edge strength may simply be the brightness value at the crack position, or the gradient at the crack position may be calculated using a Sable filter or the like, and the gradient strength may be used as the edge strength. These edge strengths are determined on a pixel-by-pixel basis, so in order to calculate the degree of similarity in edge strength between the photographed image and the reference image, it is necessary to create an edge strength feature amount for the entire image. For this purpose, for example, the estimating unit 104 may create a histogram feature amount by forming a histogram of the edge strength of the crack position in each image. The estimation unit 104 calculates the similarity of the edge strength histogram feature amount between the captured image and the reference image, and the higher the similarity, the higher the evaluation value between the captured image and the reference image.

なお、以上のように、ひび割れ部分のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にひび割れが含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、ひび割れが存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301~S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、ひび割れが含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。
以上では、ひび割れ位置のエッジ強度を基に、撮影画像と基準画像との評価値を算出したが、撮影対象のコンクリート壁面に、常にひび割れが存在するとは限らない。したがって、推定部104は、例えば、コンクリートの目地、又は型枠跡等、コンクリートの構造上、確実に出現する画像エッジ部分のエッジ強度に基づいて評価値を算出するようにしてもよい。この場合、撮影画像及び基準画像に含まれるコンクリート目地、型枠跡の部分のエッジ強度を利用すること以外は、上述のひび割れ部分のエッジを用いた評価値算出方法と同様の手法で評価値を算出することができる。
Note that, as described above, in order to calculate the evaluation value based on the edge strength of the cracked portion, it is a prerequisite that the crack is included in both the photographed image and the reference image. Regarding the photographed image, the user can obtain a photographed image including the crack by photographing the part where the crack exists from the concrete wall surface to be photographed. On the other hand, regarding the reference image, in the reference image selection process of S301 and S302, the user searches and selects an image containing cracks from among the stored images stored in the image storage unit 103 as the reference image. Select and set.
In the above, evaluation values between the photographed image and the reference image were calculated based on the edge strength of the crack position, but cracks do not always exist on the concrete wall surface to be photographed. Therefore, the estimating unit 104 may calculate the evaluation value based on the edge strength of an image edge portion that definitely appears due to the structure of concrete, such as concrete joints or formwork traces, for example. In this case, the evaluation value is calculated using the same method as the evaluation value calculation method using the edges of the cracked area described above, except that the edge strength of the concrete joint and formwork traces included in the photographed image and the reference image is used. It can be calculated.

なお、以上のように、コンクリート目地のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にコンクリート目地が含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、コンクリート目地が存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301~S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、コンクリート目地が含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。 Note that, as described above, in order to calculate the evaluation value based on the edge strength of the concrete joint, it is a prerequisite that the concrete joint is included in both the photographed image and the reference image. Regarding the photographed image, the user can obtain a photographed image including cracks by photographing the part where concrete joints are present from the concrete wall surface to be photographed. On the other hand, regarding the reference image, in the reference image selection process of S301 and S302, the user searches for an image containing concrete joints from among the stored images stored in the image storage unit 103 so that the image containing concrete joints becomes the reference image. and select and set.

また、ひび割れ位置のエッジ強度を用いた評価値算出の変形として、推定部104は、ひび割れ幅の情報を用いて、撮影画像と基準画像とのエッジ強度の評価値を算出するようにしてもよい。この方法では、推定部104は、撮影画像と基準画像とで同じ太さの幅のひび割れのエッジ強度が類似するほど、高い評価値を算出するようにする。図7には、ひび割れ幅の情報を用いて、ひび割れ位置の部分画像に基づいた評価値の算出方法を説明する図を示す。まず、図7(A)は、ある撮影パラメータで撮影した撮影画像620の例で、コンクリート壁面のひび割れ600が写った画像であるとする。ひび割れ600は、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。図7(A)では、このひび割れ600について、局所的なひび割れ幅が計測できているものとする。例えば、図7(A)には、0.15mm、0.50mm等のひび割れ幅が明らかな箇所が示されている。これらのひび割れ幅は、ユーザーが実際のコンクリート壁面のひび割れ幅を計測し、操作部12を介して画像を撮影中に入力するものとする。又は、ユーザーが撮影画像を確認して、ひび割れ幅を推定し、操作部12を介して画像を撮影中に入力してもよい。CPU10は、入力されたひび割れ幅を撮影画像と関連付けて画像格納部103に格納する。一方、図7(B)は基準画像621の例で、ひび割れ610が写ったコンクリート壁面の画像である。ひび割れ610もひび割れ600と同様に、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。ひび割れ600についても、局所的なひび割れ幅が記録されており、例えば、図7(B)には0.10mm、0.50mm等のひび割れ幅が記録されている。これらの基準画像のひび割れ幅情報は、画像格納部103に格納されており、基準画像621と共に画像格納部103から呼び出されるものとする。 Further, as a modification of the evaluation value calculation using the edge strength of the crack position, the estimation unit 104 may calculate the evaluation value of the edge strength between the photographed image and the reference image using information on the crack width. . In this method, the estimation unit 104 calculates a higher evaluation value as the edge strengths of cracks having the same thickness and width in the captured image and the reference image are similar. FIG. 7 is a diagram illustrating a method of calculating an evaluation value based on a partial image of a crack position using information on the crack width. First, FIG. 7A is an example of a captured image 620 captured using certain imaging parameters, and is assumed to be an image showing a crack 600 in a concrete wall surface. The crack 600 is a crack that has various crack widths depending on the part within one crack. In FIG. 7A, it is assumed that the local crack width has been measured for this crack 600. For example, FIG. 7A shows locations where crack widths of 0.15 mm, 0.50 mm, etc. are obvious. These crack widths are assumed to be input by the user by measuring the actual crack widths on the concrete wall surface and inputting them via the operation unit 12 while taking an image. Alternatively, the user may check the photographed image, estimate the crack width, and input the image via the operation unit 12 while the image is being photographed. The CPU 10 stores the input crack width in the image storage unit 103 in association with the photographed image. On the other hand, FIG. 7B is an example of a reference image 621, which is an image of a concrete wall surface in which cracks 610 are shown. Like the crack 600, the crack 610 is also a crack that has various crack widths depending on the part within one crack. Regarding the crack 600, local crack widths are also recorded; for example, in FIG. 7(B), crack widths of 0.10 mm, 0.50 mm, etc. are recorded. It is assumed that the crack width information of these reference images is stored in the image storage unit 103 and is called from the image storage unit 103 together with the reference image 621.

図7の撮影画像620と基準画像621との評価値算出では、推定部104は、同じひび割れ幅のひび割れ部分のエッジ強度を比較する。例えば、ひび割れ幅0.50mmの部分として、推定部104は、撮影画像620の部分的な画像601と、基準画像621の部分的な画像611とのエッジ強度に基づいて類似度を算出する。また、ひび割れ幅0.10mmの部分として、推定部104は、撮影画像620の部分的な画像602と、基準画像621の部分的な画像612とのエッジ強度に基づいて類似度を算出する。このように、同じひび割れ幅の画像部分の類似度に基づいて、撮影画像620と基準画像621との評価値sは、以下の式で求められる。

Figure 0007387261000001
ここで、diは、あるひび割れ幅(例えば、0.10mm幅のひび割れ)の画像部分の類似度である。αiは、あるひび割れ幅の評価値への重みである。αiは、例えば、細いひび割れ幅に大きな重みを付けるようにする。このようにすることで、撮影画像の細いひび割れ部分が、基準画像の画質に一致するほど高い評価値が算出される。したがって、細いひび割れ部分が基準画像の画質に近づくことを重視して、撮影条件を調整することができるようになる。
なお、ひび割れ部分の画像を用いて評価値を算出する場合には、撮影画像と基準画像とのコンクリート壁面の撮影解像度は、同解像度とすることが好ましい。より具体的には、撮影画像と基準画像とに写るコンクリート壁面が、例えば1.0mm/画素となる解像度になるように調整する処理を予め実施する。これは、解像度によって、同じひび割れでもエッジ強度等の見た目が変化するためである。また、画像中のコンクリート壁面が正対するように、あおり補正を予め実施することも好適な実施形態である。 In calculating the evaluation value between the photographed image 620 and the reference image 621 in FIG. 7, the estimating unit 104 compares the edge strengths of cracked portions with the same crack width. For example, for a portion with a crack width of 0.50 mm, the estimation unit 104 calculates the degree of similarity based on the edge strength between the partial image 601 of the photographed image 620 and the partial image 611 of the reference image 621. Furthermore, for a portion with a crack width of 0.10 mm, the estimation unit 104 calculates the degree of similarity based on the edge strength between the partial image 602 of the photographed image 620 and the partial image 612 of the reference image 621. In this way, the evaluation value s between the photographed image 620 and the reference image 621 is determined by the following formula based on the similarity between image portions having the same crack width.
Figure 0007387261000001
Here, d i is the similarity of image parts with a certain crack width (for example, a crack with a width of 0.10 mm). α i is the weight given to the evaluation value of a certain crack width. α i is set such that, for example, a large weight is given to narrow crack widths. By doing so, a higher evaluation value is calculated as the narrow crack portion of the photographed image matches the image quality of the reference image. Therefore, it becomes possible to adjust the photographing conditions with emphasis on bringing the image quality of the thin crack portion closer to that of the reference image.
In addition, when calculating an evaluation value using the image of a crack part, it is preferable that the imaging|photography resolution of the concrete wall surface of a photographed image and a reference|standard image shall be the same resolution. More specifically, processing is performed in advance to adjust the resolution of the concrete wall surface appearing in the captured image and the reference image to, for example, 1.0 mm/pixel. This is because the appearance of the same crack, such as edge strength, changes depending on the resolution. It is also a preferred embodiment to perform tilt correction in advance so that the concrete wall surface in the image faces directly.

以上では、撮影画像と基準画像とそれぞれで画像特徴量を作成し、特徴量の距離等に基づいて画像間の類似度を算出して、これを評価値とする実施形態について説明した。画像の類似度を算出する方法は、これに限らず、予め学習した学習モデルを用いて評価値を算出するようにしてもよい。この方法では、入力画像と基準画像とが類似するほど高い評価値を出力するモデルを予め学習しておく。この学習は、例えば、以下のようなデータセットDを用いて学習することができる。

Figure 0007387261000002
ここで、xnは任意の基準画像である。ynは任意の撮影画像である。tnは、xnとynとが類似画像と見なせる場合には1をとり、類似画像と見なせない場合には0をとる教師データである。このデータセットを用いて学習を行う学習方法はどのようなものを用いてもよいが、例えば、CNN(Convolutional Neural Network)を用いた学習方法の例として、非特許文献1のような方法がある。非特許文献1に記載の方法でデータセットDを学習したモデルは、評価値を算出したい撮影画像と基準画像とをモデルに入力すると、評価値を算出することができる。
以上では、撮影画像と基準画像との評価値の算出方法について様々な手法を説明した。説明した方法以外にも、画像と画像との類似度の算出方法については、従来、様々な方法が提案されている。推定部104は、これら公知の手法を用いて本実施形態の評価値を算出してもよい。 In the above, an embodiment has been described in which image feature amounts are created for each of the photographed image and the reference image, and the degree of similarity between the images is calculated based on the distance between the feature amounts, etc., and this is used as the evaluation value. The method of calculating the similarity of images is not limited to this, and the evaluation value may be calculated using a learning model learned in advance. In this method, a model is trained in advance that outputs a higher evaluation value as the input image and the reference image become more similar. This learning can be performed using, for example, the following data set D.
Figure 0007387261000002
Here, x n is an arbitrary reference image. y n is an arbitrary photographed image. t n is teacher data that takes 1 when x n and y n can be considered similar images, and takes 0 when they cannot be considered similar images. Any learning method may be used to perform learning using this data set, but for example, as an example of a learning method using CNN (Convolutional Neural Network), there is a method as described in Non-Patent Document 1. . A model that has learned the dataset D using the method described in Non-Patent Document 1 can calculate an evaluation value by inputting a photographed image for which an evaluation value is to be calculated and a reference image to the model.
In the above, various methods have been described for calculating evaluation values between a photographed image and a reference image. In addition to the method described above, various methods have been conventionally proposed for calculating the similarity between images. The estimation unit 104 may calculate the evaluation value of this embodiment using these known methods.

また、以上では、評価値の算出方法について、複数の方法を説明したが、これらの評価値算出手法は、それぞれを単独で用いてもよいし、複数の手法を組み合わせて用いてもよい。複数の手法を組み合わせる場合には、推定部104は、例えば、以下の式により最終的な評価値sを算出する。

Figure 0007387261000003
ここで、sjは、ある方法により求めた評価値である。wjはその方法の重みである。
S306では、以上のような方法で、推定部104は、撮影画像と基準画像との評価値を算出する。また、S306では、推定部104は、複数の撮影パラメータで撮影した撮影画像それぞれについて評価値を算出する。 Moreover, although a plurality of methods have been described above regarding the evaluation value calculation method, each of these evaluation value calculation methods may be used alone, or a plurality of methods may be used in combination. When combining multiple methods, the estimation unit 104 calculates the final evaluation value s using the following formula, for example.
Figure 0007387261000003
Here, s j is an evaluation value obtained by a certain method. w j is the weight of the method.
In S306, the estimation unit 104 calculates the evaluation value of the captured image and the reference image using the method described above. Further, in S306, the estimating unit 104 calculates an evaluation value for each photographed image photographed using a plurality of photographing parameters.

S307において、推定部104は、S306で算出した評価値を基に撮影パラメータの評価を行う。
S308において、推定部104は、評価結果に基づいて、撮影パラメータを再調整するか否かを判定する。
撮影パラメータを再調整する場合、S309において、推定部104は、影パラメータを改善する方法を推定する。そして、推定部104は、S305の複数画像の撮影の処理に戻る。
撮影パラメータを再調整しない場合、S310において、撮影パラメータ設定部105は、撮影部101に撮影パラメータを設定する。そして、図4に示すフローチャートの処理を終了する。
以下、これらの処理について説明する。
In S307, the estimation unit 104 evaluates the imaging parameters based on the evaluation value calculated in S306.
In S308, the estimation unit 104 determines whether to readjust the imaging parameters based on the evaluation result.
When readjusting the imaging parameters, in S309, the estimating unit 104 estimates a method for improving the shadow parameters. Then, the estimating unit 104 returns to the process of capturing multiple images in S305.
If the photographing parameters are not readjusted, the photographing parameter setting section 105 sets the photographing parameters in the photographing section 101 in S310. Then, the process of the flowchart shown in FIG. 4 ends.
These processes will be explained below.

まず、S307の撮影パラメータ評価では、推定部104は、複数の撮影パラメータの評価値から最大の評価値を選択し、所定の閾値と比較する。図8(A)は、各撮影パラメータの評価について説明する図である。本実施形態では、複数の撮影パラメータとして、露出(EV)を3つ設定した。図8(A)には、複数の撮影パラメータとして、露出-1、0、+1を設定している様子を、図6(A)と同様に、三角501、502、503で表している。また、図8(A)の下部には、各撮影パラメータで撮影した撮影画像と基準画像とから得られる評価値s-1、s0、s+1を示している。図8(A)では、+1の露出503の評価値s+1が最も高い評価値となっており、かつ、所定の閾値sthを超える値を示している。所定の閾値sthを超える評価値を示す撮影パラメータが存在する場合、推定部104は、その撮影パラメータが点検画像の撮影パラメータとして適した撮影パラメータと判断する。図8(A)の場合、推定部104は、+1の露出503を最適パラメータとして選択する。そして、S308では、推定部104は、撮影パラメータの再調整は不要と判断し、撮影パラメータ設定のS310へ進む。S310では、撮影パラメータ設定部105が、撮影部101に+1の露出を設定して、図4に示す処理を終了する。 First, in the imaging parameter evaluation in S307, the estimation unit 104 selects the maximum evaluation value from the evaluation values of the plurality of imaging parameters, and compares it with a predetermined threshold value. FIG. 8(A) is a diagram illustrating evaluation of each imaging parameter. In this embodiment, three exposures (EVs) are set as a plurality of shooting parameters. In FIG. 8(A), exposures -1, 0, and +1 are set as a plurality of shooting parameters, which is represented by triangles 501, 502, and 503, as in FIG. 6(A). Moreover, the lower part of FIG. 8(A) shows evaluation values s -1 , s 0 , and s +1 obtained from the photographed image photographed with each photographing parameter and the reference image. In FIG. 8(A), the evaluation value s +1 of the exposure 503 of +1 is the highest evaluation value, and indicates a value exceeding the predetermined threshold value s th . If there is a photographing parameter having an evaluation value exceeding the predetermined threshold s th , the estimation unit 104 determines that the photographing parameter is suitable as a photographing parameter for an inspection image. In the case of FIG. 8A, the estimation unit 104 selects +1 exposure 503 as the optimal parameter. Then, in S308, the estimating unit 104 determines that readjustment of the imaging parameters is unnecessary, and proceeds to S310 for setting imaging parameters. In S310, the photographing parameter setting unit 105 sets an exposure of +1 to the photographing unit 101, and ends the process shown in FIG. 4.

図8(B)は、図8(A)と同様に、露出-1、0、+1を複数の撮影パラメータとして設定し、評価値を算出した例であるが、図8(A)とは異なる評価値が得られている状況を示す。図8(B)において、最大の評価値を示しているのは、評価値s+1であるがs+1でも所定の閾値sthを超えていない。これらの撮影パラメータで撮影した撮影画像は、基準画像との類似度が低く、これらの撮影パラメータは点検画像の撮影パラメータとして適していない。この場合、S308では、推定部104は、撮影パラメータの再調整が必要と判断し、S309に進む。S309では、推定部104は、撮影パラメータの改善方法を推定する。 Similar to FIG. 8(A), FIG. 8(B) is an example in which exposures -1, 0, and +1 are set as multiple shooting parameters and evaluation values are calculated, but this is different from FIG. 8(A). Indicates the situation in which evaluation values are obtained. In FIG. 8(B), the evaluation value s +1 shows the maximum evaluation value, but even s +1 does not exceed the predetermined threshold value s th . Photographed images photographed using these photographic parameters have a low degree of similarity to the reference image, and these photographic parameters are not suitable as photographic parameters for inspection images. In this case, in S308, the estimating unit 104 determines that it is necessary to readjust the imaging parameters, and proceeds to S309. In S309, the estimation unit 104 estimates a method for improving the imaging parameters.

撮影パラメータの改善方法の推定について、図8(B)を用いて説明する。図8(B)では、+1の露出の評価値s+1は閾値sth未満ではあるが、評価値s-1~s+1の中では、最大の評価値を示している。したがって、撮影パラメータの再調整では、推定部104は、この撮影パラメータ(+1の露出)の周辺の撮影パラメータから、複数の撮影パラメータを設定する。例えば、次の撮影パラメータ調整でも、3つの撮影パラメータを設定する場合、推定部104は、図8(B)のように、+1の露出503の周辺の露出721、722、723を複数パラメータとして設定する。そして、S305に戻り、これらの撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定し、再び複数画像を撮影する。そして、推定部104は、図4のS306以降の処理(評価値算出処理)を再び実行し、最適な撮影パラメータを探索する。この撮影パラメータセットの評価でも、閾値sth以上となる評価値が得られなかった場合は、推定部104は、再び、最大評価値を示す撮影パラメータ周辺で、新しい複数の撮影パラメータを決定する。そして、再度、撮影処理を実行する。このループは、閾値sthを超える評価値が得られる撮影パラメータが決定するまで繰り返し実行される。なお、最大の繰り返し回数を予め決めておき、それまでに最適な撮影パラメータ(閾値sth以上の評価値が得られる撮影パラメータ)が得られない場合は、処理を打ち切るようにしてもよい。撮影パラメータの調整処理を打ち切った場合には、推定部104は、操作部12に警告を表示してユーザーに撮影パラメータが十分に調整されなかったことを通知する。また、処理の打ち切りまでに得られた最大の評価値を算出した画像を撮影した撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定してもよい。 Estimation of a method for improving imaging parameters will be explained using FIG. 8(B). In FIG. 8B, although the evaluation value s +1 for exposure of +1 is less than the threshold value s th , it is the largest evaluation value among the evaluation values s -1 to s +1 . Therefore, in readjusting the shooting parameters, the estimation unit 104 sets a plurality of shooting parameters from shooting parameters around this shooting parameter (+1 exposure). For example, when setting three shooting parameters in the next shooting parameter adjustment, the estimation unit 104 sets exposures 721, 722, and 723 around +1 exposure 503 as multiple parameters, as shown in FIG. 8(B). do. Then, the process returns to S305, and these photographing parameters are set in the photographing section 101 via the photographing parameter setting section 105, and a plurality of images are photographed again. Then, the estimating unit 104 again executes the processes after S306 in FIG. 4 (evaluation value calculation process) to search for optimal imaging parameters. Even in the evaluation of this imaging parameter set, if an evaluation value equal to or greater than the threshold value s th is not obtained, the estimation unit 104 again determines a plurality of new imaging parameters around the imaging parameter indicating the maximum evaluation value. Then, the photographing process is executed again. This loop is repeatedly executed until an imaging parameter that provides an evaluation value exceeding the threshold value s th is determined. Note that the maximum number of repetitions may be determined in advance, and if the optimal imaging parameter (imaging parameter that yields an evaluation value greater than or equal to the threshold value s th ) is not obtained by then, the process may be aborted. When the imaging parameter adjustment process is aborted, the estimation unit 104 displays a warning on the operation unit 12 to notify the user that the imaging parameters have not been adjusted sufficiently. Further, the photographing parameters for photographing the image for which the maximum evaluation value obtained before the process is terminated may be set in the photographing section 101 via the photographing parameter setting section 105.

以上の説明では、S307で閾値sth以上の評価値が得られない場合のみ、改善撮影パラメータの推定と、繰り返し調整と、を行う実施形態について説明した。しかし、仮に閾値sth以上の評価値を示す撮影パラメータが見つかった場合でも、更に高い評価値を示す撮影パラメータを探索するようにしてもよい。この場合、情報処理装置100は、最大評価値を示した撮影パラメータ周辺の撮影パラメータを改善撮影パラメータとして設定した上で、再び複数画像を撮影し、評価値算出処理を繰り返し実行する。この繰り返し処理の終了条件は、予め決められた繰り返し回数に到達した場合、又は最大評価値付近で撮影パラメータを変更しても評価値に変化が生じなくなった場合とする。 In the above description, an embodiment has been described in which estimation of improved imaging parameters and repeated adjustment are performed only when an evaluation value equal to or greater than the threshold value s th is not obtained in S307. However, even if a photographing parameter having an evaluation value greater than or equal to the threshold value s th is found, a photographing parameter having an even higher evaluation value may be searched. In this case, the information processing device 100 sets the shooting parameters around the shooting parameter that showed the maximum evaluation value as improved shooting parameters, shoots a plurality of images again, and repeatedly executes the evaluation value calculation process. The conditions for terminating this repetitive process are when a predetermined number of repetitions is reached, or when the evaluation value no longer changes even if the imaging parameters are changed around the maximum evaluation value.

一方、ユーザーが撮影パラメータを確認し、撮影パラメータ調整のための繰り返し処理の終了を判断するようにしてもよい。このようにする場合、図4のS308において、推定部104は、評価値の閾値sthを用いた最適な撮影パラメータ判定は実施せずに、撮影パラメータの再調整の実行の判断をユーザー操作に基づいて判断する。このために、推定部104は、操作部12にユーザーに必要な情報を提示し、更に操作部12を介してユーザーからの入力を受け付ける。図9は、ユーザー判断により撮影パラメータ調整を行う場合の操作部12について説明する図である。以下、図9を用いて、ユーザーに提示する情報、及び、ユーザーの操作について説明する。
まず、図9の操作部12は、情報を表示するためのディスプレイである。操作部12に表示された画面中の画像801は、露出+1の撮影パラメータで撮影した撮影画像で、撮影画像802、803は他の撮影パラメータで撮影された撮影画像である。ディスプレイには、基準画像804も表示されており、ユーザーは撮影画像と基準画像とを比較して確認することができる。
また、画像801の下部には、撮影パラメータの調整のために複数設定した撮影パラメータが示されている。図9には、複数の撮影パラメータの例として、3段階の露出(EV)を黒三角で示している。このうち、最大の評価値を示した露出+1を示す黒三角811は強調表示(大きく表示)されている。また、白抜きの三角812等は、露出+1の撮影パラメータ811を基にして設定した、撮影パラメータを更に調整するときの複数の撮影パラメータ候補を示す。
On the other hand, the user may check the imaging parameters and determine whether to end the repetitive process for adjusting the imaging parameters. In this case, in S308 of FIG. 4, the estimating unit 104 does not perform the optimal imaging parameter determination using the evaluation value threshold s th , and instead makes the determination of whether or not to readjust the imaging parameters based on the user's operation. Judgment based on. For this purpose, the estimation unit 104 presents necessary information to the user on the operation unit 12 and further receives input from the user via the operation unit 12. FIG. 9 is a diagram illustrating the operation unit 12 when photographing parameters are adjusted based on the user's judgment. The information presented to the user and the user's operations will be described below using FIG. 9.
First, the operation unit 12 in FIG. 9 is a display for displaying information. An image 801 on the screen displayed on the operation unit 12 is a photographed image taken with a photographing parameter of exposure +1, and photographed images 802 and 803 are photographed images taken with other photographic parameters. A reference image 804 is also displayed on the display, and the user can compare and confirm the captured image and the reference image.
Further, at the bottom of the image 801, a plurality of shooting parameters set for adjusting the shooting parameters are shown. In FIG. 9, three levels of exposure (EV) are indicated by black triangles as an example of a plurality of photographing parameters. Among these, the black triangle 811 indicating exposure +1, which has the maximum evaluation value, is highlighted (largely displayed). Furthermore, an open triangle 812 and the like indicate a plurality of photographing parameter candidates that are set based on the photographing parameter 811 of exposure +1 and are used when the photographing parameter is further adjusted.

この実施形態では、ユーザーは操作部12に表示されたこれらの情報を確認して、現在の撮影パラメータを採択するか、更に撮影パラメータ調整の処理を実行するか、を判断する。より具体的には、ユーザーは、最大の評価値が得られた画像801で、撮影画像と基準画像とを対比して、満足する一致度合いであれば、最大の評価値を示した撮影パラメータを採択すると判断することができる。ユーザーは、最大の評価値を示す撮影パラメータを採択する場合、「set」と表示されているアイコン821を選択する。この操作により、撮影パラメータ設定部105は、最大の評価値を示す撮影パラメータを、撮影部101に設定し(図4のS310)、撮影パラメータ調整の処理が終了する。一方、画像801を確認する等して、現在の最適撮影パラメータに満足しない場合、ユーザーは「再調整」と表示されたアイコン822を選択する。この指示により、次の複数の撮影パラメータ(例えば露出812等)を用いて、図4のS306以降の処理(評価値算出処理)が再び実行される。その後、再び、情報処理装置100は、各種の情報を図9のようにユーザーに提示する。ユーザーは提示された情報を基に、再び撮影パラメータを採択するか、更に撮影パラメータを調整するかの判断を行う。 In this embodiment, the user checks the information displayed on the operation unit 12 and determines whether to adopt the current imaging parameters or to further execute the imaging parameter adjustment process. More specifically, the user compares the photographed image with the reference image using the image 801 for which the maximum evaluation value was obtained, and if the degree of agreement is satisfactory, the user selects the photographing parameter that showed the maximum evaluation value. You can decide to adopt it. The user selects the icon 821 displayed as "set" when selecting the imaging parameter showing the maximum evaluation value. Through this operation, the photographing parameter setting section 105 sets the photographing parameter indicating the maximum evaluation value in the photographing section 101 (S310 in FIG. 4), and the photographing parameter adjustment process ends. On the other hand, if the user is not satisfied with the current optimal imaging parameters after checking the image 801, etc., the user selects an icon 822 labeled "Readjust". In response to this instruction, the processes after S306 in FIG. 4 (evaluation value calculation process) are executed again using the next plurality of shooting parameters (for example, exposure 812, etc.). After that, the information processing device 100 again presents various types of information to the user as shown in FIG. 9. Based on the presented information, the user decides whether to adopt the imaging parameters again or to further adjust the imaging parameters.

もし、撮影パラメータの調整を途中で辞める場合には、「終了」と表示されたアイコン823を選択する。この操作により、情報処理装置100は、撮影パラメータを調整する処理(図4のフローチャートのループ)を終了させることができる。このとき、情報処理装置100は、それまでに撮影、評価した撮影パラメータのうち、評価値が最大となる撮影パラメータを撮影部101に設定するようにしてもよい。
なお、ユーザー操作で撮影パラメータ調整の継続を判断する場合においても、予め評価値の閾値sthを設定しておき、閾値sthを超える評価値を得た撮影パラメータが存在することを表示するようにしてもよい。例えば、図9において、撮影パラメータ811で撮影した画像の評価値s811が閾値sthを超える場合には、情報処理装置100は、撮影パラメータを示す黒三角811を点滅表示するようにしてもよい。ユーザーは、評価値に関わらず撮影パラメータを採択することができるが、このように情報処理装置100が評価値を超えた撮影パラメータの存在を表示することで、撮影パラメータ採択の判断を補助することができるようになる。
If you wish to quit adjusting the photographing parameters midway through, select the icon 823 labeled "End". With this operation, the information processing apparatus 100 can end the process of adjusting the imaging parameters (the loop in the flowchart of FIG. 4). At this time, the information processing apparatus 100 may set, in the imaging unit 101, the imaging parameter with the highest evaluation value among the imaging parameters that have been photographed and evaluated up to that point.
Note that even when determining whether to continue adjusting shooting parameters through user operations, a threshold value s th for the evaluation value is set in advance, and the presence of shooting parameters with evaluation values exceeding the threshold s th is displayed. You may also do so. For example, in FIG. 9, when the evaluation value s 811 of the image shot using the shooting parameters 811 exceeds the threshold value s th , the information processing device 100 may blink a black triangle 811 indicating the shooting parameters. . Although the user can select a shooting parameter regardless of the evaluation value, the information processing device 100 can assist in deciding whether to adopt a shooting parameter by displaying the existence of a shooting parameter that exceeds the evaluation value. You will be able to do this.

以上、実施形態1では、撮影パラメータを改善する方法を推定する実施形態について説明したが、本実施形態の方法で推定する撮影方法は、撮影パラメータに限らず、他の撮影方法を推定してもよい。撮影パラメータ以外の撮影方法を推定する実施形態では、図4の処理フローのループを複数回実行しても、所定閾値以上の評価値が得られない場合に、推定部104は、更に画像、又は撮影状況を分析して、適切な撮影方法を提案する。例えば、画像の明るさが不足していると判断される場合、又はホワイトバランスの調整が撮影パラメータでは調整不可能と判断される場合には、推定部104は、ユーザーに照明を利用して照明条件を変更すること、又は撮影時刻を変更してより明るい時刻での撮影を推薦する通知を行うようにしてもよい。また別の例としては、撮影部101の位置及び姿勢が取得できる場合、推定部104は、点検対象構造物との位置関係を分析し、撮影を改善する位置及び姿勢を提案する。より具体的には、例えば、点検対象構造物の壁面に対するあおり角度が大きな位置及び姿勢で撮影している場合、推定部104は、あおりを減少させる位置及び姿勢で撮影することをユーザーに推薦する。 As mentioned above, in Embodiment 1, an embodiment for estimating a method for improving imaging parameters has been described. However, the imaging method estimated by the method of this embodiment is not limited to imaging parameters, but can also be estimated by estimating other imaging methods. good. In an embodiment in which a photographing method other than photographing parameters is estimated, if an evaluation value equal to or higher than a predetermined threshold is not obtained even after executing the loop of the processing flow in FIG. 4 multiple times, the estimation unit 104 further estimates the image or Analyze the shooting situation and suggest an appropriate shooting method. For example, if it is determined that the brightness of the image is insufficient, or if it is determined that the white balance cannot be adjusted using the shooting parameters, the estimating unit 104 may ask the user to use lighting. A notification may be issued that recommends photographing at a brighter time by changing the conditions or changing the photographing time. As another example, if the position and orientation of the imaging unit 101 can be acquired, the estimating unit 104 analyzes the positional relationship with the inspection target structure and proposes a position and orientation for improving imaging. More specifically, for example, if the image is being photographed in a position and posture with a large tilt angle relative to the wall surface of the structure to be inspected, the estimation unit 104 recommends to the user that the image be photographed in a position and posture that reduces the tilt angle. .

<実施形態2>
実施形態1では、画像格納部103から1枚の画像を選択し、これを基準画像とした。そして、この選択した1枚の基準画像に基づいて、撮影方法を調整する実施形態を説明した。実施形態2では、複数枚の基準画像を用いて、撮影方法を調整する実施形態について説明する。なお、以降の実施形態では、主に実施形態1と異なる部分について、説明を行う。
まず、実施形態2では、基準画像処理部102で、複数の基準画像を選択する。以下では、基準画像処理部102でM枚の基準画像を選択したとする。このM枚の基準画像は、どのような方法を用いて選択してもよいが、例えば、検索結果の上位M枚の格納画像をM枚の基準画像としてもよい。
<Embodiment 2>
In the first embodiment, one image is selected from the image storage unit 103 and used as the reference image. An embodiment has been described in which the photographing method is adjusted based on this selected one reference image. In Embodiment 2, an embodiment will be described in which a photographing method is adjusted using a plurality of reference images. Note that in the following embodiments, mainly the differences from the first embodiment will be explained.
First, in the second embodiment, the reference image processing unit 102 selects a plurality of reference images. In the following, it is assumed that the reference image processing unit 102 selects M reference images. The M reference images may be selected using any method, but for example, the M reference images may be the top M stored images in the search results.

次に、推定部104では、撮影画像とM枚の基準画像との評価値を算出する。この処理では、まず、撮影画像と各々の基準画像との評価値を算出する。例えば、推定部104は、撮影画像とm枚目の基準画像の評価値を算出し、この評価値をsmとする。撮影画像と基準画像との評価値算出方法は、実施形態1の方法と同様である。撮影画像とM枚の基準画像との評価値算出により、M個の評価値が得られたら、推定部104は、これらの平均により最終的な評価値sを算出する。

Figure 0007387261000004
以降の処理は、CPU10が、評価値sを基に、撮影パラメータの調整を実施する(実施形態1の図4S307以降の処理を実施する)。評価値smの平均を用いることにより、複数の基準画像と全体的に類似する画像が撮影されるように、撮影パラメータが調整される。 Next, the estimating unit 104 calculates evaluation values for the photographed image and the M reference images. In this process, first, evaluation values of the photographed image and each reference image are calculated. For example, the estimation unit 104 calculates the evaluation value of the photographed image and the m-th reference image, and sets this evaluation value as s m . The evaluation value calculation method for the photographed image and the reference image is the same as the method in the first embodiment. When M evaluation values are obtained by calculating the evaluation values of the photographed image and M reference images, the estimation unit 104 calculates the final evaluation value s by averaging these values.
Figure 0007387261000004
In subsequent processing, the CPU 10 adjusts the imaging parameters based on the evaluation value s (implements the processing from S307 onward in FIG. 4 of the first embodiment). By using the average of the evaluation values s m , the photographing parameters are adjusted so that an image that is overall similar to the plurality of reference images is photographed.

また、複数の基準画像を用いる別の形態として、複数の基準画像のうち、最も類似する1枚の基準画像との評価値に基づいて、撮影パラメータを調整する方法がある。この場合、撮影画像とM枚の基準画像との最終的な評価値sは、以下の式で求められる。

Figure 0007387261000005
この方法では、M枚の基準画像のうち、いずれかに類似するように、撮影パラメータが調整される。M枚の基準画像は、それぞれ好ましい画質の画像であるから、撮影画像は、そのいずれかに類似していればよい。 Further, as another form using a plurality of reference images, there is a method of adjusting photographing parameters based on an evaluation value with one reference image that is most similar among the plurality of reference images. In this case, the final evaluation value s of the photographed image and the M reference images is determined by the following formula.
Figure 0007387261000005
In this method, imaging parameters are adjusted to resemble one of M reference images. Since each of the M reference images has a preferable image quality, the photographed image only needs to be similar to any of them.

<実施形態3>
以上の実施形態では、基準画像は、撮影対象の構造物と異なる構造物で撮影した画像という想定であったが、撮影対象の構造物の過去画像を基準画像としてもよい。インフラ点検では、過去の点検結果と最新の点検結果とを比較するが、この比較のためには、過去画像と最新画像とが同等の画質で撮影されていることが好ましい。撮影対象の構造物の過去画像が存在する場合には、これを基準画像とすることで、過去画像に類似した画像を撮影できるように撮影パラメータの調整を行うことができる。
<Embodiment 3>
In the above embodiments, the reference image is assumed to be an image photographed with a structure different from the structure to be photographed, but a past image of the structure to be photographed may be used as the reference image. In infrastructure inspections, past inspection results and the latest inspection results are compared, and for this comparison, it is preferable that the past images and the latest images are captured with the same image quality. If a past image of the structure to be photographed exists, by using this as a reference image, the photographing parameters can be adjusted so that an image similar to the past image can be photographed.

過去画像を基準画像とするために、実施形態3の画像格納部103には、撮影対象の構造物の過去画像が格納されている。基準画像処理部102は、撮影対象の構造物の情報に基づいて、画像格納部103から過去画像を取得し、基準画像として設定する処理を行う。このために、実施形態3の基準画像処理部102は、画像格納部103の格納画像を、構造物の名称等の固有情報で検索できるようにしてもよい。基準画像に撮影対象の構造物の過去画像を設定した以降の処理は、実施形態1と同様の処理を実施することにより、撮影方法の調整を行うことができる。以上の構成により、過去画像と類似した撮影結果が得られるように、撮影パラメータを調整することができるようになる。 In order to use past images as reference images, the image storage unit 103 of the third embodiment stores past images of structures to be photographed. The reference image processing unit 102 performs processing to acquire past images from the image storage unit 103 and set them as reference images based on information on the structure to be photographed. To this end, the reference image processing unit 102 of the third embodiment may be configured to search the images stored in the image storage unit 103 using unique information such as the name of a structure. After setting the past image of the structure to be photographed as the reference image, the photographing method can be adjusted by performing the same process as in the first embodiment. With the above configuration, it becomes possible to adjust the shooting parameters so that a shooting result similar to a past image can be obtained.

基準画像に過去画像を設定する場合、基準画像と撮影画像との撮影範囲を一致させることが好ましい。この場合、撮影対象の構造物に対して、基準画像に設定した過去画像で撮影された範囲と同じ範囲を今回の撮影でも撮影するように、撮影位置、及び撮影範囲を調整する。この撮影位置、及び範囲の調整をサポートするために、画像格納部103に格納した過去画像には、撮影位置、及び撮影範囲の情報を関連付けて保存して置いてもよい。
基準画像(過去画像)と撮影画像の撮影範囲が一致している場合、評価値の算出方法は、過去画像と撮影画像との画素間の誤差二乗和の逆数としてもよい。現実的には、過去と現在の撮影を画素レベルで合わせることは極めて困難であるため、若干の位置ずれを許容するような類似度算出方法を用いることが好ましい。
When setting a past image as a reference image, it is preferable that the shooting ranges of the reference image and the photographed image match. In this case, with respect to the structure to be photographed, the photographing position and photographing range are adjusted so that the same range photographed in the past image set as the reference image is photographed in the current photographing. In order to support this adjustment of the photographing position and range, information on the photographing position and photographing range may be stored in association with the past images stored in the image storage unit 103.
When the photographing ranges of the reference image (past image) and the photographed image match, the evaluation value may be calculated using the reciprocal of the sum of squared errors between the pixels of the past image and the photographed image. In reality, it is extremely difficult to match past and present images at the pixel level, so it is preferable to use a similarity calculation method that allows for slight positional deviation.

また、過去画像にコンクリート壁面の変状が含まれる場合、画像中の変状部分に基づいて評価値を算出するようにしてもよい。この場合、推定部104は、過去画像の変状と同じ部分を撮影し、過去画像の変状と撮影画像の変状とが類似するほど高い評価値を算出するようにする。このようにすることで、過去画像に写った変状が撮影画像でも確認できるように、撮影パラメータを調整することができるようになる。更に、推定部104は、変状の経年変化を考慮して、過去画像と撮影画像との評価値を算出するようにしてもよい。例えば、過去画像に含まれる変状がひび割れの場合について説明する。過去の点検で記録されたひび割れは、補修作業が実施されない限り、自然に消えることはない。一方、ひび割れは、経年劣化により伸展する可能性がある。したがって、撮影画像のひび割れと過去画像のひび割れとを比較する場合には、推定部104は、撮影画像のひび割れの伸展部分の画像は、ひび割れ部分の類似度算出に使わないようにする。 Further, if the past image includes deformation of the concrete wall surface, the evaluation value may be calculated based on the deformed portion in the image. In this case, the estimation unit 104 photographs the same portion as the deformation of the past image, and calculates a higher evaluation value as the deformation of the past image and the deformation of the photographed image become more similar. By doing this, it becomes possible to adjust the photographing parameters so that deformities that appeared in past images can also be confirmed in the photographed images. Further, the estimating unit 104 may calculate evaluation values for past images and photographed images, taking into account changes in deformation over time. For example, a case where the deformation included in the past image is a crack will be explained. Cracks recorded during past inspections will not disappear on their own unless repair work is carried out. On the other hand, cracks may extend due to aging. Therefore, when comparing a crack in a photographed image with a crack in a past image, the estimation unit 104 does not use an image of an extended portion of the crack in the photographed image to calculate the similarity of the crack portion.

<実施形態4>
以上の実施形態の基準画像処理部102では、画像格納部103に格納された画像を検索して、基準画像を設定する実施形態について説明した。実施形態4では、基準画像処理部102で画像を生成し、この生成画像を基準画像とする実施形態について説明する。
近年、学習ベースの手法で、画像のノイズ除去及び超解像が発達している。例えば、非特許文献2は、オートエンコーダを用いた画像のノイズ除去技術である。この技術では、ノイズを含む画像とノイズがない画像でオートエンコーダを学習することにより、ノイズ除去モデルを学習する。このノイズ除去モデルに、ノイズ除去を行いたいノイズ画像を入力すると、出力としてノイズを除去した画像が得られる。また、非特許文献3はFully CNNによる画像の超解像技術である。この技術では、低解像度画像と高解像度画像とでFully CNNを学習することにより、超解像化モデルを学習する。この超解像化モデルに、高解像化を行いたい低解像度画像を入力すると、出力として高解像度画像が得られる。これらの技術は、学習により、画像の変換モデルを獲得する技術である。実施形態4では、これらの技術を用いて、仮撮影画像から基準画像を生成する。なお、ノイズ除去と超解像との技術を例にしたが、実施形態4で用いる技術は、画像変換を行うことができれば、どのような手法を用いてもよく、非特許文献2及び非特許文献3の技術に限定するものではない。
<Embodiment 4>
In the above embodiment, the reference image processing unit 102 searches the images stored in the image storage unit 103 and sets the reference image. In the fourth embodiment, an embodiment in which an image is generated by the reference image processing unit 102 and this generated image is used as the reference image will be described.
In recent years, learning-based methods have been developed for image denoising and super-resolution. For example, Non-Patent Document 2 describes an image noise removal technique using an autoencoder. This technique learns a denoising model by training an autoencoder on images with noise and images without noise. When a noisy image from which noise is to be removed is input to this noise removal model, an image from which noise has been removed is obtained as an output. Furthermore, Non-Patent Document 3 is an image super-resolution technique using Fully CNN. In this technique, a super-resolution model is learned by learning a Fully CNN using low-resolution images and high-resolution images. When a low-resolution image to be enhanced is input to this super-resolution model, a high-resolution image is obtained as output. These techniques are techniques for acquiring an image transformation model through learning. In the fourth embodiment, these techniques are used to generate a reference image from a temporarily captured image. Note that although the technology of noise removal and super resolution is taken as an example, the technology used in Embodiment 4 may be any method as long as it can perform image conversion. The present invention is not limited to the technique of Document 3.

図10は、実施形態4の情報処理装置100の構成の一例を示す図である。実施形態4の情報処理装置100は、図2(実施形態1)と異なり、画像格納部103の代わりにモデル格納部106を備える構成となっている。モデル格納部106には、基準画像を生成するためのモデルが格納されている。以下、このモデルを基準画像生成モデルと呼ぶ。基準画像生成モデルは、非特許文献2、又は非特許文献3のような技術を用いて、画像の変換方法を学習により獲得するものである。基準画像生成モデルは、例えば、以下の学習データセットDを用いて学習する。

Figure 0007387261000006
ここで、xnは撮影パラメータを調整が不十分な状態で撮影した画像である。xnに対応するynは、xnと同一の撮影対象を好ましい撮影パラメータで撮影した画像である。この学習データセットDを用いると、基準画像生成モデルFの学習は、以下の式で表される。
Figure 0007387261000007
ここで、F(xn)-ynの部分は、基準画像生成モデルFで画像xnを変換した画像と、画像ynとの誤差を表す。したがって、データセットDのN個のデータについて、この誤差が最少となる基準が造成性モデルFを学習することになる。 FIG. 10 is a diagram illustrating an example of the configuration of an information processing device 100 according to the fourth embodiment. The information processing apparatus 100 of the fourth embodiment differs from FIG. 2 (first embodiment) in that it includes a model storage section 106 instead of the image storage section 103. The model storage unit 106 stores a model for generating a reference image. Hereinafter, this model will be referred to as a reference image generation model. The reference image generation model is obtained by learning an image conversion method using a technique such as that described in Non-Patent Document 2 or Non-Patent Document 3. The reference image generation model is learned using, for example, the following learning data set D.
Figure 0007387261000006
Here, x n is an image shot with the shooting parameters insufficiently adjusted. y n corresponding to x n is an image obtained by photographing the same photographic subject as x n using preferable photographing parameters. Using this learning data set D, learning of the reference image generation model F is expressed by the following equation.
Figure 0007387261000007
Here, the part F(x n )−y n represents the error between the image obtained by converting the image x n using the reference image generation model F and the image y n . Therefore, for the N pieces of data in the data set D, the creation model F is learned based on the criterion that minimizes this error.

学習した基準画像生成モデルFに、撮影パラメータを調整していない画像を入力すると、好ましい撮影パラメータで撮影した画像(生成画像)が出力される。但し、生成画像は、基準画像生成モデルFにより生成された偽物の画像であるため、そのまま点検画像等に利用するにはリスクがある。基準画像生成モデルの性能にも依存するが、例えば、生成画像には、画像生成処理に伴う細かいアーチファクトを含む可能性等がある。したがって、本実施形態では、生成画像そのものを撮影結果として利用するのではなく、撮影パラメータ調整の基準として用いることにする。
モデル格納部106には、以上のようにして学習した基準画像生成モデルFが格納されている。なお、画像生成モデルの学習方法として、近年、非特許文献4のような、GAN(Generative adversarial nets)と呼ばれる手法が発展している。基準画像生成モデルFの学習に、この手法を用いるようにしてもよい。
When an image whose photographing parameters have not been adjusted is input to the learned reference image generation model F, an image photographed with preferable photographing parameters (generated image) is output. However, since the generated image is a fake image generated by the reference image generation model F, there is a risk in using it as it is as an inspection image or the like. Although it depends on the performance of the reference image generation model, for example, there is a possibility that the generated image includes fine artifacts accompanying image generation processing. Therefore, in this embodiment, the generated image itself is not used as a photographing result, but is used as a reference for adjusting photographing parameters.
The model storage unit 106 stores the reference image generation model F learned as described above. In addition, as a learning method for an image generation model, a method called GAN (Generative adversarial nets), as described in Non-Patent Document 4, has been developed in recent years. This method may be used to learn the reference image generation model F.

次に、この画像生成モデルFを用いた基準画像作成の処理について説明する。まず、ユーザーは撮影部101で撮影対象を仮撮影する。この仮撮影の撮影パラメータは、オート設定等を用いるもので、仮撮影画像は撮影対象を撮影する上で、撮影パラメータ調整が不十分な画像であるとする。基準画像処理部102では、仮撮影画像をモデル格納部106から読み出した画像生成モデルFに入力することで生成画像を作成し、この生成画像を撮影パラメータ調整の基準画像として設定する。
以上では、仮撮影画像を用いて生成画像を作成したが、撮影対象の情報も用いて生成画像を作成するようにしてもよい。例えば、1つの方法として、まず、基準画像生成モデルFを撮影対象の構造物種類ごと、又はコンクリート種類ごと等、条件別に学習しておく。モデル格納部106には、複数の基準画像生成モデルを、学習条件の情報と共に格納しておく。基準画像を作成する工程では、ユーザーが、撮影対象の条件(例えば、撮影対象の構造物種類)を指定することで、条件に一致する基準画像生成モデルをモデル格納部106から呼び出して、画像生成に用いる。以上のようにすることで、撮影対象に適した基準画像生成モデルを用いて、生成画像を作成することができるようになる。
Next, the process of creating a reference image using this image generation model F will be explained. First, a user temporarily photographs an object to be photographed using the photographing unit 101. It is assumed that the photographing parameters for this temporary photographing use automatic settings, etc., and that the temporary photographic image is an image in which the photographing parameters are insufficiently adjusted when photographing the photographic subject. The reference image processing unit 102 creates a generated image by inputting the temporary photographed image into the image generation model F read out from the model storage unit 106, and sets this generated image as a reference image for adjusting photographing parameters.
In the above, the generated image is created using the temporary photographed image, but the generated image may also be created using information about the photographic target. For example, as one method, first, the reference image generation model F is learned for each condition, such as for each type of structure to be photographed or for each type of concrete. The model storage unit 106 stores a plurality of reference image generation models together with learning condition information. In the step of creating a reference image, the user specifies the conditions of the object to be imaged (for example, the type of structure to be imaged), calls the reference image generation model matching the conditions from the model storage unit 106, and generates the image. used for By doing the above, it becomes possible to create a generated image using a reference image generation model suitable for the object to be photographed.

次に、撮影対象の情報を用いて生成画像を作成する別の実施形態について説明する。この実施形態では、モデル格納部106に加え、実施形態1のように、画像格納部103を備える。画像格納部103は、実施形態1と同様に、撮影対象の理想的な撮影結果画像が格納されている。ユーザーは、画像格納部103から、撮影対象の条件と類似する画像を選択する。この画像格納部103から画像を選択する操作は、実施形態1の基準画像選択と同様に、撮影対象の情報を基に画像格納部103を検索することで実施できる。本実施形態では、画像格納部103から選択した画像をスタイル画像と呼ぶ。そして、例えば、非特許文献5のような技術を用いて、仮撮影画像の見た目をスタイル画像に類似した画像に変換する。非特許文献5は、元画像とスタイル画像とを入力すると、元画像の見た目をスタイル画像のスタイルに類似した画像に変換する技術で、例えば、画像の画風を変換することができる技術である。本実施形態では、非特許文献5の元画像に、仮撮影画像を設定することにより、仮撮影画像の見た目をスタイル画像に似せて、理想的な撮影結果画像を作成することができる。このようにして作成した画像を基準画像として利用する。この実施形態によると、撮影対象の情報を用いて画像格納部103からスタイル画像を選択することにより、撮影対象に類似した画像を生成しやすくなる。
実施形態4では、以上のようにして、基準画像処理部102で生成した生成画像を基準画像とする。以降の処理は、実施形態1と同様に行うことで、基準画像に類似した画像を撮影するための撮影パラメータを調整することができる。
Next, another embodiment will be described in which a generated image is created using information about a photographic target. In this embodiment, in addition to the model storage section 106, an image storage section 103 is provided as in the first embodiment. The image storage unit 103 stores ideal photographic result images of the photographic subject, as in the first embodiment. The user selects an image similar to the conditions of the photographing target from the image storage unit 103. This operation of selecting an image from the image storage section 103 can be performed by searching the image storage section 103 based on the information of the photographing target, similarly to the reference image selection in the first embodiment. In this embodiment, the image selected from the image storage unit 103 is called a style image. Then, for example, using a technique such as that disclosed in Non-Patent Document 5, the appearance of the temporarily photographed image is converted into an image similar to the style image. Non-Patent Document 5 is a technique that, when an original image and a style image are input, converts the appearance of the original image into an image similar to the style of the style image, and is a technique that can, for example, convert the style of the image. In this embodiment, by setting a temporary photographed image to the original image of Non-Patent Document 5, it is possible to make the appearance of the temporary photographed image similar to the style image and create an ideal photographed result image. The image created in this way is used as a reference image. According to this embodiment, by selecting a style image from the image storage unit 103 using information about the subject to be photographed, it becomes easier to generate an image similar to the subject to be photographed.
In the fourth embodiment, the generated image generated by the reference image processing unit 102 as described above is used as the reference image. By performing the subsequent processing in the same manner as in Embodiment 1, it is possible to adjust the photographing parameters for photographing an image similar to the reference image.

実施形態4では、更に、複数の撮影パラメータ設定、及び複数回の撮影(図4のS304、S305)を廃止し、基準画像と1枚の撮影画像から撮影パラメータを調整する実施形態についても説明する。
まず、実施形態4では、ある初期パラメータで、撮影対象の画像を1枚撮影する。この1枚の画像に対して、基準画像との比較により評価値を算出する処理(S306)を実行する。算出した評価値が閾値以上の場合、パラメータ設定を終了する処理(図4のS307、S308、S310)を実施する。
実施形態1の複数撮影パラメータを用いた構成と異なる処理は、評価値が閾値以下であった場合に、撮影パラメータの改善方法を推定するS309である。実施形態4では、ある1つの評価値、及びそのときの撮影パラメータから、統計的な手法により改善撮影パラメータを推定する。このために実施形態4では、予め、評価値と改善撮影パラメータとの関係を学習しておく。この関係は、例えば、以下のようなデータを用いた学習することができる。

Figure 0007387261000008
Figure 0007387261000009
ここで、式(8)のpnは撮影パラメータである。snはpnで撮影した画像から得られた評価値である。snは閾値以下の評価値とする。式(9)のpdst_nは、(sn、pn)の状態から撮影パラメータを調整し、最終的に評価値が閾値以上となったときの撮影パラメータである。これらのデータの組をn個収集し、学習データ(X、Y)を作成する。この学習データを用いて、ある閾値未満の評価値sと撮影パラメータpとが入力されたときに、改善パラメータpdstを出力するモデルEを学習する。
Figure 0007387261000010
このモデルの学習には、どのようなアルゴリズムを用いてもよく、例えば、撮影パラメータを連続値であるとすると、線形回帰等の回帰モデルを適用することができる。 Embodiment 4 will also describe an embodiment in which multiple shooting parameter settings and multiple shootings (S304 and S305 in FIG. 4) are abolished, and shooting parameters are adjusted from a reference image and one shot image. .
First, in the fourth embodiment, one image of the object is photographed using certain initial parameters. A process (S306) of calculating an evaluation value by comparing this one image with a reference image is executed. If the calculated evaluation value is equal to or greater than the threshold, a process for terminating the parameter setting (S307, S308, S310 in FIG. 4) is performed.
Processing that is different from the configuration using multiple imaging parameters in the first embodiment is S309 in which a method for improving the imaging parameters is estimated when the evaluation value is less than or equal to the threshold value. In the fourth embodiment, improved imaging parameters are estimated using a statistical method from a certain evaluation value and the imaging parameters at that time. For this purpose, in the fourth embodiment, the relationship between the evaluation value and the improved imaging parameter is learned in advance. This relationship can be learned using, for example, the following data.
Figure 0007387261000008
Figure 0007387261000009
Here, p n in equation (8) is a photographing parameter. s n is the evaluation value obtained from the image taken at p n . s n is an evaluation value that is less than or equal to the threshold value. p dst_n in equation (9) is the imaging parameter when the imaging parameter is adjusted from the state of (s n , p n ) and the evaluation value finally becomes equal to or greater than the threshold value. N sets of these data are collected to create learning data (X, Y). This learning data is used to learn a model E that outputs an improvement parameter p dst when an evaluation value s less than a certain threshold value and a shooting parameter p are input.
Figure 0007387261000010
Any algorithm may be used to learn this model. For example, if the imaging parameters are continuous values, a regression model such as linear regression may be applied.

以上では、評価値sと撮影パラメータpとを入力として、改善パラメータpdstを算出するモデルを学習する実施形態について説明したが、このモデルに撮影画像の情報を入力するようにしてもよい。撮影画像の情報は、例えば、画像全体の特徴量で、より具体的には画像全体の輝度ヒストグラム等である。撮影画像の情報は、これに限らず、画像の部分的な特徴量でもよいし、モデルに画像そのものを入力する形態でもよい。このように画像情報もモデルに入力することで、評価値と撮影パラメータとだけでなく、撮影画像に基づいて改善パラメータpdstを推定することができるようになる。
以上のようにして予め準備したモデルEを、S309の改善パラメータ推定で用いることにより、実施形態4では、1枚の画像のみから改善撮影パラメータを推定することができるようになる。
In the above, an embodiment has been described in which a model for calculating the improvement parameter p dst is learned using the evaluation value s and the photographing parameter p as input, but information on the photographed image may be input to this model. The information on the photographed image is, for example, the feature amount of the entire image, and more specifically, the brightness histogram of the entire image. The information on the photographed image is not limited to this, and may be a partial feature amount of the image, or may be in the form of inputting the image itself to the model. By inputting image information into the model in this way, it becomes possible to estimate the improvement parameter p dst based not only on the evaluation value and the photographing parameters but also on the photographed image.
By using the model E prepared in advance as described above in the improved parameter estimation in S309, in the fourth embodiment, it becomes possible to estimate the improved imaging parameters from only one image.

なお、改善撮影パラメータを求める手法として、学習したモデルを用いる構成は、実施形態1の複数の撮影パラメータで画像を撮影する方法で用いてもよい。すなわち、モデルEは、1枚の画像から撮影パラメータを推定する構成に限定されず、複数の撮影画像から撮影パラメータを推定する方法で用いてもよい。この場合、実施形態1のように複数の撮影パラメータで撮影した撮影画像と基準画像とから評価値を算出し、複数の撮影パラメータと複数の評価値とを入力して改善パラメータを求めるモデルEを学習する。このモデルMを学習するための学習データXは、撮影パラメータ調整で撮影する複数画像の枚数をM枚とすると、式(8)から以下のように書き換えられる。

Figure 0007387261000011
なお、目的変数(又は教師データ)Yは、式(9)と同様である。 Note that the configuration in which a learned model is used as a method for determining improved imaging parameters may be used in the method of the first embodiment in which images are captured using a plurality of imaging parameters. That is, the model E is not limited to a configuration in which photographing parameters are estimated from one image, but may be used in a method of estimating photographing parameters from a plurality of photographed images. In this case, as in Embodiment 1, a model E is created in which an evaluation value is calculated from a photographed image taken with a plurality of photographing parameters and a reference image, and an improvement parameter is calculated by inputting a plurality of photographing parameters and a plurality of evaluation values. learn. The learning data X for learning this model M can be rewritten from equation (8) as follows, assuming that the number of multiple images to be photographed in the photographing parameter adjustment is M.
Figure 0007387261000011
Note that the objective variable (or teacher data) Y is the same as in equation (9).

<実施形態5>
実施形態4では、基準画像生成モデルを用いて、仮撮影画像から基準画像を生成する実施形態について説明した。基準画像生成モデルは、実施形態4の実施形態に限らず、格納画像から基準画像を生成するために利用する実施形態としてもよい。実施形態5では、予め画像格納部103に格納されている格納画像を変換して、基準画像を作成する実施形態について説明する。実施形態1では、画像格納部103に格納された格納画像を選択し、選択した格納画像を基準画像として設定したが、実施形態5では、選択した格納画像を撮影条件に応じて変換した上で基準画像として設定する。以下、この実施形態について説明する。
<Embodiment 5>
In the fourth embodiment, an embodiment has been described in which a reference image is generated from a temporarily captured image using a reference image generation model. The reference image generation model is not limited to the embodiment of the fourth embodiment, but may be an embodiment that is used to generate a reference image from a stored image. In the fifth embodiment, an embodiment will be described in which a reference image is created by converting a stored image stored in the image storage unit 103 in advance. In the first embodiment, a stored image stored in the image storage unit 103 is selected and the selected stored image is set as the reference image, but in the fifth embodiment, the selected stored image is converted according to the shooting conditions and then set as the reference image. Set as the reference image. This embodiment will be described below.

画像格納部103には、様々な撮影条件の多数の格納画像を格納しているが、全ての撮影条件に一致する画像を準備することは困難である。そのため、撮影条件に応じて、格納画像を変換、調整して新しい画像を生成し、この生成した画像を基準画像とする。例えば、撮影条件としてカメラ機種が異なる場合について説明する。まず、格納画像は、ある特定の機種のカメラ(以下、カメラA)で撮影した画像のみで構成されているとする。一方、撮影対象を撮影するときのカメラはカメラAとは異なる機種のカメラ(以下、カメラB)であるとする。ここで、カメラAとカメラBとは機種が異なるので、その撮影画像の画質は異なる。例えば、撮影画質の色合い等はカメラの機種ごとに異なるので、カメラAとカメラBとでは、同一の対象を同一の状況で撮影しても、色合い等の画質が異なる画像が得られる。
実施形態5では、このような場合に、カメラA画質の格納画像を、基準画像生成モデルを用いてカメラB画質の画像に変換した上で、基準画像として設定する。この場合の基準画像生成モデルは、例えば、カメラAの色合いをカメラBの色合いに変換する変換パラメータである。基準画像が設定された以降の処理については、実施形態1と同様の処理を行うことで、基準画像の画質に合わせるための撮影パラメータを調整することができる。
Although the image storage unit 103 stores a large number of stored images under various photographing conditions, it is difficult to prepare images that match all photographing conditions. Therefore, a new image is generated by converting and adjusting the stored image according to the shooting conditions, and this generated image is used as a reference image. For example, a case where different camera models are used as photographing conditions will be explained. First, it is assumed that the stored images are composed only of images taken with a camera of a certain specific model (hereinafter referred to as camera A). On the other hand, it is assumed that the camera used to photograph the object is a camera of a different model from camera A (hereinafter referred to as camera B). Here, since camera A and camera B are different models, the image quality of the captured images is different. For example, since the quality of photographed images, such as color tone, differs depending on the camera model, even if camera A and camera B photograph the same object under the same circumstances, images with different image quality, such as color tone, are obtained.
In the fifth embodiment, in such a case, a stored image of camera A quality is converted into an image of camera B quality using a reference image generation model, and then set as the reference image. The reference image generation model in this case is, for example, a conversion parameter that converts the color tone of camera A to the color tone of camera B. Regarding the processing after the reference image is set, by performing the same processing as in the first embodiment, it is possible to adjust the shooting parameters to match the image quality of the reference image.

次に、このような処理を実施するための処理について説明する。本実施形態の情報処理装置は、図2の情報処理装置100に、更にモデル格納部を備え、モデル格納部には撮影条件に応じた基準画像生成モデルが格納されている。まず、初めの処理では、実施形態1と同様に、基準画像処理部102は、撮影対象に類似する格納画像を、画像格納部から検索して取得する。実施形態5では、この検索結果の格納画像を仮基準画像とする。次の処理では、基準画像処理部102は、撮影条件に基づいて、仮基準画像を基準画像に変換するための基準画像生成モデルを準備する。上述の例では、基準画像処理部102は、撮影条件としてカメラの機種(カメラB)を設定することにより、カメラAの色合いからカメラBの色合いに変換する変換パラメータを含む基準画像生成モデルをモデル格納部から読み出す。このために、ユーザーは撮影条件の情報を、操作部12を介して入力する。又は、カメラ機種のような自動的に取得可能な撮影条件の情報は、自動的に取得され基準画像生成モデルの検索に用いるようにしてもよい。次の処理では、基準画像処理部102は、この基準画像生成モデルを用いて仮基準画像を変換し、基準画像を作成する。 Next, processing for implementing such processing will be explained. The information processing apparatus of this embodiment further includes a model storage section in addition to the information processing apparatus 100 of FIG. 2, and the model storage section stores a reference image generation model according to imaging conditions. First, in the first process, similarly to the first embodiment, the reference image processing unit 102 searches the image storage unit for a stored image similar to the object to be photographed and acquires it. In the fifth embodiment, the stored image of this search result is used as a temporary reference image. In the next process, the reference image processing unit 102 prepares a reference image generation model for converting the temporary reference image into a reference image based on the imaging conditions. In the above example, the reference image processing unit 102 creates a reference image generation model that includes a conversion parameter for converting the color tone of camera A to the color tone of camera B by setting the camera model (camera B) as the shooting condition. Read from storage. For this purpose, the user inputs information on photographing conditions via the operation unit 12. Alternatively, information on photographing conditions that can be automatically acquired, such as camera model, may be automatically acquired and used for searching for a reference image generation model. In the next process, the reference image processing unit 102 converts the temporary reference image using this reference image generation model to create a reference image.

上記の例では、撮影条件をカメラ機種として、撮影条件に基づいて基準画像生成モデルを選択し、仮撮影画像を変換して基準画像を生成する実施形態について説明した。基準画像を生成するための撮影条件は、カメラ機種に限らず、他の条件としてもよい。例えば、撮影条件として天候を設定するようにしてもよい。この場合、撮影対象に類似するとして選択された格納画像(仮基準画像)が晴れの天候で撮影された画像で、撮影対象を撮影するときの天候が曇りであったとすると、晴れの画像の画質(色合い、又は明るさ)を曇りの画像の画質に変換する基準画像生成モデルがモデル格納部から選択されるようにする。撮影条件のバリエーションとしては、他にも、撮影時刻、撮影の季節等でもよい。更に、手持ち撮影、三脚撮影、又はドローン等の動体に搭載したカメラでの撮影等の条件を撮影条件の1つとしてもよい。また、このような撮影条件は、複数の条件を合わせたものであってもよい。例えば、「カメラB、曇り」という撮影条件において、「カメラA、晴れ」の仮基準画像を「カメラB、曇り」の画質に変換する画像生成モデルが選択されるようにしてもよい。 In the above example, an embodiment has been described in which a reference image generation model is selected based on the shooting conditions, and a temporarily shot image is converted to generate a reference image, using the camera model as the shooting condition. The photographing conditions for generating the reference image are not limited to the camera model, and may be other conditions. For example, the weather may be set as the shooting condition. In this case, if the stored image (temporary reference image) selected as similar to the photographic subject was an image photographed in sunny weather, and the weather when photographing the photographic subject was cloudy, the image quality of the sunny image would be A reference image generation model that converts (hue or brightness) into the image quality of a cloudy image is selected from the model store. Other variations in the photographing conditions may include photographing time, photographing season, and the like. Furthermore, conditions such as hand-held photography, tripod photography, or photography with a camera mounted on a moving object such as a drone may be one of the photography conditions. Further, such photographing conditions may be a combination of a plurality of conditions. For example, under the shooting condition "Camera B, cloudy", an image generation model may be selected that converts the temporary reference image of "Camera A, sunny" to the image quality of "Camera B, cloudy".

また、以上では画像生成モデルの例を、画像を変換するパラメータとしたが、実施形態5における画像生成モデルはこれに限らず、実施形態4で説明したような学習に基づくモデルとしてもよい。この場合、例えば、画像を変換したい撮影条件ごとに、画像生成モデルを学習しておき、撮影条件に合わせて画像生成モデルを選択して利用する。この画像生成モデルの学習は、変換前の画像群と、好ましい変換後の画像群からなるデータセットを用いることで、実施形態4の学習と同様に実施できる。
実施形態4及び実施形態5では、基準画像処理部102は、生成した基準画像を操作部12に表示して、ユーザーが基準画像を確認できるようにする。ユーザーは撮影パラメータを調整する基準として、基準画像が相応しくないと判断した場合には、別の基準画像を再び生成できるようにしてもよい。この場合、別の基準画像を生成するための基準画像生成モデルを再選択することができるように、基準画像生成モデルの候補を表示したり、再び基準画像生成モデルを検索できるようにしたりしてもよい。更に、実施形態4と実施形態5との方法を同時に利用する場合に、仮撮影画像を変換した基準画像(実施形態4の方法で作成した基準画像)を利用するか、仮基準画像を変換した基準画像(実施形態5の方法で作成した基準画像)を利用するか、ユーザーが選択できるようにしてもよい。この場合、基準画像処理部102は、操作部12に、仮撮影画像を変換した基準画像と仮基準画像を変換した基準画像とを比較可能な状態で表示し、ユーザーは撮影パラメータの調整の基準として適した基準画像を選択できるようにする。
Further, in the above example, the image generation model is a parameter for converting an image, but the image generation model in the fifth embodiment is not limited to this, and may be a model based on learning as described in the fourth embodiment. In this case, for example, an image generation model is learned for each shooting condition for which an image is to be converted, and the image generation model is selected and used in accordance with the shooting condition. Learning of this image generation model can be performed in the same manner as the learning in the fourth embodiment by using a data set consisting of a group of images before conversion and a group of images after preferable conversion.
In the fourth and fifth embodiments, the reference image processing unit 102 displays the generated reference image on the operation unit 12 so that the user can confirm the reference image. If the user determines that the reference image is not suitable as a reference for adjusting the imaging parameters, the user may be able to generate another reference image again. In this case, you can display candidates for the reference image generation model so that you can reselect the reference image generation model for generating another reference image, or you can search for the reference image generation model again. Good too. Furthermore, when the methods of Embodiment 4 and Embodiment 5 are used simultaneously, a reference image obtained by converting the temporary photographed image (a reference image created by the method of Embodiment 4) is used, or a temporary reference image is converted. The user may be able to select whether to use the reference image (the reference image created by the method of the fifth embodiment). In this case, the reference image processing unit 102 displays, on the operation unit 12, a reference image obtained by converting the temporary photographed image and a reference image obtained by converting the temporary reference image in a state that allows the user to compare the reference image and the reference image obtained by converting the temporary reference image. To enable selection of a reference image suitable as a reference image.

<実施形態6>
以上の実施形態では、本実施形態の情報処理装置100をインフラ構造物の点検画像撮影に適用する実施形態について説明した。本実施形態の情報処理装置100は、点検画像撮影に限らず、他の撮影対象における撮影パラメータ調整にも適用することができる。実施形態6では、一般的な写真撮影における撮影パラメータ調整に、上述した処理等を適用する実施形態について説明する。
本実施形態では、一般的な写真撮影に上述した処理等を適用するために、実施形態1の画像格納部103に格納する格納画像を変更する。図11は、実施形態5において、画像格納部103に格納される情報について説明する図である。図11の画像格納部103には、図3と同様に、格納画像、画像情報、撮影パラメータが格納されている。図11の格納画像1010は海の風景写真であり、この格納画像の画像情報として、シーン:風景、天候:晴れ、詳細1:海、詳細2:夏、等の情報が記録されている。また、格納画像1011は、野球の画像で、この格納画像にも画像内容を示す画像情報が関連付けて記録されている。
<Embodiment 6>
In the above embodiment, an embodiment in which the information processing apparatus 100 of this embodiment is applied to photographing an inspection image of an infrastructure structure has been described. The information processing apparatus 100 of this embodiment can be applied not only to inspection image photography but also to adjustment of photography parameters for other photography targets. In a sixth embodiment, an embodiment will be described in which the above-described processing and the like are applied to photographing parameter adjustment in general photography.
In this embodiment, the stored image stored in the image storage unit 103 of Embodiment 1 is changed in order to apply the above-described processing and the like to general photography. FIG. 11 is a diagram illustrating information stored in the image storage unit 103 in the fifth embodiment. The image storage unit 103 in FIG. 11 stores stored images, image information, and photographing parameters as in FIG. 3. The stored image 1010 in FIG. 11 is a seascape photograph, and information such as scene: landscape, weather: sunny, detail 1: sea, detail 2: summer, etc. is recorded as image information of this stored image. Further, the stored image 1011 is a baseball image, and image information indicating the image content is also recorded in association with this stored image.

本実施形態でも、実施形態1と同様に、ユーザーが撮影しようとしている撮影対象の情報を基に、画像格納部103から基準画像を選択する。ユーザーは、撮影対象のシーン種類、天候、その他の情報を選択、又はキーワードを入力する。基準画像処理部102は、このユーザーの入力情報を基に画像格納部103に格納された画像情報を検索し、基準画像として適した格納画像を選択する。基準画像の選択は、実施形態1と同様に、基準画像候補をユーザーに提示して、ユーザーが最適と判断する画像を選択して基準画像を設定してもよいし、検索結果の最上位を自動的に基準画像としてもよい。また、実施形態1と同様に、仮撮影画像を撮影して、仮撮影画像を基に画像格納部103から基準画像を検索するようにしてもよい。 In this embodiment as well, as in the first embodiment, a reference image is selected from the image storage unit 103 based on information about the object that the user intends to photograph. The user selects the type of scene to be photographed, the weather, and other information, or inputs a keyword. The reference image processing unit 102 searches the image information stored in the image storage unit 103 based on this user input information, and selects a stored image suitable as the reference image. The selection of the reference image can be done by presenting the reference image candidates to the user and selecting the image that the user considers to be the most suitable, as in Embodiment 1, or by selecting the topmost image in the search results. It may also be automatically used as a reference image. Further, as in the first embodiment, a temporary photographed image may be photographed, and the reference image may be searched from the image storage unit 103 based on the temporary photographed image.

以上の処理により、一般的な写真撮影の場合でも、撮影画像の撮影パラメータ調整の基準である基準画像を選択することができる。基準画像の設定以降の処理は、上述の実施形態と同様に、撮影画像と基準画像との評価値を算出し、撮影パラメータ調整を実行する。
以上の一般的な写真撮影の実施形態の説明では、画像格納部103の格納画像を変更することにより、一般的な写真撮影に上述した構成等を適用する実施形態について説明した。一般的な写真撮影に上述した構成等を適用する実施形態としては、実施形態4のように、基準画像生成モデルを用いて、基準画像を生成する構成にしてもよい。
Through the above processing, even in the case of general photography, it is possible to select a reference image that is a reference for adjusting the photographing parameters of a photographed image. In the process after setting the reference image, similarly to the above-described embodiment, evaluation values of the captured image and the reference image are calculated, and imaging parameter adjustment is executed.
In the above description of the embodiment of general photography, an embodiment has been described in which the above-described configuration and the like are applied to general photography by changing the stored image in the image storage unit 103. As an embodiment in which the above-described configuration and the like are applied to general photography, a configuration may be adopted in which a reference image generation model is used to generate a reference image, as in the fourth embodiment.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or device read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。 Although an example of the embodiment of the present invention has been described in detail above, the present invention is not limited to such specific embodiment.

以上、上述した各実施形態の情報処理装置100によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。 As described above, according to the information processing apparatus 100 of each of the embodiments described above, it is possible to easily set shooting parameters for shooting a desired image even if details of the shot image cannot be confirmed.

10 CPU
11 記憶部
12 操作部
13 通信部
100 情報処理装置
10 CPUs
11 Storage unit 12 Operation unit 13 Communication unit 100 Information processing device

Claims (14)

所定の撮影パラメータで撮影対象を撮影した撮影画像を取得する第1の取得手段と、
前記撮影画像の画像情報に関する検索条件に基づいて、複数の基準画像を取得する第2の取得手段と、
前記第1の取得手段によって取得された前記撮影画像と、前記第2の取得手段によって取得された前記基準画像と、に基づいて前記基準画像ごとに第1の評価値を推定する推定手段と、
を有し、
前記推定手段は、推定された複数の前記第1の評価値に基づいて、前記撮影対象の撮影に適した撮影方法を、第1の評価値と、当該第1の評価値よりも大きな評価値に対応する撮影手段の撮影パラメータとの関係の学習結果に基づくモデルを用いて推定する
情報処理装置。
a first acquisition means for acquiring a photographed image of a photographed subject using predetermined photographing parameters;
a second acquisition means for acquiring a plurality of reference images based on search conditions regarding image information of the photographed image;
Estimating means for estimating a first evaluation value for each of the reference images based on the captured image obtained by the first obtaining means and the reference image obtained by the second obtaining means; ,
has
The estimating means determines, based on the plurality of estimated first evaluation values, a photographing method suitable for photographing the photographing target , and a first evaluation value and an evaluation value larger than the first evaluation value. An information processing device that performs estimation using a model based on learning results of a relationship between a photographing method and a photographing parameter corresponding to the photographing method .
前記第2の取得手段は、前記検索条件に基づき、前記基準画像の候補となる格納画像と前記格納画像の画像情報とを格納する画像格納手段に格納された格納画像から複数の基準画像候補を選択し、選択した基準画像候補を操作部に表示し、前記操作部を介したユーザー操作に基づき前記基準画像を選択する請求項1に記載の情報処理装置。 The second acquisition means selects a plurality of reference image candidates from stored images stored in an image storage means that stores stored images serving as candidates for the reference image and image information of the stored images, based on the search condition. The information processing apparatus according to claim 1, wherein the reference image candidate is selected, the selected reference image candidate is displayed on an operation unit, and the reference image is selected based on a user operation via the operation unit. 前記第1の評価値は、前記撮影画像と前記基準画像との類似度である請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the first evaluation value is a degree of similarity between the photographed image and the reference image. 前記モデルは、前記第1の評価値と、当該第1の評価値が得られる撮影パラメータと、当該第1の評価値よりも大きな評価値に対応する撮影パラメータと、の組により作成された学習データを用いて学習されたモデルである、請求項1乃至3のいずれか1項に記載の情報処理装置。The model is a learning model created by a set of the first evaluation value, a shooting parameter from which the first evaluation value is obtained, and a shooting parameter corresponding to an evaluation value larger than the first evaluation value. The information processing device according to any one of claims 1 to 3, wherein the information processing device is a model learned using data. 前記撮影パラメータを、前記撮影画像を撮影する撮影部に設定する設定手段を有する請求項1乃至4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, further comprising a setting means for setting the photographing parameters in a photographing unit that photographs the photographed image. 前記撮影パラメータを調整しても前記第1の評価値が閾値を超えない場合、前記推定手段は、前記撮影方法として、撮影の位置及び姿勢、撮影時刻、照明条件のいずれかを推定する請求項4に記載の情報処理装置。 If the first evaluation value does not exceed a threshold even after adjusting the photographing parameters, the estimating means estimates any one of the photographing position and orientation, photographing time, and illumination conditions as the photographing method. 4. The information processing device according to 4. 前記推定手段は、前記推定した撮影方法を操作部に表示し、前記操作部を介したユーザー操作に基づき、前記推定した撮影方法を選択するか、前記撮影方法の推定を再度、実行するかを判断する請求項1乃至6のいずれか1項に記載の情報処理装置。 The estimating means displays the estimated photographing method on an operation section, and selects the estimated photographing method or re-executes the estimation of the photographing method based on a user operation via the operation section. The information processing apparatus according to any one of claims 1 to 6, wherein the information processing apparatus makes a determination. 前記第2の取得手段は、複数の基準画像を取得し、
前記推定手段は、前記複数の基準画像と、前記撮影画像と、から第1の評価値を求める請求項1乃至7のいずれか1項に記載の情報処理装置。
The second acquisition means acquires a plurality of reference images,
The information processing apparatus according to any one of claims 1 to 7, wherein the estimating means calculates a first evaluation value from the plurality of reference images and the photographed image.
前記撮影対象は、インフラ構造物のコンクリート壁面であって、
前記画像情報には、撮影対象の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所及び地域、経過年数の少なくともいずれかが含まれる請求項1又は3に記載の情報処理装置。
The photographic subject is a concrete wall of an infrastructure structure,
4. The image information includes at least one of the type of structure to be photographed, the type of concrete, the weather at the time of photographing, the target in the image, the installation location and region of the structure, and the number of years that have passed. Information processing device.
前記撮影対象は、インフラ構造物のコンクリート壁面であって、
前記推定手段は、前記撮影画像と前記基準画像とに含まれる前記コンクリート壁面のひび割れ、目地、型枠のいずれかの部分画像の類似度を求めることで前記第1の評価値を求める請求項1乃至9のいずれか1項に記載の情報処理装置。
The photographic subject is a concrete wall of an infrastructure structure,
2. The estimation means determines the first evaluation value by determining the degree of similarity between partial images of any one of cracks, joints, and formwork of the concrete wall surface included in the photographed image and the reference image. 10. The information processing device according to any one of 9.
前記推定手段は、推定された前記複数の第1の評価値に基づいて、統計値である第2の評価値を推定し、推定された前記第2の評価値に基づいて、記撮影対象の撮影に適した撮影方法を推定する請求項1に記載の情報処理装置。 The estimating means estimates a second evaluation value, which is a statistical value, based on the plurality of estimated first evaluation values, and based on the estimated second evaluation value, a The information processing device according to claim 1, which estimates a photographing method suitable for photographing. 前記画像情報は、前記撮影画像の撮影対象および撮影状況の少なくとも一方を含む請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the image information includes at least one of a photographing target and a photographing situation of the photographed image. 情報処理装置が実行する情報処理方法であって、
所定の撮影パラメータで撮影対象を撮影した撮影画像を取得する第1の取得工程と、
前記撮影画像の画像情報に関する検索条件に基づいて、複数の基準画像を取得する第2の取得工程と、
前記第1の取得工程において取得された前記撮影画像と、前記第2の取得工程において取得された前記基準画像と、に基づいて前記基準画像ごとに第1の評価値を推定する推定工程と、
を含み、
前記推定工程は、推定された複数の前記第1の評価値に基づいて、前記撮影対象の撮影に適した撮影方法を、第1の評価値と、当該第1の評価値よりも大きな評価値に対応する撮影手段の撮影パラメータとの関係の学習結果に基づくモデルを用いて推定する
情報処理方法。
An information processing method executed by an information processing device, the method comprising:
a first acquisition step of acquiring a photographed image of the photographic subject with predetermined photographing parameters;
a second acquisition step of acquiring a plurality of reference images based on search conditions regarding image information of the captured image;
an estimating step of estimating a first evaluation value for each of the reference images based on the photographed image obtained in the first obtaining step and the reference image obtained in the second obtaining step; ,
including;
In the estimation step, based on the plurality of estimated first evaluation values, a photographing method suitable for photographing the photographing target is determined based on a first evaluation value and an evaluation value larger than the first evaluation value. An information processing method that estimates using a model based on the learning results of the relationship between the corresponding imaging method and the imaging parameters .
コンピュータを、請求項1乃至12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to claim 1.
JP2018221559A 2018-11-27 2018-11-27 Information processing device, information processing method and program Active JP7387261B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018221559A JP7387261B2 (en) 2018-11-27 2018-11-27 Information processing device, information processing method and program
PCT/JP2019/042487 WO2020110576A1 (en) 2018-11-27 2019-10-30 Information processing device
US17/327,892 US20210281748A1 (en) 2018-11-27 2021-05-24 Information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221559A JP7387261B2 (en) 2018-11-27 2018-11-27 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2020088647A JP2020088647A (en) 2020-06-04
JP7387261B2 true JP7387261B2 (en) 2023-11-28

Family

ID=70910161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221559A Active JP7387261B2 (en) 2018-11-27 2018-11-27 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7387261B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7305509B2 (en) * 2018-12-07 2023-07-10 キヤノン株式会社 Information processing device, its control method, program, and storage medium
JP7485356B2 (en) 2020-09-28 2024-05-16 株式会社Pal構造 Crack detection method, crack detection device and program
WO2022269891A1 (en) * 2021-06-25 2022-12-29 三菱電機株式会社 Image processing device, training device, image processing system, image processing method, generation method, image processing program, and generation program
WO2024116249A1 (en) * 2022-11-28 2024-06-06 楽天グループ株式会社 Image processing system, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (en) 2004-10-01 2006-04-20 Canon Inc Apparatus and method for image photographing
JP2015082830A (en) 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (en) 2004-10-01 2006-04-20 Canon Inc Apparatus and method for image photographing
JP2015082830A (en) 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Also Published As

Publication number Publication date
JP2020088647A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US20210281748A1 (en) Information processing apparatus
JP7387261B2 (en) Information processing device, information processing method and program
KR101643607B1 (en) Method and apparatus for generating of image data
US8331619B2 (en) Image processing apparatus and image processing method
JP4772839B2 (en) Image identification method and imaging apparatus
US8391595B2 (en) Image processing method and image processing apparatus
US6636635B2 (en) Object extraction method, and image sensing apparatus using the method
US7620218B2 (en) Real-time face tracking with reference images
TWI391876B (en) Method and system for foreground detection using multi-modality fusion graph cut and computer program product
JP5960513B2 (en) Video processing apparatus and method
JP4309927B2 (en) Eyelid detection device and program
JP2005521927A (en) Method and apparatus for evaluating photographic quality of captured images in a digital still camera
JP4624947B2 (en) Image trimming method, apparatus and program
US20200389573A1 (en) Image processing system, image processing method and storage medium
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
JP2013025650A (en) Image processing apparatus, image processing method, and program
JP2013026938A (en) Image processing apparatus, image processing method, and program
JP5705711B2 (en) Crack detection method
JP5864936B2 (en) Image processing apparatus, image processing method, and program
JP2013110484A (en) Image processing device, image processing method, and recording medium
JP7311963B2 (en) Information processing device, control method and program for information processing device
JPH11306348A (en) Method and device for object detection
US20080199073A1 (en) Red eye detection in digital images
JP2007048108A (en) Image evaluation system, image evaluation method and image evaluation program
CN113992904A (en) Information processing method and device, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231115

R151 Written notification of patent or utility model registration

Ref document number: 7387261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151