JP2020088647A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2020088647A JP2020088647A JP2018221559A JP2018221559A JP2020088647A JP 2020088647 A JP2020088647 A JP 2020088647A JP 2018221559 A JP2018221559 A JP 2018221559A JP 2018221559 A JP2018221559 A JP 2018221559A JP 2020088647 A JP2020088647 A JP 2020088647A
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference image
- shooting
- evaluation value
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 61
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000011156 evaluation Methods 0.000 claims abstract description 148
- 238000000034 method Methods 0.000 claims abstract description 146
- 230000008569 process Effects 0.000 claims description 35
- 238000005286 illumination Methods 0.000 claims description 2
- 238000009434 installation Methods 0.000 claims description 2
- 238000009415 formwork Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 49
- 238000003384 imaging method Methods 0.000 description 35
- 238000007689 inspection Methods 0.000 description 28
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
橋梁、ダム、トンネル等の構造物のコンクリート壁面の点検では、調査技術者がコンクリート壁面に接近し、ひび割れ等の変状を目視で確認することが行われている。このような近接目視と呼ばれる点検作業は作業コストが高いため、近年、コンクリート壁面を撮影した画像で変状を確認する画像点検が行われている。
ここで、細いひび割れ等の見えづらいひび割れを確認できる画像を撮影するためには、撮影パラメータを適切に設定する必要がある。ユーザーは、フォーカス又は露出等の撮影パラメータを、撮影時の天候及び撮影機材に応じて適切に調整して、ひび割れが確認できる画像を撮影しなければならない。しかし、細いひび割れ等、不鮮明な変状を確認するための画像を撮影する撮影パラメータ調整は難しく、微妙な撮影パラメータの違いにより、変状が確認できたり、できなかったりする。
撮影パラメータを調整する方法の従来例として、例えば、特許文献1の方法がある。特許文献1では、まず、複数の異なる撮影パラメータで複数の画像を撮影し、撮影した複数の画像をディスプレイに表示する。ユーザーは、複数の画像の中から、最も好ましいと判断する画像を選択する。この結果、選択された画像を撮影した撮影パラメータが設定される。
When inspecting the concrete wall surface of structures such as bridges, dams, and tunnels, survey engineers are approaching the concrete wall surface and visually checking for deformations such as cracks. Since such an inspection work called close-up visual inspection has a high work cost, an image inspection for confirming the deformation by the image of the concrete wall surface has recently been performed.
Here, in order to shoot an image in which cracks such as thin cracks that are difficult to see are confirmed, it is necessary to set shooting parameters appropriately. The user must appropriately adjust shooting parameters such as focus and exposure according to the weather at the time of shooting and the shooting equipment, and shoot an image in which cracks can be confirmed. However, it is difficult to adjust the shooting parameters for shooting an image for confirming an unclear deformation such as a thin crack, and the deformation may or may not be confirmed due to a slight difference in the shooting parameters.
As a conventional example of the method of adjusting the shooting parameter, there is, for example, the method of
しかし、構造物点検のための撮影では、微妙な撮影パラメータ調整が必要となるため、特許文献1の方法を適用すると、画像間の変化が小さな複数画像を表示することになる。ユーザーにとって、このような変化が小さな画像を比較して、最適な画像を選択することは難しい。更に、点検画像は屋外で撮影するため、外光の影響、及び利用可能なディスプレイサイズの問題で、画像の微妙な差を判断することが難しい。
However, since imaging for structure inspection requires fine adjustment of imaging parameters, application of the method of
本発明は、基準画像を取得する取得手段と、前記基準画像と、複数の撮影パラメータで撮影対象を撮影し、複数の撮影画像を撮影する撮影部から受け取った前記複数の撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、を有する。 The present invention evaluates from an acquisition unit that acquires a reference image, the reference image, and the plurality of captured images that are captured from a capturing unit that captures a plurality of captured images by capturing a plurality of captured images of an object to be captured. Estimating means for obtaining a value and estimating a photographing method suitable for photographing the photographing target based on the evaluation value.
本発明によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。 According to the present invention, it becomes possible to easily set shooting parameters for shooting a desired image without confirming the details of the shot image.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態1>
実施形態1では、インフラ構造物の画像点検のための撮影における撮影パラメータ調整を例にして、説明を行う。インフラ構造物は、例えば、橋梁、ダム、トンネル等であり、画像点検では、これらの構造物のコンクリート壁面を撮影して、点検のための画像を作成する。したがって、本実施形態では、これらのコンクリート壁面が撮影対象となる。画像点検の対象は、他の構造物、コンクリート以外の材質表面を撮影対象とした画像であってもよい。例えば、点検対象が道路の場合、アスファルト表面を撮影対象としてもよい。
本実施形態では、理想的な画質の画像である基準画像を準備し、撮影対象を撮影した画像が基準画像と類似するように撮影方法を調整する。基準画像は、過去に撮影したコンクリート壁面画像のうち、細いひび割れ等の撮影が困難な点検対象が、明瞭に確認できる画像である。つまり、基準画像は、フォーカス、明るさ、色合い等が点検画像として好ましい品質で撮影された画像である。また、本実施形態で調整する主な撮影方法は、撮影部の撮影パラメータで、例えば、露出、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、等である。以下、基準画像を利用した撮影方法の調整方法について説明する。
<
In the first embodiment, description will be given by taking as an example the adjustment of imaging parameters in imaging for inspecting an image of an infrastructure structure. The infrastructure structure is, for example, a bridge, a dam, a tunnel, or the like, and in the image inspection, the concrete wall surface of these structures is photographed to create an image for the inspection. Therefore, in this embodiment, these concrete wall surfaces are objects to be photographed. The object of image inspection may be an image of the surface of a material other than concrete or other structures. For example, if the inspection target is a road, the asphalt surface may be the imaging target.
In the present embodiment, a reference image having an ideal image quality is prepared, and the shooting method is adjusted so that the image of the shooting target is similar to the reference image. The reference image is an image that can be clearly confirmed as an inspection target, such as a thin crack, which is difficult to photograph, among the concrete wall surface images photographed in the past. That is, the reference image is an image in which the focus, the brightness, the color tone, and the like are taken with the quality that is preferable as the inspection image. The main shooting method adjusted in the present embodiment is shooting parameters of the shooting unit, such as exposure, focus, white balance (color temperature), shutter speed, and aperture. Hereinafter, a method of adjusting the shooting method using the reference image will be described.
図1は、情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は後述する図2の撮影部101と一体化して、カメラの筐体内に含まれる構成としてもよいし、撮影部101で撮影した画像を無線、又は有線により送信し、撮影部101を含むカメラとは異なる筐体(例えば、コンピュータ、又はタブレット)で構成してもよい。図1の例では、情報処理装置100は、ハードウェア構成として、CPU10、記憶部11、操作部12、通信部13を含む。CPU10は、情報処理装置100の全体を制御する。CPU10が記憶部11に記憶されたプログラムに基づき処理を実行することによって、後述する図2、図10の102、104、105で示される構成、及び後述する図4のフローチャートの処理が実現される。記憶部11は、プログラム、CPU10がプログラムに基づき処理を実行する際に用いるデータ、画像等を記憶する。操作部12は、CPU10の処理の結果を表示したり、ユーザーの操作をCPU10に入力したりする。操作部12は、カメラ背面のディスプレイ及びタッチパネル、又はノートPCのディスプレイ及びインターフェースで構成することができる。通信部13は、情報処理装置100をネットワークに接続し、他の装置等との通信を制御する。
FIG. 1 is a diagram illustrating an example of a hardware configuration of the
図2は、実施形態1の情報処理装置100の構成の一例を示す図である。情報処理装置100は、構成として、撮影部101、基準画像処理部102、画像格納部103、推定部104、撮影パラメータ設定部105を含む。但し、上述したように、撮像部は、情報処理装置100に含まれてもよいし、含まれなくてもよい。基準画像処理部102、推定部104、撮影パラメータ設定部105は、ソフトウェアである。また、画像格納部103は、記憶部11に設けられてもよいし、情報処理装置100と通信可能なストレージサーバに設けられてもよい。画像格納部103がストレージサーバに設けられる場合、基準画像処理部102は、ネットワークを介して画像格納部103に保存された画像、及び画像に関連した情報を取得する。画像格納部103は、基準画像の候補となる画像群を格納するストレージである。
FIG. 2 is a diagram illustrating an example of the configuration of the
図3は、画像格納部103に格納される情報を説明する図である。まず、画像格納部103には、複数の画像(図3では、画像201、202)が格納されている。以下、画像格納部103に格納された画像201、202を格納画像と呼ぶ。格納画像は、様々な構造物のコンクリート壁面を撮影した画像から、画像点検に好ましい画質で撮影されている画像を収集して準備された画像である。画像点検に好ましい画質は、人間が画像を確認したときに、ひび割れ等の変状が確認しやすい画質であり、例えば、フォーカス、明るさ、色合い等が好ましい画像である。例えば、格納画像201は、ひび割れ211が明瞭に確認できる画像である。また、格納画像はひび割れが写っていることに限定されない。格納画像202ではコンクリート壁面の目地212が写っている画像である。この格納画像202は、目地212のエッジが明瞭に写っていることから、点検に好ましい画質の画像と判断されたものである。
FIG. 3 is a diagram illustrating information stored in the
また、撮影画像に対して、ひび割れを自動検知する技術を用いて、撮影画像を点検する場合、自動検知が好適に動作する画質を、画像点検に好ましい画質としてもよい。この場合、自動検知の検知結果の正解率等を算出し、これが高くなる画質の画像を格納画像とする。
図3の画像格納部103には、格納画像に画像情報と撮影パラメータとが関連付けられて記録されている。画像情報は、格納画像の撮影内容に関する情報で、例えば、対象物の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所・地域、経過年数、等の情報が含まれる。また、撮影パラメータは、それぞれの基準画像を撮影したときの撮影パラメータである。
Further, when inspecting a captured image using a technique for automatically detecting cracks in the captured image, the image quality at which automatic detection preferably operates may be the image quality preferable for image inspection. In this case, the correct answer rate and the like of the detection result of the automatic detection is calculated, and an image having a high image quality is used as the stored image.
In the
図4は、情報処理の一例を示すフローチャートである。以下、フローチャートに従って、情報処理装置100の動作について説明する。
S301及びS302は、基準画像処理部102が実行する処理である。実施形態1の基準画像処理部102は、画像格納部103に格納された格納画像から基準画像を選択する処理を実行する。図5には、S301及びS302の実行時に、操作部12に表示される情報を示している。
S301において、基準画像処理部102は、検索条件に基づいて、画像格納部103から基準画像候補を検索する。基準画像候補の検索方法としては、画像情報を用いた方法がある。図3に示したように、画像格納部103に格納された画像には、画像情報が関連付けられている。基準画像処理部102は、この情報を基に、撮影対象に類似する格納画像を検索することができる。図5には、操作部12で格納画像を検索する画面の例を示している。例えば、撮影対象が橋梁の床版で、撮影時の天候が曇りであったとする。ユーザーは、このような撮影対象、又は撮影状況に関わる条件を画像検索条件に設定する。そして、検索ボタン410を選択することで、画像格納部103から検索条件に該当する格納画像を検索することができる。検索結果は、基準画像候補として基準画像候補表示欄420に表示される。基準画像候補は、検索条件と画像情報とが一致した格納画像だけを基準画像候補としてもよいし、項目の一致度が高い格納画像を所定数選択して基準画像候補としてもよい。また、図5の例では、検索のための画像情報は、構造物種類、コンクリート種類、天候のみを表示しているが、画像検索のための条件はこれらに限定する物ではない。更にまた、図5では、検索の方法としてプルダウンメニューで検索内容を設定する方法を示しているが、ユーザーが検索のための画像情報を入力する方法もこれに限定されない。例えば、自由な文字列をキーワードとして入力することにより、格納画像を検索することができる操作方法でもよい。
FIG. 4 is a flowchart showing an example of information processing. Hereinafter, the operation of the
S301 and S302 are processes executed by the reference
In S301, the reference
また、別の基準画像候補の検索方法として、仮撮影画像を用いる方法もある。この場合、まず、ユーザーは撮影部101で撮影対象を撮影する。この撮影は仮撮影で、このときの撮影パラメータは、オート設定等を用いる。この仮撮影で撮影した画像を仮撮影画像とする。ユーザーは、仮撮影画像を基準画像候補選択の検索キーとして設定する。図5には、基準画像候補選択の検索条件として、仮撮影画像450が設定されていることを示す。この状態で、検索ボタン410を選択することにより、画像格納部103から、仮撮影画像に類似した画像が検索される。検索の結果、類似度が高い上位の格納画像が、基準画像候補として選定され、基準画像候補表示欄420に表示される。ここで、仮撮影画像を用いた検索では、例えば、画像全体の特徴(コンクリート壁面の色味、又はテクスチャ感)を基に、格納画像との類似度を算出し、基準画像候補を選択する。これにより、これから点検のための撮影を行う撮影対象のコンクリート壁面が類似した格納画像を検索することができるようになる。また、上述の画像情報(キーワード)による検索と、仮撮影画像による検索とを同時に用いて基準画像候補を検索するようにしてもよい。
以上のようにして、基準画像候補が選択され、基準画像候補表示欄420に表示される。
Further, as another search method of reference image candidates, there is a method of using a tentative captured image. In this case, first, the user shoots a shooting target with the
As described above, the reference image candidate is selected and displayed in the reference image
図4のS302において、基準画像処理部102は、基準画像候補表示欄420に表示された基準画像候補の中から1枚の画像を基準画像として選択する。まず、基準画像選択の初期値として、自動的に検索の一致度合いが最も高い基準画像候補が基準画像として選択される。図5には、このようにして選択された基準画像430が、基準画像表示欄に表示されている様子を示している。ユーザーは、このようにして表示された基準画像を確認することで、撮影方法調整の基準を確認することができる。選択された基準画像430が、調整の基準として不適であるとユーザーが判断する場合、ユーザーは基準画像候補から別の画像を基準画像として選択することができる。基準画像候補から別の画像が選択された場合、基準画像処理部102は、選択された画像を基準画像とする。
なお、図5の画像には、ひび割れ(例えば440、441)が写っている。後述するように、ひび割れ部分の画像を用いて評価値を算出する場合には、基準画像にひび割れが含まれている必要がある。また、仮撮影画像450にひび割れ440を含む画像を設定することで、基準画像候補の検索において、撮影対象のひび割れと類似のひび割れを含む格納画像を検索できるようにしてもよい。
In S302 of FIG. 4, the reference
Note that cracks (for example, 440 and 441) are reflected in the image of FIG. As will be described later, when the evaluation value is calculated using the image of the crack portion, the reference image needs to include the crack. In addition, by setting an image including the
S303において、撮影パラメータ設定部105は、撮影パラメータの初期値(以下、初期撮影パラメータ)を決定する。初期撮影パラメータの設定は、撮影装置の通常の撮影パラメータ調整方法(オートパラメータ調整)で決定した撮影パラメータを初期パラメータとして設定すればよい。また、別の方法として、基準画像に関連付けられた撮影パラメータを初期パラメータとしてもよい。図3で示したように、画像格納部103では、各格納画像について、その画像を撮影したときの撮影パラメータを記録している。したがって、基準画像に関連付けられた撮影パラメータを初期パラメータとする場合には、基準画像処理部102は、基準画像として選択された画像に関連付けられた撮影パラメータを画像格納部103から呼び出して、初期パラメータとして設定する。
In S303, the shooting
S304において、撮影パラメータ設定部105は、初期撮影パラメータを基に、複数の撮影パラメータを設定する。図6には、初期撮影パラメータを基に、複数の撮影パラメータを設定する様子を示している。まず、図6(A)は、本実施形態の方法で調整する撮影パラメータの例として、露出(EV)を調整する実施形態について説明する図である。図6(A)では、初期パラメータとしてEV0が設定されている様子を白三角501で示している。撮影パラメータ設定部105は、この初期パラメータを中心に、複数の撮影パラメータを設定する。図6(A)では、撮影パラメータ設定部105は、EV0を中心にそれぞれ露出を1段変化させて、EV−1(図6の黒三角502)とEV+1(図6の黒三角503)を複数パラメータとして設定している。この例では、初期撮影パラメータと合わせて3つの撮影パラメータを設定している様子を示しているが、設定する撮影パラメータの数はこれに限らない。例えば、撮影パラメータ設定部105は、更に2段異なる露出を設定して、合計5つの撮影パラメータを設定するようにしてもよい。また、この例では、露出を1段変更するルールにより、複数の撮影パラメータを設定しているが、撮影パラメータの変更の刻みは、これ以外の設定方法としてもよい。例えば、撮影パラメータ設定部105は、露出を1/2段刻みで設定するようにしてもよいし、初期撮影パラメータ周辺でランダムに設定するようにしてもよい。
In S304, the shooting
以上では、撮影パラメータを露出とした場合についての実施形態を説明したが、本実施形態で設定する撮影パラメータは露出に限定されない。撮影部101を制御するパラメータであれば、撮影パラメータはどのようなものを用いてもよく、例えば、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、ISO感度、画像の彩度、色合い等を撮影パラメータとしてもよい。
また、図6(A)では、露出のみを本実施形態で調整する撮影パラメータとする実施形態について説明したが、複数の撮影パラメータを同時に調整するようにしてもよい。例えば、図6(B)は、露出とフォーカスとの組み合わせを調整する撮影パラメータとした場合の実施形態について説明する図である。図6(B)では、ある露出とフォーカスとのパラメータの組み合わせが初期パラメータとして設定されており、白丸511として示されている。撮影パラメータ設定部105は、この初期パラメータを中心に、例えば黒丸512のような撮影パラメータの組み合わせを、複数の撮影パラメータとして設定してもよい。
In the above, the embodiment has been described in which the shooting parameter is the exposure, but the shooting parameter set in this embodiment is not limited to the exposure. Any shooting parameter may be used as long as it is a parameter for controlling the
Further, in FIG. 6A, the embodiment in which only the exposure is used as the shooting parameter to be adjusted in the present embodiment has been described, but a plurality of shooting parameters may be simultaneously adjusted. For example, FIG. 6B is a diagram illustrating an embodiment in which a combination of exposure and focus is used as a shooting parameter for adjusting. In FIG. 6B, a combination of a certain parameter of exposure and focus is set as an initial parameter and is shown as a
なお、調整する対象となる撮影パラメータの組み合わせは、図6(B)の露出とフォーカスとの組み合わせに限らず、他の撮影パラメータの組み合わせでもよい。また、上記の説明では、2つのパラメータの組み合わせを調整する実施形態について説明したが、撮影パラメータの組み合わせ数もこれに限らず、3つ以上の撮影パラメータの組み合わせを同時に調整するようにしてもよい。
S304では、以上のようにして、撮影パラメータ設定部105で複数の撮影パラメータを設定する。以降の処理の説明については、調整する撮影パラメータを、図6(A)のように露出とした場合について説明する。
Note that the combination of the shooting parameters to be adjusted is not limited to the combination of the exposure and focus shown in FIG. 6B, and may be a combination of other shooting parameters. Further, in the above description, the embodiment in which the combination of two parameters is adjusted has been described, but the number of combinations of shooting parameters is not limited to this, and combinations of three or more shooting parameters may be adjusted at the same time. ..
In S304, as described above, the shooting
図4のS305において、撮影部101は、S304で設定された複数の撮影パラメータを用いて、撮影対象を撮影する。より具体的には、図6(A)のように複数の撮影パラメータとして3つの露出が設定された場合には、撮影部101は、ユーザーのシャッター操作に応じて露出を変更しながら3枚の画像を自動的に撮影する。以下、このステップで撮影された画像を撮影画像と呼ぶ。
In step S305 of FIG. 4, the
図4のS306以降の処理は主に推定部104で実行する処理で、最適な撮影パラメータを選択する処理、又は、最適な撮影パラメータを更に探索するための処理である。
S306において、推定部104は、複数の撮影パラメータそれぞれについて評価値を算出する。評価値は、撮影パラメータが点検画像を撮影するために適切であるほど高い値を示すものである。推定部104は、この評価値を、各撮影パラメータで撮影した撮影画像と基準画像とを比較することで算出する。より具体的には、撮影画像が基準画像と類似する場合、その撮影画像を撮影した撮影パラメータは好ましいパラメータであると判断することができる。したがって、このような場合には、推定部104は、高い評価値を算出するようにする。この評価値算出のためには、撮影画像と基準画像との類似度を算出すればよい。以下では、評価値の算出方法の具体例について説明する。
The process from S306 onward in FIG. 4 is a process mainly executed by the
In S306, the
撮影画像と基準画像との評価値算出方法の一つの例として、まず、画像全体の類似度を算出して評価値として用いる方法について説明する。例えば、画像全体の類似度を、画像全体の明るさで比較する場合は、撮影画像と基準画像とをグレースケール変換した後に、画像全体の輝度ヒストグラムを作成し、撮影画像の輝度ヒストグラムと基準画像の輝度ヒストグラムとの類似度を算出すればよい。ヒストグラムの類似度は、単純にユークリッド距離を算出する方法、又はHistogram Intersectio等の手法で計算することができる。また、画像全体の色あいの類似度を算出する場合には、グレースケール変換を行わずに、RGB、又はYCrCb等の色空間を基にそれぞれの画像の色ヒストグラムを作成し、色ヒストグラムの類似度を算出するようにすればよい。画像全体の類似度を判定するための特徴量は、これらのヒストグラム特徴量に限定することなく、他の特徴量を用いてもよい。 As one example of the method of calculating the evaluation value between the captured image and the reference image, first, a method of calculating the similarity of the entire image and using it as the evaluation value will be described. For example, when comparing the similarity of the entire image with the brightness of the entire image, after the grayscale conversion between the captured image and the reference image, a luminance histogram of the entire image is created, and the luminance histogram of the captured image and the reference image are compared. It is only necessary to calculate the degree of similarity with the luminance histogram of. The similarity of the histogram can be calculated by a method of simply calculating the Euclidean distance or a method such as Histogram Intersectio. Further, when calculating the similarity of the hue of the entire image, the color histogram of each image is created based on the color space such as RGB or YCrCb without performing the grayscale conversion, and the similarity of the color histogram is calculated. Should be calculated. The feature amount for determining the similarity of the entire image is not limited to these histogram feature amounts, and other feature amounts may be used.
また、他の評価値算出方法の例として、画像の部分的な類似度を算出するようにしてもよい。例えば、コンクリート壁面の点検画像を撮影したい場合に、興味がある部分は画像中のコンクリート壁面が写っている部分である。したがって、撮影画像及び基準画像にコンクリート壁面以外の部分が写っている場合には、その部分を除いたコンクリート壁面の部分の画像を基に類似度を算出するようにしてもよい。より具体的には、例えば、橋梁の床版を橋梁の下側から撮影するときに、撮影画像に空領域(背景部分)が含まれることがある。このような撮影画像では、推定部104は、空領域を除去し、床版のコンクリート壁面の画像部分と、基準画像との類似度を算出することにより評価値を算出する。この類似度の算出では、撮影画像の部分画像と基準画像全体それぞれについて上述のヒストグラム特徴量を作成し、ヒストグラム特徴量間の類似度を算出すればよい。この例は、基準画像は画像全体がコンクリート壁面画像である前提で、撮影画像側の部分画像と基準画像との類似度を算出する例である。しかし、基準画像の一部に背景と見なせる部分が含まれている場合には、基準画像の部分画像と撮影画像との類似度を算出するようにしてもよい。
As another example of the evaluation value calculation method, the partial similarity of images may be calculated. For example, when it is desired to take an inspection image of a concrete wall surface, the portion of interest is the portion in which the concrete wall surface is shown. Therefore, when a portion other than the concrete wall surface is shown in the captured image and the reference image, the similarity may be calculated based on the image of the portion of the concrete wall surface excluding the portion. More specifically, for example, when the floor slab of the bridge is photographed from below the bridge, the photographed image may include a sky region (background portion). In such a captured image, the
また、更に、画像の部分的な類似度を算出する別の方法を説明する。画像点検のためのコンクリート壁面画像の撮影では、細いひび割れが撮影画像で確認できる画質で撮影を行うことが重要である。基準画像は、細いひび割れが十分に確認できる理想的な点検画像であるとすると、撮影画像の細いひび割れ部分が基準画像の細いひび割れ部分と同様に撮影されることが好ましい。ひび割れ部分が同様に撮影されているかを判定するために、推定部104は、画像中のひび割れ部分の部分画像を用いて評価値を算出する。ひび割れ部分の画像の評価値算出方法には、どのような方法を用いてもよいが、以下の例では、ひび割れ部分のエッジ強度が類似するほど高い評価値を算出するようにする。このために、まず、推定部104は、撮影画像と基準画像とのひび割れ部分を特定する。このひび割れ部分の特定方法は、自動で実行されるものでもよいし、ユーザーが手動で実施するものでもよい。自動的にひび割れを検知する場合には、推定部104は、ひび割れ自動検知の処理を用いるものとする。手動でひび割れ位置を特定する場合には、推定部104は、操作部12を介したユーザーによる画像中のひび割れ位置の入力を受け取る。撮影画像に対しては、これらの処理により撮影後にひび割れ位置を特定する必要があるが、基準画像のひび割れ位置は、予め特定しておいて、画像格納部103に格納画像と関連付けて記録しておいてもよい。以上のようにして、撮影画像と基準画像とのひび割れ位置が得られていれば、推定部104は、それぞれのひび割れ位置の画像のエッジ強度を算出する。エッジ強度は、単純にひび割れ位置の輝度値としてもよいし、Sobleフィルタ等でひび割れ位置の勾配を算出し、その勾配強度をエッジ強度としてもよい。これらのエッジ強度は画素単位で求められるため、撮影画像と基準画像とのエッジ強度の類似度を算出するためには、画像全体のエッジ強度特徴量を作成する必要がある。このためには、例えば、推定部104は、ひび割れ位置のエッジ強度をそれぞれの画像でヒストグラム化したヒストグラム特徴量を作成する等すればよい。推定部104は、撮影画像と基準画像とのエッジ強度ヒストグラム特徴量の類似度を算出し、類似度が高いほど撮影画像と基準画像との評価値が高くなるようにする。
Further, another method of calculating the partial similarity of images will be described. When taking images of concrete wall surfaces for image inspection, it is important to take images with the image quality that allows fine cracks to be confirmed in the taken images. Assuming that the reference image is an ideal inspection image in which thin cracks can be sufficiently confirmed, it is preferable that the thin crack portion of the photographed image be photographed in the same manner as the thin crack portion of the reference image. In order to determine whether the cracked portion is similarly photographed, the
なお、以上のように、ひび割れ部分のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にひび割れが含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、ひび割れが存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301〜S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、ひび割れが含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。
以上では、ひび割れ位置のエッジ強度を基に、撮影画像と基準画像との評価値を算出したが、撮影対象のコンクリート壁面に、常にひび割れが存在するとは限らない。したがって、推定部104は、例えば、コンクリートの目地、又は型枠跡等、コンクリートの構造上、確実に出現する画像エッジ部分のエッジ強度に基づいて評価値を算出するようにしてもよい。この場合、撮影画像及び基準画像に含まれるコンクリート目地、型枠跡の部分のエッジ強度を利用すること以外は、上述のひび割れ部分のエッジを用いた評価値算出方法と同様の手法で評価値を算出することができる。
As described above, in order to calculate the evaluation value based on the edge strength of the cracked portion, it is premised that both the photographed image and the reference image include cracks. With regard to the photographed image, the user can obtain a photographed image including a crack by photographing the portion where the crack exists from the concrete wall surface to be photographed. On the other hand, regarding the reference image, in the step of selecting the reference image in S301 to S302, the user searches and stores the stored image stored in the
In the above, the evaluation values of the photographed image and the reference image are calculated based on the edge strength at the crack position, but the concrete wall surface of the photographed object does not always have a crack. Therefore, the
なお、以上のように、コンクリート目地のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にコンクリート目地が含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、コンクリート目地が存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301〜S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、コンクリート目地が含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。
As described above, in order to calculate the evaluation value based on the edge strength of the concrete joint, it is premised that both the photographed image and the reference image include the concrete joint. With regard to the photographed image, the user can obtain a photographed image including cracks by photographing the portion where concrete joints are present from the concrete wall surface of the photographing target. On the other hand, regarding the reference image, in the step of selecting the reference image in S301 to S302, the user searches the stored images stored in the
また、ひび割れ位置のエッジ強度を用いた評価値算出の変形として、推定部104は、ひび割れ幅の情報を用いて、撮影画像と基準画像とのエッジ強度の評価値を算出するようにしてもよい。この方法では、推定部104は、撮影画像と基準画像とで同じ太さの幅のひび割れのエッジ強度が類似するほど、高い評価値を算出するようにする。図7には、ひび割れ幅の情報を用いて、ひび割れ位置の部分画像に基づいた評価値の算出方法を説明する図を示す。まず、図7(A)は、ある撮影パラメータで撮影した撮影画像620の例で、コンクリート壁面のひび割れ600が写った画像であるとする。ひび割れ600は、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。図7(A)では、このひび割れ600について、局所的なひび割れ幅が計測できているものとする。例えば、図7(A)には、0.15mm、0.50mm等のひび割れ幅が明らかな箇所が示されている。これらのひび割れ幅は、ユーザーが実際のコンクリート壁面のひび割れ幅を計測し、操作部12を介して画像を撮影中に入力するものとする。又は、ユーザーが撮影画像を確認して、ひび割れ幅を推定し、操作部12を介して画像を撮影中に入力してもよい。CPU10は、入力されたひび割れ幅を撮影画像と関連付けて画像格納部103に格納する。一方、図7(B)は基準画像621の例で、ひび割れ610が写ったコンクリート壁面の画像である。ひび割れ610もひび割れ600と同様に、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。ひび割れ600についても、局所的なひび割れ幅が記録されており、例えば、図7(B)には0.10mm、0.50mm等のひび割れ幅が記録されている。これらの基準画像のひび割れ幅情報は、画像格納部103に格納されており、基準画像621と共に画像格納部103から呼び出されるものとする。
Further, as a modification of the evaluation value calculation using the edge strength at the crack position, the
図7の撮影画像620と基準画像621との評価値算出では、推定部104は、同じひび割れ幅のひび割れ部分のエッジ強度を比較する。例えば、ひび割れ幅0.50mmの部分として、推定部104は、撮影画像620の部分的な画像601と、基準画像621の部分的な画像611とのエッジ強度に基づいて類似度を算出する。また、ひび割れ幅0.10mmの部分として、推定部104は、撮影画像620の部分的な画像602と、基準画像621の部分的な画像612とのエッジ強度に基づいて類似度を算出する。このように、同じひび割れ幅の画像部分の類似度に基づいて、撮影画像620と基準画像621との評価値sは、以下の式で求められる。
なお、ひび割れ部分の画像を用いて評価値を算出する場合には、撮影画像と基準画像とのコンクリート壁面の撮影解像度は、同解像度とすることが好ましい。より具体的には、撮影画像と基準画像とに写るコンクリート壁面が、例えば1.0mm/画素となる解像度になるように調整する処理を予め実施する。これは、解像度によって、同じひび割れでもエッジ強度等の見た目が変化するためである。また、画像中のコンクリート壁面が正対するように、あおり補正を予め実施することも好適な実施形態である。
In the evaluation value calculation of the captured
In addition, when the evaluation value is calculated using the image of the cracked portion, it is preferable that the photographing resolutions of the concrete wall surface of the photographed image and the reference image are the same. More specifically, a process of adjusting the concrete wall surfaces reflected in the photographed image and the reference image to have a resolution of, for example, 1.0 mm/pixel is performed in advance. This is because the appearance such as edge strength changes depending on the resolution even with the same crack. Further, it is also a preferable embodiment to carry out the tilt correction in advance so that the concrete wall surface in the image faces directly.
以上では、撮影画像と基準画像とそれぞれで画像特徴量を作成し、特徴量の距離等に基づいて画像間の類似度を算出して、これを評価値とする実施形態について説明した。画像の類似度を算出する方法は、これに限らず、予め学習した学習モデルを用いて評価値を算出するようにしてもよい。この方法では、入力画像と基準画像とが類似するほど高い評価値を出力するモデルを予め学習しておく。この学習は、例えば、以下のようなデータセットDを用いて学習することができる。
以上では、撮影画像と基準画像との評価値の算出方法について様々な手法を説明した。説明した方法以外にも、画像と画像との類似度の算出方法については、従来、様々な方法が提案されている。推定部104は、これら公知の手法を用いて本実施形態の評価値を算出してもよい。
The embodiment has been described above in which the image feature amount is created for each of the captured image and the reference image, the similarity between the images is calculated based on the distance of the feature amount, and the calculated similarity is used as the evaluation value. The method of calculating the image similarity is not limited to this, and the evaluation value may be calculated using a learning model learned in advance. In this method, a model that outputs a higher evaluation value as the input image and the reference image are similar to each other is learned in advance. This learning can be learned using the following data set D, for example.
In the above, various methods have been described as the method of calculating the evaluation value of the captured image and the reference image. In addition to the method described above, various methods have been conventionally proposed as a method of calculating the similarity between images. The
また、以上では、評価値の算出方法について、複数の方法を説明したが、これらの評価値算出手法は、それぞれを単独で用いてもよいし、複数の手法を組み合わせて用いてもよい。複数の手法を組み合わせる場合には、推定部104は、例えば、以下の式により最終的な評価値sを算出する。
S306では、以上のような方法で、推定部104は、撮影画像と基準画像との評価値を算出する。また、S306では、推定部104は、複数の撮影パラメータで撮影した撮影画像それぞれについて評価値を算出する。
Further, although a plurality of methods for calculating the evaluation value have been described above, each of these evaluation value calculating methods may be used alone, or a plurality of methods may be used in combination. When combining a plurality of methods, the
In S306, the
S307において、推定部104は、S306で算出した評価値を基に撮影パラメータの評価を行う。
S308において、推定部104は、評価結果に基づいて、撮影パラメータを再調整するか否かを判定する。
撮影パラメータを再調整する場合、S309において、推定部104は、影パラメータを改善する方法を推定する。そして、推定部104は、S305の複数画像の撮影の処理に戻る。
撮影パラメータを再調整しない場合、S310において、撮影パラメータ設定部105は、撮影部101に撮影パラメータを設定する。そして、図4に示すフローチャートの処理を終了する。
以下、これらの処理について説明する。
In S307, the
In S308, the
When readjusting the imaging parameter, the
When the read parameters are not readjusted, the shooting
Hereinafter, these processes will be described.
まず、S307の撮影パラメータ評価では、推定部104は、複数の撮影パラメータの評価値から最大の評価値を選択し、所定の閾値と比較する。図8(A)は、各撮影パラメータの評価について説明する図である。本実施形態では、複数の撮影パラメータとして、露出(EV)を3つ設定した。図8(A)には、複数の撮影パラメータとして、露出−1、0、+1を設定している様子を、図6(A)と同様に、三角501、502、503で表している。また、図8(A)の下部には、各撮影パラメータで撮影した撮影画像と基準画像とから得られる評価値s-1、s0、s+1を示している。図8(A)では、+1の露出503の評価値s+1が最も高い評価値となっており、かつ、所定の閾値sthを超える値を示している。所定の閾値sthを超える評価値を示す撮影パラメータが存在する場合、推定部104は、その撮影パラメータが点検画像の撮影パラメータとして適した撮影パラメータと判断する。図8(A)の場合、推定部104は、+1の露出503を最適パラメータとして選択する。そして、S308では、推定部104は、撮影パラメータの再調整は不要と判断し、撮影パラメータ設定のS310へ進む。S310では、撮影パラメータ設定部105が、撮影部101に+1の露出を設定して、図4に示す処理を終了する。
First, in the imaging parameter evaluation of S307, the
図8(B)は、図8(A)と同様に、露出−1、0、+1を複数の撮影パラメータとして設定し、評価値を算出した例であるが、図8(A)とは異なる評価値が得られている状況を示す。図8(B)において、最大の評価値を示しているのは、評価値s+1であるがs+1でも所定の閾値sthを超えていない。これらの撮影パラメータで撮影した撮影画像は、基準画像との類似度が低く、これらの撮影パラメータは点検画像の撮影パラメータとして適していない。この場合、S308では、推定部104は、撮影パラメータの再調整が必要と判断し、S309に進む。S309では、推定部104は、撮影パラメータの改善方法を推定する。
Similar to FIG. 8A, FIG. 8B is an example in which exposures -1, 0, and +1 are set as a plurality of shooting parameters and evaluation values are calculated, but different from FIG. 8A. The situation where the evaluation value is obtained is shown. In FIG. 8B, the maximum evaluation value is shown as the evaluation value s +1 but even s +1 does not exceed the predetermined threshold value s th . The photographed image photographed with these photographing parameters has a low degree of similarity to the reference image, and these photographing parameters are not suitable as the photographing parameters of the inspection image. In this case, in S308, the
撮影パラメータの改善方法の推定について、図8(B)を用いて説明する。図8(B)では、+1の露出の評価値s+1は閾値sth未満ではあるが、評価値s-1〜s+1の中では、最大の評価値を示している。したがって、撮影パラメータの再調整では、推定部104は、この撮影パラメータ(+1の露出)の周辺の撮影パラメータから、複数の撮影パラメータを設定する。例えば、次の撮影パラメータ調整でも、3つの撮影パラメータを設定する場合、推定部104は、図8(B)のように、+1の露出503の周辺の露出721、722、723を複数パラメータとして設定する。そして、S305に戻り、これらの撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定し、再び複数画像を撮影する。そして、推定部104は、図4のS306以降の処理(評価値算出処理)を再び実行し、最適な撮影パラメータを探索する。この撮影パラメータセットの評価でも、閾値sth以上となる評価値が得られなかった場合は、推定部104は、再び、最大評価値を示す撮影パラメータ周辺で、新しい複数の撮影パラメータを決定する。そして、再度、撮影処理を実行する。このループは、閾値sthを超える評価値が得られる撮影パラメータが決定するまで繰り返し実行される。なお、最大の繰り返し回数を予め決めておき、それまでに最適な撮影パラメータ(閾値sth以上の評価値が得られる撮影パラメータ)が得られない場合は、処理を打ち切るようにしてもよい。撮影パラメータの調整処理を打ち切った場合には、推定部104は、操作部12に警告を表示してユーザーに撮影パラメータが十分に調整されなかったことを通知する。また、処理の打ち切りまでに得られた最大の評価値を算出した画像を撮影した撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定してもよい。
The estimation of the imaging parameter improvement method will be described with reference to FIG. In FIG. 8B, the evaluation value s +1 of the exposure of +1 is less than the threshold value s th , but the maximum evaluation value is shown among the evaluation values s −1 to s +1 . Therefore, in the readjustment of the shooting parameters, the
以上の説明では、S307で閾値sth以上の評価値が得られない場合のみ、改善撮影パラメータの推定と、繰り返し調整と、を行う実施形態について説明した。しかし、仮に閾値sth以上の評価値を示す撮影パラメータが見つかった場合でも、更に高い評価値を示す撮影パラメータを探索するようにしてもよい。この場合、情報処理装置100は、最大評価値を示した撮影パラメータ周辺の撮影パラメータを改善撮影パラメータとして設定した上で、再び複数画像を撮影し、評価値算出処理を繰り返し実行する。この繰り返し処理の終了条件は、予め決められた繰り返し回数に到達した場合、又は最大評価値付近で撮影パラメータを変更しても評価値に変化が生じなくなった場合とする。
In the above description, the embodiment in which the improved imaging parameter is estimated and the repeated adjustment is performed only when the evaluation value equal to or larger than the threshold value s th is not obtained in S307 has been described. However, even if a shooting parameter having an evaluation value equal to or higher than the threshold value s th is found, a shooting parameter having a higher evaluation value may be searched for. In this case, the
一方、ユーザーが撮影パラメータを確認し、撮影パラメータ調整のための繰り返し処理の終了を判断するようにしてもよい。このようにする場合、図4のS308において、推定部104は、評価値の閾値sthを用いた最適な撮影パラメータ判定は実施せずに、撮影パラメータの再調整の実行の判断をユーザー操作に基づいて判断する。このために、推定部104は、操作部12にユーザーに必要な情報を提示し、更に操作部12を介してユーザーからの入力を受け付ける。図9は、ユーザー判断により撮影パラメータ調整を行う場合の操作部12について説明する図である。以下、図9を用いて、ユーザーに提示する情報、及び、ユーザーの操作について説明する。
まず、図9の操作部12は、情報を表示するためのディスプレイである。操作部12に表示された画面中の画像801は、露出+1の撮影パラメータで撮影した撮影画像で、撮影画像802、803は他の撮影パラメータで撮影された撮影画像である。ディスプレイには、基準画像804も表示されており、ユーザーは撮影画像と基準画像とを比較して確認することができる。
また、画像801の下部には、撮影パラメータの調整のために複数設定した撮影パラメータが示されている。図9には、複数の撮影パラメータの例として、3段階の露出(EV)を黒三角で示している。このうち、最大の評価値を示した露出+1を示す黒三角811は強調表示(大きく表示)されている。また、白抜きの三角812等は、露出+1の撮影パラメータ811を基にして設定した、撮影パラメータを更に調整するときの複数の撮影パラメータ候補を示す。
On the other hand, the user may check the shooting parameters and determine the end of the repeated process for adjusting the shooting parameters. In this case, in step S308 of FIG. 4, the
First, the
Further, in the lower part of the
この実施形態では、ユーザーは操作部12に表示されたこれらの情報を確認して、現在の撮影パラメータを採択するか、更に撮影パラメータ調整の処理を実行するか、を判断する。より具体的には、ユーザーは、最大の評価値が得られた画像801で、撮影画像と基準画像とを対比して、満足する一致度合いであれば、最大の評価値を示した撮影パラメータを採択すると判断することができる。ユーザーは、最大の評価値を示す撮影パラメータを採択する場合、「set」と表示されているアイコン821を選択する。この操作により、撮影パラメータ設定部105は、最大の評価値を示す撮影パラメータを、撮影部101に設定し(図4のS310)、撮影パラメータ調整の処理が終了する。一方、画像801を確認する等して、現在の最適撮影パラメータに満足しない場合、ユーザーは「再調整」と表示されたアイコン822を選択する。この指示により、次の複数の撮影パラメータ(例えば露出812等)を用いて、図4のS306以降の処理(評価値算出処理)が再び実行される。その後、再び、情報処理装置100は、各種の情報を図9のようにユーザーに提示する。ユーザーは提示された情報を基に、再び撮影パラメータを採択するか、更に撮影パラメータを調整するかの判断を行う。
In this embodiment, the user confirms these pieces of information displayed on the
もし、撮影パラメータの調整を途中で辞める場合には、「終了」と表示されたアイコン823を選択する。この操作により、情報処理装置100は、撮影パラメータを調整する処理(図4のフローチャートのループ)を終了させることができる。このとき、情報処理装置100は、それまでに撮影、評価した撮影パラメータのうち、評価値が最大となる撮影パラメータを撮影部101に設定するようにしてもよい。
なお、ユーザー操作で撮影パラメータ調整の継続を判断する場合においても、予め評価値の閾値sthを設定しておき、閾値sthを超える評価値を得た撮影パラメータが存在することを表示するようにしてもよい。例えば、図9において、撮影パラメータ811で撮影した画像の評価値s811が閾値sthを超える場合には、情報処理装置100は、撮影パラメータを示す黒三角811を点滅表示するようにしてもよい。ユーザーは、評価値に関わらず撮影パラメータを採択することができるが、このように情報処理装置100が評価値を超えた撮影パラメータの存在を表示することで、撮影パラメータ採択の判断を補助することができるようになる。
If the adjustment of the shooting parameters is stopped on the way, the
Even when it is determined by the user operation that the shooting parameter adjustment is to be continued, the threshold value s th of the evaluation value is set in advance, and it is displayed that the shooting parameter having the evaluation value exceeding the threshold value s th exists. You can For example, in FIG. 9, when the evaluation value s 811 of the image shot with the
以上、実施形態1では、撮影パラメータを改善する方法を推定する実施形態について説明したが、本実施形態の方法で推定する撮影方法は、撮影パラメータに限らず、他の撮影方法を推定してもよい。撮影パラメータ以外の撮影方法を推定する実施形態では、図4の処理フローのループを複数回実行しても、所定閾値以上の評価値が得られない場合に、推定部104は、更に画像、又は撮影状況を分析して、適切な撮影方法を提案する。例えば、画像の明るさが不足していると判断される場合、又はホワイトバランスの調整が撮影パラメータでは調整不可能と判断される場合には、推定部104は、ユーザーに照明を利用して照明条件を変更すること、又は撮影時刻を変更してより明るい時刻での撮影を推薦する通知を行うようにしてもよい。また別の例としては、撮影部101の位置及び姿勢が取得できる場合、推定部104は、点検対象構造物との位置関係を分析し、撮影を改善する位置及び姿勢を提案する。より具体的には、例えば、点検対象構造物の壁面に対するあおり角度が大きな位置及び姿勢で撮影している場合、推定部104は、あおりを減少させる位置及び姿勢で撮影することをユーザーに推薦する。
As described above, in the first embodiment, the embodiment in which the method for improving the shooting parameter is estimated has been described. However, the shooting method estimated by the method of the present embodiment is not limited to the shooting parameter, and other shooting methods may be estimated. Good. In the embodiment in which the imaging method other than the imaging parameters is estimated, when the evaluation value equal to or higher than the predetermined threshold is not obtained even if the loop of the processing flow of FIG. We analyze shooting conditions and propose appropriate shooting methods. For example, when it is determined that the brightness of the image is insufficient, or when it is determined that the adjustment of the white balance cannot be adjusted by the shooting parameter, the
<実施形態2>
実施形態1では、画像格納部103から1枚の画像を選択し、これを基準画像とした。そして、この選択した1枚の基準画像に基づいて、撮影方法を調整する実施形態を説明した。実施形態2では、複数枚の基準画像を用いて、撮影方法を調整する実施形態について説明する。なお、以降の実施形態では、主に実施形態1と異なる部分について、説明を行う。
まず、実施形態2では、基準画像処理部102で、複数の基準画像を選択する。以下では、基準画像処理部102でM枚の基準画像を選択したとする。このM枚の基準画像は、どのような方法を用いて選択してもよいが、例えば、検索結果の上位M枚の格納画像をM枚の基準画像としてもよい。
<
In the first embodiment, one image is selected from the
First, in the second embodiment, the reference
次に、推定部104では、撮影画像とM枚の基準画像との評価値を算出する。この処理では、まず、撮影画像と各々の基準画像との評価値を算出する。例えば、推定部104は、撮影画像とm枚目の基準画像の評価値を算出し、この評価値をsmとする。撮影画像と基準画像との評価値算出方法は、実施形態1の方法と同様である。撮影画像とM枚の基準画像との評価値算出により、M個の評価値が得られたら、推定部104は、これらの平均により最終的な評価値sを算出する。
また、複数の基準画像を用いる別の形態として、複数の基準画像のうち、最も類似する1枚の基準画像との評価値に基づいて、撮影パラメータを調整する方法がある。この場合、撮影画像とM枚の基準画像との最終的な評価値sは、以下の式で求められる。
<実施形態3>
以上の実施形態では、基準画像は、撮影対象の構造物と異なる構造物で撮影した画像という想定であったが、撮影対象の構造物の過去画像を基準画像としてもよい。インフラ点検では、過去の点検結果と最新の点検結果とを比較するが、この比較のためには、過去画像と最新画像とが同等の画質で撮影されていることが好ましい。撮影対象の構造物の過去画像が存在する場合には、これを基準画像とすることで、過去画像に類似した画像を撮影できるように撮影パラメータの調整を行うことができる。
<Embodiment 3>
In the above embodiments, the reference image is assumed to be an image captured by a structure different from the target structure, but a past image of the target structure may be used as the reference image. In the infrastructure inspection, the past inspection result and the latest inspection result are compared with each other. For this comparison, it is preferable that the past image and the latest image are captured with the same image quality. When there is a past image of the structure to be photographed, by using this as a reference image, the photographing parameters can be adjusted so that an image similar to the past image can be photographed.
過去画像を基準画像とするために、実施形態3の画像格納部103には、撮影対象の構造物の過去画像が格納されている。基準画像処理部102は、撮影対象の構造物の情報に基づいて、画像格納部103から過去画像を取得し、基準画像として設定する処理を行う。このために、実施形態3の基準画像処理部102は、画像格納部103の格納画像を、構造物の名称等の固有情報で検索できるようにしてもよい。基準画像に撮影対象の構造物の過去画像を設定した以降の処理は、実施形態1と同様の処理を実施することにより、撮影方法の調整を行うことができる。以上の構成により、過去画像と類似した撮影結果が得られるように、撮影パラメータを調整することができるようになる。
In order to use the past image as the reference image, the
基準画像に過去画像を設定する場合、基準画像と撮影画像との撮影範囲を一致させることが好ましい。この場合、撮影対象の構造物に対して、基準画像に設定した過去画像で撮影された範囲と同じ範囲を今回の撮影でも撮影するように、撮影位置、及び撮影範囲を調整する。この撮影位置、及び範囲の調整をサポートするために、画像格納部103に格納した過去画像には、撮影位置、及び撮影範囲の情報を関連付けて保存して置いてもよい。
基準画像(過去画像)と撮影画像の撮影範囲が一致している場合、評価値の算出方法は、過去画像と撮影画像との画素間の誤差二乗和の逆数としてもよい。現実的には、過去と現在の撮影を画素レベルで合わせることは極めて困難であるため、若干の位置ずれを許容するような類似度算出方法を用いることが好ましい。
When the past image is set as the reference image, it is preferable that the shooting ranges of the reference image and the shot image match. In this case, the photographing position and the photographing range are adjusted so that the same range as the range photographed in the past image set as the reference image is photographed in the present photographing with respect to the structure to be photographed. In order to support the adjustment of the photographing position and the range, information of the photographing position and the photographing range may be stored in association with the past image stored in the
When the shooting ranges of the reference image (past image) and the shot image match, the evaluation value may be calculated by using the reciprocal of the sum of squared errors between the pixels of the past image and the shot image. In reality, it is extremely difficult to match the past and present shootings at the pixel level, so it is preferable to use a similarity calculation method that allows a slight positional deviation.
また、過去画像にコンクリート壁面の変状が含まれる場合、画像中の変状部分に基づいて評価値を算出するようにしてもよい。この場合、推定部104は、過去画像の変状と同じ部分を撮影し、過去画像の変状と撮影画像の変状とが類似するほど高い評価値を算出するようにする。このようにすることで、過去画像に写った変状が撮影画像でも確認できるように、撮影パラメータを調整することができるようになる。更に、推定部104は、変状の経年変化を考慮して、過去画像と撮影画像との評価値を算出するようにしてもよい。例えば、過去画像に含まれる変状がひび割れの場合について説明する。過去の点検で記録されたひび割れは、補修作業が実施されない限り、自然に消えることはない。一方、ひび割れは、経年劣化により伸展する可能性がある。したがって、撮影画像のひび割れと過去画像のひび割れとを比較する場合には、推定部104は、撮影画像のひび割れの伸展部分の画像は、ひび割れ部分の類似度算出に使わないようにする。
In addition, when the past image includes a deformation of the concrete wall surface, the evaluation value may be calculated based on the deformation portion in the image. In this case, the
<実施形態4>
以上の実施形態の基準画像処理部102では、画像格納部103に格納された画像を検索して、基準画像を設定する実施形態について説明した。実施形態4では、基準画像処理部102で画像を生成し、この生成画像を基準画像とする実施形態について説明する。
近年、学習ベースの手法で、画像のノイズ除去及び超解像が発達している。例えば、非特許文献2は、オートエンコーダを用いた画像のノイズ除去技術である。この技術では、ノイズを含む画像とノイズがない画像でオートエンコーダを学習することにより、ノイズ除去モデルを学習する。このノイズ除去モデルに、ノイズ除去を行いたいノイズ画像を入力すると、出力としてノイズを除去した画像が得られる。また、非特許文献3はFully CNNによる画像の超解像技術である。この技術では、低解像度画像と高解像度画像とでFully CNNを学習することにより、超解像化モデルを学習する。この超解像化モデルに、高解像化を行いたい低解像度画像を入力すると、出力として高解像度画像が得られる。これらの技術は、学習により、画像の変換モデルを獲得する技術である。実施形態4では、これらの技術を用いて、仮撮影画像から基準画像を生成する。なお、ノイズ除去と超解像との技術を例にしたが、実施形態4で用いる技術は、画像変換を行うことができれば、どのような手法を用いてもよく、非特許文献2及び非特許文献3の技術に限定するものではない。
<Embodiment 4>
The reference
In recent years, learning-based methods have been developed for image denoising and super-resolution. For example,
図10は、実施形態4の情報処理装置100の構成の一例を示す図である。実施形態4の情報処理装置100は、図2(実施形態1)と異なり、画像格納部103の代わりにモデル格納部106を備える構成となっている。モデル格納部106には、基準画像を生成するためのモデルが格納されている。以下、このモデルを基準画像生成モデルと呼ぶ。基準画像生成モデルは、非特許文献2、又は非特許文献3のような技術を用いて、画像の変換方法を学習により獲得するものである。基準画像生成モデルは、例えば、以下の学習データセットDを用いて学習する。
学習した基準画像生成モデルFに、撮影パラメータを調整していない画像を入力すると、好ましい撮影パラメータで撮影した画像(生成画像)が出力される。但し、生成画像は、基準画像生成モデルFにより生成された偽物の画像であるため、そのまま点検画像等に利用するにはリスクがある。基準画像生成モデルの性能にも依存するが、例えば、生成画像には、画像生成処理に伴う細かいアーチファクトを含む可能性等がある。したがって、本実施形態では、生成画像そのものを撮影結果として利用するのではなく、撮影パラメータ調整の基準として用いることにする。
モデル格納部106には、以上のようにして学習した基準画像生成モデルFが格納されている。なお、画像生成モデルの学習方法として、近年、非特許文献4のような、GAN(Generative adversarial nets)と呼ばれる手法が発展している。基準画像生成モデルFの学習に、この手法を用いるようにしてもよい。
When an image for which the shooting parameters are not adjusted is input to the learned reference image generation model F, an image (generated image) shot with the preferred shooting parameters is output. However, since the generated image is a fake image generated by the reference image generation model F, there is a risk in using it as it is for an inspection image or the like. Although it depends on the performance of the reference image generation model, for example, the generated image may include fine artefacts associated with the image generation processing. Therefore, in the present embodiment, the generated image itself is not used as a shooting result, but is used as a reference for shooting parameter adjustment.
The
次に、この画像生成モデルFを用いた基準画像作成の処理について説明する。まず、ユーザーは撮影部101で撮影対象を仮撮影する。この仮撮影の撮影パラメータは、オート設定等を用いるもので、仮撮影画像は撮影対象を撮影する上で、撮影パラメータ調整が不十分な画像であるとする。基準画像処理部102では、仮撮影画像をモデル格納部106から読み出した画像生成モデルFに入力することで生成画像を作成し、この生成画像を撮影パラメータ調整の基準画像として設定する。
以上では、仮撮影画像を用いて生成画像を作成したが、撮影対象の情報も用いて生成画像を作成するようにしてもよい。例えば、1つの方法として、まず、基準画像生成モデルFを撮影対象の構造物種類ごと、又はコンクリート種類ごと等、条件別に学習しておく。モデル格納部106には、複数の基準画像生成モデルを、学習条件の情報と共に格納しておく。基準画像を作成する工程では、ユーザーが、撮影対象の条件(例えば、撮影対象の構造物種類)を指定することで、条件に一致する基準画像生成モデルをモデル格納部106から呼び出して、画像生成に用いる。以上のようにすることで、撮影対象に適した基準画像生成モデルを用いて、生成画像を作成することができるようになる。
Next, a process of creating a reference image using the image generation model F will be described. First, the user tentatively shoots a shooting target with the
In the above, the generated image is created using the tentative captured image, but the generated image may also be created using the information of the shooting target. For example, as one method, first, the reference image generation model F is learned for each condition such as each type of structure to be imaged or each type of concrete. The
次に、撮影対象の情報を用いて生成画像を作成する別の実施形態について説明する。この実施形態では、モデル格納部106に加え、実施形態1のように、画像格納部103を備える。画像格納部103は、実施形態1と同様に、撮影対象の理想的な撮影結果画像が格納されている。ユーザーは、画像格納部103から、撮影対象の条件と類似する画像を選択する。この画像格納部103から画像を選択する操作は、実施形態1の基準画像選択と同様に、撮影対象の情報を基に画像格納部103を検索することで実施できる。本実施形態では、画像格納部103から選択した画像をスタイル画像と呼ぶ。そして、例えば、非特許文献5のような技術を用いて、仮撮影画像の見た目をスタイル画像に類似した画像に変換する。非特許文献5は、元画像とスタイル画像とを入力すると、元画像の見た目をスタイル画像のスタイルに類似した画像に変換する技術で、例えば、画像の画風を変換することができる技術である。本実施形態では、非特許文献5の元画像に、仮撮影画像を設定することにより、仮撮影画像の見た目をスタイル画像に似せて、理想的な撮影結果画像を作成することができる。このようにして作成した画像を基準画像として利用する。この実施形態によると、撮影対象の情報を用いて画像格納部103からスタイル画像を選択することにより、撮影対象に類似した画像を生成しやすくなる。
実施形態4では、以上のようにして、基準画像処理部102で生成した生成画像を基準画像とする。以降の処理は、実施形態1と同様に行うことで、基準画像に類似した画像を撮影するための撮影パラメータを調整することができる。
Next, another embodiment will be described in which a generated image is created using the information of the shooting target. In this embodiment, in addition to the
In the fourth embodiment, the generated image generated by the reference
実施形態4では、更に、複数の撮影パラメータ設定、及び複数回の撮影(図4のS304、S305)を廃止し、基準画像と1枚の撮影画像から撮影パラメータを調整する実施形態についても説明する。
まず、実施形態4では、ある初期パラメータで、撮影対象の画像を1枚撮影する。この1枚の画像に対して、基準画像との比較により評価値を算出する処理(S306)を実行する。算出した評価値が閾値以上の場合、パラメータ設定を終了する処理(図4のS307、S308、S310)を実施する。
実施形態1の複数撮影パラメータを用いた構成と異なる処理は、評価値が閾値以下であった場合に、撮影パラメータの改善方法を推定するS309である。実施形態4では、ある1つの評価値、及びそのときの撮影パラメータから、統計的な手法により改善撮影パラメータを推定する。このために実施形態4では、予め、評価値と改善撮影パラメータとの関係を学習しておく。この関係は、例えば、以下のようなデータを用いた学習することができる。
First, in the fourth embodiment, one image to be photographed is photographed with certain initial parameters. A process (S306) of calculating an evaluation value by comparison with the reference image is executed for this one image. When the calculated evaluation value is equal to or more than the threshold value, the process of ending the parameter setting (S307, S308, S310 in FIG. 4) is performed.
The process different from the configuration using the multiple shooting parameters of the first embodiment is S309 of estimating the shooting parameter improvement method when the evaluation value is equal to or less than the threshold value. In the fourth embodiment, the improved shooting parameter is estimated by a statistical method from a certain evaluation value and the shooting parameter at that time. Therefore, in the fourth embodiment, the relationship between the evaluation value and the improved shooting parameter is learned in advance. This relationship can be learned using the following data, for example.
以上では、評価値sと撮影パラメータpとを入力として、改善パラメータpdstを算出するモデルを学習する実施形態について説明したが、このモデルに撮影画像の情報を入力するようにしてもよい。撮影画像の情報は、例えば、画像全体の特徴量で、より具体的には画像全体の輝度ヒストグラム等である。撮影画像の情報は、これに限らず、画像の部分的な特徴量でもよいし、モデルに画像そのものを入力する形態でもよい。このように画像情報もモデルに入力することで、評価値と撮影パラメータとだけでなく、撮影画像に基づいて改善パラメータpdstを推定することができるようになる。
以上のようにして予め準備したモデルEを、S309の改善パラメータ推定で用いることにより、実施形態4では、1枚の画像のみから改善撮影パラメータを推定することができるようになる。
In the above, the embodiment in which the model for calculating the improvement parameter p dst is learned by inputting the evaluation value s and the shooting parameter p has been described, but the information of the shot image may be input to this model. The information of the captured image is, for example, a feature amount of the entire image, and more specifically, a luminance histogram of the entire image. The information of the captured image is not limited to this, and may be a partial feature amount of the image, or the image itself may be input to the model. By thus inputting image information into the model as well, it becomes possible to estimate not only the evaluation value and the shooting parameter but also the improvement parameter p dst based on the shot image.
By using the model E prepared in advance as described above in the estimation of the improvement parameter in S309, in the fourth embodiment, the improved shooting parameter can be estimated from only one image.
なお、改善撮影パラメータを求める手法として、学習したモデルを用いる構成は、実施形態1の複数の撮影パラメータで画像を撮影する方法で用いてもよい。すなわち、モデルEは、1枚の画像から撮影パラメータを推定する構成に限定されず、複数の撮影画像から撮影パラメータを推定する方法で用いてもよい。この場合、実施形態1のように複数の撮影パラメータで撮影した撮影画像と基準画像とから評価値を算出し、複数の撮影パラメータと複数の評価値とを入力して改善パラメータを求めるモデルEを学習する。このモデルMを学習するための学習データXは、撮影パラメータ調整で撮影する複数画像の枚数をM枚とすると、式(8)から以下のように書き換えられる。
<実施形態5>
実施形態4では、基準画像生成モデルを用いて、仮撮影画像から基準画像を生成する実施形態について説明した。基準画像生成モデルは、実施形態4の実施形態に限らず、格納画像から基準画像を生成するために利用する実施形態としてもよい。実施形態5では、予め画像格納部103に格納されている格納画像を変換して、基準画像を作成する実施形態について説明する。実施形態1では、画像格納部103に格納された格納画像を選択し、選択した格納画像を基準画像として設定したが、実施形態5では、選択した格納画像を撮影条件に応じて変換した上で基準画像として設定する。以下、この実施形態について説明する。
<Embodiment 5>
In the fourth embodiment, the reference image generation model is used to generate the reference image from the tentative captured image. The reference image generation model is not limited to the embodiment of Embodiment 4, and may be an embodiment used for generating a reference image from a stored image. In the fifth embodiment, an embodiment will be described in which a stored image previously stored in the
画像格納部103には、様々な撮影条件の多数の格納画像を格納しているが、全ての撮影条件に一致する画像を準備することは困難である。そのため、撮影条件に応じて、格納画像を変換、調整して新しい画像を生成し、この生成した画像を基準画像とする。例えば、撮影条件としてカメラ機種が異なる場合について説明する。まず、格納画像は、ある特定の機種のカメラ(以下、カメラA)で撮影した画像のみで構成されているとする。一方、撮影対象を撮影するときのカメラはカメラAとは異なる機種のカメラ(以下、カメラB)であるとする。ここで、カメラAとカメラBとは機種が異なるので、その撮影画像の画質は異なる。例えば、撮影画質の色合い等はカメラの機種ごとに異なるので、カメラAとカメラBとでは、同一の対象を同一の状況で撮影しても、色合い等の画質が異なる画像が得られる。
実施形態5では、このような場合に、カメラA画質の格納画像を、基準画像生成モデルを用いてカメラB画質の画像に変換した上で、基準画像として設定する。この場合の基準画像生成モデルは、例えば、カメラAの色合いをカメラBの色合いに変換する変換パラメータである。基準画像が設定された以降の処理については、実施形態1と同様の処理を行うことで、基準画像の画質に合わせるための撮影パラメータを調整することができる。
Although a large number of stored images under various shooting conditions are stored in the
In the fifth embodiment, in such a case, the stored image of the camera A image quality is converted into an image of the camera B image quality by using the reference image generation model and then set as the reference image. The reference image generation model in this case is a conversion parameter for converting the hue of the camera A into the hue of the camera B, for example. By performing the same processing as that of the first embodiment for the processing after the reference image is set, it is possible to adjust the shooting parameters to match the image quality of the reference image.
次に、このような処理を実施するための処理について説明する。本実施形態の情報処理装置は、図2の情報処理装置100に、更にモデル格納部を備え、モデル格納部には撮影条件に応じた基準画像生成モデルが格納されている。まず、初めの処理では、実施形態1と同様に、基準画像処理部102は、撮影対象に類似する格納画像を、画像格納部から検索して取得する。実施形態5では、この検索結果の格納画像を仮基準画像とする。次の処理では、基準画像処理部102は、撮影条件に基づいて、仮基準画像を基準画像に変換するための基準画像生成モデルを準備する。上述の例では、基準画像処理部102は、撮影条件としてカメラの機種(カメラB)を設定することにより、カメラAの色合いからカメラBの色合いに変換する変換パラメータを含む基準画像生成モデルをモデル格納部から読み出す。このために、ユーザーは撮影条件の情報を、操作部12を介して入力する。又は、カメラ機種のような自動的に取得可能な撮影条件の情報は、自動的に取得され基準画像生成モデルの検索に用いるようにしてもよい。次の処理では、基準画像処理部102は、この基準画像生成モデルを用いて仮基準画像を変換し、基準画像を作成する。
Next, a process for carrying out such a process will be described. The information processing apparatus according to the present embodiment further includes a model storage unit in the
上記の例では、撮影条件をカメラ機種として、撮影条件に基づいて基準画像生成モデルを選択し、仮撮影画像を変換して基準画像を生成する実施形態について説明した。基準画像を生成するための撮影条件は、カメラ機種に限らず、他の条件としてもよい。例えば、撮影条件として天候を設定するようにしてもよい。この場合、撮影対象に類似するとして選択された格納画像(仮基準画像)が晴れの天候で撮影された画像で、撮影対象を撮影するときの天候が曇りであったとすると、晴れの画像の画質(色合い、又は明るさ)を曇りの画像の画質に変換する基準画像生成モデルがモデル格納部から選択されるようにする。撮影条件のバリエーションとしては、他にも、撮影時刻、撮影の季節等でもよい。更に、手持ち撮影、三脚撮影、又はドローン等の動体に搭載したカメラでの撮影等の条件を撮影条件の1つとしてもよい。また、このような撮影条件は、複数の条件を合わせたものであってもよい。例えば、「カメラB、曇り」という撮影条件において、「カメラA、晴れ」の仮基準画像を「カメラB、曇り」の画質に変換する画像生成モデルが選択されるようにしてもよい。 In the above example, the embodiment has been described in which the photographing condition is set as the camera model, the reference image generation model is selected based on the photographing condition, and the temporary photographed image is converted to generate the reference image. The shooting condition for generating the reference image is not limited to the camera model and may be other conditions. For example, the weather may be set as the shooting condition. In this case, if the stored image (temporary reference image) selected as similar to the shooting target is an image shot in sunny weather and the weather when shooting the shooting target is cloudy, the image quality of the sunny image A reference image generation model for converting (hue or brightness) into the image quality of a cloudy image is selected from the model storage unit. Other variations of the shooting conditions may be the shooting time, the shooting season, and the like. Furthermore, a condition such as handheld shooting, tripod shooting, or shooting with a camera mounted on a moving body such as a drone may be one of the shooting conditions. Moreover, such an imaging condition may be a combination of a plurality of conditions. For example, under the shooting condition of “camera B, cloudy”, an image generation model for converting the temporary reference image of “camera A, sunny” into the image quality of “camera B, cloudy” may be selected.
また、以上では画像生成モデルの例を、画像を変換するパラメータとしたが、実施形態5における画像生成モデルはこれに限らず、実施形態4で説明したような学習に基づくモデルとしてもよい。この場合、例えば、画像を変換したい撮影条件ごとに、画像生成モデルを学習しておき、撮影条件に合わせて画像生成モデルを選択して利用する。この画像生成モデルの学習は、変換前の画像群と、好ましい変換後の画像群からなるデータセットを用いることで、実施形態4の学習と同様に実施できる。
実施形態4及び実施形態5では、基準画像処理部102は、生成した基準画像を操作部12に表示して、ユーザーが基準画像を確認できるようにする。ユーザーは撮影パラメータを調整する基準として、基準画像が相応しくないと判断した場合には、別の基準画像を再び生成できるようにしてもよい。この場合、別の基準画像を生成するための基準画像生成モデルを再選択することができるように、基準画像生成モデルの候補を表示したり、再び基準画像生成モデルを検索できるようにしたりしてもよい。更に、実施形態4と実施形態5との方法を同時に利用する場合に、仮撮影画像を変換した基準画像(実施形態4の方法で作成した基準画像)を利用するか、仮基準画像を変換した基準画像(実施形態5の方法で作成した基準画像)を利用するか、ユーザーが選択できるようにしてもよい。この場合、基準画像処理部102は、操作部12に、仮撮影画像を変換した基準画像と仮基準画像を変換した基準画像とを比較可能な状態で表示し、ユーザーは撮影パラメータの調整の基準として適した基準画像を選択できるようにする。
Further, in the above, the example of the image generation model is the parameter for converting the image, but the image generation model in the fifth embodiment is not limited to this, and may be a model based on learning as described in the fourth embodiment. In this case, for example, the image generation model is learned for each shooting condition for which an image is desired to be converted, and the image generation model is selected and used according to the shooting condition. The learning of the image generation model can be performed in the same manner as the learning of the fourth embodiment by using a data set including an image group before conversion and a preferable image group after conversion.
In the fourth and fifth embodiments, the reference
<実施形態6>
以上の実施形態では、本実施形態の情報処理装置100をインフラ構造物の点検画像撮影に適用する実施形態について説明した。本実施形態の情報処理装置100は、点検画像撮影に限らず、他の撮影対象における撮影パラメータ調整にも適用することができる。実施形態6では、一般的な写真撮影における撮影パラメータ調整に、上述した処理等を適用する実施形態について説明する。
本実施形態では、一般的な写真撮影に上述した処理等を適用するために、実施形態1の画像格納部103に格納する格納画像を変更する。図11は、実施形態5において、画像格納部103に格納される情報について説明する図である。図11の画像格納部103には、図3と同様に、格納画像、画像情報、撮影パラメータが格納されている。図11の格納画像1010は海の風景写真であり、この格納画像の画像情報として、シーン:風景、天候:晴れ、詳細1:海、詳細2:夏、等の情報が記録されている。また、格納画像1011は、野球の画像で、この格納画像にも画像内容を示す画像情報が関連付けて記録されている。
<Sixth Embodiment>
In the above embodiment, the embodiment in which the
In the present embodiment, the stored image stored in the
本実施形態でも、実施形態1と同様に、ユーザーが撮影しようとしている撮影対象の情報を基に、画像格納部103から基準画像を選択する。ユーザーは、撮影対象のシーン種類、天候、その他の情報を選択、又はキーワードを入力する。基準画像処理部102は、このユーザーの入力情報を基に画像格納部103に格納された画像情報を検索し、基準画像として適した格納画像を選択する。基準画像の選択は、実施形態1と同様に、基準画像候補をユーザーに提示して、ユーザーが最適と判断する画像を選択して基準画像を設定してもよいし、検索結果の最上位を自動的に基準画像としてもよい。また、実施形態1と同様に、仮撮影画像を撮影して、仮撮影画像を基に画像格納部103から基準画像を検索するようにしてもよい。
In the present embodiment as well, similar to the first embodiment, the reference image is selected from the
以上の処理により、一般的な写真撮影の場合でも、撮影画像の撮影パラメータ調整の基準である基準画像を選択することができる。基準画像の設定以降の処理は、上述の実施形態と同様に、撮影画像と基準画像との評価値を算出し、撮影パラメータ調整を実行する。
以上の一般的な写真撮影の実施形態の説明では、画像格納部103の格納画像を変更することにより、一般的な写真撮影に上述した構成等を適用する実施形態について説明した。一般的な写真撮影に上述した構成等を適用する実施形態としては、実施形態4のように、基準画像生成モデルを用いて、基準画像を生成する構成にしてもよい。
Through the above processing, even in the case of general photography, it is possible to select the reference image that is the reference for adjusting the shooting parameters of the shot image. In the process after the setting of the reference image, the evaluation values of the captured image and the reference image are calculated and the shooting parameter adjustment is executed, as in the above-described embodiment.
In the above description of the general photography embodiment, the embodiment in which the configuration described above is applied to the general photography by changing the image stored in the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium. Then, it can be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。 Although an example of the embodiment of the present invention has been described above in detail, the present invention is not limited to the specific embodiment.
以上、上述した各実施形態の情報処理装置100によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。
As described above, according to the
10 CPU
11 記憶部
12 操作部
13 通信部
100 情報処理装置
10 CPU
11
Claims (20)
前記基準画像と、複数の撮影パラメータで撮影対象を撮影し、複数の撮影画像を撮影する撮影部から受け取った前記複数の撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有する情報処理装置。 Acquisition means for acquiring a reference image,
An evaluation value is obtained from the reference image and the plurality of captured images received from the capturing unit that captures the plurality of captured images with the plurality of capturing parameters, and the target is captured based on the evaluation value. Estimating means for estimating a shooting method suitable for shooting
Information processing device having a.
前記取得手段は、検索条件に基づき、前記画像格納手段に格納された格納画像から前記基準画像を選択することにより取得する請求項1に記載の情報処理装置。 An image storage unit that stores a stored image that is a candidate for the reference image and image information of the stored image;
The information processing apparatus according to claim 1, wherein the acquisition unit acquires the reference image by selecting the reference image from a stored image stored in the image storage unit based on a search condition.
前記推定手段は、前記複数の基準画像と、前記複数の撮影画像と、から評価値を求める請求項1乃至8のいずれか1項に記載の情報処理装置。 The acquisition means acquires a plurality of reference images,
The information processing apparatus according to claim 1, wherein the estimation unit obtains an evaluation value from the plurality of reference images and the plurality of captured images.
前記画像情報には、撮影対象の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所及び地域、経過年数の少なくともいずれかが含まれる請求項2又は3に記載の情報処理装置。 The object to be photographed is a concrete wall surface of an infrastructure structure,
The image information includes at least one of the type of structure to be photographed, the type of concrete, the weather at the time of photography, the target in the image, the installation location and area of the structure, and the number of elapsed years. Information processing device.
前記推定手段は、前記撮影画像と前記基準画像とに含まれる前記コンクリート壁面のひび割れ、目地、型枠のいずれかの部分画像の類似度を求めることで前記評価値を求める請求項1乃至10のいずれか1項に記載の情報処理装置。 The object to be photographed is a concrete wall surface of an infrastructure structure,
The said estimation means calculates|requires the said evaluation value by calculating|requiring the similarity of the partial image of the crack of the said concrete wall surface contained in the said image|photographed image and the said reference image, a joint, and a formwork. The information processing apparatus according to any one of items.
前記基準画像と、前記仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有する情報処理装置。 Generating means for generating a reference image from a tentatively photographed image of an object to be photographed using a model learned in advance;
An estimation unit that obtains an evaluation value from the reference image and the provisional captured image, and estimates a capturing method suitable for capturing the capturing target based on the evaluation value.
Information processing device having a.
前記基準画像と、仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有する情報処理装置。 Generating means for generating a reference image from the stored image and the shooting conditions of the shooting target using the model learned in advance;
An estimation unit that obtains an evaluation value from the reference image and the provisional captured image, and estimates a capturing method suitable for capturing the capturing target based on the evaluation value,
Information processing device having a.
前記基準画像と、撮影対象を撮影する撮影部から受け取った撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定手段と、
を有し、
前記推定手段は、前記基準画像と、前記推定した前記撮影方法で撮影された撮影画像と、から評価値を再び求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を再び推定する情報処理装置。 Selection means for selecting a reference image,
An estimation unit that obtains an evaluation value from the reference image and a captured image received from a capturing unit that captures the capturing target, and estimates a capturing method suitable for capturing the capturing target based on the evaluation value.
Have
The estimating unit again obtains an evaluation value from the reference image and a captured image captured by the estimated capturing method, and re-estimates a capturing method suitable for capturing the capturing target based on the evaluation value. Information processing device.
基準画像を取得する取得工程と、
前記基準画像と、複数の撮影パラメータで撮影対象を撮影し、複数の撮影画像を撮影する撮影部から受け取った前記複数の撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含む情報処理方法。 An information processing method executed by an information processing device, comprising:
An acquisition process for acquiring a reference image,
An evaluation value is obtained from the reference image and the plurality of captured images received from the capturing unit that captures the plurality of captured images with the plurality of capturing parameters, and the target is captured based on the evaluation value. An estimation step of estimating a shooting method suitable for shooting
Information processing method including.
予め学習したモデルを用いて、撮影対象を撮影した仮撮影画像から基準画像を生成する生成工程と、
前記基準画像と、前記仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含む情報処理方法。 An information processing method executed by an information processing device, comprising:
A generation step of generating a reference image from a tentatively photographed image of an object to be photographed using a model learned in advance;
An estimation step of obtaining an evaluation value from the reference image and the provisional captured image, and estimating a capturing method suitable for capturing the capturing target based on the evaluation value,
Information processing method including.
予め学習したモデルを用いて、格納画像と撮影対象の撮影条件とから基準画像を生成する生成工程と、
前記基準画像と、仮撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含む情報処理方法。 An information processing method executed by an information processing device, comprising:
A generation step of generating a reference image from the stored image and the shooting conditions of the shooting target using a model learned in advance;
An estimation step of obtaining an evaluation value from the reference image and the tentatively photographed image, and estimating a photographing method suitable for photographing the photographing target based on the evaluation value;
Information processing method including.
基準画像を取得する取得工程と、
前記基準画像と、撮影対象を撮影する撮影部から受け取った撮影画像と、から評価値を求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を推定する推定工程と、
を含み、
前記推定工程では、前記基準画像と、前記推定した前記撮影方法で撮影された撮影画像と、から評価値を再び求め、前記評価値に基づいて前記撮影対象の撮影に適した撮影方法を再び推定する情報処理方法。 An information processing method executed by an information processing device, comprising:
An acquisition process for acquiring a reference image,
An estimation step of obtaining an evaluation value from the reference image and a captured image received from a capturing unit that captures the capturing target, and estimating a capturing method suitable for capturing the capturing target based on the evaluation value.
Including,
In the estimating step, an evaluation value is obtained again from the reference image and a captured image captured by the estimated capturing method, and a capturing method suitable for capturing the capturing target is estimated again based on the evaluation value. Information processing method.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221559A JP7387261B2 (en) | 2018-11-27 | 2018-11-27 | Information processing device, information processing method and program |
PCT/JP2019/042487 WO2020110576A1 (en) | 2018-11-27 | 2019-10-30 | Information processing device |
US17/327,892 US20210281748A1 (en) | 2018-11-27 | 2021-05-24 | Information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221559A JP7387261B2 (en) | 2018-11-27 | 2018-11-27 | Information processing device, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020088647A true JP2020088647A (en) | 2020-06-04 |
JP7387261B2 JP7387261B2 (en) | 2023-11-28 |
Family
ID=70910161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018221559A Active JP7387261B2 (en) | 2018-11-27 | 2018-11-27 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7387261B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020095017A (en) * | 2018-12-07 | 2020-06-18 | キヤノン株式会社 | Information processing device, control method thereof, program, and storage medium |
WO2022269891A1 (en) * | 2021-06-25 | 2022-12-29 | 三菱電機株式会社 | Image processing device, training device, image processing system, image processing method, generation method, image processing program, and generation program |
JP7426544B1 (en) | 2022-11-28 | 2024-02-01 | 楽天グループ株式会社 | Image processing system, image processing method, and program |
JP7485356B2 (en) | 2020-09-28 | 2024-05-16 | 株式会社Pal構造 | Crack detection method, crack detection device and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006108915A (en) * | 2004-10-01 | 2006-04-20 | Canon Inc | Apparatus and method for image photographing |
JP2015082830A (en) * | 2013-10-24 | 2015-04-27 | 富士通株式会社 | Guide method, information processing apparatus, and guide program |
JP2015231101A (en) * | 2014-06-04 | 2015-12-21 | パイオニア株式会社 | Imaging condition estimation apparatus and method, terminal device, computer program and recording medium |
-
2018
- 2018-11-27 JP JP2018221559A patent/JP7387261B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006108915A (en) * | 2004-10-01 | 2006-04-20 | Canon Inc | Apparatus and method for image photographing |
JP2015082830A (en) * | 2013-10-24 | 2015-04-27 | 富士通株式会社 | Guide method, information processing apparatus, and guide program |
JP2015231101A (en) * | 2014-06-04 | 2015-12-21 | パイオニア株式会社 | Imaging condition estimation apparatus and method, terminal device, computer program and recording medium |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020095017A (en) * | 2018-12-07 | 2020-06-18 | キヤノン株式会社 | Information processing device, control method thereof, program, and storage medium |
JP7305509B2 (en) | 2018-12-07 | 2023-07-10 | キヤノン株式会社 | Information processing device, its control method, program, and storage medium |
JP7485356B2 (en) | 2020-09-28 | 2024-05-16 | 株式会社Pal構造 | Crack detection method, crack detection device and program |
WO2022269891A1 (en) * | 2021-06-25 | 2022-12-29 | 三菱電機株式会社 | Image processing device, training device, image processing system, image processing method, generation method, image processing program, and generation program |
JP7426544B1 (en) | 2022-11-28 | 2024-02-01 | 楽天グループ株式会社 | Image processing system, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7387261B2 (en) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020110576A1 (en) | Information processing device | |
JP7387261B2 (en) | Information processing device, information processing method and program | |
KR101643607B1 (en) | Method and apparatus for generating of image data | |
TW202009805A (en) | Image processing method and apparatus | |
JP5960513B2 (en) | Video processing apparatus and method | |
CN108364292B (en) | Illumination estimation method based on multiple visual angle images | |
JP2009080846A (en) | Image processing device and image processing method | |
JP4624947B2 (en) | Image trimming method, apparatus and program | |
CN110915193B (en) | Image processing system, server device, image processing method, and recording medium | |
US20200389573A1 (en) | Image processing system, image processing method and storage medium | |
JP7092615B2 (en) | Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program | |
JP2020149641A (en) | Object tracking device and object tracking method | |
JP2006039689A (en) | Image processor, image processing method, image processing program, and recording medium with the program recorded thereon | |
US20110085026A1 (en) | Detection method and detection system of moving object | |
JP2013110484A (en) | Image processing device, image processing method, and recording medium | |
JP2013117409A (en) | Crack detection method | |
JP7092616B2 (en) | Object detection device, object detection method, and object detection program | |
JP2020096325A (en) | Information processor, control method of information processor, and program | |
JPH11306348A (en) | Method and device for object detection | |
CN113808117B (en) | Lamp detection method, device, equipment and storage medium | |
US20080199073A1 (en) | Red eye detection in digital images | |
JP7194534B2 (en) | Object detection device, image processing device, object detection method, image processing method, and program | |
CN114663299A (en) | Training method and device suitable for image defogging model of underground coal mine | |
JP6615709B2 (en) | Foreground region extraction apparatus, method, and program | |
CN113992904A (en) | Information processing method and device, electronic equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231115 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7387261 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |