JP7387261B2 - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP7387261B2 JP7387261B2 JP2018221559A JP2018221559A JP7387261B2 JP 7387261 B2 JP7387261 B2 JP 7387261B2 JP 2018221559 A JP2018221559 A JP 2018221559A JP 2018221559 A JP2018221559 A JP 2018221559A JP 7387261 B2 JP7387261 B2 JP 7387261B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- photographing
- evaluation value
- reference image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 51
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000011156 evaluation Methods 0.000 claims description 147
- 238000000034 method Methods 0.000 claims description 130
- 238000003384 imaging method Methods 0.000 claims description 94
- 238000009415 formwork Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims 1
- 238000009434 installation Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 36
- 238000007689 inspection Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001508691 Martes zibellina Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
橋梁、ダム、トンネル等の構造物のコンクリート壁面の点検では、調査技術者がコンクリート壁面に接近し、ひび割れ等の変状を目視で確認することが行われている。このような近接目視と呼ばれる点検作業は作業コストが高いため、近年、コンクリート壁面を撮影した画像で変状を確認する画像点検が行われている。
ここで、細いひび割れ等の見えづらいひび割れを確認できる画像を撮影するためには、撮影パラメータを適切に設定する必要がある。ユーザーは、フォーカス又は露出等の撮影パラメータを、撮影時の天候及び撮影機材に応じて適切に調整して、ひび割れが確認できる画像を撮影しなければならない。しかし、細いひび割れ等、不鮮明な変状を確認するための画像を撮影する撮影パラメータ調整は難しく、微妙な撮影パラメータの違いにより、変状が確認できたり、できなかったりする。
撮影パラメータを調整する方法の従来例として、例えば、特許文献1の方法がある。特許文献1では、まず、複数の異なる撮影パラメータで複数の画像を撮影し、撮影した複数の画像をディスプレイに表示する。ユーザーは、複数の画像の中から、最も好ましいと判断する画像を選択する。この結果、選択された画像を撮影した撮影パラメータが設定される。
When inspecting concrete walls of structures such as bridges, dams, and tunnels, survey engineers approach the concrete walls and visually check for cracks and other deformations. Since such inspection work called close visual inspection is expensive, in recent years image inspections have been carried out to check for deformations using images taken of concrete walls.
Here, in order to capture an image in which difficult-to-see cracks such as thin cracks can be confirmed, it is necessary to appropriately set shooting parameters. The user must appropriately adjust photographing parameters such as focus and exposure according to the weather and photographic equipment at the time of photographing, and photograph an image in which cracks can be confirmed. However, it is difficult to adjust the imaging parameters to take images to confirm unclear deformities such as thin cracks, and depending on subtle differences in the imaging parameters, deformations may or may not be confirmed.
An example of a conventional method for adjusting imaging parameters is the method disclosed in
しかし、構造物点検のための撮影では、微妙な撮影パラメータ調整が必要となるため、特許文献1の方法を適用すると、画像間の変化が小さな複数画像を表示することになる。ユーザーにとって、このような変化が小さな画像を比較して、最適な画像を選択することは難しい。更に、点検画像は屋外で撮影するため、外光の影響、及び利用可能なディスプレイサイズの問題で、画像の微妙な差を判断することが難しい。
However, since photographing for inspecting a structure requires delicate adjustment of photographing parameters, applying the method of
本発明は、所定の撮影パラメータで撮影対象を撮影した撮影画像を取得する第1の取得手段と、前記撮影画像の画像情報に関する検索条件に基づいて、複数の基準画像を取得する第2の取得手段と、前記第1の取得手段によって取得された前記撮影画像と、前記第2の取得手段によって取得された前記基準画像と、に基づいて、前記基準画像ごとに第1の評価値を推定する推定手段と、を有し、前記推定手段は、推定された複数の前記第1の評価値に基づいて、前記撮影対象の撮影に適した撮影方法を、第1の評価値と、当該第1の評価値よりも大きな評価値に対応する撮影手段の撮影パラメータとの関係の学習結果に基づくモデルを用いて推定する。 The present invention includes a first acquisition means that acquires a photographed image of a photographed object with predetermined photographing parameters, and a second acquisition means that acquires a plurality of reference images based on a search condition regarding image information of the photographed image. Estimating a first evaluation value for each of the reference images based on an acquisition means, the photographed image acquired by the first acquisition means , and the reference image acquired by the second acquisition means. and an estimating means for estimating a photographing method suitable for photographing the photographing target based on the plurality of estimated first evaluation values, the first evaluation value, and the first evaluation value. Estimation is performed using a model based on the learning result of the relationship between the imaging means and the imaging parameter corresponding to the evaluation value larger than the evaluation value of 1 .
本発明によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。 According to the present invention, it becomes possible to easily set photographing parameters for photographing a desired image even if the details of the photographed image cannot be confirmed.
以下、本発明の実施形態について図面に基づいて説明する。 Embodiments of the present invention will be described below based on the drawings.
<実施形態1>
実施形態1では、インフラ構造物の画像点検のための撮影における撮影パラメータ調整を例にして、説明を行う。インフラ構造物は、例えば、橋梁、ダム、トンネル等であり、画像点検では、これらの構造物のコンクリート壁面を撮影して、点検のための画像を作成する。したがって、本実施形態では、これらのコンクリート壁面が撮影対象となる。画像点検の対象は、他の構造物、コンクリート以外の材質表面を撮影対象とした画像であってもよい。例えば、点検対象が道路の場合、アスファルト表面を撮影対象としてもよい。
本実施形態では、理想的な画質の画像である基準画像を準備し、撮影対象を撮影した画像が基準画像と類似するように撮影方法を調整する。基準画像は、過去に撮影したコンクリート壁面画像のうち、細いひび割れ等の撮影が困難な点検対象が、明瞭に確認できる画像である。つまり、基準画像は、フォーカス、明るさ、色合い等が点検画像として好ましい品質で撮影された画像である。また、本実施形態で調整する主な撮影方法は、撮影部の撮影パラメータで、例えば、露出、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、等である。以下、基準画像を利用した撮影方法の調整方法について説明する。
<
In this embodiment, a reference image, which is an image of ideal image quality, is prepared, and the imaging method is adjusted so that the image of the object to be photographed resembles the reference image. The reference image is an image from among concrete wall images taken in the past, in which inspection targets that are difficult to photograph, such as thin cracks, can be clearly confirmed. In other words, the reference image is an image captured with focus, brightness, hue, etc. of quality preferable as an inspection image. Further, the main photographing methods adjusted in this embodiment are photographing parameters of the photographing unit, such as exposure, focus, white balance (color temperature), shutter speed, aperture, and the like. A method of adjusting the photographing method using the reference image will be described below.
図1は、情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は後述する図2の撮影部101と一体化して、カメラの筐体内に含まれる構成としてもよいし、撮影部101で撮影した画像を無線、又は有線により送信し、撮影部101を含むカメラとは異なる筐体(例えば、コンピュータ、又はタブレット)で構成してもよい。図1の例では、情報処理装置100は、ハードウェア構成として、CPU10、記憶部11、操作部12、通信部13を含む。CPU10は、情報処理装置100の全体を制御する。CPU10が記憶部11に記憶されたプログラムに基づき処理を実行することによって、後述する図2、図10の102、104、105で示される構成、及び後述する図4のフローチャートの処理が実現される。記憶部11は、プログラム、CPU10がプログラムに基づき処理を実行する際に用いるデータ、画像等を記憶する。操作部12は、CPU10の処理の結果を表示したり、ユーザーの操作をCPU10に入力したりする。操作部12は、カメラ背面のディスプレイ及びタッチパネル、又はノートPCのディスプレイ及びインターフェースで構成することができる。通信部13は、情報処理装置100をネットワークに接続し、他の装置等との通信を制御する。
FIG. 1 is a diagram illustrating an example of the hardware configuration of the
図2は、実施形態1の情報処理装置100の構成の一例を示す図である。情報処理装置100は、構成として、撮影部101、基準画像処理部102、画像格納部103、推定部104、撮影パラメータ設定部105を含む。但し、上述したように、撮像部は、情報処理装置100に含まれてもよいし、含まれなくてもよい。基準画像処理部102、推定部104、撮影パラメータ設定部105は、ソフトウェアである。また、画像格納部103は、記憶部11に設けられてもよいし、情報処理装置100と通信可能なストレージサーバに設けられてもよい。画像格納部103がストレージサーバに設けられる場合、基準画像処理部102は、ネットワークを介して画像格納部103に保存された画像、及び画像に関連した情報を取得する。画像格納部103は、基準画像の候補となる画像群を格納するストレージである。
FIG. 2 is a diagram illustrating an example of the configuration of the
図3は、画像格納部103に格納される情報を説明する図である。まず、画像格納部103には、複数の画像(図3では、画像201、202)が格納されている。以下、画像格納部103に格納された画像201、202を格納画像と呼ぶ。格納画像は、様々な構造物のコンクリート壁面を撮影した画像から、画像点検に好ましい画質で撮影されている画像を収集して準備された画像である。画像点検に好ましい画質は、人間が画像を確認したときに、ひび割れ等の変状が確認しやすい画質であり、例えば、フォーカス、明るさ、色合い等が好ましい画像である。例えば、格納画像201は、ひび割れ211が明瞭に確認できる画像である。また、格納画像はひび割れが写っていることに限定されない。格納画像202ではコンクリート壁面の目地212が写っている画像である。この格納画像202は、目地212のエッジが明瞭に写っていることから、点検に好ましい画質の画像と判断されたものである。
FIG. 3 is a diagram illustrating information stored in the
また、撮影画像に対して、ひび割れを自動検知する技術を用いて、撮影画像を点検する場合、自動検知が好適に動作する画質を、画像点検に好ましい画質としてもよい。この場合、自動検知の検知結果の正解率等を算出し、これが高くなる画質の画像を格納画像とする。
図3の画像格納部103には、格納画像に画像情報と撮影パラメータとが関連付けられて記録されている。画像情報は、格納画像の撮影内容に関する情報で、例えば、対象物の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所・地域、経過年数、等の情報が含まれる。また、撮影パラメータは、それぞれの基準画像を撮影したときの撮影パラメータである。
Furthermore, when a captured image is inspected using a technique for automatically detecting cracks, the image quality at which the automatic detection operates preferably may be set as the image quality preferable for image inspection. In this case, the accuracy rate of the detection result of the automatic detection is calculated, and an image with a higher quality is set as a stored image.
In the
図4は、情報処理の一例を示すフローチャートである。以下、フローチャートに従って、情報処理装置100の動作について説明する。
S301及びS302は、基準画像処理部102が実行する処理である。実施形態1の基準画像処理部102は、画像格納部103に格納された格納画像から基準画像を選択する処理を実行する。図5には、S301及びS302の実行時に、操作部12に表示される情報を示している。
S301において、基準画像処理部102は、検索条件に基づいて、画像格納部103から基準画像候補を検索する。基準画像候補の検索方法としては、画像情報を用いた方法がある。図3に示したように、画像格納部103に格納された画像には、画像情報が関連付けられている。基準画像処理部102は、この情報を基に、撮影対象に類似する格納画像を検索することができる。図5には、操作部12で格納画像を検索する画面の例を示している。例えば、撮影対象が橋梁の床版で、撮影時の天候が曇りであったとする。ユーザーは、このような撮影対象、又は撮影状況に関わる条件を画像検索条件に設定する。そして、検索ボタン410を選択することで、画像格納部103から検索条件に該当する格納画像を検索することができる。検索結果は、基準画像候補として基準画像候補表示欄420に表示される。基準画像候補は、検索条件と画像情報とが一致した格納画像だけを基準画像候補としてもよいし、項目の一致度が高い格納画像を所定数選択して基準画像候補としてもよい。また、図5の例では、検索のための画像情報は、構造物種類、コンクリート種類、天候のみを表示しているが、画像検索のための条件はこれらに限定する物ではない。更にまた、図5では、検索の方法としてプルダウンメニューで検索内容を設定する方法を示しているが、ユーザーが検索のための画像情報を入力する方法もこれに限定されない。例えば、自由な文字列をキーワードとして入力することにより、格納画像を検索することができる操作方法でもよい。
FIG. 4 is a flowchart showing an example of information processing. Hereinafter, the operation of the
S301 and S302 are processes executed by the reference
In S301, the reference
また、別の基準画像候補の検索方法として、仮撮影画像を用いる方法もある。この場合、まず、ユーザーは撮影部101で撮影対象を撮影する。この撮影は仮撮影で、このときの撮影パラメータは、オート設定等を用いる。この仮撮影で撮影した画像を仮撮影画像とする。ユーザーは、仮撮影画像を基準画像候補選択の検索キーとして設定する。図5には、基準画像候補選択の検索条件として、仮撮影画像450が設定されていることを示す。この状態で、検索ボタン410を選択することにより、画像格納部103から、仮撮影画像に類似した画像が検索される。検索の結果、類似度が高い上位の格納画像が、基準画像候補として選定され、基準画像候補表示欄420に表示される。ここで、仮撮影画像を用いた検索では、例えば、画像全体の特徴(コンクリート壁面の色味、又はテクスチャ感)を基に、格納画像との類似度を算出し、基準画像候補を選択する。これにより、これから点検のための撮影を行う撮影対象のコンクリート壁面が類似した格納画像を検索することができるようになる。また、上述の画像情報(キーワード)による検索と、仮撮影画像による検索とを同時に用いて基準画像候補を検索するようにしてもよい。
以上のようにして、基準画像候補が選択され、基準画像候補表示欄420に表示される。
Furthermore, as another method of searching for reference image candidates, there is also a method of using temporarily captured images. In this case, the user first photographs an object to be photographed using the photographing
As described above, a reference image candidate is selected and displayed in the reference image
図4のS302において、基準画像処理部102は、基準画像候補表示欄420に表示された基準画像候補の中から1枚の画像を基準画像として選択する。まず、基準画像選択の初期値として、自動的に検索の一致度合いが最も高い基準画像候補が基準画像として選択される。図5には、このようにして選択された基準画像430が、基準画像表示欄に表示されている様子を示している。ユーザーは、このようにして表示された基準画像を確認することで、撮影方法調整の基準を確認することができる。選択された基準画像430が、調整の基準として不適であるとユーザーが判断する場合、ユーザーは基準画像候補から別の画像を基準画像として選択することができる。基準画像候補から別の画像が選択された場合、基準画像処理部102は、選択された画像を基準画像とする。
なお、図5の画像には、ひび割れ(例えば440、441)が写っている。後述するように、ひび割れ部分の画像を用いて評価値を算出する場合には、基準画像にひび割れが含まれている必要がある。また、仮撮影画像450にひび割れ440を含む画像を設定することで、基準画像候補の検索において、撮影対象のひび割れと類似のひび割れを含む格納画像を検索できるようにしてもよい。
In S302 of FIG. 4, the reference
Note that the image in FIG. 5 shows cracks (for example, 440 and 441). As will be described later, when calculating an evaluation value using an image of a cracked portion, the crack must be included in the reference image. Further, by setting an image including the
S303において、撮影パラメータ設定部105は、撮影パラメータの初期値(以下、初期撮影パラメータ)を決定する。初期撮影パラメータの設定は、撮影装置の通常の撮影パラメータ調整方法(オートパラメータ調整)で決定した撮影パラメータを初期パラメータとして設定すればよい。また、別の方法として、基準画像に関連付けられた撮影パラメータを初期パラメータとしてもよい。図3で示したように、画像格納部103では、各格納画像について、その画像を撮影したときの撮影パラメータを記録している。したがって、基準画像に関連付けられた撮影パラメータを初期パラメータとする場合には、基準画像処理部102は、基準画像として選択された画像に関連付けられた撮影パラメータを画像格納部103から呼び出して、初期パラメータとして設定する。
In S303, the imaging
S304において、撮影パラメータ設定部105は、初期撮影パラメータを基に、複数の撮影パラメータを設定する。図6には、初期撮影パラメータを基に、複数の撮影パラメータを設定する様子を示している。まず、図6(A)は、本実施形態の方法で調整する撮影パラメータの例として、露出(EV)を調整する実施形態について説明する図である。図6(A)では、初期パラメータとしてEV0が設定されている様子を白三角501で示している。撮影パラメータ設定部105は、この初期パラメータを中心に、複数の撮影パラメータを設定する。図6(A)では、撮影パラメータ設定部105は、EV0を中心にそれぞれ露出を1段変化させて、EV-1(図6の黒三角502)とEV+1(図6の黒三角503)を複数パラメータとして設定している。この例では、初期撮影パラメータと合わせて3つの撮影パラメータを設定している様子を示しているが、設定する撮影パラメータの数はこれに限らない。例えば、撮影パラメータ設定部105は、更に2段異なる露出を設定して、合計5つの撮影パラメータを設定するようにしてもよい。また、この例では、露出を1段変更するルールにより、複数の撮影パラメータを設定しているが、撮影パラメータの変更の刻みは、これ以外の設定方法としてもよい。例えば、撮影パラメータ設定部105は、露出を1/2段刻みで設定するようにしてもよいし、初期撮影パラメータ周辺でランダムに設定するようにしてもよい。
In S304, the imaging
以上では、撮影パラメータを露出とした場合についての実施形態を説明したが、本実施形態で設定する撮影パラメータは露出に限定されない。撮影部101を制御するパラメータであれば、撮影パラメータはどのようなものを用いてもよく、例えば、フォーカス、ホワイトバランス(色温度)、シャッタースピード、絞り、ISO感度、画像の彩度、色合い等を撮影パラメータとしてもよい。
また、図6(A)では、露出のみを本実施形態で調整する撮影パラメータとする実施形態について説明したが、複数の撮影パラメータを同時に調整するようにしてもよい。例えば、図6(B)は、露出とフォーカスとの組み合わせを調整する撮影パラメータとした場合の実施形態について説明する図である。図6(B)では、ある露出とフォーカスとのパラメータの組み合わせが初期パラメータとして設定されており、白丸511として示されている。撮影パラメータ設定部105は、この初期パラメータを中心に、例えば黒丸512のような撮影パラメータの組み合わせを、複数の撮影パラメータとして設定してもよい。
In the above, an embodiment has been described in which exposure is used as a photographing parameter, but the photographing parameter set in this embodiment is not limited to exposure. Any shooting parameters may be used as long as they control the
Further, in FIG. 6A, an embodiment has been described in which only exposure is the shooting parameter to be adjusted in this embodiment, but a plurality of shooting parameters may be adjusted simultaneously. For example, FIG. 6(B) is a diagram illustrating an embodiment in which a combination of exposure and focus is used as a shooting parameter to be adjusted. In FIG. 6B, a certain combination of exposure and focus parameters is set as an initial parameter, and is shown as a
なお、調整する対象となる撮影パラメータの組み合わせは、図6(B)の露出とフォーカスとの組み合わせに限らず、他の撮影パラメータの組み合わせでもよい。また、上記の説明では、2つのパラメータの組み合わせを調整する実施形態について説明したが、撮影パラメータの組み合わせ数もこれに限らず、3つ以上の撮影パラメータの組み合わせを同時に調整するようにしてもよい。
S304では、以上のようにして、撮影パラメータ設定部105で複数の撮影パラメータを設定する。以降の処理の説明については、調整する撮影パラメータを、図6(A)のように露出とした場合について説明する。
Note that the combination of shooting parameters to be adjusted is not limited to the combination of exposure and focus shown in FIG. 6(B), but may be a combination of other shooting parameters. Further, in the above description, an embodiment in which a combination of two parameters is adjusted has been described, but the number of combinations of imaging parameters is not limited to this, and combinations of three or more imaging parameters may be adjusted simultaneously. .
In S304, a plurality of imaging parameters are set in the imaging
図4のS305において、撮影部101は、S304で設定された複数の撮影パラメータを用いて、撮影対象を撮影する。より具体的には、図6(A)のように複数の撮影パラメータとして3つの露出が設定された場合には、撮影部101は、ユーザーのシャッター操作に応じて露出を変更しながら3枚の画像を自動的に撮影する。以下、このステップで撮影された画像を撮影画像と呼ぶ。
In S305 of FIG. 4, the photographing
図4のS306以降の処理は主に推定部104で実行する処理で、最適な撮影パラメータを選択する処理、又は、最適な撮影パラメータを更に探索するための処理である。
S306において、推定部104は、複数の撮影パラメータそれぞれについて評価値を算出する。評価値は、撮影パラメータが点検画像を撮影するために適切であるほど高い値を示すものである。推定部104は、この評価値を、各撮影パラメータで撮影した撮影画像と基準画像とを比較することで算出する。より具体的には、撮影画像が基準画像と類似する場合、その撮影画像を撮影した撮影パラメータは好ましいパラメータであると判断することができる。したがって、このような場合には、推定部104は、高い評価値を算出するようにする。この評価値算出のためには、撮影画像と基準画像との類似度を算出すればよい。以下では、評価値の算出方法の具体例について説明する。
The processes after S306 in FIG. 4 are mainly executed by the
In S306, the
撮影画像と基準画像との評価値算出方法の一つの例として、まず、画像全体の類似度を算出して評価値として用いる方法について説明する。例えば、画像全体の類似度を、画像全体の明るさで比較する場合は、撮影画像と基準画像とをグレースケール変換した後に、画像全体の輝度ヒストグラムを作成し、撮影画像の輝度ヒストグラムと基準画像の輝度ヒストグラムとの類似度を算出すればよい。ヒストグラムの類似度は、単純にユークリッド距離を算出する方法、又はHistogram Intersectio等の手法で計算することができる。また、画像全体の色あいの類似度を算出する場合には、グレースケール変換を行わずに、RGB、又はYCrCb等の色空間を基にそれぞれの画像の色ヒストグラムを作成し、色ヒストグラムの類似度を算出するようにすればよい。画像全体の類似度を判定するための特徴量は、これらのヒストグラム特徴量に限定することなく、他の特徴量を用いてもよい。 As an example of a method for calculating an evaluation value between a photographed image and a reference image, a method of calculating the similarity of the entire image and using it as an evaluation value will be described first. For example, if you want to compare the similarity of the entire image by the brightness of the entire image, after converting the captured image and the reference image to grayscale, create a luminance histogram of the entire image, and then compare the luminance histogram of the captured image and the reference image. What is necessary is to calculate the degree of similarity with the brightness histogram of . The degree of similarity between histograms can be calculated by simply calculating Euclidean distance, or by a method such as Histogram Intersection. In addition, when calculating the similarity in color tone of the entire image, create a color histogram for each image based on a color space such as RGB or YCrCb without performing gray scale conversion, and calculate the similarity of the color histogram. All you have to do is calculate. The feature amounts for determining the similarity of the entire image are not limited to these histogram feature amounts, and other feature amounts may be used.
また、他の評価値算出方法の例として、画像の部分的な類似度を算出するようにしてもよい。例えば、コンクリート壁面の点検画像を撮影したい場合に、興味がある部分は画像中のコンクリート壁面が写っている部分である。したがって、撮影画像及び基準画像にコンクリート壁面以外の部分が写っている場合には、その部分を除いたコンクリート壁面の部分の画像を基に類似度を算出するようにしてもよい。より具体的には、例えば、橋梁の床版を橋梁の下側から撮影するときに、撮影画像に空領域(背景部分)が含まれることがある。このような撮影画像では、推定部104は、空領域を除去し、床版のコンクリート壁面の画像部分と、基準画像との類似度を算出することにより評価値を算出する。この類似度の算出では、撮影画像の部分画像と基準画像全体それぞれについて上述のヒストグラム特徴量を作成し、ヒストグラム特徴量間の類似度を算出すればよい。この例は、基準画像は画像全体がコンクリート壁面画像である前提で、撮影画像側の部分画像と基準画像との類似度を算出する例である。しかし、基準画像の一部に背景と見なせる部分が含まれている場合には、基準画像の部分画像と撮影画像との類似度を算出するようにしてもよい。
Further, as another example of an evaluation value calculation method, partial similarity of images may be calculated. For example, when you want to take an inspection image of a concrete wall, the part of the image that is of interest is the part of the image that shows the concrete wall. Therefore, if a portion other than the concrete wall surface is captured in the photographed image and the reference image, the degree of similarity may be calculated based on the image of the portion of the concrete wall surface excluding that portion. More specifically, for example, when a bridge deck is photographed from below the bridge, a sky area (background portion) may be included in the photographed image. In such a photographed image, the
また、更に、画像の部分的な類似度を算出する別の方法を説明する。画像点検のためのコンクリート壁面画像の撮影では、細いひび割れが撮影画像で確認できる画質で撮影を行うことが重要である。基準画像は、細いひび割れが十分に確認できる理想的な点検画像であるとすると、撮影画像の細いひび割れ部分が基準画像の細いひび割れ部分と同様に撮影されることが好ましい。ひび割れ部分が同様に撮影されているかを判定するために、推定部104は、画像中のひび割れ部分の部分画像を用いて評価値を算出する。ひび割れ部分の画像の評価値算出方法には、どのような方法を用いてもよいが、以下の例では、ひび割れ部分のエッジ強度が類似するほど高い評価値を算出するようにする。このために、まず、推定部104は、撮影画像と基準画像とのひび割れ部分を特定する。このひび割れ部分の特定方法は、自動で実行されるものでもよいし、ユーザーが手動で実施するものでもよい。自動的にひび割れを検知する場合には、推定部104は、ひび割れ自動検知の処理を用いるものとする。手動でひび割れ位置を特定する場合には、推定部104は、操作部12を介したユーザーによる画像中のひび割れ位置の入力を受け取る。撮影画像に対しては、これらの処理により撮影後にひび割れ位置を特定する必要があるが、基準画像のひび割れ位置は、予め特定しておいて、画像格納部103に格納画像と関連付けて記録しておいてもよい。以上のようにして、撮影画像と基準画像とのひび割れ位置が得られていれば、推定部104は、それぞれのひび割れ位置の画像のエッジ強度を算出する。エッジ強度は、単純にひび割れ位置の輝度値としてもよいし、Sobleフィルタ等でひび割れ位置の勾配を算出し、その勾配強度をエッジ強度としてもよい。これらのエッジ強度は画素単位で求められるため、撮影画像と基準画像とのエッジ強度の類似度を算出するためには、画像全体のエッジ強度特徴量を作成する必要がある。このためには、例えば、推定部104は、ひび割れ位置のエッジ強度をそれぞれの画像でヒストグラム化したヒストグラム特徴量を作成する等すればよい。推定部104は、撮影画像と基準画像とのエッジ強度ヒストグラム特徴量の類似度を算出し、類似度が高いほど撮影画像と基準画像との評価値が高くなるようにする。
Furthermore, another method of calculating the partial similarity of images will be explained. When taking images of concrete walls for image inspection, it is important to take the images at a quality that allows thin cracks to be seen in the images. Assuming that the reference image is an ideal inspection image in which thin cracks can be sufficiently confirmed, it is preferable that the thin crack portion in the photographed image is photographed in the same manner as the thin crack portion in the reference image. In order to determine whether the cracked portion is similarly photographed, the
なお、以上のように、ひび割れ部分のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にひび割れが含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、ひび割れが存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301~S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、ひび割れが含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。
以上では、ひび割れ位置のエッジ強度を基に、撮影画像と基準画像との評価値を算出したが、撮影対象のコンクリート壁面に、常にひび割れが存在するとは限らない。したがって、推定部104は、例えば、コンクリートの目地、又は型枠跡等、コンクリートの構造上、確実に出現する画像エッジ部分のエッジ強度に基づいて評価値を算出するようにしてもよい。この場合、撮影画像及び基準画像に含まれるコンクリート目地、型枠跡の部分のエッジ強度を利用すること以外は、上述のひび割れ部分のエッジを用いた評価値算出方法と同様の手法で評価値を算出することができる。
Note that, as described above, in order to calculate the evaluation value based on the edge strength of the cracked portion, it is a prerequisite that the crack is included in both the photographed image and the reference image. Regarding the photographed image, the user can obtain a photographed image including the crack by photographing the part where the crack exists from the concrete wall surface to be photographed. On the other hand, regarding the reference image, in the reference image selection process of S301 and S302, the user searches and selects an image containing cracks from among the stored images stored in the
In the above, evaluation values between the photographed image and the reference image were calculated based on the edge strength of the crack position, but cracks do not always exist on the concrete wall surface to be photographed. Therefore, the estimating
なお、以上のように、コンクリート目地のエッジ強度に基づいて評価値を算出するためには、撮影画像と基準画像との両方にコンクリート目地が含まれていることが前提となる。撮影画像については、ユーザーが撮影対象のコンクリート壁面から、コンクリート目地が存在する部分を撮影することで、ひび割れを含む撮影画像を取得することができる。一方、基準画像については、S301~S302の基準画像の選択の工程において、画像格納部103に格納された格納画像の中から、コンクリート目地が含まれる画像が基準画像となるように、ユーザーが検索及び選択する等して設定する。
Note that, as described above, in order to calculate the evaluation value based on the edge strength of the concrete joint, it is a prerequisite that the concrete joint is included in both the photographed image and the reference image. Regarding the photographed image, the user can obtain a photographed image including cracks by photographing the part where concrete joints are present from the concrete wall surface to be photographed. On the other hand, regarding the reference image, in the reference image selection process of S301 and S302, the user searches for an image containing concrete joints from among the stored images stored in the
また、ひび割れ位置のエッジ強度を用いた評価値算出の変形として、推定部104は、ひび割れ幅の情報を用いて、撮影画像と基準画像とのエッジ強度の評価値を算出するようにしてもよい。この方法では、推定部104は、撮影画像と基準画像とで同じ太さの幅のひび割れのエッジ強度が類似するほど、高い評価値を算出するようにする。図7には、ひび割れ幅の情報を用いて、ひび割れ位置の部分画像に基づいた評価値の算出方法を説明する図を示す。まず、図7(A)は、ある撮影パラメータで撮影した撮影画像620の例で、コンクリート壁面のひび割れ600が写った画像であるとする。ひび割れ600は、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。図7(A)では、このひび割れ600について、局所的なひび割れ幅が計測できているものとする。例えば、図7(A)には、0.15mm、0.50mm等のひび割れ幅が明らかな箇所が示されている。これらのひび割れ幅は、ユーザーが実際のコンクリート壁面のひび割れ幅を計測し、操作部12を介して画像を撮影中に入力するものとする。又は、ユーザーが撮影画像を確認して、ひび割れ幅を推定し、操作部12を介して画像を撮影中に入力してもよい。CPU10は、入力されたひび割れ幅を撮影画像と関連付けて画像格納部103に格納する。一方、図7(B)は基準画像621の例で、ひび割れ610が写ったコンクリート壁面の画像である。ひび割れ610もひび割れ600と同様に、1本のひび割れの中の部位によって、様々なひび割れ幅を持つひび割れである。ひび割れ600についても、局所的なひび割れ幅が記録されており、例えば、図7(B)には0.10mm、0.50mm等のひび割れ幅が記録されている。これらの基準画像のひび割れ幅情報は、画像格納部103に格納されており、基準画像621と共に画像格納部103から呼び出されるものとする。
Further, as a modification of the evaluation value calculation using the edge strength of the crack position, the
図7の撮影画像620と基準画像621との評価値算出では、推定部104は、同じひび割れ幅のひび割れ部分のエッジ強度を比較する。例えば、ひび割れ幅0.50mmの部分として、推定部104は、撮影画像620の部分的な画像601と、基準画像621の部分的な画像611とのエッジ強度に基づいて類似度を算出する。また、ひび割れ幅0.10mmの部分として、推定部104は、撮影画像620の部分的な画像602と、基準画像621の部分的な画像612とのエッジ強度に基づいて類似度を算出する。このように、同じひび割れ幅の画像部分の類似度に基づいて、撮影画像620と基準画像621との評価値sは、以下の式で求められる。
なお、ひび割れ部分の画像を用いて評価値を算出する場合には、撮影画像と基準画像とのコンクリート壁面の撮影解像度は、同解像度とすることが好ましい。より具体的には、撮影画像と基準画像とに写るコンクリート壁面が、例えば1.0mm/画素となる解像度になるように調整する処理を予め実施する。これは、解像度によって、同じひび割れでもエッジ強度等の見た目が変化するためである。また、画像中のコンクリート壁面が正対するように、あおり補正を予め実施することも好適な実施形態である。
In calculating the evaluation value between the photographed
In addition, when calculating an evaluation value using the image of a crack part, it is preferable that the imaging|photography resolution of the concrete wall surface of a photographed image and a reference|standard image shall be the same resolution. More specifically, processing is performed in advance to adjust the resolution of the concrete wall surface appearing in the captured image and the reference image to, for example, 1.0 mm/pixel. This is because the appearance of the same crack, such as edge strength, changes depending on the resolution. It is also a preferred embodiment to perform tilt correction in advance so that the concrete wall surface in the image faces directly.
以上では、撮影画像と基準画像とそれぞれで画像特徴量を作成し、特徴量の距離等に基づいて画像間の類似度を算出して、これを評価値とする実施形態について説明した。画像の類似度を算出する方法は、これに限らず、予め学習した学習モデルを用いて評価値を算出するようにしてもよい。この方法では、入力画像と基準画像とが類似するほど高い評価値を出力するモデルを予め学習しておく。この学習は、例えば、以下のようなデータセットDを用いて学習することができる。
以上では、撮影画像と基準画像との評価値の算出方法について様々な手法を説明した。説明した方法以外にも、画像と画像との類似度の算出方法については、従来、様々な方法が提案されている。推定部104は、これら公知の手法を用いて本実施形態の評価値を算出してもよい。
In the above, an embodiment has been described in which image feature amounts are created for each of the photographed image and the reference image, and the degree of similarity between the images is calculated based on the distance between the feature amounts, etc., and this is used as the evaluation value. The method of calculating the similarity of images is not limited to this, and the evaluation value may be calculated using a learning model learned in advance. In this method, a model is trained in advance that outputs a higher evaluation value as the input image and the reference image become more similar. This learning can be performed using, for example, the following data set D.
In the above, various methods have been described for calculating evaluation values between a photographed image and a reference image. In addition to the method described above, various methods have been conventionally proposed for calculating the similarity between images. The
また、以上では、評価値の算出方法について、複数の方法を説明したが、これらの評価値算出手法は、それぞれを単独で用いてもよいし、複数の手法を組み合わせて用いてもよい。複数の手法を組み合わせる場合には、推定部104は、例えば、以下の式により最終的な評価値sを算出する。
S306では、以上のような方法で、推定部104は、撮影画像と基準画像との評価値を算出する。また、S306では、推定部104は、複数の撮影パラメータで撮影した撮影画像それぞれについて評価値を算出する。
Moreover, although a plurality of methods have been described above regarding the evaluation value calculation method, each of these evaluation value calculation methods may be used alone, or a plurality of methods may be used in combination. When combining multiple methods, the
In S306, the
S307において、推定部104は、S306で算出した評価値を基に撮影パラメータの評価を行う。
S308において、推定部104は、評価結果に基づいて、撮影パラメータを再調整するか否かを判定する。
撮影パラメータを再調整する場合、S309において、推定部104は、影パラメータを改善する方法を推定する。そして、推定部104は、S305の複数画像の撮影の処理に戻る。
撮影パラメータを再調整しない場合、S310において、撮影パラメータ設定部105は、撮影部101に撮影パラメータを設定する。そして、図4に示すフローチャートの処理を終了する。
以下、これらの処理について説明する。
In S307, the
In S308, the
When readjusting the imaging parameters, in S309, the estimating
If the photographing parameters are not readjusted, the photographing
These processes will be explained below.
まず、S307の撮影パラメータ評価では、推定部104は、複数の撮影パラメータの評価値から最大の評価値を選択し、所定の閾値と比較する。図8(A)は、各撮影パラメータの評価について説明する図である。本実施形態では、複数の撮影パラメータとして、露出(EV)を3つ設定した。図8(A)には、複数の撮影パラメータとして、露出-1、0、+1を設定している様子を、図6(A)と同様に、三角501、502、503で表している。また、図8(A)の下部には、各撮影パラメータで撮影した撮影画像と基準画像とから得られる評価値s-1、s0、s+1を示している。図8(A)では、+1の露出503の評価値s+1が最も高い評価値となっており、かつ、所定の閾値sthを超える値を示している。所定の閾値sthを超える評価値を示す撮影パラメータが存在する場合、推定部104は、その撮影パラメータが点検画像の撮影パラメータとして適した撮影パラメータと判断する。図8(A)の場合、推定部104は、+1の露出503を最適パラメータとして選択する。そして、S308では、推定部104は、撮影パラメータの再調整は不要と判断し、撮影パラメータ設定のS310へ進む。S310では、撮影パラメータ設定部105が、撮影部101に+1の露出を設定して、図4に示す処理を終了する。
First, in the imaging parameter evaluation in S307, the
図8(B)は、図8(A)と同様に、露出-1、0、+1を複数の撮影パラメータとして設定し、評価値を算出した例であるが、図8(A)とは異なる評価値が得られている状況を示す。図8(B)において、最大の評価値を示しているのは、評価値s+1であるがs+1でも所定の閾値sthを超えていない。これらの撮影パラメータで撮影した撮影画像は、基準画像との類似度が低く、これらの撮影パラメータは点検画像の撮影パラメータとして適していない。この場合、S308では、推定部104は、撮影パラメータの再調整が必要と判断し、S309に進む。S309では、推定部104は、撮影パラメータの改善方法を推定する。
Similar to FIG. 8(A), FIG. 8(B) is an example in which exposures -1, 0, and +1 are set as multiple shooting parameters and evaluation values are calculated, but this is different from FIG. 8(A). Indicates the situation in which evaluation values are obtained. In FIG. 8(B), the evaluation value s +1 shows the maximum evaluation value, but even s +1 does not exceed the predetermined threshold value s th . Photographed images photographed using these photographic parameters have a low degree of similarity to the reference image, and these photographic parameters are not suitable as photographic parameters for inspection images. In this case, in S308, the estimating
撮影パラメータの改善方法の推定について、図8(B)を用いて説明する。図8(B)では、+1の露出の評価値s+1は閾値sth未満ではあるが、評価値s-1~s+1の中では、最大の評価値を示している。したがって、撮影パラメータの再調整では、推定部104は、この撮影パラメータ(+1の露出)の周辺の撮影パラメータから、複数の撮影パラメータを設定する。例えば、次の撮影パラメータ調整でも、3つの撮影パラメータを設定する場合、推定部104は、図8(B)のように、+1の露出503の周辺の露出721、722、723を複数パラメータとして設定する。そして、S305に戻り、これらの撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定し、再び複数画像を撮影する。そして、推定部104は、図4のS306以降の処理(評価値算出処理)を再び実行し、最適な撮影パラメータを探索する。この撮影パラメータセットの評価でも、閾値sth以上となる評価値が得られなかった場合は、推定部104は、再び、最大評価値を示す撮影パラメータ周辺で、新しい複数の撮影パラメータを決定する。そして、再度、撮影処理を実行する。このループは、閾値sthを超える評価値が得られる撮影パラメータが決定するまで繰り返し実行される。なお、最大の繰り返し回数を予め決めておき、それまでに最適な撮影パラメータ(閾値sth以上の評価値が得られる撮影パラメータ)が得られない場合は、処理を打ち切るようにしてもよい。撮影パラメータの調整処理を打ち切った場合には、推定部104は、操作部12に警告を表示してユーザーに撮影パラメータが十分に調整されなかったことを通知する。また、処理の打ち切りまでに得られた最大の評価値を算出した画像を撮影した撮影パラメータを、撮影パラメータ設定部105を介して撮影部101に設定してもよい。
Estimation of a method for improving imaging parameters will be explained using FIG. 8(B). In FIG. 8B, although the evaluation value s +1 for exposure of +1 is less than the threshold value s th , it is the largest evaluation value among the evaluation values s -1 to s +1 . Therefore, in readjusting the shooting parameters, the
以上の説明では、S307で閾値sth以上の評価値が得られない場合のみ、改善撮影パラメータの推定と、繰り返し調整と、を行う実施形態について説明した。しかし、仮に閾値sth以上の評価値を示す撮影パラメータが見つかった場合でも、更に高い評価値を示す撮影パラメータを探索するようにしてもよい。この場合、情報処理装置100は、最大評価値を示した撮影パラメータ周辺の撮影パラメータを改善撮影パラメータとして設定した上で、再び複数画像を撮影し、評価値算出処理を繰り返し実行する。この繰り返し処理の終了条件は、予め決められた繰り返し回数に到達した場合、又は最大評価値付近で撮影パラメータを変更しても評価値に変化が生じなくなった場合とする。
In the above description, an embodiment has been described in which estimation of improved imaging parameters and repeated adjustment are performed only when an evaluation value equal to or greater than the threshold value s th is not obtained in S307. However, even if a photographing parameter having an evaluation value greater than or equal to the threshold value s th is found, a photographing parameter having an even higher evaluation value may be searched. In this case, the
一方、ユーザーが撮影パラメータを確認し、撮影パラメータ調整のための繰り返し処理の終了を判断するようにしてもよい。このようにする場合、図4のS308において、推定部104は、評価値の閾値sthを用いた最適な撮影パラメータ判定は実施せずに、撮影パラメータの再調整の実行の判断をユーザー操作に基づいて判断する。このために、推定部104は、操作部12にユーザーに必要な情報を提示し、更に操作部12を介してユーザーからの入力を受け付ける。図9は、ユーザー判断により撮影パラメータ調整を行う場合の操作部12について説明する図である。以下、図9を用いて、ユーザーに提示する情報、及び、ユーザーの操作について説明する。
まず、図9の操作部12は、情報を表示するためのディスプレイである。操作部12に表示された画面中の画像801は、露出+1の撮影パラメータで撮影した撮影画像で、撮影画像802、803は他の撮影パラメータで撮影された撮影画像である。ディスプレイには、基準画像804も表示されており、ユーザーは撮影画像と基準画像とを比較して確認することができる。
また、画像801の下部には、撮影パラメータの調整のために複数設定した撮影パラメータが示されている。図9には、複数の撮影パラメータの例として、3段階の露出(EV)を黒三角で示している。このうち、最大の評価値を示した露出+1を示す黒三角811は強調表示(大きく表示)されている。また、白抜きの三角812等は、露出+1の撮影パラメータ811を基にして設定した、撮影パラメータを更に調整するときの複数の撮影パラメータ候補を示す。
On the other hand, the user may check the imaging parameters and determine whether to end the repetitive process for adjusting the imaging parameters. In this case, in S308 of FIG. 4, the estimating
First, the
Further, at the bottom of the
この実施形態では、ユーザーは操作部12に表示されたこれらの情報を確認して、現在の撮影パラメータを採択するか、更に撮影パラメータ調整の処理を実行するか、を判断する。より具体的には、ユーザーは、最大の評価値が得られた画像801で、撮影画像と基準画像とを対比して、満足する一致度合いであれば、最大の評価値を示した撮影パラメータを採択すると判断することができる。ユーザーは、最大の評価値を示す撮影パラメータを採択する場合、「set」と表示されているアイコン821を選択する。この操作により、撮影パラメータ設定部105は、最大の評価値を示す撮影パラメータを、撮影部101に設定し(図4のS310)、撮影パラメータ調整の処理が終了する。一方、画像801を確認する等して、現在の最適撮影パラメータに満足しない場合、ユーザーは「再調整」と表示されたアイコン822を選択する。この指示により、次の複数の撮影パラメータ(例えば露出812等)を用いて、図4のS306以降の処理(評価値算出処理)が再び実行される。その後、再び、情報処理装置100は、各種の情報を図9のようにユーザーに提示する。ユーザーは提示された情報を基に、再び撮影パラメータを採択するか、更に撮影パラメータを調整するかの判断を行う。
In this embodiment, the user checks the information displayed on the
もし、撮影パラメータの調整を途中で辞める場合には、「終了」と表示されたアイコン823を選択する。この操作により、情報処理装置100は、撮影パラメータを調整する処理(図4のフローチャートのループ)を終了させることができる。このとき、情報処理装置100は、それまでに撮影、評価した撮影パラメータのうち、評価値が最大となる撮影パラメータを撮影部101に設定するようにしてもよい。
なお、ユーザー操作で撮影パラメータ調整の継続を判断する場合においても、予め評価値の閾値sthを設定しておき、閾値sthを超える評価値を得た撮影パラメータが存在することを表示するようにしてもよい。例えば、図9において、撮影パラメータ811で撮影した画像の評価値s811が閾値sthを超える場合には、情報処理装置100は、撮影パラメータを示す黒三角811を点滅表示するようにしてもよい。ユーザーは、評価値に関わらず撮影パラメータを採択することができるが、このように情報処理装置100が評価値を超えた撮影パラメータの存在を表示することで、撮影パラメータ採択の判断を補助することができるようになる。
If you wish to quit adjusting the photographing parameters midway through, select the
Note that even when determining whether to continue adjusting shooting parameters through user operations, a threshold value s th for the evaluation value is set in advance, and the presence of shooting parameters with evaluation values exceeding the threshold s th is displayed. You may also do so. For example, in FIG. 9, when the evaluation value s 811 of the image shot using the
以上、実施形態1では、撮影パラメータを改善する方法を推定する実施形態について説明したが、本実施形態の方法で推定する撮影方法は、撮影パラメータに限らず、他の撮影方法を推定してもよい。撮影パラメータ以外の撮影方法を推定する実施形態では、図4の処理フローのループを複数回実行しても、所定閾値以上の評価値が得られない場合に、推定部104は、更に画像、又は撮影状況を分析して、適切な撮影方法を提案する。例えば、画像の明るさが不足していると判断される場合、又はホワイトバランスの調整が撮影パラメータでは調整不可能と判断される場合には、推定部104は、ユーザーに照明を利用して照明条件を変更すること、又は撮影時刻を変更してより明るい時刻での撮影を推薦する通知を行うようにしてもよい。また別の例としては、撮影部101の位置及び姿勢が取得できる場合、推定部104は、点検対象構造物との位置関係を分析し、撮影を改善する位置及び姿勢を提案する。より具体的には、例えば、点検対象構造物の壁面に対するあおり角度が大きな位置及び姿勢で撮影している場合、推定部104は、あおりを減少させる位置及び姿勢で撮影することをユーザーに推薦する。
As mentioned above, in
<実施形態2>
実施形態1では、画像格納部103から1枚の画像を選択し、これを基準画像とした。そして、この選択した1枚の基準画像に基づいて、撮影方法を調整する実施形態を説明した。実施形態2では、複数枚の基準画像を用いて、撮影方法を調整する実施形態について説明する。なお、以降の実施形態では、主に実施形態1と異なる部分について、説明を行う。
まず、実施形態2では、基準画像処理部102で、複数の基準画像を選択する。以下では、基準画像処理部102でM枚の基準画像を選択したとする。このM枚の基準画像は、どのような方法を用いて選択してもよいが、例えば、検索結果の上位M枚の格納画像をM枚の基準画像としてもよい。
<
In the first embodiment, one image is selected from the
First, in the second embodiment, the reference
次に、推定部104では、撮影画像とM枚の基準画像との評価値を算出する。この処理では、まず、撮影画像と各々の基準画像との評価値を算出する。例えば、推定部104は、撮影画像とm枚目の基準画像の評価値を算出し、この評価値をsmとする。撮影画像と基準画像との評価値算出方法は、実施形態1の方法と同様である。撮影画像とM枚の基準画像との評価値算出により、M個の評価値が得られたら、推定部104は、これらの平均により最終的な評価値sを算出する。
また、複数の基準画像を用いる別の形態として、複数の基準画像のうち、最も類似する1枚の基準画像との評価値に基づいて、撮影パラメータを調整する方法がある。この場合、撮影画像とM枚の基準画像との最終的な評価値sは、以下の式で求められる。
<実施形態3>
以上の実施形態では、基準画像は、撮影対象の構造物と異なる構造物で撮影した画像という想定であったが、撮影対象の構造物の過去画像を基準画像としてもよい。インフラ点検では、過去の点検結果と最新の点検結果とを比較するが、この比較のためには、過去画像と最新画像とが同等の画質で撮影されていることが好ましい。撮影対象の構造物の過去画像が存在する場合には、これを基準画像とすることで、過去画像に類似した画像を撮影できるように撮影パラメータの調整を行うことができる。
<Embodiment 3>
In the above embodiments, the reference image is assumed to be an image photographed with a structure different from the structure to be photographed, but a past image of the structure to be photographed may be used as the reference image. In infrastructure inspections, past inspection results and the latest inspection results are compared, and for this comparison, it is preferable that the past images and the latest images are captured with the same image quality. If a past image of the structure to be photographed exists, by using this as a reference image, the photographing parameters can be adjusted so that an image similar to the past image can be photographed.
過去画像を基準画像とするために、実施形態3の画像格納部103には、撮影対象の構造物の過去画像が格納されている。基準画像処理部102は、撮影対象の構造物の情報に基づいて、画像格納部103から過去画像を取得し、基準画像として設定する処理を行う。このために、実施形態3の基準画像処理部102は、画像格納部103の格納画像を、構造物の名称等の固有情報で検索できるようにしてもよい。基準画像に撮影対象の構造物の過去画像を設定した以降の処理は、実施形態1と同様の処理を実施することにより、撮影方法の調整を行うことができる。以上の構成により、過去画像と類似した撮影結果が得られるように、撮影パラメータを調整することができるようになる。
In order to use past images as reference images, the
基準画像に過去画像を設定する場合、基準画像と撮影画像との撮影範囲を一致させることが好ましい。この場合、撮影対象の構造物に対して、基準画像に設定した過去画像で撮影された範囲と同じ範囲を今回の撮影でも撮影するように、撮影位置、及び撮影範囲を調整する。この撮影位置、及び範囲の調整をサポートするために、画像格納部103に格納した過去画像には、撮影位置、及び撮影範囲の情報を関連付けて保存して置いてもよい。
基準画像(過去画像)と撮影画像の撮影範囲が一致している場合、評価値の算出方法は、過去画像と撮影画像との画素間の誤差二乗和の逆数としてもよい。現実的には、過去と現在の撮影を画素レベルで合わせることは極めて困難であるため、若干の位置ずれを許容するような類似度算出方法を用いることが好ましい。
When setting a past image as a reference image, it is preferable that the shooting ranges of the reference image and the photographed image match. In this case, with respect to the structure to be photographed, the photographing position and photographing range are adjusted so that the same range photographed in the past image set as the reference image is photographed in the current photographing. In order to support this adjustment of the photographing position and range, information on the photographing position and photographing range may be stored in association with the past images stored in the
When the photographing ranges of the reference image (past image) and the photographed image match, the evaluation value may be calculated using the reciprocal of the sum of squared errors between the pixels of the past image and the photographed image. In reality, it is extremely difficult to match past and present images at the pixel level, so it is preferable to use a similarity calculation method that allows for slight positional deviation.
また、過去画像にコンクリート壁面の変状が含まれる場合、画像中の変状部分に基づいて評価値を算出するようにしてもよい。この場合、推定部104は、過去画像の変状と同じ部分を撮影し、過去画像の変状と撮影画像の変状とが類似するほど高い評価値を算出するようにする。このようにすることで、過去画像に写った変状が撮影画像でも確認できるように、撮影パラメータを調整することができるようになる。更に、推定部104は、変状の経年変化を考慮して、過去画像と撮影画像との評価値を算出するようにしてもよい。例えば、過去画像に含まれる変状がひび割れの場合について説明する。過去の点検で記録されたひび割れは、補修作業が実施されない限り、自然に消えることはない。一方、ひび割れは、経年劣化により伸展する可能性がある。したがって、撮影画像のひび割れと過去画像のひび割れとを比較する場合には、推定部104は、撮影画像のひび割れの伸展部分の画像は、ひび割れ部分の類似度算出に使わないようにする。
Further, if the past image includes deformation of the concrete wall surface, the evaluation value may be calculated based on the deformed portion in the image. In this case, the
<実施形態4>
以上の実施形態の基準画像処理部102では、画像格納部103に格納された画像を検索して、基準画像を設定する実施形態について説明した。実施形態4では、基準画像処理部102で画像を生成し、この生成画像を基準画像とする実施形態について説明する。
近年、学習ベースの手法で、画像のノイズ除去及び超解像が発達している。例えば、非特許文献2は、オートエンコーダを用いた画像のノイズ除去技術である。この技術では、ノイズを含む画像とノイズがない画像でオートエンコーダを学習することにより、ノイズ除去モデルを学習する。このノイズ除去モデルに、ノイズ除去を行いたいノイズ画像を入力すると、出力としてノイズを除去した画像が得られる。また、非特許文献3はFully CNNによる画像の超解像技術である。この技術では、低解像度画像と高解像度画像とでFully CNNを学習することにより、超解像化モデルを学習する。この超解像化モデルに、高解像化を行いたい低解像度画像を入力すると、出力として高解像度画像が得られる。これらの技術は、学習により、画像の変換モデルを獲得する技術である。実施形態4では、これらの技術を用いて、仮撮影画像から基準画像を生成する。なお、ノイズ除去と超解像との技術を例にしたが、実施形態4で用いる技術は、画像変換を行うことができれば、どのような手法を用いてもよく、非特許文献2及び非特許文献3の技術に限定するものではない。
<Embodiment 4>
In the above embodiment, the reference
In recent years, learning-based methods have been developed for image denoising and super-resolution. For example,
図10は、実施形態4の情報処理装置100の構成の一例を示す図である。実施形態4の情報処理装置100は、図2(実施形態1)と異なり、画像格納部103の代わりにモデル格納部106を備える構成となっている。モデル格納部106には、基準画像を生成するためのモデルが格納されている。以下、このモデルを基準画像生成モデルと呼ぶ。基準画像生成モデルは、非特許文献2、又は非特許文献3のような技術を用いて、画像の変換方法を学習により獲得するものである。基準画像生成モデルは、例えば、以下の学習データセットDを用いて学習する。
学習した基準画像生成モデルFに、撮影パラメータを調整していない画像を入力すると、好ましい撮影パラメータで撮影した画像(生成画像)が出力される。但し、生成画像は、基準画像生成モデルFにより生成された偽物の画像であるため、そのまま点検画像等に利用するにはリスクがある。基準画像生成モデルの性能にも依存するが、例えば、生成画像には、画像生成処理に伴う細かいアーチファクトを含む可能性等がある。したがって、本実施形態では、生成画像そのものを撮影結果として利用するのではなく、撮影パラメータ調整の基準として用いることにする。
モデル格納部106には、以上のようにして学習した基準画像生成モデルFが格納されている。なお、画像生成モデルの学習方法として、近年、非特許文献4のような、GAN(Generative adversarial nets)と呼ばれる手法が発展している。基準画像生成モデルFの学習に、この手法を用いるようにしてもよい。
When an image whose photographing parameters have not been adjusted is input to the learned reference image generation model F, an image photographed with preferable photographing parameters (generated image) is output. However, since the generated image is a fake image generated by the reference image generation model F, there is a risk in using it as it is as an inspection image or the like. Although it depends on the performance of the reference image generation model, for example, there is a possibility that the generated image includes fine artifacts accompanying image generation processing. Therefore, in this embodiment, the generated image itself is not used as a photographing result, but is used as a reference for adjusting photographing parameters.
The
次に、この画像生成モデルFを用いた基準画像作成の処理について説明する。まず、ユーザーは撮影部101で撮影対象を仮撮影する。この仮撮影の撮影パラメータは、オート設定等を用いるもので、仮撮影画像は撮影対象を撮影する上で、撮影パラメータ調整が不十分な画像であるとする。基準画像処理部102では、仮撮影画像をモデル格納部106から読み出した画像生成モデルFに入力することで生成画像を作成し、この生成画像を撮影パラメータ調整の基準画像として設定する。
以上では、仮撮影画像を用いて生成画像を作成したが、撮影対象の情報も用いて生成画像を作成するようにしてもよい。例えば、1つの方法として、まず、基準画像生成モデルFを撮影対象の構造物種類ごと、又はコンクリート種類ごと等、条件別に学習しておく。モデル格納部106には、複数の基準画像生成モデルを、学習条件の情報と共に格納しておく。基準画像を作成する工程では、ユーザーが、撮影対象の条件(例えば、撮影対象の構造物種類)を指定することで、条件に一致する基準画像生成モデルをモデル格納部106から呼び出して、画像生成に用いる。以上のようにすることで、撮影対象に適した基準画像生成モデルを用いて、生成画像を作成することができるようになる。
Next, the process of creating a reference image using this image generation model F will be explained. First, a user temporarily photographs an object to be photographed using the photographing
In the above, the generated image is created using the temporary photographed image, but the generated image may also be created using information about the photographic target. For example, as one method, first, the reference image generation model F is learned for each condition, such as for each type of structure to be photographed or for each type of concrete. The
次に、撮影対象の情報を用いて生成画像を作成する別の実施形態について説明する。この実施形態では、モデル格納部106に加え、実施形態1のように、画像格納部103を備える。画像格納部103は、実施形態1と同様に、撮影対象の理想的な撮影結果画像が格納されている。ユーザーは、画像格納部103から、撮影対象の条件と類似する画像を選択する。この画像格納部103から画像を選択する操作は、実施形態1の基準画像選択と同様に、撮影対象の情報を基に画像格納部103を検索することで実施できる。本実施形態では、画像格納部103から選択した画像をスタイル画像と呼ぶ。そして、例えば、非特許文献5のような技術を用いて、仮撮影画像の見た目をスタイル画像に類似した画像に変換する。非特許文献5は、元画像とスタイル画像とを入力すると、元画像の見た目をスタイル画像のスタイルに類似した画像に変換する技術で、例えば、画像の画風を変換することができる技術である。本実施形態では、非特許文献5の元画像に、仮撮影画像を設定することにより、仮撮影画像の見た目をスタイル画像に似せて、理想的な撮影結果画像を作成することができる。このようにして作成した画像を基準画像として利用する。この実施形態によると、撮影対象の情報を用いて画像格納部103からスタイル画像を選択することにより、撮影対象に類似した画像を生成しやすくなる。
実施形態4では、以上のようにして、基準画像処理部102で生成した生成画像を基準画像とする。以降の処理は、実施形態1と同様に行うことで、基準画像に類似した画像を撮影するための撮影パラメータを調整することができる。
Next, another embodiment will be described in which a generated image is created using information about a photographic target. In this embodiment, in addition to the
In the fourth embodiment, the generated image generated by the reference
実施形態4では、更に、複数の撮影パラメータ設定、及び複数回の撮影(図4のS304、S305)を廃止し、基準画像と1枚の撮影画像から撮影パラメータを調整する実施形態についても説明する。
まず、実施形態4では、ある初期パラメータで、撮影対象の画像を1枚撮影する。この1枚の画像に対して、基準画像との比較により評価値を算出する処理(S306)を実行する。算出した評価値が閾値以上の場合、パラメータ設定を終了する処理(図4のS307、S308、S310)を実施する。
実施形態1の複数撮影パラメータを用いた構成と異なる処理は、評価値が閾値以下であった場合に、撮影パラメータの改善方法を推定するS309である。実施形態4では、ある1つの評価値、及びそのときの撮影パラメータから、統計的な手法により改善撮影パラメータを推定する。このために実施形態4では、予め、評価値と改善撮影パラメータとの関係を学習しておく。この関係は、例えば、以下のようなデータを用いた学習することができる。
First, in the fourth embodiment, one image of the object is photographed using certain initial parameters. A process (S306) of calculating an evaluation value by comparing this one image with a reference image is executed. If the calculated evaluation value is equal to or greater than the threshold, a process for terminating the parameter setting (S307, S308, S310 in FIG. 4) is performed.
Processing that is different from the configuration using multiple imaging parameters in the first embodiment is S309 in which a method for improving the imaging parameters is estimated when the evaluation value is less than or equal to the threshold value. In the fourth embodiment, improved imaging parameters are estimated using a statistical method from a certain evaluation value and the imaging parameters at that time. For this purpose, in the fourth embodiment, the relationship between the evaluation value and the improved imaging parameter is learned in advance. This relationship can be learned using, for example, the following data.
以上では、評価値sと撮影パラメータpとを入力として、改善パラメータpdstを算出するモデルを学習する実施形態について説明したが、このモデルに撮影画像の情報を入力するようにしてもよい。撮影画像の情報は、例えば、画像全体の特徴量で、より具体的には画像全体の輝度ヒストグラム等である。撮影画像の情報は、これに限らず、画像の部分的な特徴量でもよいし、モデルに画像そのものを入力する形態でもよい。このように画像情報もモデルに入力することで、評価値と撮影パラメータとだけでなく、撮影画像に基づいて改善パラメータpdstを推定することができるようになる。
以上のようにして予め準備したモデルEを、S309の改善パラメータ推定で用いることにより、実施形態4では、1枚の画像のみから改善撮影パラメータを推定することができるようになる。
In the above, an embodiment has been described in which a model for calculating the improvement parameter p dst is learned using the evaluation value s and the photographing parameter p as input, but information on the photographed image may be input to this model. The information on the photographed image is, for example, the feature amount of the entire image, and more specifically, the brightness histogram of the entire image. The information on the photographed image is not limited to this, and may be a partial feature amount of the image, or may be in the form of inputting the image itself to the model. By inputting image information into the model in this way, it becomes possible to estimate the improvement parameter p dst based not only on the evaluation value and the photographing parameters but also on the photographed image.
By using the model E prepared in advance as described above in the improved parameter estimation in S309, in the fourth embodiment, it becomes possible to estimate the improved imaging parameters from only one image.
なお、改善撮影パラメータを求める手法として、学習したモデルを用いる構成は、実施形態1の複数の撮影パラメータで画像を撮影する方法で用いてもよい。すなわち、モデルEは、1枚の画像から撮影パラメータを推定する構成に限定されず、複数の撮影画像から撮影パラメータを推定する方法で用いてもよい。この場合、実施形態1のように複数の撮影パラメータで撮影した撮影画像と基準画像とから評価値を算出し、複数の撮影パラメータと複数の評価値とを入力して改善パラメータを求めるモデルEを学習する。このモデルMを学習するための学習データXは、撮影パラメータ調整で撮影する複数画像の枚数をM枚とすると、式(8)から以下のように書き換えられる。
<実施形態5>
実施形態4では、基準画像生成モデルを用いて、仮撮影画像から基準画像を生成する実施形態について説明した。基準画像生成モデルは、実施形態4の実施形態に限らず、格納画像から基準画像を生成するために利用する実施形態としてもよい。実施形態5では、予め画像格納部103に格納されている格納画像を変換して、基準画像を作成する実施形態について説明する。実施形態1では、画像格納部103に格納された格納画像を選択し、選択した格納画像を基準画像として設定したが、実施形態5では、選択した格納画像を撮影条件に応じて変換した上で基準画像として設定する。以下、この実施形態について説明する。
<Embodiment 5>
In the fourth embodiment, an embodiment has been described in which a reference image is generated from a temporarily captured image using a reference image generation model. The reference image generation model is not limited to the embodiment of the fourth embodiment, but may be an embodiment that is used to generate a reference image from a stored image. In the fifth embodiment, an embodiment will be described in which a reference image is created by converting a stored image stored in the
画像格納部103には、様々な撮影条件の多数の格納画像を格納しているが、全ての撮影条件に一致する画像を準備することは困難である。そのため、撮影条件に応じて、格納画像を変換、調整して新しい画像を生成し、この生成した画像を基準画像とする。例えば、撮影条件としてカメラ機種が異なる場合について説明する。まず、格納画像は、ある特定の機種のカメラ(以下、カメラA)で撮影した画像のみで構成されているとする。一方、撮影対象を撮影するときのカメラはカメラAとは異なる機種のカメラ(以下、カメラB)であるとする。ここで、カメラAとカメラBとは機種が異なるので、その撮影画像の画質は異なる。例えば、撮影画質の色合い等はカメラの機種ごとに異なるので、カメラAとカメラBとでは、同一の対象を同一の状況で撮影しても、色合い等の画質が異なる画像が得られる。
実施形態5では、このような場合に、カメラA画質の格納画像を、基準画像生成モデルを用いてカメラB画質の画像に変換した上で、基準画像として設定する。この場合の基準画像生成モデルは、例えば、カメラAの色合いをカメラBの色合いに変換する変換パラメータである。基準画像が設定された以降の処理については、実施形態1と同様の処理を行うことで、基準画像の画質に合わせるための撮影パラメータを調整することができる。
Although the
In the fifth embodiment, in such a case, a stored image of camera A quality is converted into an image of camera B quality using a reference image generation model, and then set as the reference image. The reference image generation model in this case is, for example, a conversion parameter that converts the color tone of camera A to the color tone of camera B. Regarding the processing after the reference image is set, by performing the same processing as in the first embodiment, it is possible to adjust the shooting parameters to match the image quality of the reference image.
次に、このような処理を実施するための処理について説明する。本実施形態の情報処理装置は、図2の情報処理装置100に、更にモデル格納部を備え、モデル格納部には撮影条件に応じた基準画像生成モデルが格納されている。まず、初めの処理では、実施形態1と同様に、基準画像処理部102は、撮影対象に類似する格納画像を、画像格納部から検索して取得する。実施形態5では、この検索結果の格納画像を仮基準画像とする。次の処理では、基準画像処理部102は、撮影条件に基づいて、仮基準画像を基準画像に変換するための基準画像生成モデルを準備する。上述の例では、基準画像処理部102は、撮影条件としてカメラの機種(カメラB)を設定することにより、カメラAの色合いからカメラBの色合いに変換する変換パラメータを含む基準画像生成モデルをモデル格納部から読み出す。このために、ユーザーは撮影条件の情報を、操作部12を介して入力する。又は、カメラ機種のような自動的に取得可能な撮影条件の情報は、自動的に取得され基準画像生成モデルの検索に用いるようにしてもよい。次の処理では、基準画像処理部102は、この基準画像生成モデルを用いて仮基準画像を変換し、基準画像を作成する。
Next, processing for implementing such processing will be explained. The information processing apparatus of this embodiment further includes a model storage section in addition to the
上記の例では、撮影条件をカメラ機種として、撮影条件に基づいて基準画像生成モデルを選択し、仮撮影画像を変換して基準画像を生成する実施形態について説明した。基準画像を生成するための撮影条件は、カメラ機種に限らず、他の条件としてもよい。例えば、撮影条件として天候を設定するようにしてもよい。この場合、撮影対象に類似するとして選択された格納画像(仮基準画像)が晴れの天候で撮影された画像で、撮影対象を撮影するときの天候が曇りであったとすると、晴れの画像の画質(色合い、又は明るさ)を曇りの画像の画質に変換する基準画像生成モデルがモデル格納部から選択されるようにする。撮影条件のバリエーションとしては、他にも、撮影時刻、撮影の季節等でもよい。更に、手持ち撮影、三脚撮影、又はドローン等の動体に搭載したカメラでの撮影等の条件を撮影条件の1つとしてもよい。また、このような撮影条件は、複数の条件を合わせたものであってもよい。例えば、「カメラB、曇り」という撮影条件において、「カメラA、晴れ」の仮基準画像を「カメラB、曇り」の画質に変換する画像生成モデルが選択されるようにしてもよい。 In the above example, an embodiment has been described in which a reference image generation model is selected based on the shooting conditions, and a temporarily shot image is converted to generate a reference image, using the camera model as the shooting condition. The photographing conditions for generating the reference image are not limited to the camera model, and may be other conditions. For example, the weather may be set as the shooting condition. In this case, if the stored image (temporary reference image) selected as similar to the photographic subject was an image photographed in sunny weather, and the weather when photographing the photographic subject was cloudy, the image quality of the sunny image would be A reference image generation model that converts (hue or brightness) into the image quality of a cloudy image is selected from the model store. Other variations in the photographing conditions may include photographing time, photographing season, and the like. Furthermore, conditions such as hand-held photography, tripod photography, or photography with a camera mounted on a moving object such as a drone may be one of the photography conditions. Further, such photographing conditions may be a combination of a plurality of conditions. For example, under the shooting condition "Camera B, cloudy", an image generation model may be selected that converts the temporary reference image of "Camera A, sunny" to the image quality of "Camera B, cloudy".
また、以上では画像生成モデルの例を、画像を変換するパラメータとしたが、実施形態5における画像生成モデルはこれに限らず、実施形態4で説明したような学習に基づくモデルとしてもよい。この場合、例えば、画像を変換したい撮影条件ごとに、画像生成モデルを学習しておき、撮影条件に合わせて画像生成モデルを選択して利用する。この画像生成モデルの学習は、変換前の画像群と、好ましい変換後の画像群からなるデータセットを用いることで、実施形態4の学習と同様に実施できる。
実施形態4及び実施形態5では、基準画像処理部102は、生成した基準画像を操作部12に表示して、ユーザーが基準画像を確認できるようにする。ユーザーは撮影パラメータを調整する基準として、基準画像が相応しくないと判断した場合には、別の基準画像を再び生成できるようにしてもよい。この場合、別の基準画像を生成するための基準画像生成モデルを再選択することができるように、基準画像生成モデルの候補を表示したり、再び基準画像生成モデルを検索できるようにしたりしてもよい。更に、実施形態4と実施形態5との方法を同時に利用する場合に、仮撮影画像を変換した基準画像(実施形態4の方法で作成した基準画像)を利用するか、仮基準画像を変換した基準画像(実施形態5の方法で作成した基準画像)を利用するか、ユーザーが選択できるようにしてもよい。この場合、基準画像処理部102は、操作部12に、仮撮影画像を変換した基準画像と仮基準画像を変換した基準画像とを比較可能な状態で表示し、ユーザーは撮影パラメータの調整の基準として適した基準画像を選択できるようにする。
Further, in the above example, the image generation model is a parameter for converting an image, but the image generation model in the fifth embodiment is not limited to this, and may be a model based on learning as described in the fourth embodiment. In this case, for example, an image generation model is learned for each shooting condition for which an image is to be converted, and the image generation model is selected and used in accordance with the shooting condition. Learning of this image generation model can be performed in the same manner as the learning in the fourth embodiment by using a data set consisting of a group of images before conversion and a group of images after preferable conversion.
In the fourth and fifth embodiments, the reference
<実施形態6>
以上の実施形態では、本実施形態の情報処理装置100をインフラ構造物の点検画像撮影に適用する実施形態について説明した。本実施形態の情報処理装置100は、点検画像撮影に限らず、他の撮影対象における撮影パラメータ調整にも適用することができる。実施形態6では、一般的な写真撮影における撮影パラメータ調整に、上述した処理等を適用する実施形態について説明する。
本実施形態では、一般的な写真撮影に上述した処理等を適用するために、実施形態1の画像格納部103に格納する格納画像を変更する。図11は、実施形態5において、画像格納部103に格納される情報について説明する図である。図11の画像格納部103には、図3と同様に、格納画像、画像情報、撮影パラメータが格納されている。図11の格納画像1010は海の風景写真であり、この格納画像の画像情報として、シーン:風景、天候:晴れ、詳細1:海、詳細2:夏、等の情報が記録されている。また、格納画像1011は、野球の画像で、この格納画像にも画像内容を示す画像情報が関連付けて記録されている。
<Embodiment 6>
In the above embodiment, an embodiment in which the
In this embodiment, the stored image stored in the
本実施形態でも、実施形態1と同様に、ユーザーが撮影しようとしている撮影対象の情報を基に、画像格納部103から基準画像を選択する。ユーザーは、撮影対象のシーン種類、天候、その他の情報を選択、又はキーワードを入力する。基準画像処理部102は、このユーザーの入力情報を基に画像格納部103に格納された画像情報を検索し、基準画像として適した格納画像を選択する。基準画像の選択は、実施形態1と同様に、基準画像候補をユーザーに提示して、ユーザーが最適と判断する画像を選択して基準画像を設定してもよいし、検索結果の最上位を自動的に基準画像としてもよい。また、実施形態1と同様に、仮撮影画像を撮影して、仮撮影画像を基に画像格納部103から基準画像を検索するようにしてもよい。
In this embodiment as well, as in the first embodiment, a reference image is selected from the
以上の処理により、一般的な写真撮影の場合でも、撮影画像の撮影パラメータ調整の基準である基準画像を選択することができる。基準画像の設定以降の処理は、上述の実施形態と同様に、撮影画像と基準画像との評価値を算出し、撮影パラメータ調整を実行する。
以上の一般的な写真撮影の実施形態の説明では、画像格納部103の格納画像を変更することにより、一般的な写真撮影に上述した構成等を適用する実施形態について説明した。一般的な写真撮影に上述した構成等を適用する実施形態としては、実施形態4のように、基準画像生成モデルを用いて、基準画像を生成する構成にしてもよい。
Through the above processing, even in the case of general photography, it is possible to select a reference image that is a reference for adjusting the photographing parameters of a photographed image. In the process after setting the reference image, similarly to the above-described embodiment, evaluation values of the captured image and the reference image are calculated, and imaging parameter adjustment is executed.
In the above description of the embodiment of general photography, an embodiment has been described in which the above-described configuration and the like are applied to general photography by changing the stored image in the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or device read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。 Although an example of the embodiment of the present invention has been described in detail above, the present invention is not limited to such specific embodiment.
以上、上述した各実施形態の情報処理装置100によれば、撮影画像の詳細を確認できなくても所望の画像を撮影する撮影パラメータを容易に設定することができるようになる。
As described above, according to the
10 CPU
11 記憶部
12 操作部
13 通信部
100 情報処理装置
10 CPUs
11
Claims (14)
前記撮影画像の画像情報に関する検索条件に基づいて、複数の基準画像を取得する第2の取得手段と、
前記第1の取得手段によって取得された前記撮影画像と、前記第2の取得手段によって取得された前記基準画像と、に基づいて、前記基準画像ごとに第1の評価値を推定する推定手段と、
を有し、
前記推定手段は、推定された複数の前記第1の評価値に基づいて、前記撮影対象の撮影に適した撮影方法を、第1の評価値と、当該第1の評価値よりも大きな評価値に対応する撮影手段の撮影パラメータとの関係の学習結果に基づくモデルを用いて推定する
情報処理装置。 a first acquisition means for acquiring a photographed image of a photographed subject using predetermined photographing parameters;
a second acquisition means for acquiring a plurality of reference images based on search conditions regarding image information of the photographed image;
Estimating means for estimating a first evaluation value for each of the reference images based on the captured image obtained by the first obtaining means and the reference image obtained by the second obtaining means; ,
has
The estimating means determines, based on the plurality of estimated first evaluation values, a photographing method suitable for photographing the photographing target , and a first evaluation value and an evaluation value larger than the first evaluation value. An information processing device that performs estimation using a model based on learning results of a relationship between a photographing method and a photographing parameter corresponding to the photographing method .
前記推定手段は、前記複数の基準画像と、前記撮影画像と、から第1の評価値を求める請求項1乃至7のいずれか1項に記載の情報処理装置。 The second acquisition means acquires a plurality of reference images,
The information processing apparatus according to any one of claims 1 to 7, wherein the estimating means calculates a first evaluation value from the plurality of reference images and the photographed image.
前記画像情報には、撮影対象の構造物種類、コンクリート種類、撮影時天候、画像中のターゲット、構造物の設置場所及び地域、経過年数の少なくともいずれかが含まれる請求項1又は3に記載の情報処理装置。 The photographic subject is a concrete wall of an infrastructure structure,
4. The image information includes at least one of the type of structure to be photographed, the type of concrete, the weather at the time of photographing, the target in the image, the installation location and region of the structure, and the number of years that have passed. Information processing device.
前記推定手段は、前記撮影画像と前記基準画像とに含まれる前記コンクリート壁面のひび割れ、目地、型枠のいずれかの部分画像の類似度を求めることで前記第1の評価値を求める請求項1乃至9のいずれか1項に記載の情報処理装置。 The photographic subject is a concrete wall of an infrastructure structure,
2. The estimation means determines the first evaluation value by determining the degree of similarity between partial images of any one of cracks, joints, and formwork of the concrete wall surface included in the photographed image and the reference image. 10. The information processing device according to any one of 9.
所定の撮影パラメータで撮影対象を撮影した撮影画像を取得する第1の取得工程と、
前記撮影画像の画像情報に関する検索条件に基づいて、複数の基準画像を取得する第2の取得工程と、
前記第1の取得工程において取得された前記撮影画像と、前記第2の取得工程において取得された前記基準画像と、に基づいて、前記基準画像ごとに第1の評価値を推定する推定工程と、
を含み、
前記推定工程は、推定された複数の前記第1の評価値に基づいて、前記撮影対象の撮影に適した撮影方法を、第1の評価値と、当該第1の評価値よりも大きな評価値に対応する撮影手段の撮影パラメータとの関係の学習結果に基づくモデルを用いて推定する
情報処理方法。 An information processing method executed by an information processing device, the method comprising:
a first acquisition step of acquiring a photographed image of the photographic subject with predetermined photographing parameters;
a second acquisition step of acquiring a plurality of reference images based on search conditions regarding image information of the captured image;
an estimating step of estimating a first evaluation value for each of the reference images based on the photographed image obtained in the first obtaining step and the reference image obtained in the second obtaining step; ,
including;
In the estimation step, based on the plurality of estimated first evaluation values, a photographing method suitable for photographing the photographing target is determined based on a first evaluation value and an evaluation value larger than the first evaluation value. An information processing method that estimates using a model based on the learning results of the relationship between the corresponding imaging method and the imaging parameters .
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221559A JP7387261B2 (en) | 2018-11-27 | 2018-11-27 | Information processing device, information processing method and program |
PCT/JP2019/042487 WO2020110576A1 (en) | 2018-11-27 | 2019-10-30 | Information processing device |
US17/327,892 US20210281748A1 (en) | 2018-11-27 | 2021-05-24 | Information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221559A JP7387261B2 (en) | 2018-11-27 | 2018-11-27 | Information processing device, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020088647A JP2020088647A (en) | 2020-06-04 |
JP7387261B2 true JP7387261B2 (en) | 2023-11-28 |
Family
ID=70910161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018221559A Active JP7387261B2 (en) | 2018-11-27 | 2018-11-27 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7387261B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7305509B2 (en) * | 2018-12-07 | 2023-07-10 | キヤノン株式会社 | Information processing device, its control method, program, and storage medium |
JP7485356B2 (en) | 2020-09-28 | 2024-05-16 | 株式会社Pal構造 | Crack detection method, crack detection device and program |
WO2022269891A1 (en) * | 2021-06-25 | 2022-12-29 | 三菱電機株式会社 | Image processing device, training device, image processing system, image processing method, generation method, image processing program, and generation program |
WO2024116249A1 (en) * | 2022-11-28 | 2024-06-06 | 楽天グループ株式会社 | Image processing system, image processing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006108915A (en) | 2004-10-01 | 2006-04-20 | Canon Inc | Apparatus and method for image photographing |
JP2015082830A (en) | 2013-10-24 | 2015-04-27 | 富士通株式会社 | Guide method, information processing apparatus, and guide program |
JP2015231101A (en) | 2014-06-04 | 2015-12-21 | パイオニア株式会社 | Imaging condition estimation apparatus and method, terminal device, computer program and recording medium |
-
2018
- 2018-11-27 JP JP2018221559A patent/JP7387261B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006108915A (en) | 2004-10-01 | 2006-04-20 | Canon Inc | Apparatus and method for image photographing |
JP2015082830A (en) | 2013-10-24 | 2015-04-27 | 富士通株式会社 | Guide method, information processing apparatus, and guide program |
JP2015231101A (en) | 2014-06-04 | 2015-12-21 | パイオニア株式会社 | Imaging condition estimation apparatus and method, terminal device, computer program and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020088647A (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210281748A1 (en) | Information processing apparatus | |
JP7387261B2 (en) | Information processing device, information processing method and program | |
KR101643607B1 (en) | Method and apparatus for generating of image data | |
US8331619B2 (en) | Image processing apparatus and image processing method | |
JP4772839B2 (en) | Image identification method and imaging apparatus | |
US8391595B2 (en) | Image processing method and image processing apparatus | |
US6636635B2 (en) | Object extraction method, and image sensing apparatus using the method | |
US7620218B2 (en) | Real-time face tracking with reference images | |
TWI391876B (en) | Method and system for foreground detection using multi-modality fusion graph cut and computer program product | |
JP5960513B2 (en) | Video processing apparatus and method | |
JP4309927B2 (en) | Eyelid detection device and program | |
JP2005521927A (en) | Method and apparatus for evaluating photographic quality of captured images in a digital still camera | |
JP4624947B2 (en) | Image trimming method, apparatus and program | |
US20200389573A1 (en) | Image processing system, image processing method and storage medium | |
JP7092615B2 (en) | Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program | |
JP2013025650A (en) | Image processing apparatus, image processing method, and program | |
JP2013026938A (en) | Image processing apparatus, image processing method, and program | |
JP5705711B2 (en) | Crack detection method | |
JP5864936B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013110484A (en) | Image processing device, image processing method, and recording medium | |
JP7311963B2 (en) | Information processing device, control method and program for information processing device | |
JPH11306348A (en) | Method and device for object detection | |
US20080199073A1 (en) | Red eye detection in digital images | |
JP2007048108A (en) | Image evaluation system, image evaluation method and image evaluation program | |
CN113992904A (en) | Information processing method and device, electronic equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231115 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7387261 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |