JP7050824B2 - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP7050824B2 JP7050824B2 JP2019568946A JP2019568946A JP7050824B2 JP 7050824 B2 JP7050824 B2 JP 7050824B2 JP 2019568946 A JP2019568946 A JP 2019568946A JP 2019568946 A JP2019568946 A JP 2019568946A JP 7050824 B2 JP7050824 B2 JP 7050824B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection result
- confirmation target
- images
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 120
- 238000003672 processing method Methods 0.000 title claims description 15
- 238000001514 detection method Methods 0.000 claims description 257
- 238000012790 confirmation Methods 0.000 claims description 147
- 238000012937 correction Methods 0.000 claims description 52
- 239000002131 composite material Substances 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 22
- 239000000203 mixture Substances 0.000 claims description 11
- 238000005520 cutting process Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 42
- 238000003860 storage Methods 0.000 description 17
- 239000003086 colorant Substances 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004040 coloring Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000007689 inspection Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007797 corrosion Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000011150 reinforced concrete Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/89—Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
- G01N21/892—Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N33/00—Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
- G01N33/38—Concrete; Lime; Mortar; Gypsum; Bricks; Ceramics; Glass
- G01N33/383—Concrete or cement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30132—Masonry; Concrete
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Immunology (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Analytical Chemistry (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Medicinal Chemistry (AREA)
- Ceramic Engineering (AREA)
- Food Science & Technology (AREA)
- Textile Engineering (AREA)
- Image Processing (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
図1は、建造物の一つである橋梁1を下から見た状態を示す斜視図である。図1に示す橋梁1は、主桁2と、横桁3と、対傾構4と、横構5と、床版6と、橋脚7と、による立体的構造を有し、これらの部材がボルト、リベット、溶接等により連結されて構成されている。主桁2等の上部には、車輌等が走行するための床版6が打設されている。床版6は、鉄筋コンクリート製のものが一般的である。主桁2は橋脚7の間に渡されて床版6上の車輌等の荷重を支える部材であり、また床版6の面(水平面)と直交する面(鉛直方向の面)を有する。横桁3は、荷重を複数の主桁2で支持するため、主桁2を連結する部材である。対傾構4及び横構5は、それぞれ風及び地震の横荷重に抵抗するため、主桁2を相互に連結する部材である。なお、本実施形態では橋梁1を対象(被写体)とする場合について説明するが、対象とする建造物は橋梁に限らずトンネル、ビル等、道路等でもよい。
橋梁1の画像を撮影して損傷を検出する場合、検査員はデジタルカメラ100(図2参照)を用いて橋梁1を撮影し、検査範囲について複数の撮影画像(橋梁1の異なる部分がそれぞれ撮影された複数の画像)を分割して取得する。撮影は、橋梁1の延伸方向及びその直交方向に適宜移動しながら行う。なお橋梁1の周辺状況により検査員の移動が困難な場合は、橋梁1に沿って移動可能な移動体にデジタルカメラ100を設けて撮影を行ってもよい。このような移動体には、デジタルカメラ100の昇降機構、回転機構(パン及び/またはチルトを行う機構)を設けてもよい。なお移動体の例としては車輌、ロボット、及び飛翔体(ドローン等)を挙げることができるが、これらに限定されるものではない。
<画像処理装置の構成>
図2は、画像処理装置10(画像処理装置)の概略構成を示すブロック図である。画像処理装置10はデジタルカメラ100及び画像処理装置本体200を備え、被写体を分割撮影して取得した複数の画像について損傷の検出、検出結果の合成等を行うシステムである。画像処理装置10では、パーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)を画像処理装置本体200として用いることができる。画像処理装置10の各要素は、1つの筐体に収納されていてもよいし、独立した筐体に収納されていてもよい。また、各要素が離れた場所に配置されネットワークを介して接続されていてもよい。
デジタルカメラ100は、図示せぬ撮影レンズ(撮影光学系)、及び撮影レンズにより被写体の光学像が結像する撮像素子(撮像素子)を備える撮影部110により画像を取得する。撮像素子の例としてはCCD(Charge Coupled Device)型の撮像素子及びCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子を挙げることができる。撮像素子の受光面上にはR(赤),G(緑),またはB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。デジタルカメラ100は、無線通信部130及びアンテナ132を介して画像処理装置本体200との無線通信を行い、撮影された画像が処理部210に入力されて後述する処理が行われる。なお、デジタルカメラ100は画像処理装置本体200と別々の筐体に組み込んでもよいし、一体化してもよい。
画像処理装置本体200は処理部210、記憶部220、表示部230、及び操作部240を備え、これら各部は互いに接続されて必要な情報が送受信される。また、画像処理装置本体200はアンテナ212を介してデジタルカメラ100との間で無線通信を行い、デジタルカメラ100で撮影された撮影画像を取得する。
図3は処理部210の構成を示す図である。処理部210は、画像入力部210A、損傷検出部210B、画像判断部210C、表示制御部210D、構造情報取得部210E、検出結果修正部210F、及び通信制御部210Gを備え、デジタルカメラ100で取得した撮影画像の受信、損傷の検出及び修正、処理結果のモニタ232への表示制御等を行う。
記憶部220はCD(Compact Disk)、DVD(Digital Versatile Disk)、ハードディスク(Hard Disk)、各種半導体メモリ等の非一時的記録媒体及びその制御部により構成され、図4に示す画像及び情報が互いに関連づけて記憶される。撮影画像220Aは、被写体である橋梁1(床版6、橋脚7、主桁2の部分等)をデジタルカメラ100で分割撮影し画像入力部210Aにより入力した複数の画像である。なお、デジタルカメラ100で撮影した画像でなく、ネットワーク、記録媒体経由で取得した画像を記憶してもよい。撮影条件220Bは、撮影画像220Aの撮影条件(日時、場所、露出等)である。撮影条件220Bは、撮影画像220Aの一部(例えば、ヘッダ部分)として記録してもよいし、別ファイルに記録して撮影画像220Aと関連付けてもよい。検出結果220Cは、撮影画像220Aを構成する個別画像に対する損傷の検出結果を含む(図9参照)。検出結果220Cは、ユーザの指示入力に基づいて修正することができる(後述)。構造情報220Dは、構造情報取得部210Eにより取得した被写体の構造を示す情報である。光学系情報220Eは、撮影光学系の特性を示す情報(画角、焦点距離、絞り、各種の収差等)である。
表示部230はモニタ232(表示装置)を備えており、入力した画像、処理結果、記憶部220に記憶されたデータ等を表示することができる。操作部240は入力デバイス及び/またはポインティングデバイスとしてのキーボード242及びマウス244を含んでおり、ユーザはこれらのデバイス及びモニタ232の画面を介して、画像の撮影指示、損傷の検出指示、検出結果の修正指示等、本発明に係る画像処理方法の実行に必要な操作を行うことができる(後述)。
画像処理装置10による画像処理について説明する。図5は画像処理の手順を示すフローチャートである。
画像入力部210Aは、橋梁1(被写体)を分割撮影して取得した複数の画像を入力する(ステップS100;画像入力工程)。以下、デジタルカメラ100により床版6の画像を撮影及び入力する場合について説明するが、撮影対象は床版6に限らず他の部分(例えば主桁2、横桁3、橋脚7等)でもよい。また、デジタルカメラ100以外で撮影された画像をネットワーク、記録媒体等を介して入力してもよい。図6は床版6の撮影手順の例を示す図である。図6では、主桁2(x方向に伸びる部材)及び横桁3(y方向に伸びる部材)で規定される格間GOを含む領域Aを単位として撮影を行い、撮影領域をy方向及びx方向に(矢印の方向に)順次移動させながら撮影を繰り返す様子を示している。撮影範囲全体の画像が取得できれば、撮影は他の手順で行ってもよい。なお、図6では橋梁1(床版6)の延伸方向をx、床版6の面内でxと直交する方向をy、床版6と直交する方向(垂直下方向)をzとし、(x,y,z)で右手系の座標を構成している。
損傷検出部210Bは、個別画像(ステップS100で入力した複数の画像を構成する個々の画像)から損傷を検出する(ステップS110;損傷検出工程)。損傷の分類としては剥離、漏水、ひび割れ、錆などを挙げることができるが、具体的に検出する損傷の種類は建造物(被写体)の種類、特徴、検査の目的等の条件に応じて設定してよい。また、検出する項目としては位置、大きさ、方向、範囲、形状等が挙げられるが、検出項目についても損傷の分類に応じて、また建造物の種類、特徴、検査の目的等の条件に応じて設定してよい。また、損傷の検出手法は特に限定されず、種々の手法を用いることができる。例えば特許4006007号公報に記載されたひび割れ検出方法、特表2010-538258号公報に記載された錆及び剥離の検出方法等を用いることができる。また、例えば「損傷である」とのラベルを付与した画像を教師データとして与えて機械学習により学習器を生成し、生成した学習器を用いて損傷を検出してもよい。なお、以下では損傷としてひび割れを検出、表示する場合について説明する。
画像判断部210Cは、上述した個別画像を、検出結果をユーザに確認させる確認対象画像とするか否かを判断する(ステップS120;画像判断工程)。画像判断部210Cは、個別画像の画質、検出結果、撮影条件、及び被写体の構造のうち少なくとも1つに基づいて判断を行うことができ、必要に応じて、記憶部220に記憶された情報(図4を参照)を用いる。具体的な判断の例については、詳細を後述する。
ステップS120で確認対象画像とする画像が判断されたら、表示制御部210Dは、画像とその画像における損傷の検出結果とを関連付けてモニタ232(表示装置)に表示させる(ステップS130;表示制御工程)。表示は、以下に説明するように、確認対象画像または部分画像について行われる。
「部分画像」とは、確認対象画像の一部の領域をモニタ232(表示装置)の表示領域に合わせて切り出した画像である。例えば、表示制御部210Dは、確認対象画像の画素数(解像度)が表示領域の画素数(解像度)以下の場合は確認対象画像を表示し、確認対象画像の画素数が表示領域の画素数を超える場合は確認対象画像の一部を切り出して部分画像とすることができる。図10に、部分画像の切り出し例(画像i1から6つの部分画像i1A~i1Fを切り出した例)を示す。このように確認対象画像の一部の領域をモニタ232(表示装置)の表示領域に合わせて切り出すことで、表示する画像の画素数(解像度)が低下せず、また画像の縮小により損傷が確認しづらくなる(あるいは確認できなくなる)ことがない。このため、ユーザは検出結果の確認及び修正を正確に行うことができる。
ステップS130における画像及び検出結果の表示は、例えば以下のパターンにより行うことができる。
表示パターン(その1)では、表示制御部210Dは、「確認対象画像である」と判断された画像のみについて画像及び検出結果を表示する。例えば図11のように、画像i1,i3,i4,i6,i8,i9(これらの画像が「確認対象画像」と判断されたものとする)、及びこれら画像についての検出結果を関連付けて表示する。画像i2,i5,i7,i10(非確認対象画像;被写体を撮影した複数の画像のうちの、確認対象画像でない画像)については画像及び検出結果を表示しない(スキップする)。なお、図11及び以下で説明する図12は画像間での表示の順序を示す図であり、損傷の検出結果は図示を省略している。また、図11及び図12におけるかっこ書きの数字は画像の表示順を示す。画像及び検出結果の具体的な表示例は後述する。
表示パターン(その2)では、表示制御部210Dは、確認対象画像であると判断された画像だけでなく非確認対象画像についても画像及び検出結果を表示する。ただし、非確認対象画像については確認対象画像及びその検出結果と識別して表示する。例えば図12のように画像i1~i10(全画像)及びこれら画像についての検出結果(図12では図示を省略)を関連付けて表示するが、画像i2,i5,i7,i10(非確認対象画像)についてはグレーアウト(識別表示の一例)する。グレーアウトに代えて、文字、数字、図形、記号等の付与、着色等により識別表示を行ってもよい。
ひび割れ(損傷)が図13のように発生している状況において、画像とひび割れの検出結果を関連付けて画面表示した例を図14に示す。図14に示す例では、表示制御部210Dは、着色した太線(矩形)を画像のひび割れ部分に重ね合わせ表示し、さらにひび割れの幅を数値表示することにより画像と検出結果とを関連付けている(なお、以降の図では幅の数値表示を省略している)。画像と検出結果との関連付けは、図14のような例を含め検出結果に応じた文字、数字、図形、記号、色彩等により行うことができる。また、損傷の程度(ひび割れの長さ、幅等)に応じて着色の明度及び/または彩度を変化させてもよい。また、表示制御部210Dは操作部240を介したユーザの指示に応じて重ね合わせ表示、幅の表示をON/OFFしてもよい。また、図14において矩形表示したテキスト(例えば、「識別表示の設定」)は、各テキストに対応した処理を実行させるボタンを示す。各ボタンを指定すると、以下に説明するようにボタンに表示された処理が実行される。
図14においてユーザが「前」または「次」のボタンを指定すると、表示制御部210Dはそれぞれ前の、または次の確認対象画像及び検出結果を表示する。この際、確認対象画像から部分画像を切り出している場合は、前の、または次の部分画像及び検出結果を表示する。図15の(a)部分は画像i1(確認対象画像)における部分画像の表示順序の例であり、部分画像i1A~i1Fの順に表示する(検出結果の図示は省略している)。表示制御部210Dは、1つの確認対象画像の全ての領域について検出結果が確認及び/または修正されてから他の確認対象画像及び検出結果を表示する(図5のステップS150,S160)ので、確認漏れが生じるおそれを低減することができる。処理部210(検出結果修正部210F)は、例えば図14の表示で「次へ」、「保存」、「保存して終了」が指定された場合に「表示中の画像についての検出結果が確認及び/または修正がされた(検出結果をユーザが確認及び/または修正したことを示す指示入力がなされた)」と判断することができる。また、検出結果修正部210Fは、確認済みの画像に対し「確認済み」のフラグを付与する(図9の(b)部分を参照)。
図14においてユーザが「画像全体を表示する」のボタンを指定すると、表示制御部210Dは確認対象画像全体と、その確認対象画像において部分画像が占める領域を表示する。例えば、部分画像i1Aが表示されている状態で「画像全体を表示する」のボタンが指定されると、図15の(b)部分に示すように、確認対象画像である画像i1全体を表示し、さらに現在表示中の部分画像i1Aを画像i1の中でグレーアウトする。グレーアウトは識別表示の一例であり、文字、数字、図形、記号の付与、着色等により識別表示を行ってもよい。表示は図14のような表示と別ウインドウで行ってもよい。また、図15の(c)部分のように、検出結果が既に確認及び/または修正された領域をグレーアウト(識別表示の一例)してもよい。このような表示により、ユーザは確認及び/または修正の状況を容易に把握することができ、効率的に作業を行うことができる。なお、検出結果の確認は確認対象画像または部分画像により行い、これらの画像は縮小せず表示されるので、画像全体を表示する場合は必要に応じ(例えば、画像全体の画素数がモニタ232の表示画素数より多い場合に)縮小してもよい。
上述の例のように確認対象画像を表示した状態でユーザが確認対象画像中の領域を指定すると、表示制御部210Dは、指定された領域に対応する部分画像及びその部分画像についての検出結果を図14のように表示する。例えば図16のようにユーザが画像i1において部分画像i1Fを指定すると、表示制御部210Dは部分画像i1F及び部分画像i1Fについての検出結果を図14のように表示する。これによりユーザは所望の領域について検出結果を確認することができる。
検出結果修正部210Fは、操作部240を介したユーザの指示入力に基づいて検出結果を修正する(ステップS140:検出結果修正工程)。検出結果の「修正」として、例えば追加(検出漏れした損傷の情報を加える)、訂正(不適切な検出結果を適切な結果に正す)、削除(誤検出された損傷の情報を削除する)を行うことができる。なお、修正の際は確認対象画像が図14のように画面表示されているものとする。
図17は検出漏れに対する修正(追加)の例を示す図である。図17の(a)部分は、ひび割れC1は検出されている(太線の重ねあわせがされている)がひび割れC2が検出漏れである(太線の重ねあわせがされていない)状態を示す。この場合、ユーザは図14のような画面表示において「追加」を指定し、次いで図17の(b)部分のようにひび割れの始点及び終点(点P1~P5)をマウス244でクリックして指定する。検出結果修正部210Fは、この操作に応じてひび割れを追加する。図9の(b)部分は、R001-3-2というIDを持つひび割れを追加した状態(確認、修正後の状態)を示す例である。この場合、ひび割れの長さは始点及び終点から算出できる。幅はユーザが目視で測定しキーボード242で入力することができる。表示制御部210D及び/または検出結果修正部210Fは、ユーザがひび割れの幅を目視で測定する際に、測定の指標となるマーカの画像(例えば、ひび割れの実寸幅に対応する太さの線分を複数含む画像)を表示してもよい。また、例えば構造情報取得部210Eが格間のサイズ、1画素当たりのサイズ等の情報(構造情報220D、撮影条件220Bを用いることができる)を取得し、損傷検出部210Bが目視測定の結果を実寸換算してひび割れの長さ、幅等を算出してもよい。
図18は誤検出に対する修正(削除)の例を示す図である。図18の(a)部分は、存在しないひび割れC2Aを誤って検出した状態を示す。この場合、ユーザは図14のような画面表示において「削除」を指定し、ひび割れC2Aを選択すると、図18の(b)部分に示すように選択されたひび割れが削除される。検出結果修正部210Fは、この操作に応じてひび割れを検出結果のリスト(図9参照)から削除する。
追加、削除の他に、不適切な検出結果を訂正することができる。例えばひび割れの幅を訂正する場合、ユーザは、図14のような画面表示において訂正したい検出結果を「選択」で指定し、正しい幅を入力する。検出結果修正部210Fは、入力操作に応じて検出結果(図9参照)を訂正する。訂正の場合も、追加の場合と同様に目視測定の結果を実寸換算してもよい。
図5のステップS120において、画像判断部210Cは、個別画像を確認対象画像とするか否かを、個別画像の画質、検出結果、撮影条件、被写体の構造のうち少なくとも1つに基づいて判断する。例えば、以下に説明する項目のうち少なくとも1つに基づいて判断することができる。
画質の判定は、機械学習(深層学習等)の結果を利用して行ってもよい。例えば、新たな画像が記憶部220に記憶されるごとに(または新たな画像が撮影されるごとに)、画像判断部210Cが深層学習アルゴリズムに基づき深層学習(ディープラーニング)を用いた画像解析処理を行うことにより、画質を解析して画質評価器を構成する。深層学習アルゴリズムは、公知のコンボリューションニューラルネットワーク(畳み込みニューラルネットワーク)の手法、すなわち畳み込み層及びプーリング層の繰り返しと、全結合層と、出力層とを経て、画質を判定するアルゴリズムである。「このような機械学習を行うか否か」、及び/または「学習結果を利用するか否か」を、操作部240を介したユーザの操作により設定してもよい。画像判断部210Cはこのような画質評価器による評価結果に基づいて画質を判定し、「画質が悪い」(例えば「評価値がしきい値未満」)と判定された画像を確認対象画像として判断することができる。
画質は、画像中の領域の空間周波数スペクトルにおける高周波領域のスペクトル最大値、平均値、またはスペクトルの和等で定量化することができる。具体的には、空間周波数スペクトル画像(撮影画像を高速フーリエ変換(FFT:fast Fourier transform)して得られる)の四隅から特定の画素数半径内(rピクセル半径)の成分の最大値、平均値、または和が大きいほど高周波成分が強い(多い)のでボケ、ブレが少なく、画質がよりよい。画像判断部210Cはこのような画質のよい画像を確認対象画像とせずに、高周波成分が弱く(少なく)画質が悪い画像を確認対象画像として判断することができる。
ヒストグラム(画質を示す指標の一例)による判断では、画像判断部210Cは個別画像(R,G,Bの成分で構成されるカラー画像)をグレースケール画像に変換する。例えば、グレースケール(濃度)=R×0.30+G×0.59+B×0.11である(R,G,Bはそれぞれ赤色信号、緑色信号、青色信号の値)。画像判断部210Cは、変換したグレースケール画像のヒストグラム(濃度ヒストグラム;図19の例を参照)を計算する。ヒストグラムの計算及び以下の判断は、個別画像の全体ではなく一部の領域について行ってもよい。画像判断部210Cは、G(i){i=0,1,…,255}を各濃度値(0に近いほど暗く、255に近いほど明るい)のヒストグラムとして、以下の式(1),(2)により個別画像が明るすぎるかどうか、あるいは暗すぎるかどうかを判定する。判定のしきい値(kb,hb,kd,hd)は既定値(例えば、kb=205,hb=0.5,kd=50,hd=0.5)でもよいし、操作部240を介したユーザの入力に応じて画像判断部210Cが設定してもよい。
損傷検出部210Bが検出結果の確信度(例えば、検出した損傷が実際に損傷である確信度)を算出し、確信度に応じて判断及び/または識別表示を行ってもよい。例えば、確信度が高い検出結果の数が多い及び/または密度が高い画像は確認の必要性が低いので、表示制御部210Dが表示の際に識別表示(文字、数字、図形、記号の付与、着色等)して確認不要であることを示すことが考えられる。一方、確信度が低い検出結果の数が多い及び/または密度が高い画像は確認の必要性が高いので、確認対象画像として図14のように表示することが好ましい。なお、確信度、検出結果の数及び/または密度に対して1つまたは複数のしきい値を設定し、検出結果をしきい値と比較することで識別表示等の判断を行うことができる。また、確信度を用いた処理を行う場合、検出結果のリスト(図9参照)において確信度の欄を設けてもよい。このような処理において、損傷検出部210Bは、例えば損傷の種類ごとに特徴量(例えば、ひび割れの長さ、幅、間隔、密度等)のしきい値を設定し、検出結果としきい値との関係(検出結果がしきい値の範囲内であるか否か、範囲外の場合はどの程度外れているか)に応じて算出した重み係数を全ての特徴量について足し合わせることにより確信度を算出することができる。しかしながら、確信度の算出はこのような態様に限定されるものではない。
断続的なひび割れ、短いひび割れ、細いひび割れなどは検出漏れあるいは誤検出によるものである場合がある。そこで、表示制御部210Dはこれら断続的なひび割れ等を識別表示してもよい。また、画像判断部210Cがこれらのひび割れが存在する画像を確認対象画像にすると判断し、ユーザが検出結果を効率的に確認できるようにしてもよい。例えば、ひび割れの端点(始点または終点)の周囲の一定画素(例えば、50画素)あるいは一定距離(例えば20mm)以内に別のひび割れの端点が存在する場合に、画像判断部210Cが「断続的なひび割れが発生しているので、この画像を確認対象画像にする」と判断することができる。また、格間のサイズ、1画素当たりのサイズ等の情報(構造情報220D、撮影条件220Bを用いることができる)を取得し、実寸換算して短いひび割れ、細いひび割れを判定することができる。
被写体を撮影した画像では、合焦位置から被写体との角度変化方向に離れた領域が被写界深度の範囲外となってボケる。このような問題は、1つの撮影位置において撮影方向を変化(パン、チルト等)させて広い範囲を撮影する場合に顕著に生じる。例えば、図22の(a)部分に示すようにデジタルカメラ100の撮影位置を固定し、撮影方向を上下(鉛直方向)に変化させて橋脚7を撮影する場合、取得した画像では上下方向端部のいずれか、または両側がボケる(画像の中央で合焦している場合は両側がぼけ、合焦位置が画像の上側/下側の場合は下側/上側がボケる。)。このようなボケ領域は、撮影角度(正面方向との成す角)が大きいと広くなる。例えば、A方向(正面方向)に撮影する画像iAではボケる領域が狭いが、B方向に撮影する画像iBでは上下方向端部のいずれか、または両側がボケる。C方向に撮影する画像iCでは、ボケる領域が画像iBよりも広くなる。このような状況は、例えば図22の(b)部分に示すように1つの撮影位置から撮影方向を水平方向(前後及び/または左右)に変化させて床版6を撮影する場合でも同様に生じる。
図23に示すように、撮影角度が存在すると被写体面の方向と合焦面の方向とが異なり焦点ズレが発生する。この焦点ズレが被写界深度を超えるとボケが生じるので、表示制御部210Dは画像において焦点ズレ量が被写界深度の範囲内の領域及び/または範囲外の領域を識別表示することができる。また、画像判断部210Cは焦点ズレ量が被写界深度の範囲を超える領域を含む画像を確認対象画像として判断することができる。表示制御部210Dは、被写界深度の範囲内の領域と範囲外の領域とに対し異なる文字、数字、図形、記号、色彩等を付し、あるいはこれらの程度を変化させることにより識別表示を行うことができる。いずれか一方の領域に表示を施してもよいし(例えば、被写界深度内の領域をグレーアウトする)、双方の領域に表示を施してもよい。これによりユーザは誤検出、検出漏れ等が生じやすい領域(焦点ズレ量が被写界深度の範囲を超える領域)を容易に識別することができ、損傷の検出結果を効率的に確認及び/または修正することができる。なお、焦点ズレによりボケる領域は、合焦位置が画像の中心の場合は上下方向の両端部であり、合焦位置が画像の上側の場合は下側、合焦位置が画像の下側の場合は上側である。
前方被写界深度(mm)={許容錯乱円径(mm)×絞り値×被写体距離(mm)^2}/{焦点距離(mm)^2+許容錯乱円径(mm)×絞り値×被写体距離(mm)}・・・(3)
[数4]
後方被写界深度(mm)={許容錯乱円径(mm)×絞り値×被写体距離(mm)^2}/{焦点距離(mm)^2-許容錯乱円径(mm)×絞り値×被写体距離(mm)}・・・(4)
[数5]
被写界深度(mm)=前方被写界深度(mm)+後方被写界深度(mm)・・・(5)
なお、式(3)~(5)において、許容錯乱円径=撮像素子の画素サイズである。また、縦方向及び横方向の撮影範囲は、以下の式(6),(7)により算出することができる。
撮影範囲(縦方向)=被写体距離×センササイズ(縦方向)/焦点距離・・・(6)
[数7]
撮影範囲(横方向)=被写体距離×センササイズ(横方向)/焦点距離・・・(7)
<像面湾曲によるボケに基づく判断>
撮影光学系の特性により像面湾曲がある場合、画像の中心部で合焦すると周辺部がボケ、周辺部で合焦すると中心部がボケる。例えば、図24の(a)部分のように画像の中心部で合焦している(合焦度が高い)場合、(b)部分のように画像の周辺部がボケる(合焦度が低い)。また、図25の(a)部分のように画像の周辺部で合焦している場合、(b)部分のように画像の中心部がボケる。表示制御部210Dは合焦領域及び/またはボケ領域(確認対象領域)を識別表示することができ、画像判断部210Cはボケ領域(確認対象領域)を含む画像を確認対象画像として判断することができる。識別表示は、合焦領域とボケ領域とに対し異なる文字、数字、図形、記号、色彩等を付し、あるいはこれらの程度を変化させることにより行うことができる。いずれか一方の領域に表示を施してもよいし(例えば、合焦領域をグレーアウトする)、双方の領域に表示を施してもよい。これによりユーザは誤検出、検出漏れ等が生じやすい領域(ボケ領域)を容易に識別することができ、損傷の検出結果を効率的に確認及び/または修正することができる。なお、撮像光学系の特性によっては合焦領域が図24の(c)部分のような形状になる場合がある。そのため、合焦位置と合焦範囲との関係をあらかじめデータベース化し記憶部220に記憶しておくことが好ましい。
ストロボ光を使用して撮影する場合、ストロボ光の明るさ、撮影範囲等の条件によっては画像の一部が暗く(輝度が低く)なり、検出漏れ及び/または誤検出が生じやすくなるため、暗くなる領域を確認対象とすることが好ましい。例えば図26の(a)部分に示すようにデジタルカメラ100の上方にストロボ装置101を装着して撮影する場合、撮影画像における輝度はストロボ装置(ストロボ光の光源)と撮影光学系との配置に起因して図26の(a)部分及び(b)部分に示すように変化する(画像の下側が暗くなりやすい)。また、撮影距離が近いと暗い領域が増え、撮影距離が遠くなると暗い領域が狭くなってゆく。そこで、低輝度領域を撮影距離に基づいて設定して記憶部220に記憶しておくことが好ましい。表示制御部210Dはこのような明るい領域(高輝度領域)及び/または暗い領域(低輝度領域)を識別表示することができ、画像判断部210Cは暗い領域を含む画像を確認対象画像として判断することができる。識別表示は、明るい領域と暗い領域とに対し異なる文字、数字、図形、記号、色彩等を付し、あるいはこれらの程度を変化させることにより行うことができる。いずれか一方の領域に表示を施してもよいし(例えば、明るい領域をグレーアウトする)、双方の領域に表示を施してもよい。これによりユーザは誤検出、検出漏れ等が生じやすい領域(暗い領域)を容易に識別することができ、損傷の検出結果を効率的に確認及び修正することができる。
被写体の構造によって、損傷が発生しやすい箇所が存在する。例えば床版6を各格間について考える場合、図27の(a)部分~(e)部分に示すように中央部にひび割れが発生しやすい(図27は、床版6の1つの格間におけるひび割れの発生状況の例を時系列で示す図である)。また橋脚7の場合、図28に示すように水平方向の中心軸Lの付近、中心軸Lと端部との中間付近、形状変化部分等にひび割れが発生しやすい。表示制御部210Dはひび割れが発生しにくい領域(例えば、図27の(c)部分の領域i20)を識別表示することができ、画像判断部210Cはひび割れが発生しやすい領域(領域i21)を含む画像を確認対象画像として判断することができる。表示制御部210Dは、ひび割れが発生しやすい領域と発生しにくい領域とに対し異なる文字、数字、図形、記号、色彩等を付し、あるいはこれらの程度を変化させることにより識別表示を行うことができる。いずれか一方の領域に表示を施してもよいし(例えば、ひび割れが発生しにくい領域をグレーアウトする)、双方の領域に表示を施してもよい。
<画像処理装置の構成>
本発明の画像処理装置及び画像処理方法の第2の実施形態について説明する。第2の実施形態は、複数の個別画像の合成パラメータを算出して処理に用いる点で第1の実施形態と異なる。図29は第2の実施形態に係る画像処理装置の処理部(処理部213)の構成を示す図である。処理部213は、図3に示す処理部210の構成に加えてパラメータ算出部210H(パラメータ算出部)、オーバーラップ算出部210I(オーバーラップ算出部)、及び画像合成部210J(画像合成部)をさらに備える。図3に示す構成と同様に、パラメータ算出部210H、オーバーラップ算出部210I、及び画像合成部210Jの機能も各種のプロセッサを用いて実現することができる。なお、画像処理装置のその他の構成は第1の実施形態と同様であるので、同一の構成は同一の符号により参照し詳細な説明を省略する。
図30は第2の実施形態において記憶部220に記憶される情報を示す図である。第2の実施形態では、第1の実施形態で記憶される情報に加えて、パノラマ合成パラメータ220F、パノラマ合成画像220G、及び対応情報220Hが記憶される。
第2の実施形態における画像処理(画像処理方法)の手順を、図31のフローチャートを参照して説明する。なお、第1の実施形態と同様の処理を行うステップには同一の参照符号を付し、詳細な説明を省略する。
パラメータ算出部210Hは、画像どうしの対応点から射影変換行列を求めることにより合成パラメータ(合成の際の画像の移動、回転、変形を表すパラメータ)を算出する(ステップS122:パラメータ算出工程)。オーバーラップ算出部210Iは合成パラメータに基づいて画像(複数の個別画像)どうしのオーバーラップ領域を求め(ステップS124:オーバーラップ領域算出工程)、画像合成部210Jは合成パラメータに基づいて撮影画像(複数の画像)からパノラマ合成画像を生成する(ステップS126:画像合成工程)。また、画像合成部210Jはパノラマ合成画像と撮影画像(複数の画像)との対応関係を示す情報(各撮影画像が、パノラマ合成画像のどの部分に対応しているかを示す情報;対応情報)を算出する。ステップS122で算出された合成パラメータはパノラマ合成パラメータ220Fとして、ステップS126で生成されたパノラマ合成画像(例えば、図32に示すパノラマ合成画像i30)はパノラマ合成画像220Gとして、対応情報は対応情報220Hとして記憶部220に記憶される(図30参照)。
第2の実施形態においても、上述した第1の実施形態と同様に損傷の検出、検出結果の確認及び/または修正を行うことができる。また、パノラマ合成画像i30のようなパノラマ合成画像においても、第1の実施形態と同様に画像及び/または検出結果の識別表示を行うことができる。図33は、表示制御部210Dがパノラマ合成画像i30において検出結果が確認及び/または修正済みの領域(部分画像i1A~i1C)及び現在確認中の領域(部分画像i1D)を識別表示した様子を示す図であり、第1の実施形態における図15の(c)部分に対応した図である。また、パノラマ合成画像i30においてユーザが所望の範囲(例えば部分画像i2Dの範囲)を指定すると、表示制御部210Dは、対応情報(対応情報220H)に基づいて、指定した範囲に対応する画像及びその画像における検出結果を図14のようにモニタ232に表示する。このような表示により、第2の実施形態においても検出結果を確認及び/または修正済みの領域を容易に把握することができ、ユーザは検出結果の確認及び修正を効率的に行うことができる。
被写体を分割撮影して複数の画像を取得する場合、撮影範囲の重複に応じて、複数の画像がオーバーラップするオーバーラップ領域が生じる。このような状況で個々の画像について検出結果を確認及び/または修正する場合、ユーザはオーバーラップ領域について何度も検出結果を確認することになり、作業が効率的でない。また、オーバーラップ領域では各画像の撮影条件によって画質が異なり、そのため損傷の検出精度が異なるので、画質が低い(検出精度が低い)画像で検出結果を確認及び/または修正してしまうおそれがある。このような問題は、検査範囲が広く取得する画像数が多い場合に顕著になる。そこで第2の実施形態では、以下に説明するようにオーバーラップ領域を識別表示する(ステップS130)。
2 主桁
3 横桁
4 対傾構
5 横構
6 床版
7 橋脚
10 画像処理装置
100 デジタルカメラ
101 ストロボ装置
110 撮影部
130 無線通信部
132 アンテナ
200 画像処理装置本体
210 処理部
210A 画像入力部
210B 損傷検出部
210C 画像判断部
210D 表示制御部
210E 構造情報取得部
210F 検出結果修正部
210G 通信制御部
210H パラメータ算出部
210I オーバーラップ算出部
210J 画像合成部
211 被写界深度算出部
212 アンテナ
213 処理部
214 ROM
220 記憶部
220A 撮影画像
220B 撮影条件
220C 検出結果
220D 構造情報
220E 光学系情報
220F パノラマ合成パラメータ
220G パノラマ合成画像
220H 対応情報
230 表示部
232 モニタ
240 操作部
242 キーボード
244 マウス
A 領域
A1 領域
Ai 領域
Aj 領域
An 領域
F 枠
GO 格間
i1 画像
i2 画像
i3 画像
i4 画像
i5 画像
i6 画像
i7 画像
i8 画像
i9 画像
i10 画像
i1A 部分画像
i1B 部分画像
i1C 部分画像
i1D 部分画像
i1E 部分画像
i1F 部分画像
i20 領域
i21 領域
i2D 部分画像
i30 パノラマ合成画像
iA 画像
iB 画像
iC 画像
L 中心軸
OA オーバーラップ領域
S100~S160 画像処理方法の各ステップ
Claims (24)
- 建造物の被写体を分割撮影した複数の画像を入力する画像入力部と、
前記複数の画像を構成する個々の画像である個別画像から前記被写体の損傷を検出する損傷検出部と、
前記個別画像を、前記個別画像についての前記検出の結果をユーザに確認させる確認対象画像とするか否かを判断する画像判断部と、
前記確認対象画像または前記確認対象画像の一部の領域を表示装置の表示領域に合わせて切り出した部分画像を、前記確認対象画像または前記部分画像における前記検出の結果と関連付けて前記表示装置に表示させる表示制御部と、
ユーザの指示入力に基づいて前記検出の結果を修正する検出結果修正部と、
を備え、
前記画像判断部は、前記個別画像の画質、撮影条件、及び前記被写体の構造のうち少なくとも1つに基づいて前記判断を行う画像処理装置。 - 前記表示制御部は、前記複数の画像のうちの非確認対象画像及び前記非確認対象画像における前記検出の結果を、前記確認対象画像及び前記確認対象画像における前記検出の結果と識別して前記表示装置に表示させる請求項1に記載の画像処理装置。
- 前記表示制御部は、1つの確認対象画像における前記検出の結果をユーザが確認及び/または修正したことを示す指示入力に応じて他の確認対象画像及び前記他の確認対象画像における前記検出の結果を表示する請求項1または2に記載の画像処理装置。
- 前記表示制御部は、1つの確認対象画像の全ての領域について前記検出の結果が確認及び/または修正されてから、他の確認対象画像及び前記他の確認対象画像における前記検出の結果を表示する請求項1から3のいずれか1項に記載の画像処理装置。
- 前記画像判断部は、さらに前記検出の結果に基づいて前記判断を行う請求項1から4のいずれか1項に記載の画像処理装置。
- 前記画像判断部は、機械学習により構成した画質評価器による評価結果、前記個別画像の空間周波数スペクトル、及び前記個別画像の濃度ヒストグラムのうち少なくとも1つに基づいて前記画質を求める請求項5に記載の画像処理装置。
- 前記画像判断部は、前記個別画像における、実際に損傷である確信度がしきい値以上である前記検出の結果の数及び/または密度に基づいて前記判断を行う請求項1から6のいずれか1項に記載の画像処理装置。
- 前記表示制御部は、前記確信度に応じて前記検出の結果を識別表示する請求項7に記載の画像処理装置。
- 前記表示制御部は、前記確認対象画像または前記部分画像において前記確信度が前記しきい値以上である前記検出の結果が存在する領域を識別表示する請求項7または8に記載の画像処理装置。
- 前記画像判断部は前記個別画像の被写界深度を算出する被写界深度算出部を備え、
前記画像判断部は、前記個別画像が前記被写界深度の範囲外である領域を含む場合に、前記個別画像を前記確認対象画像とすると判断する請求項1から9のいずれか1項に記載の画像処理装置。 - 前記被写界深度算出部は、前記確認対象画像における前記被写体の撮影角度及び前記確認対象画像における合焦位置に基づいて前記被写界深度を算出する請求項10に記載の画像処理装置。
- 前記被写界深度算出部は、前記被写体の撮影角度、前記被写体の撮影距離、前記確認対象画像を撮影した際の絞り値、及び許容錯乱円径に基づいて前記被写界深度を算出する請求項10または11に記載の画像処理装置。
- 前記表示制御部は、前記確認対象画像または前記部分画像において前記被写界深度の範囲外である領域を識別表示する請求項10から12のいずれか1項に記載の画像処理装置。
- 前記表示制御部は、前記確認対象画像において撮影光学系の像面湾曲及び合焦位置に応じて設定された確認対象領域を識別表示する請求項10から13のいずれか1項に記載の画像処理装置。
- 前記画像判断部は、前記個別画像がストロボ光を発光して撮影された場合は、前記個別画像が前記ストロボ光の光源及び撮影光学系の配置に起因する輝度の変化に基づいて設定された低輝度領域を含む場合に、前記個別画像を前記確認対象画像とすると判断する請求項1から14のいずれか1項に記載の画像処理装置。
- 前記低輝度領域は撮影距離に基づいて設定された領域である請求項15に記載の画像処理装置。
- 前記表示制御部は、前記確認対象画像または前記部分画像において前記低輝度領域を識別表示する請求項15または16に記載の画像処理装置。
- 前記被写体の構造を示す構造情報を取得する構造情報取得部を備え、
前記画像判断部は、前記構造情報を参照して前記個別画像の撮影範囲が損傷が発生しやすい領域を含むと判定した場合に、前記個別画像を前記確認対象画像とすると判断する請求項1から17のいずれか1項に記載の画像処理装置。 - 前記複数の画像をパノラマ合成するためのパラメータを算出するパラメータ算出部と、
前記パラメータに基づいて複数の前記個別画像のオーバーラップ領域を求めるオーバーラップ算出部と、を備え、
前記表示制御部は、前記オーバーラップ領域がいずれかの画像で確認済みの場合、または画質が最も高い領域以外の領域である場合は前記オーバーラップ領域を識別表示する請求項1から18のいずれか1項に記載の画像処理装置。 - 前記パラメータに従って前記複数の画像からパノラマ合成画像を生成する画像合成部を備え、
前記表示制御部は、前記パノラマ合成画像において前記確認対象画像が示す範囲を識別表示する請求項19に記載の画像処理装置。 - 前記表示制御部は、前記パノラマ合成画像において確認及び/または修正がされた範囲を識別表示する請求項20に記載の画像処理装置。
- 前記画像合成部は前記パノラマ合成画像と前記複数の画像との対応関係を示す情報を算出し、
前記表示制御部は、前記情報に基づいて、前記複数の画像のうち前記パノラマ合成画像において指定された範囲に対応する画像を前記表示装置に表示させる請求項20または21に記載の画像処理装置。 - 撮影光学系と、前記撮影光学系により前記被写体の光学像が結像する撮像素子と、により前記被写体の画像を撮影する撮影部を備え、
前記画像入力部は前記撮影部により撮影した複数の画像を前記複数の画像として入力する請求項1から22のいずれか1項に記載の画像処理装置。 - 建造物の被写体を分割撮影した複数の画像を入力する画像入力工程と、
前記複数の画像を構成する個々の画像である個別画像から前記被写体の損傷を検出する損傷検出工程と、
前記個別画像を、前記個別画像についての前記検出の結果をユーザに確認させる確認対象画像とするか否かを判断する画像判断工程と、
前記確認対象画像または前記確認対象画像の一部の領域を表示装置の表示領域に合わせて切り出した部分画像を、前記確認対象画像または前記部分画像における前記検出の結果と関連付けて前記表示装置に表示させる表示制御工程と、
ユーザの指示入力に基づいて前記検出の結果を修正する検出結果修正工程と、
を備え、
前記画像判断工程では、前記個別画像の画質、撮影条件、及び前記被写体の構造のうち少なくとも1つに基づいて前記判断を行う画像処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017280 | 2018-02-02 | ||
JP2018017280 | 2018-02-02 | ||
PCT/JP2018/048178 WO2019150872A1 (ja) | 2018-02-02 | 2018-12-27 | 画像処理装置及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019150872A1 JPWO2019150872A1 (ja) | 2021-01-28 |
JP7050824B2 true JP7050824B2 (ja) | 2022-04-08 |
Family
ID=67478230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019568946A Active JP7050824B2 (ja) | 2018-02-02 | 2018-12-27 | 画像処理装置及び画像処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11972550B2 (ja) |
EP (1) | EP3748341A4 (ja) |
JP (1) | JP7050824B2 (ja) |
CN (1) | CN111684267B (ja) |
WO (1) | WO2019150872A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7261816B2 (ja) * | 2018-11-29 | 2023-04-20 | 富士フイルム株式会社 | 構造物の補修工法選定システム、補修工法選定方法、及び補修工法選定サーバ |
JP7391504B2 (ja) * | 2018-11-30 | 2023-12-05 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7282551B2 (ja) * | 2019-03-01 | 2023-05-29 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7166225B2 (ja) * | 2019-07-08 | 2022-11-07 | ソフトバンク株式会社 | 異常点検システム、異常点検装置、異常点検方法および異常点検プログラム |
JP7423634B2 (ja) * | 2019-07-25 | 2024-01-29 | 富士フイルム株式会社 | 補修図生成装置、補修図生成方法及びプログラム |
JP7263983B2 (ja) * | 2019-08-30 | 2023-04-25 | 富士通株式会社 | 撮影漏れ検出装置、及び、撮影漏れ検出方法 |
JP7370045B2 (ja) * | 2019-09-11 | 2023-10-27 | 株式会社Liberaware | 寸法表示システムおよび寸法表示方法 |
WO2021068746A1 (zh) * | 2019-10-08 | 2021-04-15 | 上海市东方海事工程技术有限公司 | 隧道巡检图像采集装置、隧道巡检系统及隧道巡检方法 |
JP2021103126A (ja) * | 2019-12-25 | 2021-07-15 | キヤノンマーケティングジャパン株式会社 | 情報処理装置及び撮影支援方法並びに撮影支援プログラム |
US11403845B2 (en) * | 2020-01-21 | 2022-08-02 | Kyndryl, Inc. | Dynamic detection of building structure |
JP7101236B2 (ja) * | 2020-12-17 | 2022-07-14 | 株式会社クボタ | 検査装置及び検査方法 |
CN112949659B (zh) * | 2021-03-15 | 2024-09-27 | 东软集团股份有限公司 | 检查信息的处理方法、装置、存储介质和电子设备 |
WO2022226159A1 (en) * | 2021-04-21 | 2022-10-27 | Siemens Mobility GmbH | Automated selection and semantic connection of images |
JP2022187567A (ja) * | 2021-06-08 | 2022-12-20 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN113781307B (zh) * | 2021-09-13 | 2023-09-29 | 国网山东省电力公司电力科学研究院 | 大气腐蚀多因素空间插值算法、计算机设备、存储介质 |
CN114486908B (zh) * | 2021-12-31 | 2024-10-15 | 长江航道工程局有限责任公司 | 一种桥墩病害识别检测无人机及检测方法 |
CN117177064B (zh) * | 2022-05-30 | 2024-10-15 | 荣耀终端有限公司 | 一种拍摄方法及相关设备 |
WO2024047948A1 (ja) * | 2022-08-30 | 2024-03-07 | 富士フイルム株式会社 | 制御装置、制御方法、及びプログラム |
DE102023107174A1 (de) | 2023-03-22 | 2024-09-26 | Valeo Schalter Und Sensoren Gmbh | Steuereinheit für eine Fahrzeugkamera, Fahrzeugkamerasystem und Verfahren zum Bereitstellen einer Fehlausrichtungkompensation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013228232A (ja) | 2012-04-24 | 2013-11-07 | Asahi Glass Co Ltd | 基板外観検査方法 |
WO2016189764A1 (ja) | 2015-05-26 | 2016-12-01 | 三菱電機株式会社 | 検出装置および検出方法 |
US20170343481A1 (en) | 2016-05-27 | 2017-11-30 | Purdue Research Foundation | Methods and systems for crack detection |
WO2017221706A1 (ja) | 2016-06-24 | 2017-12-28 | 富士フイルム株式会社 | 損傷図編集装置及び損傷図編集方法 |
WO2018008370A1 (ja) | 2016-07-06 | 2018-01-11 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001099784A (ja) | 1999-09-29 | 2001-04-13 | Keisoku Kensa Kk | 既設橋梁における床板のひび割れ検出方法及びその表示方法 |
JP4006007B2 (ja) | 2004-11-10 | 2007-11-14 | 大成建設株式会社 | ひび割れ検出方法 |
KR100891934B1 (ko) | 2007-09-03 | 2009-04-08 | 한국도로공사 | 영상처리 기법을 이용한 강교의 도막검사 시스템의 처리방법 |
US9036861B2 (en) * | 2010-04-22 | 2015-05-19 | The University Of North Carolina At Charlotte | Method and system for remotely inspecting bridges and other structures |
JP2014202922A (ja) * | 2013-04-05 | 2014-10-27 | キヤノン株式会社 | 撮像装置およびその制御方法 |
US10504218B2 (en) * | 2015-04-21 | 2019-12-10 | United Technologies Corporation | Method and system for automated inspection utilizing a multi-modal database |
JP2017085432A (ja) * | 2015-10-30 | 2017-05-18 | キヤノン株式会社 | ストロボ付きデジタルカメラ |
JP6654649B2 (ja) * | 2015-12-14 | 2020-02-26 | 株式会社ニコン・トリンブル | 欠陥検出装置及びプログラム |
US10511676B2 (en) * | 2016-03-17 | 2019-12-17 | Conduent Business Services, Llc | Image analysis system for property damage assessment and verification |
EP3668077B1 (en) * | 2017-08-09 | 2023-08-02 | FUJIFILM Corporation | Image processing system, server device, image processing method, and image processing program |
CN112385207B (zh) * | 2018-07-03 | 2022-04-12 | 富士胶片株式会社 | 拍摄计划提示装置及方法 |
JP2023057591A (ja) * | 2021-10-12 | 2023-04-24 | 富士フイルム株式会社 | 点検支援装置、点検支援方法、及びプログラム |
-
2018
- 2018-12-27 EP EP18903103.2A patent/EP3748341A4/en active Pending
- 2018-12-27 WO PCT/JP2018/048178 patent/WO2019150872A1/ja unknown
- 2018-12-27 JP JP2019568946A patent/JP7050824B2/ja active Active
- 2018-12-27 CN CN201880088379.2A patent/CN111684267B/zh active Active
-
2020
- 2020-07-22 US US16/935,988 patent/US11972550B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013228232A (ja) | 2012-04-24 | 2013-11-07 | Asahi Glass Co Ltd | 基板外観検査方法 |
WO2016189764A1 (ja) | 2015-05-26 | 2016-12-01 | 三菱電機株式会社 | 検出装置および検出方法 |
US20170343481A1 (en) | 2016-05-27 | 2017-11-30 | Purdue Research Foundation | Methods and systems for crack detection |
WO2017221706A1 (ja) | 2016-06-24 | 2017-12-28 | 富士フイルム株式会社 | 損傷図編集装置及び損傷図編集方法 |
WO2018008370A1 (ja) | 2016-07-06 | 2018-01-11 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2019150872A1 (ja) | 2019-08-08 |
US11972550B2 (en) | 2024-04-30 |
US20200349695A1 (en) | 2020-11-05 |
CN111684267B (zh) | 2024-06-28 |
EP3748341A4 (en) | 2021-02-24 |
CN111684267A (zh) | 2020-09-18 |
JPWO2019150872A1 (ja) | 2021-01-28 |
EP3748341A1 (en) | 2020-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7050824B2 (ja) | 画像処理装置及び画像処理方法 | |
CN110915193B (zh) | 图像处理系统、服务器装置、图像处理方法及记录介质 | |
US9292925B2 (en) | Imaging system and control method thereof | |
JP2014207110A (ja) | 観察装置および観察方法 | |
US8730318B2 (en) | Inspection apparatus and method for producing image for inspection | |
CN110809779B (zh) | 图像合成方法、图像合成装置及记录介质 | |
US9264606B2 (en) | Processing device, image pickup device and processing method | |
CN116309409A (zh) | 一种焊缝缺陷检测方法、系统和存储介质 | |
JP2015215199A (ja) | 自発光材料画像処理装置及び自発光材料画像処理方法 | |
JP2007232684A (ja) | 計測装置および計測方法並びに計測プログラム | |
KR101777696B1 (ko) | 면적 대칭성을 이용한 에지 위치 결정 방법 | |
CN112969963B (zh) | 信息处理设备及其控制方法和存储介质 | |
KR101559338B1 (ko) | 카메라 모듈용 결함 픽셀 평가 시스템 및 이를 사용한 카메라 모듈용 결함 픽셀 평가 방법 | |
KR101520835B1 (ko) | 이미지 획득 방법 및 이를 이용한 이미지 획득 장치 | |
JP4452793B2 (ja) | 不法投棄箇所検知装置、方法、およびプログラム | |
JP2006133055A (ja) | ムラ欠陥検出方法及び装置、空間フィルタ、ムラ欠陥検査システム並びにムラ欠陥検出方法のプログラム | |
JP2019215247A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP5907659B2 (ja) | 検査方法 | |
KR101583662B1 (ko) | 광각 카메라 영상의 특징점 검출 방법 | |
JP6685550B2 (ja) | オートフォーカス装置及びオートフォーカス用プログラム | |
JP2007172554A (ja) | 画像処理装置、及び画像処理方法 | |
JP2017166855A (ja) | 検出装置、方法及びプログラム | |
JP2023093044A (ja) | 情報処理装置、撮影システム、方法、及びプログラム | |
CN117132489A (zh) | 一种图像校正方法、装置及设备 | |
JP2018013344A (ja) | Mtf測定装置およびそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200826 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7050824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |