JP2021163190A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2021163190A JP2021163190A JP2020063890A JP2020063890A JP2021163190A JP 2021163190 A JP2021163190 A JP 2021163190A JP 2020063890 A JP2020063890 A JP 2020063890A JP 2020063890 A JP2020063890 A JP 2020063890A JP 2021163190 A JP2021163190 A JP 2021163190A
- Authority
- JP
- Japan
- Prior art keywords
- image
- determination
- information processing
- defocus
- recognition target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 121
- 238000003672 processing method Methods 0.000 title claims 5
- 238000012545 processing Methods 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims description 261
- 230000008569 process Effects 0.000 claims description 237
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 45
- 238000007689 inspection Methods 0.000 description 30
- 238000003860 storage Methods 0.000 description 21
- 238000006253 efflorescence Methods 0.000 description 10
- 206010037844 rash Diseases 0.000 description 10
- 238000013523 data management Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000012567 pattern recognition method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/431—Frequency domain transformation; Autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
【解決手段】情報処理装置(100)は、被写体を撮影した画像に対応するデフォーカスマップを作成するマップ作成手段(123)と、認識対象を設定する対象設定手段(124)と、デフォーカスマップに基づいて、画像について認識対象の認識が可能かどうかを判定する判定手段(125)と、を有する。
【選択図】図1
Description
<第1の実施形態>
図1(a)および図1(b)は、第1の実施形態に係る情報処理装置の構成例を示す図である。図2(a)〜図2(e)は本実施形態の情報処理の概要説明に用いる図である。
以下の実施形態では、検査対象を撮影した撮影画像に対応する合焦の程度を表すマップとして、デフォーカス値の分布を表したデフォーカスマップを用いて、撮影画像内で認識対象を認識可能な範囲を判定する例に挙げて説明する。特に本実施形態では、橋梁などの構造物の経年劣化を点検するような、いわゆるインフラ点検を行うため情報処理システムを例に挙げて説明する。
「検査対象」とは、インフラ点検が行われるコンクリート構造物等である。
「認識対象」とは、コンクリート構造物に生じているコンクリートのひび割れや浮き、剥落、エフロレッセンス、鉄筋露出、錆、漏水、水垂れ、腐食、損傷(欠損)、コールドジョイント、析出物、或いはジャンカなどである。
「判定処理」とは、検査対象を撮影した画像から、認識処理によって認識対象を認識可能な範囲を判定する処理である。本実施形態における判定処理の詳細は後述する。
「ユーザ」とは、コンクリート構造物等の検査対象の撮影画像を観ることで、表面にひび割れなどの認識対象があるか否か等の検査を行う検査者である。
図2(e)は、画像200に対して判定結果204を重畳した画像205の例を示した図である。ユーザは、この画像205を観ることで、ひび割れの太さ(幅)ごとに、認識処理で認識可能な範囲を確認することができる。例えば、微細なひび割れ211は、微細なひび割れを認識可能な範囲を表している領域232の外に位置するため、認識処理での認識が難しいと判断できる。一方、太い(幅が広い)ひび割れ213は、太いひび割れを認識可能な範囲を表している領域231内に位置するため、認識処理での認識が行えると判断できる。本実施形態の情報処理装置100によれば、このような判定結果が重畳された画像205を表示することにより、ユーザは、画像200の各位置においてひび割れの認識処理が可能である範囲を容易に確認することができる。
ROM(Read−Only Memory)102は、プログラムメモリであって、CPU101が各種処理手順の実行および制御を行うための制御プログラムを格納している。
RAM(Random Access Memory)103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。なお、情報処理装置100に接続された外部記憶装置等からRAM103にプログラムをロードすることで、プログラムメモリが実現されてもよい。
操作部106は、キーボードやマウス、タッチパネルの操作装置と、ユーザの操作に応じて操作装置から出力される各操作情報を受け付ける操作情報受付機能とを有する。
通信部107は、公知の通信技術により、他の情報処理装置や通信機器、外部記憶装置等との間で、有線又は無線による双方向の通信を行う。
判定部125は、デフォーカスマップを基に、撮影画像について、認識対象の認識処理が可能な範囲を判定する処理を行う。判定部125における判定処理の詳細は後述する。
デフォーカスマップ作成部123は、その撮影画像から各画素の位置毎のデフォーカス値を算出し、それら画素毎のデフォーカス値の分布を表すデフォーカスマップを作成する。前述したように、デフォーカスマップは、検査対象である被写体を撮影した際の当該被写体面におけるデフォーカス値の分布を表したマップであり、例えば参考文献1に例示される公知の方法を用いて作成可能である。なお、デフォーカスマップは、画像の特定の位置におけるデフォーカス値(ピントのズレ量)が算出できるデータであればよく、ラスターデータに限るものではないが、本実施形態ではラスターデータとして扱うものとする。
ステップS301の後、ステップS302に進むと、認識対象設定部124は、撮影画像について認識処理で認識可能か否かの判定が行われる際の認識対象を設定する処理を行う。本実施形態のようにコンクリート構造物の点検が行われる場合、コンクリートの壁面上に発生するひび割れやエフロレッセンス、漏水などが、認識対象として設定される。本実施形態の場合、認識対象設定部124は、例えば、UI(ユーザインタフェース)画面を通じてユーザから指示された認識対象を、認識処理で認識可能か否かの判定が行われる認識対象として設定する。
図5(a)のUI画面500には、ひび割れやエフロレッセンス、漏水などの複数の認識対象を項目別に並べた認識対象一覧501が用意されている。認識対象一覧501には、項目毎にチェックボックスが設けられている。ユーザが操作部106の操作を通じて所望のチェックボックスにチェックを入れた場合、認識対象設定部124は、そのチェックが入れられた項目に対応した認識対象を、認識処理で認識可能か否かの判定が行われる際の認識対象として設定する。
ステップS302の後、ステップS303に進むと、判定部125は、検査対象の撮影画像について、認識対象設定部124で設定された認識対象の認識処理が可能な範囲を判定する処理を行う。本実施形態の場合、判定部125は、デフォーカスマップ作成部123からデフォーカスマップを取得し、デフォーカスマップの各位置に対応する判定結果を出力する。本実施形態の判定部125における判定処理について、図6(a)〜図6(f)を用いて説明する。
ステップS303の後、ステップS304に進むと、情報処理装置100は、判定部125による判定結果を表示するための表示データを作成し、それを表示する。なお、表示データの作成はCPU101が行う。そして、本実施形態の情報処理装置100は、判定結果の表示が完了したら、図3のフローチャートの処理を終了する。
図7(a)は、複数の認識対象についてそれぞれ判定処理が行われた場合の判定結果を可視化した判定結果701を示した図であり、例えばひび割れとエフロレッセンスについての判定結果を示している。判定結果701において、実線で囲われた領域702はひび割れについての判定結果を表し、点線で囲われた領域703はエフロレッセンスについての判定結果を表している。
例えば図7(b)の画面712において、ユーザが、いわゆるマウスオーバー等の操作を行い、判定結果画像711上の所望の位置715付近にマウスカーソル716の先端を合わせたとする。この場合、情報処理装置100は、そのユーザ操作に基づいて、位置715を注目位置として設定し、その注目位置における判定結果を読み込み、図7(c)に示すような認識可能な認識対象リストを生成して表示部105の画面上にポップアップ等で表示する。
図7(d)は、判定結果をサマリ表示する場合の例を示した図である。図7(d)は、ひび割れの大きさ(幅)毎の判定結果721のサマリ表示例を示している。判定結果721において、認識可能比率とは、撮影画像全体の面積に対し、ひび割れを認識可能と判定した領域の面積比率である。また、判定サマリとは、認識可能比率が高い場合(例えば80%以上の場合)にOKとし、そうでない場合にNGとした判定結果である。このようなサマリ表示が行われることにより、ユーザは、画像上で各認識対象が判定可能か否かを確認し易くなる。
第1の実施形態では、判定部125の判定処理において、学習済みモデルを利用する例を挙げて説明したが、学習の不十分なモデルを利用して認識判定を行うような変形例も本実施形態に含めることができる。この例の場合、まず、少ない量の学習データで学習させたモデルを初期モデルとする。そして、判定部125は、その初期モデルを分類器とし、デフォーカスマップを入力して、認識対象設定部124で設定された認識対象に対する判定処理を行い、その判定結果を出力する。さらにこの例の場合、その判定結果を例えばユーザが修正した場合、その修正結果とデフォーカスマップのペアを学習データとして利用し、初期モデルを機械学習により再学習させる。このような判定処理とモデル学習とを繰り返すことにより、認識判定性能の高い学習済みモデルの作成が可能となる。
以上の実施形態では、インフラ点検における検査対象を撮影した画像から、ひび割れ等の認識対象を認識可能な範囲を判定する例を挙げて説明したが、本実施形態に係る情報処理の適用先は特定の分野に限定されない。例えば、製造工場等において、製品を撮影した画像からキズなどの欠陥を確認する作業(外観検査)などにも、本実施形態の情報処理は適用可能である。外観検査では、製造工場等で製造する製品の外観が要求品質を満たすかどうかを、製品の撮影画像を用いた画像認識処理により実施する。この検査において、本実施形態の情報処理を適用することにより、製品画像からキズ等の欠陥を認識可能な範囲の判断に係るユーザの作業を効率化することができる。
第1の実施形態では、撮影画像に対応したデフォーカスマップのみを用いて、当該撮影画像について認識対象を認識可能な範囲を判定する例を挙げた。ここで、インフラ点検において、橋梁やトンネルなどのコンクリート壁面は、経年劣化により汚れ等が蓄積することで、撮影画像におけるテクスチャが複雑化することが多い。テクスチャが複雑化すると、壁面上のひび割れ等が視認し難くなるため、ピントの合った画像であっても、ひび割れ等を認識することが難しくなる可能性がある。
第2の実施形態に係る情報処理装置のハードウェア構成は、図2(a)に示したハードウェア構成に準ずるため、それらの説明は省略する。
図8は、第2の実施形態の構成に係る情報処理装置800の機能ブロック図の一例を示した図である。図8に示した構成は、第1の実施形態の図2(b)に示した構成に対して、追加データ設定部126が設けられている点が異なる。追加データ設定部126は、CPU101により実行される一機能部であって、第2の実施形態での判定処理に用いる追加データを設定する追加設定処理を行う。なお図8の機能ブロックにおいて、追加データ設定部126以外の他の機能部は、図2(a)に示した各機能部に準ずるため、それらの説明は省略する。
図10(a)は、劣化が進行している構造物壁面を撮影した画像1001の例を示した図である。画像1001のうち、領域1002は、壁面汚れによって、ひび割れ1011が視認し難い状態になっているとする。一方、領域1003は、壁面汚れが少ないため、ひび割れ1012は視認し易い状態であるとする。
判定部125は、認識対象に対する判定処理において、第1の実施形態と同様に、機械学習により学習させた学習済みモデルを、判定処理で用いる分類器として利用することができる。第2の実施形態の学習済みモデルは、デフォーカスマップと追加データとを入力とし、デフォーカスマップの各位置における判定結果を示す教師データのペアを学習データとして学習させたモデルである。この学習済みモデルは、例えば、ニューラルネットワークモデルで構成可能である。各モデルの選択方法や結果出力などは、第1の実施形態と同様であるため、その説明は省略する。
図10(c)に示した判定結果1021のうち、領域1022はひび割れを認識可能と判定した領域であり、一方、領域1023はひび割れを認識できないと判定した領域である。領域1022と領域1023の各位置におけるデフォーカス値は、図10(b)のデフォーカスマップ1004で示したように大半が「0」であるため、領域1022と領域1023のどちらの領域もおよそピントが合っている。第2の実施形態の場合、デフォーカスマップ1004に加えて、テクスチャに関連する追加データをも使用して判定処理を行うことにより、撮影画像のテクスチャを考慮した判定処理がなされることになる。これにより、第2の実施形態に係る判定処理では、領域1023はひび割れを認識できない領域として適切に判定することができる。すなわち、第2の実施形態によれば、撮影した画像中の被写体面が汚れているような場合であっても、画像のテクスチャを考慮した判定処理を行うことができる。
第1〜2の実施形態で説明した判定処理によって、撮影画像中の各位置で認識対象を認識できないと判定された画像は、通常は、認識処理に適さない画像となる。この場合、代わりの画像を取得するために再撮影が必要となる。しかしながら、インフラ構造物の壁面を高解像度に撮影する作業は手間がかかる。
範囲設定部128は、CPU101の機能部であって、判断部127で2度目の判定処理を行うと判断された際に、撮影画像のなかで当該2度目の判定処理を行う画像範囲を設定する処理を行う。範囲設定部128における範囲設定処理の詳細は後述する。
加工部129は、CPU101の機能部であって、判断部127で2度目の判定処理を行うと判断された際に、範囲設定部128で設定された画像範囲の画像データに対して所定の画像加工処理を行う。加工部129における画像加工処理の詳細は後述する。
続いてステップS302において、認識対象設定部124は、前述の実施形態で説明したのと同様にして認識対象を設定する。
次のステップS901に進むと、追加データ設定部126は、撮影画像に所定の画像処理を施して追加データとして設定する。ただし第3の実施形態の場合、ステップS901では、構造物壁面を撮影した画像データのRGBの3チャネルからなるRGB画像が、追加データとして設定される。
そして次のステップS902において、判定部125は、デフォーカスマップと追加データとを用いて、認識対象を認識可能な範囲の判定処理を実行する。このステップS902での判定処理が、第3の実施形態における1度目の判定処理である。
第3の実施形態では、図11(a)の各機能部のみで情報処理が実行される例を説明したが、例えば図11(b)に示すように、ソフトウェア・アズ・ア・サービス(SaaS)アプリケーション上で動作する例として実現されてもよい。すなわち、図11(b)は、第3の実施形態を、SaaSアプリケーション上で動作する例として説明するブロック図の一例である。
撮像装置1112は、デジタルスチルカメラ等であり、検査対象であるコンクリート構造物等の被写体を撮影する。
前述した第1〜第3の実施形態における判定処理の判定結果について誤判定が生じているかどうかをユーザが確認する場合、例えば画像サイズが大きいと、画像の各位置の判定結果を確認する作業に手間がかかる可能性がある。
そこで、第4の実施形態の情報処理装置は、判定処理の判定結果に基づいて判定根拠を求め、その判定根拠を判定結果と共に表示する。これにより、ユーザは、判定根拠と共に判定結果が妥当かどうかを判断し易くなる。第4の実施形態の場合、情報処理装置は、例えば判定結果の異なる領域毎に画像特徴量を算出し、その領域毎の画像特徴量に基づいて判定根拠を決定するような根拠決定処理を実行し、さらにその判定根拠を判定結果と共に表示する根拠表示処理を実行する。以下、第4の実施形態に係る情報処理を、第2の実施形態との差分を中心に説明する。
図17(a)はひび割れが発生している壁面の撮影画像1701の一例を示した図である。図17(b)は図17(a)の撮影画像1701に対するひび割れの判定結果1702の例を示した図である。判定結果1702において、斜線が描かれた領域1703は、ひび割れを認識可能と判定された領域であり、領域1704は、ひび割れを認識できないと判定された領域である。
図18(a)は、判定結果を可視化した結果と撮影画像を重畳して作成した判定結果1802と、判定根拠一覧1806とを表示した画面1801の一例を示した図である。判定結果1802は、壁面の撮影画像と判定結果とを重畳した画像である。図18(a)は、認識対象選択プルダウン1805の操作を通じてユーザにより選択されたひび割れの判定結果が表示された例を示している。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
Claims (23)
- 被写体を撮影した画像に対応するデフォーカスマップを作成するマップ作成手段と、
認識対象を設定する対象設定手段と、
前記デフォーカスマップに基づいて、前記画像について前記認識対象の認識が可能かどうかを判定する判定手段と、
を有することを特徴とする情報処理装置。 - 前記被写体を撮影した画像と前記判定の結果とを、位置関係を対応付けて表示装置に表示する結果表示手段を有することを特徴とする請求項1に記載の情報処理装置。
- 前記デフォーカスマップは、前記画像が撮影された際の合焦の度合を画像内の位置毎に示すデフォーカス値の分布を表すことを特徴とする請求項1または請求項2に記載の情報処理装置。
- 前記判定手段は、前記デフォーカスマップの各位置におけるデフォーカス値に基づいて、前記画像の位置毎に前記判定を行うことを特徴とする請求項3に記載の情報処理装置。
- 前記画像のテクスチャに関連した追加データを設定する追加設定手段を有し、
前記判定手段は、前記デフォーカスマップと前記追加データとを用いて前記判定を行うことを特徴とする請求項1から請求項4のいずれか1項に記載の情報処理装置。 - 前記追加設定手段は、前記画像に対して所定の画像処理を施して前記追加データを生成することを特徴とする請求項5に記載の情報処理装置。
- 前記追加設定手段は、前記所定の画像処理によって前記画像の各画素の値を変化させたデータを前記追加データとして生成することを特徴とする請求項6に記載の情報処理装置。
- 前記所定の画像処理は高速フーリエ変換処理であり、前記追加データは前記高速フーリエ変換処理で得られた高周波成分のデータであることを特徴とする請求項6または請求項7に記載の情報処理装置。
- 前記所定の画像処理はエッジ輪郭成分を抽出する処理であり、前記追加データは前記エッジ輪郭成分を含むデータであることを特徴とする請求項6または請求項7に記載の情報処理装置。
- 前記追加データは前記撮影により得られたRGBの3チャネルの画像であることを特徴とする請求項5に記載の情報処理装置。
- 前記判定の結果に基づいて前記画像を分割して、前記分割した画像ごとに画像特徴量を取得し、前記分割した画像ごとの前記画像特徴量から、前記判定の結果に対する判定根拠を決定する決定手段をさらに有することを特徴とする請求項5から請求項10のいずれか1項に記載の情報処理装置。
- 前記判定の結果に基づいて前記画像を分割して、前記分割した画像ごとにデフォーカス値を取得し、前記分割した画像ごとの前記デフォーカス値から、前記判定の結果に対する判定根拠を決定する決定手段をさらに有することを特徴とする請求項5から請求項10のいずれか1項に記載の情報処理装置。
- 前記判定の結果に対する前記判定根拠を表示装置に表示する根拠表示手段を有することを特徴とする請求項11または請求項12に記載の情報処理装置。
- 前記認識対象とは、構造物の表面に生じたひび割れを含むことを特徴とする請求項1から請求項13のいずれか1項に記載の情報処理装置。
- 被写体を撮影した画像に対応するデフォーカスマップを作成するマップ作成手段と、
認識対象を設定する対象設定手段と、
前記デフォーカスマップと前記画像から取得した特徴量との、少なくともいずれかを基に、前記画像のなかの前記認識対象が認識可能かどうかを判定する判定手段と、
前記判定手段による1度目の判定の結果に基づいて、2度目の判定を行うか否かを判断する判断手段と、
前記2度目の判定を行うと判断された場合に、前記1度目の判定の結果に基づく画像範囲を設定する範囲設定手段と、
前記設定された前記画像範囲の画像に対して所定の画像加工処理を行う加工手段と、を有し、
前記2度目の判定を行うと判断された場合、前記判定手段は、前記画像加工処理で生成されたデータに基づいて、前記認識対象が認識可能かどうかの2度目の判定を行うことを特徴とする情報処理装置。 - 前記所定の画像加工処理は、前記画像範囲の画像の各画素の値を変化させる処理であることを特徴とする請求項15に記載の情報処理装置。
- 前記所定の画像加工処理は、前記画像に対するコントラスト変換処理であることを特徴とする請求項16に記載の情報処理装置。
- 前記所定の画像加工処理は、前記画像に対する超解像処理であることを特徴とする請求項15に記載の情報処理装置。
- 前記所定の画像加工処理は、前記画像に対する低解像化処理であることを特徴とする請求項15に記載の情報処理装置。
- 前記被写体を撮影した画像と前記判定手段による前記1度目の判定の結果と前記2度目の判定の結果とを、位置関係を対応付けて表示装置に表示する結果表示手段を有することを特徴とする請求項15から請求項19のいずれか1項に記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
被写体を撮影した画像に対応するデフォーカスマップを作成するマップ作成工程と、
認識対象を設定する対象設定工程と、
前記デフォーカスマップに基づいて、前記画像について前記認識対象の認識が可能かどうかを判定する判定工程と、
を有することを特徴とする情報処理方法。 - 情報処理装置が実行する情報処理方法であって、
被写体を撮影した画像に対応するデフォーカスマップを作成するマップ作成工程と、
認識対象を設定する対象設定工程と、
前記デフォーカスマップと前記画像から取得した特徴量との、少なくともいずれかを基に、前記画像のなかの前記認識対象が認識可能かどうかを判定する判定工程と、
前記判定工程による1度目の判定の結果に基づいて、2度目の判定を行うか否かを判断する判断工程と、
前記2度目の判定を行うと判断された場合に、前記1度目の判定の結果に基づく画像範囲を設定する範囲設定工程と、
前記設定された前記画像範囲の画像に対して所定の画像加工処理を行う加工工程と、を有し、
前記2度目の判定を行うと判断された場合、前記判定工程では、前記画像加工処理で生成されたデータに基づいて、前記認識対象が認識可能かどうかの2度目の判定を行うことを特徴とする情報処理方法。 - コンピュータを請求項1から請求項20のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020063890A JP7434032B2 (ja) | 2020-03-31 | 2020-03-31 | 情報処理装置、情報処理方法、およびプログラム |
US17/200,573 US11836961B2 (en) | 2020-03-31 | 2021-03-12 | Information processing apparatus, information processing method, and storage medium for determining whether a captured image of a subject is suitable for recognition processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020063890A JP7434032B2 (ja) | 2020-03-31 | 2020-03-31 | 情報処理装置、情報処理方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021163190A true JP2021163190A (ja) | 2021-10-11 |
JP2021163190A5 JP2021163190A5 (ja) | 2023-02-09 |
JP7434032B2 JP7434032B2 (ja) | 2024-02-20 |
Family
ID=77854603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020063890A Active JP7434032B2 (ja) | 2020-03-31 | 2020-03-31 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11836961B2 (ja) |
JP (1) | JP7434032B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023100336A1 (ja) * | 2021-12-02 | 2023-06-08 | 日本電信電話株式会社 | 学習モデル構築装置、推定装置、学習モデル構築方法、推定方法、及びプログラム |
WO2023175848A1 (ja) * | 2022-03-17 | 2023-09-21 | 日本電気株式会社 | 表示支援装置、表示支援方法、および記録媒体 |
WO2023176393A1 (ja) * | 2022-03-14 | 2023-09-21 | キヤノン株式会社 | 認識装置、認識処理方法、及びプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022102666A (ja) * | 2020-12-25 | 2022-07-07 | 新東工業株式会社 | 検査装置、検査方法、機械学習装置、及び機械学習方法 |
CN116958138B (zh) * | 2023-09-19 | 2023-12-19 | 河南省建筑质量监督检验中心有限公司 | 一种用于桥梁检测的取样控制方法、系统、设备及介质 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010055300A (ja) | 2008-08-27 | 2010-03-11 | Olympus Corp | 画像処理装置及び画像処理方法 |
JP5178553B2 (ja) | 2009-01-27 | 2013-04-10 | オリンパス株式会社 | 撮像装置 |
JP5384429B2 (ja) | 2010-05-21 | 2014-01-08 | 日本電信電話株式会社 | コンクリート構造物画像のひび割れ検知装置、ひび割れ検知方法及びそのプログラム |
US10592196B2 (en) * | 2012-02-07 | 2020-03-17 | David H. Sonnenberg | Mosaic generating platform methods, apparatuses and media |
JP5716057B2 (ja) | 2013-06-24 | 2015-05-13 | ビッグローブ株式会社 | 表示装置、表示方法、プログラム |
US9564291B1 (en) * | 2014-01-27 | 2017-02-07 | Mochii, Inc. | Hybrid charged-particle beam and light beam microscopy |
JP6201798B2 (ja) | 2014-02-12 | 2017-09-27 | 富士通株式会社 | システム、情報処理装置、情報処理方法、および情報処理プログラム |
US10628924B2 (en) * | 2015-12-14 | 2020-04-21 | Peking University Shenzhen Graduate School | Method and device for deblurring out-of-focus blurred images |
JP2018007082A (ja) | 2016-07-04 | 2018-01-11 | キヤノン株式会社 | 画像再生装置およびその制御方法およびプログラム |
US11120293B1 (en) * | 2017-11-27 | 2021-09-14 | Amazon Technologies, Inc. | Automated indexing of media content |
US10934023B2 (en) * | 2017-12-19 | 2021-03-02 | Saishi Frank Li | Image recognition for vehicle safety and damage inspection |
EP3527071A1 (en) * | 2018-02-14 | 2019-08-21 | Bayer AG | A spray apparatus for a vehicle |
EP3813024A4 (en) * | 2018-06-25 | 2022-01-05 | Sony Group Corporation | IMAGE PROCESSING DEVICE AND METHOD |
US20210235067A1 (en) * | 2018-07-06 | 2021-07-29 | Pcms Holdings, Inc. | Method and system for forming extended focal planes for large viewpoint changes |
WO2020077096A1 (en) * | 2018-10-10 | 2020-04-16 | Adroit Worldwide Media, Inc. | Systems, method and apparatus for automated inventory interaction |
JP7412983B2 (ja) * | 2019-02-04 | 2024-01-15 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6746738B2 (ja) | 2019-02-26 | 2020-08-26 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
US20220191401A1 (en) * | 2019-03-27 | 2022-06-16 | Sony Group Corporation | Image processing device, image processing method, program, and imaging device |
US11770493B2 (en) * | 2019-04-02 | 2023-09-26 | ACV Auctions Inc. | Vehicle undercarriage imaging system |
EP3734506A1 (en) * | 2019-05-02 | 2020-11-04 | Alitheon, Inc. | Automated authentication region localization and capture |
-
2020
- 2020-03-31 JP JP2020063890A patent/JP7434032B2/ja active Active
-
2021
- 2021-03-12 US US17/200,573 patent/US11836961B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023100336A1 (ja) * | 2021-12-02 | 2023-06-08 | 日本電信電話株式会社 | 学習モデル構築装置、推定装置、学習モデル構築方法、推定方法、及びプログラム |
WO2023176393A1 (ja) * | 2022-03-14 | 2023-09-21 | キヤノン株式会社 | 認識装置、認識処理方法、及びプログラム |
WO2023175848A1 (ja) * | 2022-03-17 | 2023-09-21 | 日本電気株式会社 | 表示支援装置、表示支援方法、および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7434032B2 (ja) | 2024-02-20 |
US20210303896A1 (en) | 2021-09-30 |
US11836961B2 (en) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7434032B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP4345940B2 (ja) | 手ぶれ画像補正方法、記録媒体及び撮像装置 | |
JP5603798B2 (ja) | 欠陥検出装置、欠陥検出方法及びコンピュータプログラム | |
JP5241410B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP2011158549A (ja) | 内視鏡装置およびプログラム | |
JP2021196705A (ja) | 画像処理装置、画像処理方法およびプログラム | |
WO2021014807A1 (ja) | 情報処理装置及び情報処理方法及びプログラム | |
JP2021163190A5 (ja) | ||
JP4709762B2 (ja) | 画像処理装置及び方法 | |
CN111179173B (zh) | 一种基于离散小波变换和坡度融合算法的图像拼接方法 | |
CN116824070B (zh) | 一种基于深度图像的实时三维重建方法及系统 | |
JP5095263B2 (ja) | 画像評価装置、および画像評価プログラム | |
JP2009075846A (ja) | 輪郭抽出装置及びプログラム | |
JP2008219188A (ja) | 画像処理装置、画像処理方法、画像処理装置制御プログラム、及び該プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2010117229A (ja) | 高さ情報取得装置、高さ情報取得方法、及びプログラム | |
JP2009146150A (ja) | 特徴位置検出方法及び特徴位置検出装置 | |
JP2023054012A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7329951B2 (ja) | 画像処理装置およびその制御方法 | |
JP5361246B2 (ja) | 内視鏡装置およびプログラム | |
JPH10108003A (ja) | 画像合成装置および画像合成方法 | |
JP6967382B2 (ja) | Mtf測定装置およびそのプログラム | |
JP2011118554A (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP7408337B2 (ja) | 画像処理方法、および画像処理装置 | |
JP2014010806A (ja) | 光源情報抽出装置、光源情報抽出方法、および光源情報抽出プログラム | |
JP2019215247A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7434032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |