JP7357717B2 - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP7357717B2
JP7357717B2 JP2022062547A JP2022062547A JP7357717B2 JP 7357717 B2 JP7357717 B2 JP 7357717B2 JP 2022062547 A JP2022062547 A JP 2022062547A JP 2022062547 A JP2022062547 A JP 2022062547A JP 7357717 B2 JP7357717 B2 JP 7357717B2
Authority
JP
Japan
Prior art keywords
image
area
image processing
partial area
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022062547A
Other languages
English (en)
Other versions
JP2022089879A (ja
Inventor
康平 岩渕
まほろ 穴吹
伸明 ▲桑▼原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018192136A external-priority patent/JP7058585B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2022089879A publication Critical patent/JP2022089879A/ja
Application granted granted Critical
Publication of JP7357717B2 publication Critical patent/JP7357717B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete

Description

本発明は、撮影画像を合成する技術に関するものである。
従来、橋梁、ダム、及びトンネル等のコンクリート壁面の点検では、調査技術者がコンクリート壁面に接近し、ひび割れなどの変状を目視で確認している。ただし、このような近接目視と呼ばれる点検作業は作業コストが高いという問題点がある。特許文献1では、トンネル内のコンクリート壁をカメラで撮影し、得られた撮影画像に基づいてひび割れを検知する技術を開示している。
特開2002-310920号公報
しかしながら、上述の従来技術においては、コンクリート壁面などの点検対象物と撮影を行うカメラとの間に障害物が存在する場合、当該障害物により遮蔽される部分の画像を得ることができないという問題がある。そのため、当該部分のコンクリート壁面におけるひび割れなどの変状を見逃してしまうおそれがある。
本発明はこのような問題を鑑みてなされたものであり、点検対象物とカメラとの間に障害物が存在する状況において、より好適な変状検知を可能とする画像を生成する技術を提供することを目的とする。
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
第1の視点位置から対象物を含むシーンを撮影した第1の画像と、前記第1の視点位置と異なる第2の視点位置から前記対象物を含むシーンを撮影した第2の画像と、を取得する取得手段と、
前記第1の画像上における前記対象物の特徴の位置に相当する座標位置と前記第2の画像上における前記対象物の特徴の位置に相当する座標位置と、を対応付ける対応付け手段と、
前記対応付け手段による対応付けに基づいて、前記第1の画像における所与の領域に対応する前記第2の画像における部分領域を決定する決定手段と、
前記第1の画像における前記所与の領域の画像を前記決定手段により決定された部分領域の画像を用いて置換し合成画像を生成する生成手段と、
前記対象物に生じた変状を表す変状データを前記生成手段によって生成された前記合成画像に重畳して表示させる表示制御手段と、
を有する。
本発明によれば、より好適な変状検知を可能とする画像を生成する技術を提供することができる。
橋梁下方から観察した際の床版の見え方を例示的に示す図である。 異なる視点位置から撮影した同一の床版領域の画像を例示的に示す図である。 画像処理装置の機能構成の一例を示すブロック図である。 画像処理装置のハードウェア構成の一例を示すブロック図である。 画像処理装置の動作を説明するフローチャートである。 合成画像の生成を説明する図である。 画像処理装置の動作を説明するフローチャートである。 差替領域の指定をユーザから受付けるGUIを例示的に示す図である。 合成画像に対する修正をユーザから受付けるGUIを例示的に示す図である。 床版を撮影する環境の一例を表す模式図である。 合成画像に対して変状検知を行った後の画面を例示的に示す図である。 合成画像に対して変状検知を行う際の画像処理装置の動作を説明するフローチャートである。 画像処理装置の機能構成の一例を示すブロック図である。 画像処理装置の動作を説明するフローチャートである。 メイン画像と切抜画像の位置ずれを補正する処理を段階的に表す図である。 メイン画像と切抜画像の境界部をブレンドする方法の一例を表す図である。
以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、互いに異なる2つの視点位置から橋梁の床版を撮影して得られる2つの画像を合成する画像処理装置を例に挙げて以下に説明する。
<橋梁の床版の撮影>
図1は、橋梁下方から観察した際の床版100の見え方を例示的に示す図である。なお、床版(しょうばん)とは、橋の上を通る車両等の重みを橋桁や橋脚に伝えるための構造物である。ここでは、コンクリート製の床版100を格子状の鋼鉄の橋桁110が支える構造となっており、鋼鉄の橋桁110の、床版100と接しない側には斜材120が配されている。そのため、下方向から観察した場合、床版100の手前を斜材120が横切ることになる。
カメラは、鋼鉄の橋桁による格子に囲まれた床版領域を対象物として撮影を行う。特に、以下では説明を簡単にするために、各格子に囲まれた床版領域の鉛直真下の視点位置からカメラで撮影を行うことを想定する。また、各撮影画像には、中心となる床版領域と共に隣接する床版領域の画像が合わせて撮影されているものとする。なお、ここでは、カメラを移動することにより異なる視点位置から撮影を行うことを想定する。
図10は、床版を撮影する環境の一例を表す模式図である。変状1001は、床版100の表面に現れるひび割れなどの変状であり、撮影画像に収めるべき対象である。また、グレーの矩形で示す空間1002は、変状1001の鉛直真下の視点位置に設置されたカメラ1003aが真上に向けて撮影した場合に、斜材120により視界が遮られる空間領域である。つまり、変状1001は、カメラ1003aが撮影する画像には写らない。カメラ1003aは、例えば三脚や雲台に固定して利用され、地面から1メール前後の高さに固定される。図10に示す例では、カメラ1003aは、床版100の10メートル下に位置する。図10に示されるように、床版100と斜材120とが2mほど離れた位置関係にある場合、変状1001を撮影するためには、撮影の視点位置を水平方向に約2.5m移動すれば十分である。カメラ1003bは、カメラ1003aを水平方向に約2.5m移動させた位置に設置した状態を表している。カメラ1003bは、床版に対して角度をつけて(斜め方向から)撮影を行うことにより、撮影した画像には変状1001が写ることになる。なお、ここでは、カメラを移動することにより異なる視点位置から撮影を行うことを想定したが、複数のカメラを用いて撮影を行ってもよい。
図1の範囲130a及び130bは、それぞれ、床版領域100a及び100bの鉛直真下の視点位置から撮影した場合のシーンの撮影範囲を例示的に示している。図1から理解されるように、床版領域100a及び100bは、範囲130a及び130bの双方に含まれることになる。
図2は、異なる視点位置から撮影した同一の床版領域100aの画像を例示的に示す図である。画像200aは、床版領域100aの鉛直真下の視点位置から撮影した場合の床版領域100aの画像を例示的に示している。画像200aには、ひび割れ210aが写っている。一方、画像200bは、床版領域100bの鉛直真下の視点位置から撮影した場合の床版領域100aの画像を例示的に示している。画像200bには、ひび割れ210bが写っている。以下で説明するように、ひび割れ210a及びひび割れ210bは、実際には同じひび割れを示すものであるためひび割れ210と記述する。
図1及び図2から理解されるように、画像200aは、床版領域100aを正面から撮影したものに相当し、画像200bは、床版領域100aを斜め左方向から撮影したものに相当する。そのため、斜材120とひび割れ210との位置関係が画像200aと画像200bとでは異なったものとなっている。また、縦方向の鋼鉄の橋桁110の写り方が画像200aと画像200bとでは異なったものとなっている。
すなわち、画像200aと画像200bとでは、視差により、斜材によって遮蔽される床版の領域が異なるため、ひび割れ210の写り方が異なるものとなっている。そこで、第1実施形態では、画像200aと画像200bを合成することにより、遮蔽領域の少ない床版領域100aの画像を生成する。これにより、ひび割れ210のような変状をより好適に検知可能な画像とすることが出来る。
<画像処理装置の構成>
図3は、画像処理装置300の機能構成を示すブロック図である。図4は、画像処理装置300のハードウェア構成を示すブロック図である。ここでは、画像処理装置300が一般的なパーソナルコンピュータ(PC)で構成される例を示している。
以下の説明においては、図3に示す画像処理装置300の各機能部をCPUがソフトウェアプログラムを実行することによって実現する形態について説明する。ただし、図3に示す画像処理装置300の各機能部の一部又は全部を、特定用途向け集積回路(ASIC)やFPGAなどのハードウェアにより処理するよう構成してもよい。ここで、FPGAは、field programmable gate arrayの略である。
CPU320は、画像処理装置300を統括的に制御する。CPU320は、例えばROM322やハードディスクドライブ(HDD)326に格納された制御プログラムを実行することにより図3に示される各機能部を実現する。
HDD326は、例えば、画像処理装置300で利用されるアプリケーションプログラムあるいは各種の制御プログラムを記憶する。また、HDD326には、上述のカメラによる撮影画像(例えば、範囲130a及び130bにより示される撮影画像)及び後述の設計図面が格納されている。さらに、HDD326には、アプリケーションプログラムあるいは各種の制御プログラムに関連する各種情報も記憶される。なお、一時的に各種情報を記憶するためにRAM321も利用される。キーボード325及びマウス324は、ユーザからの指示入力を受付ける機能部である。また、ディスプレイ323は、ユーザに対して視覚的に各種情報を提供する機能部である。
画像データ記憶部301は、例えばHDD326や、SSD(solid state drive)、またはそれらの組み合わせなどで構成される。上述したように、複数の視点位置からカメラにより撮影された撮影画像を記憶している。また、対象の橋梁の設計図等に基づいて作成された、橋梁の下方からみた正射投影図である設計図面を記憶している。
なお、以下の説明では、撮影画像として、範囲130a及び130bにより示されるような撮影画像を想定するが、それぞれの撮影画像は、複数の撮影画像(1ショット撮影画像)をスティッチ合成したものでもよい。すなわち、精密なひび割れ検知を行うため、床版を高解像度(例えば、撮影画像の1画素が床版における0.5mmに対応)で撮影を行う必要がある。このとき、例えば2400万画素(横6000画素×縦4000画素)のカメラで撮影を行う場合、1ショット画像は、横3m×縦2mの範囲となり、上述の撮影画像の条件(=隣接する床版画像を含む)を満たすことが出来ない。そのため、複数の1ショット画像をスティッチ合成などにより合成し、上述の撮影画像の条件を満たす画像として生成しておくとよい。
画像データ管理部302は、上述のHDD326に格納された画像データを管理する。例えば、複数の撮影画像がそれぞれどの視点位置により撮影されたものであるかを管理している。また、後述の位置合わせ部303により導出された画像間の対応付け情報を管理する。
位置合わせ部303は、2つ(あるいはそれ以上)の画像間の位置座標の対応付けを決定する機能部である。例えば、2つの画像をディスプレイ323にグラフィカル・ユーザ・インタフェース(GUI)として表示し、ユーザから、当該2つの画像において対応する座標の指定をキーボード325及び/又はマウス324を介して受付ける。そして、画像間の座標を相互に対応付けるための座標変換パラメータを導出する。ここでは、座標変換パラメータとして公知のホモグラフィー行列を導出することを想定するが、他の座標変換パラメータを算出するよう構成してもよい。なお、ここでは、床版領域は2次元平面で近似できるものとする。また、床版領域を取り囲む鋼鉄の桁の床版と接している部分は床版領域と略同一平面上にあると仮定する。
なお、一般にホモグラフィー行列を導出するには、4つのペア座標の指定が必要となる。ただし、さらに多くのペア座標を指定して導出してもよい。その場合には、例えば各ペア座標の座標値を座標変換した結果の誤差の合計を算出し、その値が最小になるようにパラメータを最適化するなどの処理をおこなう。実際には座標ペアは多いほど精度が向上する傾向がある。
差替領域指定部304は、合成を行う2つの画像のうちベースとなる画像(以下ではメイン画像と呼ぶ)に対して、遮蔽により床版が写っていない領域を受付ける機能部である。すなわち、合成を行う2つの画像のうちのもう一方の画像(以下ではサブ画像と呼ぶ)で差替える領域を指定する。例えば、メイン画像をディスプレイ323にGUIとして表示し、ユーザから、メイン画像に含まれる斜材の画像領域の指定をキーボード325及び/又はマウス324を介して多角形や円、楕円等の任意形状の領域として受付ける。なお、差替領域を1つの領域で指定するだけでなく2以上の領域の組み合わせとして指定してもよい。その場合は、当該組み合わせに対する論理和(OR)や論理積(AND)を更に指定する。
なお、ひび割れ等の検知処理においては、床版に正対する位置から撮影した画像であることが望ましい。そのため、以下の説明では、床版領域100aを正面から撮影して得られた画像200a(範囲130a)をメイン画像として用い、床版領域100aを斜め左方向から撮影して得られた画像200b(範囲130b)をサブ画像として用いている。ただし、画像処理としては、処理対象となる床版領域が写っている画像であれば何れの画像をメイン画像としてもよい。
図8は、差替領域の指定をユーザから受付けるGUIを例示的に示す図である。これらのGUIは、差替領域指定部304が、ディスプレイ323のような表示部の表示制御を行うことにより表示される。GUI801は、メイン画像(画像200a)とサブ画像(画像200b)とを並べて表示するGUIである。メイン画像に対してマウスカーソル810を介して差替領域を指定すると、サブ画像において、差替領域に対応する領域が連動して表示されるよう構成されている。
一方、GUI802は、メイン画像とサブ画像とを重畳表示して表示するGUIである。ここではサブ画像の透明度が”80%”の状態で重畳されている状態を示している。なお、サブ画像の透明度指定を行えるよう構成してもよい。なお、複数のサブ画像が存在している場合には、表示するサブ画像を切り替え可能なよう構成してもよい。また、半透明処理がなされた複数のサブ画像を重畳して表示してもよい。
このようなGUIとして構成することにより、メイン画像に対して指定した差替領域がサブ画像においてどのような領域に対応するかを直感的に知ることが可能となる。なお、GUI801およびGUI802には、ユーザからの操作を受け付けるためのボタン等が配されている。例えば、メイン画像を選択するボタン、サブ画像を選択するプルダウンリスト、メイン画像上での差替領域指定を開始するボタン、サブ画像上の差替領域に対応する領域の切り抜きを実行するボタンが配されている。
画像切抜部305は、差替領域指定部304により指定された差替領域に対応するサブ画像における領域の画像を切り抜く機能部である。例えば、差替領域指定部304により指定された差替領域の座標を、位置合わせ部303により導出された座標変換パラメータを利用してサブ画像における座標に変換し、変換により得られた座標に相当する領域の画像をサブ画像から切り抜く。
画像合成部306は、差替領域指定部304により指定された差替領域に対して、画像切抜部305により切り抜かれた切抜画像を上書きし、合成画像を生成する機能部である。例えば、メイン画像に対してサブ画像から切り抜かれた切抜画像を重畳表示した画像を生成する。
なお、様々な要因により、メイン画像と切抜画像との間に位置ずれが発生し得る。そのため、切抜画像を編集可能なオブジェクト画像としてGUI表示し、ユーザから切抜画像の編集(拡縮などの変形)をキーボード325及び/又はマウス324を介して受付けるよう構成してもよい。
図9は、合成画像に対する修正をユーザから受付けるGUIを例示的に示す図である。ウィンドウ900では、メイン画像に対して切抜画像が編集可能なオブジェクト画像として重畳表示されている。ユーザは、マウスカーソル901を介して、切抜画像の拡縮・移動などの変形操作を行うことが可能である。
変状検知部307は、画像合成部306により生成された合成画像に対して、変状検知処理を行う機能部である。ここで、変状検知処理とは、画像における変状(ひび割れなど)を検知し、検知した変状を記録する処理である。例えば、合成画像をGUIに表示し、マウス等を用いたトレース操作によりひび割れの位置をユーザから受付け、トレース箇所またはトレースされた軌跡を表す位置データをひび割れデータ(変状データ)として記録する。あるいは、機械学習等のアルゴリズムを用いた画像解析処理により自動的にひび割れを検知し、その検知箇所をひび割れデータとして記録する。なお、取り扱いを容易にするため、ひび割れデータは、ひび割れの軌跡を示すベクタデータとして記録するとよい。
本実施形態では、ひび割れデータは、独立したグラフィックデータとして利用可能である。例えば、合成画像上のひび割れデータの重畳表示をON/OFF切り替え可能なユーザインタフェースを提供することができる。このように重畳表示を切り替えながら合成画像を確認することにより、ユーザは、変状検知処理の正誤の確認や補足の作業をより容易に行うことができる。また、ひび割れ検知データを保存しておき、所定の期間が過ぎた後で同じ橋梁の同じ床版を撮影して得られる合成画像に対して重畳表示を行うことにより、ひび割れの伸長の有無をユーザが目視確認する作業が容易となる。このとき、ひび割れ検知データの重畳のON/OFF可能に構成してもよい。特に、本実施形態によれば、遮蔽物により隠れた領域を補完した合成画像を変状検知処理の対象とすることができるため、変状検知処理をより簡易に行うことが可能となる。すなわち、撮影位置が異なる複数の画像それぞれに対して変状検知処理を行い、当該複数の画像に対する結果に対して重複する部分とそうではない部分を区別するといった煩雑な作業が不要となる。
図11は、変状検知部307により検知された変状を、合成画像上に重畳表示した画面の一例を示す図である。ウィンドウ1100には、ウィンドウ900とは異なる部分に関する合成画像が表示されている。太線1101は、変状検知部307により検知された床版100上のひび割れデータの一部である(1本分のひび割れに対応する)。このようにひび割れデータは、太線や、破線、色のついた線により、合成画像に写るひび割れ1102との識別及び比較が容易であるように強調表示されるのが好ましい。
<画像処理装置の動作>
図5は、第1実施形態における画像処理装置の動作を説明するフローチャートである。なお、以下の説明では、メイン画像として範囲130aの撮影画像、サブ画像として範囲130bの撮影画像を用いる場合を例に説明を行う。より具体的には、画像200aにおける斜材の画像領域を、画像200bにおける対応する位置に写る床版の部分画像で差替えた合成画像を生成する例について説明する。
S501では、位置合わせ部303は、合成の対象となるメイン画像と1以上のサブ画像とを画像データ記憶部301から取得する。例えば、処理対象の床版領域100aを正面(真下)から撮影した撮影画像を画像データ記憶部301からメイン画像として読み出す。そして、画像データ管理部302に対して、床版領域100aの左右に隣接する床版領域を正面から撮影した撮影画像を問い合わせ、対応する撮影画像を画像データ記憶部301からサブ画像として読み出す。ここでは、左側に隣接する床版領域100bを正面から撮影した撮影画像をサブ画像として読み出す。
S502では、位置合わせ部303は、設計図面を画像データ記憶部301から読み出す。上述したように、設計図面は、橋梁の下方からみた正射投影図であり、例えば、図1に示されるような画像である。
S503では、位置合わせ部303は、メイン画像と設計図面との間の座標の対応関係をユーザから受付け、当該画像間の座標変換パラメータであるホモグラフィー行列を導出する。また、サブ画像と設計図面との間の座標の対応関係をユーザから受付け、当該画像間の座標変換パラメータであるホモグラフィー行列を導出する。これにより、メイン画像やサブ画像(カメラで撮影された中心投影画像)を正射投影画像に変換(正射変換)することが可能となる。また、結果として、メイン画像とサブ画像との間の座標の関係が対応付けられることになる。
ここでは、ユーザは、画像200aにおける床版領域100aの特徴点である四隅の4頂点と、設計図面上における床版領域100aの特徴点である四隅の4頂点とを対応付ける。また、画像200bにおける床版領域100aの4頂点と、設計図面上における床版領域100aの四隅の4頂点とを対応付ける。ただし、画像200bにおける左側の2頂点は鋼鉄の橋桁により遮蔽されていることが予想される。そのため、このことを念頭に入れた2頂点を指定するとよい。例えば、床版領域100aの四隅ではなく、略同一平面上にあると仮定する橋桁の角を指定しても良い。また例えば、橋桁の裏側に存在するその隠れた2頂点の画像上の位置を、見えている残り2頂点や橋桁の角等を頼りに補助線を引くなどして特定し、その特定した点を指定しても良い。また、頂点以外の特徴点があればそれを指定してもよい。ただし、床版と略同一平面に存在する特徴点であることが望ましい。
S504では、差替領域指定部304は、メイン画像に対して、差替領域の指定をユーザから受付ける。上述したように、差替領域とは、メイン画像において、遮蔽により床版が写っていない領域である。ここでは、画像200aにおける斜材の領域を指定する。なお、合成後に画像編集が必要になる場合も想定し、斜材の領域より広い領域を指定してもよい。また、差替領域を直接指定する代わりに、差替領域の画像特徴(テクスチャなど)の指定を受付けてもよい。この場合、差替領域指定部304は、指定された画像特徴に類似するメイン画像内の領域を選択し、差替領域として指定する。
S505では、画像切抜部305は、S504により指定された差替領域(所与の領域)に対応するサブ画像における領域の画像を切り抜く。ここでは、差替領域のメイン画像における座標を、位置合わせ部303により導出された座標変換パラメータを利用してサブ画像における座標に変換し、変換により得られた座標に相当する切抜領域の画像をサブ画像から切り抜く。なお、合成後に画像編集が必要になる場合も想定し、差替領域から導出された切抜領域より広い領域を切り抜いてもよい。ただし、画像特徴等により、広げた領域に床版でない部分が写っていると判断される場合には、その領域を切り抜き対象から除外するよう構成するとよい。
S506では、画像合成部306は、メイン画像において、S504により指定された差替領域に対して、S505により切り抜かれた切抜画像を上書き(置換)し、合成画像を生成する。なお、切抜画像をメイン画像に合成するにあたっては、S503で導出したホモグラフィー行列に基づいて当該切抜画像をメイン画像における座標位置に変換した上で合成する。生成された合成画像は、画像データ記憶部301に保持される。
図12は、メイン画像に切抜画像を合成することにより得られた合成画像に対して、変状検知処理を適用する動作を説明するフローチャートである。S1201では、変状検知部307は、変状検知の対象となる合成画像を画像データ記憶部301から取得する。S1202では、変状検知部307は、S1201で取得した合成画像に対して変状検知処理を適用する。本実施形態では、変状検知部307は、機械学習を用いて画像上から自動的にひび割れを検知し、その検知箇所をひび割れデータとして記録する。
図6は、メイン画像に切抜画像を重畳することによる合成画像の生成を説明する図である。図に示されるように、生成された合成画像600においては、注目床版領域の全域の床版画像が含まれることになる。もちろん、メイン画像にもサブ画像にも映っていない部分領域が存在する場合にはこの限りではない。そのような場合、さらに異なる視点から撮影された1以上の画像を利用した合成処理により、注目床版領域のより広い範囲を写す1つの合成画像を生成し、変状検知処理の対象とすることができる。なお、上述したように、メイン画像と切抜画像との位置ずれを修正可能とすべく、切抜画像を編集可能なオブジェクト画像として表示し、ユーザから拡縮などの変形操作を受付けてもよい。
以上説明したとおり第1実施形態によれば、異なる2つの視点位置から撮影した撮影画像を合成する。この処理により、点検対象物(床版)とカメラとの間に障害物(斜材)が存在する状況においても、変状検知処理に好適な画像を生成することが可能となる。
なお、上述の説明においては、1つのメイン画像に対して1つのサブ画像を利用する形態について説明したが、2以上のサブ画像を利用してもよい。例えば、左側に隣接する床版領域を正面から撮影した撮影画像(画像200b)に併せて、右側に隣接する床版領域を正面から撮影した撮影画像を併せてサブ画像を利用してもよい。
(変形例1)
変形例1では、複数の視点位置からの複数の撮影画像間の対応付けを直接行う形態について説明する。なお、装置構成については第1実施形態とほぼ同様であるため説明は省略する。
<画像処理装置の動作>
図7は、変形例1における画像処理装置の動作を説明するフローチャートである。なお、以下の説明では、第1実施形態と同様に、メイン画像として範囲130aの撮影画像、サブ画像として範囲130bの撮影画像を用いる場合を例に説明を行う。
S701では、位置合わせ部303は、合成の対象となるメイン画像と1以上のサブ画像とを画像データ記憶部301から読み出す。S702では、位置合わせ部303は、メイン画像とサブ画像との間の座標の対応関係をユーザから受付け、当該画像間の座標変換パラメータであるホモグラフィー行列を導出する。
ここでは、ユーザは、画像200aにおける床版領域100aの四隅の4頂点と、画像200bにおける床版領域100aの四隅の4頂点とを対応付ける。ただし、画像200bにおける左側の2頂点は鋼鉄の橋桁により遮蔽されていることが予想される。そのため、このことを念頭に入れた2頂点を指定するとよい。また、頂点以外の特徴点があればそれを指定してもよい。ただし、床版と略同一平面に存在する特徴点であることが望ましい。
S703~S705については、第1実施形態におけるS504~S506と同様であるため説明は省略する。
以上説明したとおり変形例1によれば、設計図面を使用することなく、異なる2つの視点位置から撮影した撮影画像を合成することが可能となる。この処理により、点検対象物(床版)とカメラとの間に障害物(斜材)が存在する状況においても、変状検知処理に好適な画像を生成することが可能となる。
(変形例2)
第1実施形態では、サブ画像から切り抜いた画像にメイン画像との位置ずれが生じた場合は、図9に示したようなGUIにより、ユーザが拡縮・移動の編集を行うことが可能であった。ただし、メイン画像と切抜き画像に生じるずれは、拡縮・移動による編集だけで補い切れるとは限らない。変形例2では、第1実施形態または変形例1により、メイン画像に対して切抜画像を重畳表示した場合(およびそれらを合成した場合)に、境界部分に発生する変状やテクスチャの位置ずれを補正する処理について説明する。
図13は、画像処理装置300の機能構成を示すブロック図である。機能構成については、第1の実施形態と同様である部分については説明を省略する。切抜画像補正部1301は、メイン画像と切抜画像の境界部における変状やテクスチャ、色合いのずれを補正すべく、切抜画像に対して画像処理を適用する機能部である。
図14は、変形例2における画像処理装置の動作の例を説明するフローチャートである。この処理は、図5(S506)または図7(S705)の画像合成処理の事前処理として実行される。あるいは、図12(S1202)の変状検知処理において、処理対象の合成画像を最適化する処理として実行される。なお、以下の説明では、第1実施形態と同様に、メイン画像として範囲130aの撮影画像、サブ画像として範囲130bの撮影画像を用いる場合を例に説明を行う。
S1401では、変状検知部307は、メイン画像および切抜画像に対して、ひび割れの検知処理を実行する。図15(a)は、メイン画像に切抜画像が重畳されている様子を表す図である。メイン画像1501、切抜画像1502のそれぞれでひび割れ1503が検知されている。S1402では、切抜画像補正部1301は、差替領域指定部304で指定した領域の境界に載るひび割れの端点を取得する。図15(b)は、メイン画像1501と切抜画像1502の境界上のひび割れの端点が特定された様子を表す図である。ここでは、特定された8つの端点を丸印で示している。S1403では、切抜画像補正部1301は、S1402で取得したメイン画像のひび割れの端点と切抜画像のひび割れの端点について、所定の範囲に収まる端点同士でペアを作る。図15(c)は、メイン画像1401上のひび割れの端点と切抜画像1402上のひび割れの端点をペアにした様子を表す図である。ここでは、ペアにした2つの端点をそれぞれ点線で示す円1504で囲み、4つのペアが設定された状態を示している。S1404では、切抜画像補正部1301は、メイン画像のひび割れの端点と切抜画像のひび割れの端点からなるペアの数が4つ以上存在するかを判定する。ペアの数が4つ未満の場合、S1405に進む。ペアの数が4つ以上の場合、S1406に進む。
S1405では、切抜画像補正部1301は、切抜画像上とメイン画像との間の座標の対応関係をユーザから受付け、入力された2つの座標からペアを作る。これは、合計4つ以上のペアに基づいて、後述する幾何変換を実行可能とするためにペアを補充する処理である。例えば、位置合わせ部303にて決定されるメイン画像およびサブ画像を位置合わせするために対応付ける座標のペア(S503またはS702)を用いればよい。もしくは、ユーザがメイン画像および切抜画像の任意の位置を改めて選んで対応付けた座標のペアを用いても良い。なお、切抜画像上で指定される座標は、後述するS1406で行われる切抜画像の幾何変換において、変換の影響を抑えたい領域上の座標を指定するのが望ましい。また、S1403において、4つ以上のペアを生成できている場合においても、変換の影響を抑えたい領域を指定する目的で、ユーザのペアの入力を受け付けてもよい。なお、ここでは、ホモグラフィー行列による幾何変換を想定しS1403においてペアの数が「4つ以上」であることを判定している。ただし、他の幾何変換を用いる場合、当該幾何変換に必要な個数であればよく、「4つ以上」でなくてもよい。
S1406では、切抜画像補正部1301は、メイン画像上の座標と切抜画像上の座標のペアを用いて、ホモグラフィー行列を導出する。そして、導出したホモグラフィー行列による幾何変換を切抜画像に適用する。図15(d)は、S1406において、幾何変換を適用した切抜画像をメイン画像に重畳表示した様子を表す図である。以上のようにして幾何変換された切抜画像は、例えば、合成画像に上書きされ、変状検知処理において利用することができる。また例えば、幾何変換された切抜画像を合成画像に重畳表示する、あるいは重畳表示をON/OFFすることが可能なユーザインタフェースを提供することができる。例えば、合成画像(またはメイン画像)に重畳されている切抜画像を編集可能なオブジェクト画像として表示し、ユーザから拡縮などの変形操作を受付けることで、位置ずれをさらに修正可能としてもよい。
なお、メイン画像と切抜画像の境界部では、変状やテクスチャの位置ずれのみならず、色合いのずれ(色ずれ)が発生する場合もある。以下では、境界部の色ずれを補正する2つの方法を述べる。1つは、メイン画像の色ヒストグラムの分布に対して、切抜画像の色ヒストグラムの分布をマッチさせるヒストグラムマッチングによる方法である。もう1つは、切抜画像の境界部付近に対して、中心から外側へ向けて連続的に変化させた透明度を設定し、メイン画像にブレンドする方法である。
図16は、メイン画像と切抜画像の境界部をブレンドする方法を表す図である。図16の(a)~(d)には、それぞれ、メイン画像と切抜画像の位置関係を横から見た場合と上から見た場合の模式図が示されている。図16(a)は、メイン画像1601に写る斜材領域1602(つまり差替領域)上に切抜画像1603を重畳している様子を表す図である。また、画像1611は、境界部における色ずれの発生を例示的に示している。
図16(b)は、切抜画像に対して、中心部分の透明度を0%とし、外側である境界部へ向かうにつれて透明度を100%に変化させた状態を表す図である。なお、この場合、切抜画像のふちにおいて透明度が100%になる。そのため、切抜画像1603の幅と斜材領域1602の幅とが同程度である場合、メイン画像1601に写る斜材領域1602が透けて見えてしまうことになる。画像1612は、斜材領域1602が透けて見えている状態を例示的に示している。そのため、サブ画像から切抜画像1603を切り抜く際に、斜材領域1602の範囲よりも大きめに領域を切り抜くとよい。このような切抜画像1603に対して0%から100%に変化させた透明度を設定することにより、斜材を透けさせることなくブレンドすることができる。
図16(c)は、サブ画像における、差替領域に対応する画像領域を切り抜く際に、周辺領域1604を含めて切抜画像1603を切り抜いた様子を表す図である。つまり、差替領域よりも広い拡張部分領域を切り抜いた様子を表している。また、画像1613は、この場合の周辺領域1604とメイン画像との境界部における色ずれの発生を例示的に示している。図16(d)は、大きめに切り抜かれた切抜画像(拡張部分領域)において、斜材領域1602(つまり差替領域)に対応する部分の透明度を0%とし、周辺領域1604の変化させた状態を表す図である。ここでは、周辺領域1604の透明度を、切抜画像1603に接する側から外側(メイン画像との境界へ向かう側)につれて0%から100%に連続的に変化させた例を示している。また、画像1614は、この処理により境界部における色ずれが目立たなくなった状態を例示的に示している。
メイン画像に切抜画像の境界部に変状やテクスチャの位置や色合い等にずれが発生した場合、変状検知処理において、ひび割れの本数を誤ったり、境界線をひび割れとみなしてしまうような誤検知が生じる可能性がある。変形例2によれば、そのような誤検知の発生を低減することができる。なお、変形例2では、位置ずれ及び色合いのずれについて補正方法を説明したが、画像処理はこれに限らない。同様に、メイン画像とサブ画像のいずれかの色相・彩度・明度のいずれかもしくは全てを基準にして、もう片方の画像における部分領域の色相・彩度・明度のいずれかを調節して、合成画像に反映することができる。これにより、後続して実行される変状検知処理の精度を向上させることができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 画像データ記憶部; 302 画像データ管理部; 303 位置合わせ部; 304 差替領域指定部; 305 画像切抜部; 306 画像合成部; 307 変状検知部

Claims (20)

  1. 第1の視点位置から対象物を含むシーンを撮影した第1の画像と、前記第1の視点位置と異なる第2の視点位置から前記対象物を含むシーンを撮影した第2の画像と、を取得する取得手段と、
    前記第1の画像上における前記対象物の特徴の位置に相当する座標位置と前記第2の画像上における前記対象物の特徴の位置に相当する座標位置と、を対応付ける対応付け手段と、
    前記対応付け手段による対応付けに基づいて、前記第1の画像における所与の領域に対応する前記第2の画像における部分領域を決定する決定手段と、
    前記第1の画像における前記所与の領域の画像を前記決定手段により決定された部分領域の画像を用いて置換し合成画像を生成する生成手段と、
    前記対象物に生じた変状を表す変状データを前記生成手段によって生成された前記合成画像に重畳して表示させる表示制御手段と、
    を有することを特徴とする画像処理装置。
  2. 前記合成画像の解析に基づいて前記対象物に生じた変状を検知する検知手段を更に有し、
    前記表示制御手段は、前記検知手段によって検知された変状を表す前記変状データを前記合成画像に重畳して表示させる
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記取得手段は、前記対象物の設計図面を更に取得し、
    前記対応付け手段は、前記第1の画像上における前記対象物の特徴の位置に相当する座標位置と前記設計図面上における前記対象物の特徴の位置に相当する座標位置とを対応付け、前記第2の画像上における前記対象物の特徴の位置に相当する座標位置と前記設計図面上における前記対象物の特徴の位置に相当する座標位置とを対応付け
    前記決定手段は、前記第1の画像上における座標位置と前記設計図面上における座標位置との対応付け、および、前記第2の画像上における座標位置と前記設計図面上における座標位置との対応付け、に基づいて、前記第1の画像における所与の領域に対応する前記第2の画像における部分領域を決定する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記第1の画像に対して前記所与の領域を指定する指定手段を更に有する
    ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記第1の画像に対して任意形状の領域の指定をユーザから受付ける受付手段を更に有し、
    前記指定手段は、前記任意形状の領域を前記所与の領域として指定する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記受付手段は、複数の任意形状の領域を受付け可能に構成されており、
    前記指定手段は、前記複数の任意形状の領域の論理和又は論理積により得られる領域を前記所与の領域として指定する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 画像特徴の指定をユーザから受付ける受付手段を更に有し、
    前記指定手段は、前記第1の画像において前記画像特徴と類似した領域を前記所与の領域として指定する
    ことを特徴とする請求項4に記載の画像処理装置。
  8. 前記第1の画像と前記第2の画像とを並べて表示部に表示する制御手段を有し、
    前記制御手段は、前記所与の領域に連動して、前記第2の画像に対して前記決定手段により決定された前記部分領域を表示するよう制御する
    ことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 半透明処理した前記第2の画像を前記第1の画像に重畳して表示部に表示する制御手段を有し、
    前記制御手段は、前記対応付け手段による対応付けに基づいて前記半透明処理した前記第2の画像を前記第1の画像に重畳して表示するよう制御する
    ことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  10. 前記半透明処理における透明度を指定する透明度指定手段を更に有する
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記合成画像における前記部分領域と前記第1の画像との間に生じるずれを補正するための画像処理を実行する補正手段を更に有する
    ことを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
  12. 前記補正手段は、前記所与の領域の境界から特定された座標と前記部分領域の境界から特定された座標との対応関係に基づいて前記部分領域の画像に対する変形を行うことにより、前記部分領域と前記第1の画像との間に生じる位置ずれを補正する
    ことを特徴とする請求項11に記載の画像処理装置。
  13. 前記対象物に生じた変状とは、構造物に生じたひび割れであり、
    前記補正手段は、前記第1の画像から検知されたひび割れの前記所与の領域の境界上の端点と、前記第2の画像から検知されたひび割れの前記部分領域の境界上の端点と、を特定し、特定された端点のうち所定の範囲に収まる端点同士の対応付けに基づいて、前記部分領域を変形する
    ことを特徴とする請求項12に記載の画像処理装置。
  14. 前記補正手段は、前記第1の画像の色相・彩度・明度のいずれかもしくは全てを基準にして、前記部分領域の色相・彩度・明度のいずれかもしくは全てを調節することにより、前記部分領域と前記第1の画像との間に生じる色ずれを補正する
    ことを特徴とする請求項11に記載の画像処理装置。
  15. 前記補正手段は、前記部分領域の色相・彩度・明度のいずれかもしくは全てを基準にして、前記第1の画像の色相・彩度・明度のいずれかもしくは全てを調節することにより、前記部分領域と前記第1の画像との間に生じる色ずれを補正する
    ことを特徴とする請求項11に記載の画像処理装置。
  16. 前記生成手段は、透明度が設定された前記部分領域の画像を前記第1の画像の前記所与の領域に重畳することにより前記合成画像を生成し、
    前記補正手段は、前記部分領域において、中心から外側にかけて連続的に高くなる透明度を設定することにより、前記部分領域と前記第1の画像との間に生じる色ずれを補正する
    ことを特徴とする請求項11に記載の画像処理装置。
  17. 前記生成手段は、前記決定手段により決定された部分領域より広い拡張部分領域の画像を前記第1の画像の前記所与の領域に重畳することにより前記合成画像を生成し、
    前記補正手段は、前記拡張部分領域のうち前記部分領域に対して拡張された領域において、前記部分領域に接する側から前記拡張部分領域の外側にかけて連続的に高くなる透明度を設定することにより、前記部分領域と前記第1の画像との間に生じる色ずれを補正する
    ことを特徴とする請求項16に記載の画像処理装置。
  18. 前記対応付け手段による対応付けに基づいて、前記第1の画像に含まれる前記対象物における座標位置と前記第2の画像に含まれる前記対象物における座標位置とを相互に変換する座標変換パラメータを導出する導出手段を更に有し、
    前記決定手段は、前記座標変換パラメータに基づいて、前記第1の画像における所与の領域に対応する前記第2の画像における部分領域を決定する
    ことを特徴とする請求項1乃至17の何れか1項に記載の画像処理装置。
  19. 画像処理装置における制御方法であって、
    第1の視点位置から対象物を含むシーンを撮影した第1の画像と、前記第1の視点位置と異なる第2の視点位置から前記対象物を含むシーンを撮影した第2の画像と、を取得する取得工程と、
    前記第1の画像上における前記対象物の特徴の位置に相当する座標位置と前記第2の画像上における前記対象物の特徴の位置に相当する座標位置と、を対応付ける対応付け工程と、
    前記対応付け工程による対応付けに基づいて、前記第1の画像における所与の領域に対応する前記第2の画像における部分領域を決定する決定工程と、
    前記第1の画像における前記所与の領域の画像を前記決定工程により決定された部分領域の画像を用いて置換し合成画像を生成する生成工程と、
    前記対象物に生じた変状を表す変状データを前記合成画像に重畳して表示させる表示制御工程と、
    を含むことを特徴とする画像処理装置の制御方法。
  20. コンピュータを、請求項1乃至18の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2022062547A 2017-12-25 2022-04-04 画像処理装置およびその制御方法 Active JP7357717B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017248005 2017-12-25
JP2017248005 2017-12-25
JP2018192136A JP7058585B2 (ja) 2017-12-25 2018-10-10 画像処理装置およびその制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018192136A Division JP7058585B2 (ja) 2017-12-25 2018-10-10 画像処理装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2022089879A JP2022089879A (ja) 2022-06-16
JP7357717B2 true JP7357717B2 (ja) 2023-10-06

Family

ID=67067082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022062547A Active JP7357717B2 (ja) 2017-12-25 2022-04-04 画像処理装置およびその制御方法

Country Status (3)

Country Link
US (1) US11830177B2 (ja)
JP (1) JP7357717B2 (ja)
WO (1) WO2019130827A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381009B (zh) * 2020-11-18 2023-01-17 安徽国钜工程机械科技有限公司 一种线阵相机采集隧道图像和图像拼接方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003051021A (ja) 2001-08-03 2003-02-21 Mitsubishi Electric Corp 情報更新装置、情報取得装置および情報更新処理装置
JP2011023814A (ja) 2009-07-13 2011-02-03 Sharp Corp 撮像装置
US20170018113A1 (en) 2015-07-15 2017-01-19 George Mason University Multi-stage method of generating 3d civil site surveys
JP7058585B2 (ja) 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2953131B2 (ja) * 1991-09-09 1999-09-27 日本電信電話株式会社 街並追跡マップ作成方式
JP3869876B2 (ja) * 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
EP0908847B1 (en) * 1997-10-06 2006-01-25 Canon Kabushiki Kaisha Image synthesis apparatus and image synthesis method
JP3063719B2 (ja) * 1997-12-24 2000-07-12 東洋紡績株式会社 織布検反装置
JP4685214B2 (ja) * 2000-06-07 2011-05-18 国立大学法人 東京大学 コンクリート構造物の劣化診断支援システム
JP2002310920A (ja) 2001-04-19 2002-10-23 Keisoku Kensa Kk コンクリート壁のひび割れ検出方法およびその装置
JP3805231B2 (ja) 2001-10-26 2006-08-02 キヤノン株式会社 画像表示装置及びその方法並びに記憶媒体
JP4072330B2 (ja) 2001-10-31 2008-04-09 キヤノン株式会社 表示装置および情報処理方法
US7110021B2 (en) * 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP4114720B2 (ja) * 2002-10-25 2008-07-09 株式会社ソニー・コンピュータエンタテインメント 画像生成方法および画像生成装置
JP4136859B2 (ja) 2003-01-10 2008-08-20 キヤノン株式会社 位置姿勢計測方法
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
US7801346B2 (en) * 2004-09-24 2010-09-21 Hitachi Medical Corporation Medical image display device, method, and program
US8482743B2 (en) * 2004-11-01 2013-07-09 Cognitens Ltd. Method and system for optical edge measurement
US8396329B2 (en) * 2004-12-23 2013-03-12 General Electric Company System and method for object measurement
US7929738B2 (en) * 2005-10-11 2011-04-19 Olympus Corporation Microscope apparatus and microscope system
US9270976B2 (en) * 2005-11-02 2016-02-23 Exelis Inc. Multi-user stereoscopic 3-D panoramic vision system and method
US8200039B2 (en) * 2007-04-05 2012-06-12 Adobe Systems Incorporated Laying out multiple images
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2009060499A (ja) * 2007-09-03 2009-03-19 Sanyo Electric Co Ltd 運転支援システム及び連結車両
TWI393072B (zh) * 2008-07-23 2013-04-11 Pixart Imaging Inc 廣角感測器陣列模組及其影像校正方法、運作方法與應用
JP5451010B2 (ja) * 2008-08-29 2014-03-26 キヤノン株式会社 X線検出装置、情報処理方法および記録媒体
JP4747219B2 (ja) 2009-04-08 2011-08-17 キヤノン株式会社 画像処理装置、画像処理方法
JP2011032641A (ja) * 2009-07-29 2011-02-17 Tokyo Univ Of Science 橋梁の検査方法及び橋梁検査装置
JP5256153B2 (ja) * 2009-09-16 2013-08-07 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
JP5397190B2 (ja) 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
EP2395765B1 (en) * 2010-06-14 2016-08-24 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
US9182487B2 (en) * 2011-06-22 2015-11-10 The Boeing Company Advanced remote nondestructive inspection system and process
WO2012070010A1 (en) * 2010-11-24 2012-05-31 Stergen High-Tech Ltd. Improved method and system for creating three-dimensional viewable video from a single video stream
US8964025B2 (en) 2011-04-12 2015-02-24 International Business Machines Corporation Visual obstruction removal with image capture
JP5808146B2 (ja) * 2011-05-16 2015-11-10 株式会社東芝 画像処理システム、装置及び方法
JP6045139B2 (ja) 2011-12-01 2016-12-14 キヤノン株式会社 映像生成装置、映像生成方法及びプログラム
JP5818091B2 (ja) * 2011-12-27 2015-11-18 ソニー株式会社 画像処理装置、画像処理システム、画像処理方法、および、プログラム
DE102012218382B4 (de) * 2012-10-09 2015-04-23 Leica Microsystems Cms Gmbh Verfahren zum Festlegen eines Lasermikrodissektionsbereichs und zugehöriges Lasermikrodissektionssystem
CN103780830B (zh) * 2012-10-17 2017-04-12 晶睿通讯股份有限公司 连动式摄影系统及其多摄影机的控制方法
US9036943B1 (en) * 2013-03-14 2015-05-19 Amazon Technologies, Inc. Cloud-based image improvement
JP6103526B2 (ja) * 2013-03-15 2017-03-29 オリンパス株式会社 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
US9460510B2 (en) * 2013-03-29 2016-10-04 Siemens Medical Solutions Usa, Inc. Synchronized navigation of medical images
EP3540683A1 (en) * 2013-12-03 2019-09-18 ML Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
US9639968B2 (en) 2014-02-18 2017-05-02 Harman International Industries, Inc. Generating an augmented view of a location of interest
CN106456128B (zh) * 2014-06-12 2020-10-23 皇家飞利浦有限公司 医学图像处理设备和方法
JP6355518B2 (ja) * 2014-10-14 2018-07-11 富士フイルム株式会社 橋梁検査ロボットシステム
KR102149276B1 (ko) * 2014-10-23 2020-08-28 한화테크윈 주식회사 영상 정합 방법
KR102225617B1 (ko) * 2014-11-03 2021-03-12 한화테크윈 주식회사 영상 정합 알고리즘을 설정하는 방법
JP6450589B2 (ja) * 2014-12-26 2019-01-09 株式会社モルフォ 画像生成装置、電子機器、画像生成方法及びプログラム
WO2017038160A1 (ja) * 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
JP6218787B2 (ja) * 2015-09-29 2017-10-25 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、情報処理装置、表示装置、情報処理システム、画像データ送出方法、および画像表示方法
US9906721B2 (en) 2015-10-30 2018-02-27 Essential Products, Inc. Apparatus and method to record a 360 degree image
US10074214B2 (en) * 2015-12-31 2018-09-11 Autodesk, Inc. Systems and methods for generating 3D scenes with time element for display
JP6560366B2 (ja) * 2016-01-06 2019-08-14 富士フイルム株式会社 構造物の部材特定装置及び方法
CN108474748B (zh) 2016-01-22 2021-12-28 富士胶片株式会社 龟裂信息编辑装置、方法及程序
JP6835536B2 (ja) * 2016-03-09 2021-02-24 株式会社リコー 画像処理方法、表示装置および点検システム
EP3520414A1 (en) * 2016-09-29 2019-08-07 Koninklijke Philips N.V. Image processing
US20180095450A1 (en) * 2016-09-30 2018-04-05 Velo3D, Inc. Three-dimensional objects and their formation
EP3327669B1 (en) * 2016-11-26 2022-01-05 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
CN110114798A (zh) * 2016-12-28 2019-08-09 株式会社理光 图像处理设备,图像处理系统,图像捕获系统,图像处理方法和记录介质
WO2018143263A1 (ja) * 2017-02-06 2018-08-09 富士フイルム株式会社 撮影制御装置、撮影制御方法及びプログラム
WO2018168405A1 (ja) * 2017-03-16 2018-09-20 富士フイルム株式会社 画像合成装置、画像合成方法及びプログラム
JP2018192136A (ja) 2017-05-19 2018-12-06 株式会社平和 遊技機
JP6958147B2 (ja) * 2017-09-07 2021-11-02 トヨタ自動車株式会社 画像表示装置
US10489951B2 (en) * 2017-09-29 2019-11-26 Qualcomm Incorporated Display of a live scene and auxiliary object
FR3073290B1 (fr) * 2017-11-09 2020-02-14 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif et procede d'inspection tridimensionnelle d'un objet par rayons x
KR102014261B1 (ko) * 2017-12-12 2019-08-26 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003051021A (ja) 2001-08-03 2003-02-21 Mitsubishi Electric Corp 情報更新装置、情報取得装置および情報更新処理装置
JP2011023814A (ja) 2009-07-13 2011-02-03 Sharp Corp 撮像装置
US20170018113A1 (en) 2015-07-15 2017-01-19 George Mason University Multi-stage method of generating 3d civil site surveys
JP7058585B2 (ja) 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法

Also Published As

Publication number Publication date
US20220327687A1 (en) 2022-10-13
US11830177B2 (en) 2023-11-28
WO2019130827A1 (ja) 2019-07-04
JP2022089879A (ja) 2022-06-16

Similar Documents

Publication Publication Date Title
US9014507B2 (en) Automatic tracking matte system
JP4658223B2 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
US10755671B2 (en) Device, method, and program for controlling displaying of survey image
KR20090031113A (ko) 다수의 2차원 실사 영상들을 이용하여 3차원 영상을생성하는 방법 및 장치
US10893259B2 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
KR20120078949A (ko) 배경 지형 장면의 입체 이미지 생성 방법, 시스템 및 이를 위한 기록매체
JP7357717B2 (ja) 画像処理装置およびその制御方法
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
JP7058585B2 (ja) 画像処理装置およびその制御方法
JP6425511B2 (ja) 地物異動判別方法及び地物異動判別装置並びに地物異動判別プログラム
JP2003209769A (ja) 画像生成装置および方法
JP2009258005A (ja) 三次元測定装置及び三次元測定方法
JP3924576B2 (ja) 写真測量による3次元計測方法及び装置
JP6579706B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
Hanusch A new texture mapping algorithm for photorealistic reconstruction of 3D objects
JPH10108003A (ja) 画像合成装置および画像合成方法
JP2020187557A (ja) 温度画像表示装置、温度画像表示システムおよび温度画像表示プログラム
JP2012134731A (ja) 投影システム、および投影システムにおける投影面の検出方法
JP6564679B2 (ja) 画像処理装置、画像マッチングによる同一部位検出方法および画像処理用プログラム
JP2021047468A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2019145894A (ja) 画像処理装置、画像処理方法及びプログラム
JP7477956B2 (ja) 画像処理装置およびその制御方法、情報処理システム
US20230245378A1 (en) Information processing apparatus, information processing method, and medium
US10176615B2 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230926

R151 Written notification of patent or utility model registration

Ref document number: 7357717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151