JP2004069434A - Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method - Google Patents

Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method Download PDF

Info

Publication number
JP2004069434A
JP2004069434A JP2002227696A JP2002227696A JP2004069434A JP 2004069434 A JP2004069434 A JP 2004069434A JP 2002227696 A JP2002227696 A JP 2002227696A JP 2002227696 A JP2002227696 A JP 2002227696A JP 2004069434 A JP2004069434 A JP 2004069434A
Authority
JP
Japan
Prior art keywords
image
laser
laser light
screen
distant view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002227696A
Other languages
Japanese (ja)
Inventor
Noboru Yasuda
安田 登
Tomoaki Tsutsumi
堤 知明
Koji Sato
佐藤 浩二
Chiaki Ide
井出 千彰
Yasuhiro Kiuchi
木内 康浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Tokyo Electric Power Company Holdings Inc
Original Assignee
Tokyo Electric Power Co Inc
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc, Asia Air Survey Co Ltd filed Critical Tokyo Electric Power Co Inc
Priority to JP2002227696A priority Critical patent/JP2004069434A/en
Publication of JP2004069434A publication Critical patent/JP2004069434A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system which obtains an entire image of a concrete structure by obtaining the distance between a several laser light spots, right and left angles, upper and lower angles, objective distance, reduced scale and the like and then automatically normalizing an image using these parameters, and numerically notifies the state of a breakage automatically. <P>SOLUTION: Distant view images are rearranged so that it can be understood to which place of a surface 1 to be investigated the images each correspond. One distant view image selected from multiple first distant view images is displayed on a screen, all laser Pi points in the distant view image are designated in a predetermined direction, and then the reduced scale ratio of the image is obtained based on the vertical and lateral coordinates of four points of a second laser projectile. Next, the aspect ratio of one distant view image on the screen is corrected based on the reduced scale, objective distance, right and left angles, and upper and lower angles, adjacent distant view images are sequentially displayed, and the same point on these images is designated for each display, thereby obtaining a mosaic image which is an entire image of the surface 1 to be investigated. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、支持フレームでデジタルカメラの周囲を支持し、この支持フレームの左枠の上の角部及び右枠の下の角部に、レンズ中心を通る光軸線に対して平行光線を発射する第1のレーザ発射体をそれぞれ設けると共に、支持フレームの上下左右枠に、光軸線に対して外側へ所定角度をの光線を発射する第2のレーザ発射体をそれぞれ備えた写真装置で被調査面を撮影させて得たレーザ光点付き画像を用いて正規化するレーザ光点付き画像を用いた画像処理方法に関する。
【0002】
【従来の技術】
従来、コンクリート構造物のひび割れ調査は、大きく分けて以下の2つの方法で行われているのがほとんどである。
【0003】
(1)現地実測による調査資料作成(コンクリート構造物のひび割れの状態のスケッチ、ひび割れの実測)
(2)現地の写真による3次元計測、その後の図化モデル作成(構造物の状況地図)
一方、撮影においては、従来はカメラ1台で60%オーバラップの平行移動(標定要素を得るため)で撮影するか、2台のカメラで固定基線長撮影を行って、そのフイルムを現像し、図化機を使用して3次元データを作成し、ひび割れの解析を行っていた。
【0004】
また、標定要素に関しては、従来の方法は、撮影時に標定点(位置基準となる点)を設定して標定要素とするか、固定基線長から計算して標定用パラメータを設定していた。
【0005】
しかしがら、ひび割れ等の損壊調査は、前記した如く現地実測測定方法、あるいは、写真撮影測定方法で行なわれて来たが、前者にあっては、作業者に高い熟練度が要求され、ひび割れ等の位置や幅を個人差なく正確にスケッチするのは困難となる。又、現場での作業に長時間を要するため作業性の面で好ましくない。また、測定箇所が高い所では足場等の作業設備が必要となるし、作業に危険も伴う等の問題を有する。
【0006】
後者にあっては、写真の解析技術も進み写真撮影測定方法が主流となりつつあるが、この場合でも、実物の被調査面と写真画像による被調査面とでは大きさが異なるため、写真撮影時に基準のモノサシ、標定要素となるスケール等の定規を一緒に写し込む必要がある。
【0007】
これにより、写されたスケールから写真画像の縮尺率を求め、それを基準としてひび割れの長さ、幅等の数値を解析することが可能となるが、前記した如く基準モノサシとなるスケール等を被調査面に貼りつける作業が必須となるため、例えば、被調査面が高い位置にある時は、現地実測測定方法と同じようにスケール設置用の高い足場が必要となる。
【0008】
この問題を解消するために、例えば、手に持った状態で撮影できるようコンパクト化が図れると共に、撮影場所、撮影アングル(写す角度)等の条件に制約されることなく真正面から正対した時と同じ正確な写真画像を得るための標定要素を備えた写真データが得られるようにしたコンクリート構造物の損壊撮影装置がある。
【0009】
【発明が解決しようとする課題】
しかしながら、現状は画像に写し出された数点のレーザ光点間の距離を手作業で計測して、左右角、上下角、対物距離、縮尺等を求め、これらのパラメータで画像を正規化させるのがほとんどであった。
【0010】
本発明は、自動的に画像に写し出された数点のレーザ光点間の距離、左右角、上下角、対物距離、縮尺等を求め、これらのパラメータで自動的に正規化して、コンクリート構造物の全体の画像を得ると共に、破損個所の状況を自動的に数値で知らせるシステムを得る。
【0011】
【課題を解決するための手段】
本発明のレーザ光点付き画像を用いた画像処理方法は、支持フレームでデジタルカメラの周囲を支持し、前記支持フレームの左枠の上の角部及び右枠の下の角部に、前記デジタルカメラのレンズ中心を通る光軸線に対して平行光線を発射する第1のレーザ発射体をそれぞれ設けると共に、前記支持フレームの上下左右枠に、前記光軸線に対して外側へ所定角度をの光線を発射する第2のレーザ発射体をそれぞれ備えた写真装置で被調査面を撮影させ、該レーザ光点付き画像を用いて正規化するレーザ光点付き画像を用いた画像処理方法である。
【0012】
コンピュータに、前記写真装置で撮影されたレーザ光点付き画像を取り込んで、画面に表示するステップと、前記画面に表示されたレーザ光点付き画像の前記レーザ光点の位置の指定が有る毎に、前記画面上のピクセル座標を認識するステップと、前記第2のレーザ発射体で得られた4点のピクセル座標に基づいて中心を求め、該中心から前記4点のピクセル座標までのx軸、y軸上の距離を求め、これらの距離の比率から上下、左右の前記デジタルカメラの振れ角を求めるステップと、前記第1のレーザ発射体で得られた2点のピクセル座標と、予め入力されたカメラパラメータとに基づいて前記デジタルカメラのフイルム上と前記被調査面までの対物距離を求め、この対物距離から前記フィルム上の画像の縮尺率を求めるステップと、前記上下、左右の振れ角と前記縮尺率とを用いて前記画面上のレーザ光点付き画像を正面から撮影したときの画像に正規化するステップとを備えたことを要旨とする。
【0013】
本発明のレーザ光点付き画像を用いたモザイク処理方法は、支持フレームでデジタルカメラの周囲を支持し、前記支持フレームの左枠の上の角部及び右枠の下の角部に、前記デジタルカメラのレンズ中心を通る光軸線に対して平行光線を発射する第1のレーザ発射体をそれぞれ設けると共に、前記支持フレームの上下左右枠に、前記光軸線に対して外側へ所定角度をの光線を発射する第2のレーザ発射体をそれぞれ備えた写真装置で被調査面を撮影させ、該レーザ光点付き画像を用いてモザイク画像を生成するレーザ光点付き画像を用いたモザイク処理方法である。
【0014】
コンピュータに、前記被調査面に対してデジタルカメラの焦点距離を一定に保って任意の傾きで、前記被調査面の隣接する所定領域同士を順次撮影させた多数の第1遠景画像を読み込んで画面に表示させるステップと、前記被調査面を一定間隔のメッシュで区切って前記被調査面の番号を割り付けた撮影場所駒表を表示するステップと、前記撮影場所駒表の駒が指定され、かつ前記画面に表示された多数の第1遠景画像内の遠景画像が指定されたとき、該指定された第2遠景画像を前記指定された駒に移動させて前記調査面のどこの場所の遠景画像かが分かるようにするステップと、前記多数の第1遠景画像から1個の遠景画像を画面に表示させて、該遠景画像の内の全ての前記レーザ光点を所定方向で指定させ、該指定位置のピクセル座標を認識するステップと、前記第2のレーザ発射体の4点の縦横座標に基づいて中心を求め、この中心から前記4点の縦横の距離を求め、これらの距離の比率で前記撮影装置の上下角、左右角を求めるステップと、前記第1のレーザ発射体で得られた2点のピクセル座標と、予め入力されたカメラパラメータとに基づいて前記デジタルカメラのフイルム上と前記被調査面までの対物距離を求め、この対物距離と前記比率から前記フィルム上の画像の縮尺率を求めるステップと、前記縮尺及び対物距離並びに左右角及び上下角に基づいて前記画面上の1個の遠景画像の縦横比を補正して前記被調査物を正面から撮影したとする1枚の遠景画像を得るステップと、隣合う遠景画像を順次表示させ、該表示毎にこれらの画像上で同一箇所を指定させてバンドル標定を行って前記被調査面全体の画像であるモザイク画像を得るステップとを備えたことを要旨とする。
【0015】
本発明のレーザ光点付き画像を用いた正規化サービスシステムは、支持フレームでデジタルカメラの周囲を支持し、前記支持フレームの左枠の上の角部及び右枠の下の角部に、前記デジタルカメラのレンズ中心を通る光軸線に対して平行光線を発射する第1のレーザ発射体をそれぞれ設けると共に、前記支持フレームの上下左右枠に、前記光軸線に対して外側へ所定角度をの光線を発射する第2のレーザ発射体をそれぞれ備えた写真装置で被調査面を撮影させた該レーザ光点付き画像を端末に保存し、コンピュータネットワークシステムを介して前記端末と通信を行って正規化された遠景画像、近接画像をサーバから提供するレーザ光点付き画像を用いたサービスシステムである。
【0016】
前記サーバは、前記端末に対しては、前記撮影装置で撮影させたレーザ光点付き画像と前記端末の画面の第2のレーザ発射体の4点のピクセル座標と第1のレーザ発射体の2点のピクセル座標とを送信させる手段と、前記レーザ光点付き画像と前記ピクセル座標とを受信し、その画像上の前記4点の縦横座標に基づいて中心を求め、この中心から前記4点の縦横の距離を求め、これらの距離の比率で前記撮影装置の上下角、左右角を求める手段と、前記第1のレーザ発射体で得られた2点のピクセル座標と、予め入力されたカメラパラメータとに基づいて前記デジタルカメラのフイルム上と前記被調査面までの対物距離を求め、この対物距離と前記比率から前記フィルム上の画像の縮尺率を求める手段と、前記縮尺及び対物距離並びに左右角及び上下角に基づいて前記画面上の1個の遠景画像の縦横比を補正して前記被調査物を正面から撮影したとする正規化した1枚の遠景画像を得る手段と、前記正規化した1枚の遠景画像を前記端末に提供する手段と
を備えたことを要旨とする。
【0017】
【発明の実施の形態】
<実施の形態1>
図1は本実施の形態1のレーザ光点付き画像を用いたモザイク処理システムの概略構成図である。本実施の形態の各部の構成の説明の前にこのシステムに用いるカメラ(以下損壊写真撮影用カメラという)について説明する。
【0018】
図2は建物、橋梁、道路、ダム等のコンクリート構造物等の被調査面1の写真を写す損壊写真撮影用カメラ2の概要斜視図を示している。
【0019】
損壊写真撮影用カメラ2は、矩形に枠組された支持フレーム5内にセットされたカメラ本体7(フラッシュメモリ内蔵のデジタルカメラ)と、コンクリート構造物等の被調査面1に標定要素となる6つの輝点P1,P2,P3,P4,P5,P6を写し出す第1のレーザ発射体9,10,11,12と第2のレーザ発射体13,14とを備えている。また、被調査面1が湾曲(例えばトンネル)していても真正面から見た画像に補正してひび割れが測定できるようにするために、輝点P5、P6を写し出す第3のレーザ光発射体15、16とを備えている。また、合計8個の輝点P1,P2,P3,P4,P5,P6、P7,P8を得て、被調査面1が湾曲していても真正面から見た画像に補正できるようにしてもよい。本実施の形態では6個として説明する。
【0020】
前述の支持フレーム5は、軽量化を図るためにアルミの材質が採用されており、一枚の厚板を矩形にくり抜くことで一体成形され、外力が作用しても変形の起きにくい強度剛性を備えたフレーム構造となっている。
【0021】
また、支持フレーム5は、底部に三脚等にセットできるねじ孔(図示せず)が設けられる一方、左右両サイドには、両手で持てるよう取手15が設けられている。
【0022】
この取手15の一方には、第1のレーザ発射体9,10,11,12と第2のレーザ発射体13,14のオン・オフを行なうための測定光線操作スイッチ17が設けられ、測定光線操作スイッチ17をオンにすることで、第1のレーザ発射体9,10,11,12と、第2のレーザ発射体13,14から測定光線(レーザ)が継続して発射されるようになっている。
【0023】
さらに、取手15の他方には、カメラ本体7のシャッタを作動制御するレリーズ操作釦19を有し、取手15を両手で持ったままシャッタ操作が行なえるようになっている。
【0024】
カメラ本体7は、フイルムの代わりにCCD(電荷結合素子)などの撮像素子を用いて、画像を電気信号に変換し、そのデータをデジタル化して例えば、半導体メモリーやフロッピー(登録商標)ディスク、フラッシュメモリ等に写真データを記録するデジタルカメラとなっている。
【0025】
なお、カメラ本体7は必ずしもデジタルタイプでなくてもよく、通常のフイルムを用いる光学系のカメラであってもよい。この場合は、フィルムをスキャナーで読み取り、処理を行う。カメラ本体7の底部は、カメラ本体セット部材21を介して支持フレーム5に固定支持されている。
【0026】
また、第1のレーザ発射体9,10,11,12と第2のレーザ発射体13,14及び第3のレーザ発射体15、16は発射体取付ケース23a……23hの内部に、電流を流すことで、ケース窓孔からレーザー光を出力する半導体素子(図示していない)が組込まれた構造となっている。半導体素子には前記した測定光線操作スイッチ17のオン操作によって支持フレーム5の上部に配置された電池等の電源部から電流が与えられるようになっている。
【0027】
さらに、第1のレーザ光発射体9,10は、カメラレンズ36の光軸線Yに対して測定光線を並行に発射する一組の並行光線発射用となっている。取付け位置としては支持フレーム5のコーナ部に対角線上に配置され、ケース固定ねじによって発射体取付ケースが直接着脱自在に固定支持された構造となっている。
【0028】
第1のレーザ発射体11,12と第2のレーザ発射体13,14は、カメラレンズ36の光軸線Yに対して所定角度(角度0を含む)外側へ向かって(左右角、上下角別々に)角度付光線を発射する一組の角度付光線発射用となっている。
【0029】
第1のレーザ発射体11,12は上下方向への角度付光線用、第2のレーザ発射体13 ,14は左右方向への角度付光線用となっている。
【0030】
さらに、レーザ発射体11 ,12は、支持フレーム5に対してカメラレンズ36の光軸線Yを通るよう上下位置に対向して配置される一方、第2のレーザ反射体13,14は支持フレーム5に対してカメラレンズ36の光軸線Yを通るよう左右位置に対向して配置され取付部材を介して固定支持された構造となっている。
【0031】
前述の角度付光線の角度は、カメラレンズ焦点距離fによって異なるようになっていて、この実施形態では、カメラレンズ焦点距離fが55mmの時、角度光線の角度は3度となっている。
【0032】
角度付光線を発射する発射体取付ケース23a…は、例えば、被調査面1を拡大して写す望遠レンズ等を用いた時に異なるカメラレンズ焦点距離fに対して、例えば、5度用、7度用というように予め角度がセットされた専用のユニットとなっている。
【0033】
第1の測定光線発射体9,10から発射される並行光線a−1及び第2の測定光線発射体11,12,13,14から発射される角度付光線b−1は、カメラ本体7の上下及び左右方向のふれ角θによって4つの輝点P3,P4,P5,P6が変位するようになっている。
【0034】
図3はカメラ本体7を真正面の正対位置から例えば、上方へふった時の状態を示しており、角度付光線b−1の輝点P3,P4は、実線(黒点)から点線(白点)で示す位置に写し出されると共に、カメラ本体7にはふり角に対応する写真画像データが得られるようになっている。
【0035】
また、図4に示すようにふれ角がゼロの状態から所定角度左方へふることで、輝点P5,P6は実線から点線で示す位置に写し出されると共に、カメラ本体7には、そのふれ角θ時の写真画像データが得られるようになる。
【0036】
P1,P2が並行光線a−1による2つの輝点、P3,P4,P5,P6が角度付光線b−1による輝点となっていて、ふれ角θ時の輝点P3,P4,P5,P6(白点)は、ふれ角ゼロの時の2点の輝点(黒点)間と比くべて大きく開くことがわかる。したがって、開いた2点間の01からの距離比に基づき、図外の写真画像解析装置にかけることで、ふれ角θが求められる。したがって、ふれ角θに基づき演算処理することで正規画像への修正が可能となり、真正面から正対した時と同じ写真画像データが得られるようになる。
【0037】
このような損壊写真撮影用カメラ2は、図5(a)に示すように、同じ位置において、横方向にだけ回転させて、希望のエリアを順次撮影してもよいし、図5(b)に示すように、縦方向にだけ回転させて撮影又は図5(c)に示すように、縦横方向にだけ回転させて撮影させてもよい。また、作業員が手に持って、移動しながら横方向、縦方向、縦横方向のみの希望エリアを順次撮影させてもよい。これらを総称して遠景画像と称する。また、破損、ひび割れ等の変化があるエリアについては近接して撮影してもよい(近接画像と称する)。
【0038】
次に、図1の構成を用いて上記のような破損写真撮影用カメラ2で撮影したデータの解析処理を説明する。
【0039】
本実施の形態では、既にデータベースには、破損写真撮影用カメラ2で撮影した被調査面1の撮影画像(輝点付き)が多数記憶されているとする。また、作業者は何時の撮影画像かを把握している。さらに、作業員は被調査面1をメッシュに区切って番号を割り振った図面等を用意している。
【0040】
図1に示すように、レーザ光付き画像のモザイク処理・ひび割れ計測システム29(パソコン)は、環境設定部30と、画像登録部33と、遠景画像正規化部34と、モザイク化部35と、近接画像正規化部36と、画像割付部37と、解析部38と、並べ替部40等を備えている。
【0041】
環境設定部30は、破損写真撮影用カメラ2で撮影した画像データのある場所を指定するための画面(図示せず)を表示させ、この画面に入力された指定場所(インプットファイルのデレクトリーの指定)をファイル31に保存する。
【0042】
また、環境設定部30は、後述する正規化データ、解析データ等を保存させるための領域を指定させるための画面(図示せず)を表示し、この画面に入力された保存領域(アウトプットファイルのデレクトリの指定)をファイル32(遠景用メモリ領域32a、近接用メモリ領域32b、並替用メモリ領域32c、遠景正規化用メモリ領域32d、近接正規化用メモリ領域32e、解析結果用メモリ領域32f、モザイク用メモリ領域32g等)を確保する。
【0043】
さらに、環境設定部30は、カメラパラメータ、調査面パラメータ、レーザビームパラメータを設定させるための画面を表示し、これらの画面のデータをファイル39に保存する。前述のカメラパラメータは、カメラの種類、セルの大きさ(フイルムの大きさ)、焦点距離等からなる。
【0044】
また、調査面パラメータは、ダムの寸法、座標(xyz)等からなる。レーザビームパラメータは、ビームの角度値、カメラの種類などからなる。
【0045】
画像登録部33は、インプットファイル31に保存されている写真画像データを遠景画像と近接画像とに振り分ける画面を表示し、オペレータの選択で遠景を遠景用メモリ領域32a、近接を近接用メモリ領域32bに保存する。
【0046】
並べ替部40は、遠景画像用メモリ領域32aに保存されている遠景画像を全て画面に表示すると共に、被調査面1をメッシュに区切って番号を割り振った図面に対応した多数の枠からなる画面を表示し、この枠と、遠景画像とが指定される毎に、その枠に遠景画像を割り付ける。そして、この結果を並替用メモリ領域32cに保存する。
【0047】
遠景画像正規化部34は、正規化のための遠景画像データが指定(並べ替え後の遠景画像データを用いている)される毎に、その画面上で指定されたポイントPiを認識し、これらの各点の座標値からカメラのフイルム中心と、フイルムの左右回転角、上下回転角、縮尺計数、投影中心距離を求め、これらの情報に基づいて正面から見た画像に補正する正規化を行う。そして、正規化した遠景画像を遠景正規化用メモリ領域32dに保存する。
【0048】
モザイク化部35は、遠景正規化用メモリ32dに保存された正規化後の遠景画像同士を合成してダム全体の1枚の画像(以下モザイク画像という)を得る。そして、このモザイク画像をモザイク画像用メモリ領域32gに保存する。
【0049】
近接画像正規化部36は、正規化のための近接画像データが指定される毎に、その画面上で指定されたポイントPiを認識し、これらの各点の座標値からカメラのフイルム中心と、フイルムの左右回転角、上下回転角、縮尺計数、投影中心距離を求め、これらの情報に基づいて正面から見た画像に補正する正規化を行う。そして、正規化した近接画像を近接正規化用メモリ領域32eに保存する。
【0050】
画像割付部38は、近接正規化用メモリ領域32eに保存された近接画像を表示し、モザイク画像において指定された枠(座標で定義)と近接正規化用メモリ32eの近接画像(表示された近接画像:正規化されている)とリンク付けする。
【0051】
解析部38は、近接画像(表示された近接画像:正規化されている)のひび割れ箇所(濃度又は輝度で判定)を認識し、このひび割れの部分の面積計測、ひび割れの線長、ひび割れ幅などを計測し、これらの結果を計測結果用メモリ領域32fに保存する。
【0052】
(動作説明)
上記のように構成されたレーザ光点付き画像を用いたモザイク処理・ひび割れ計測システムについて以下に動作を説明する。
【0053】
初めに、作業員の指示によって、コンピュータは、図6に示すメニュー画面を表示する。このメニュ画面は、環境設定ボタンAaと、デジカメ画像登録ボタンAbと、遠景画像正規化ボタンAcと、近接画像正規化ボタンAdと、画像割付ボタンAeと、解析ボタンAf等からなる。
【0054】
次に、作業員が環境設定ボタンAaを選択して環境設定部を起動する。この操作はデジカメの画像がどこにあって、処理した画像や条件をどこに保存するかを決定する画面(図示せず)を表示する。このようにして、多数のカメラ画像を保存(m行n列のデータエリア)する。
【0055】
本実施の形態では、損壊写真撮影用カメラ2を用いて、図5(a)に示すように、同じ位置において、横方向にだけ回転させて、希望のエリアを順次撮影してファイル31に保存され、またアウトプットファイル32も作成されているとする。
【0056】
また、環境設定部30は、図7に示すように、カメラの種類と、セル(カメラの大きさ)の大きさ/ピクセル、セルの大きさ(面積)、CCDの1ピクセルのサイズ、焦点距離、左右角/半角、上下角/半角等のカメラパラメータを入力させるための画面を表示する。
【0057】
そして、デジカメ画像登録ボタンAbを選択する。このデジカメ画像登録ボタンの選択によって画像登録部33が起動して図7に示すようにデジカメ画像の保存箇所を示すフォルダ名領域Baと、選択されたフォルダの選択画像領域Bbと、遠景画像指定領域Bcと、近接画像指定領域Bd等からなる登録画像設定画面を表示する。
【0058】
この登録画像設定画面は、図8に示す遠景画像指定領域Bcと近接画像指定領域Bdは、撮影位置と年月日時刻と、フイルム番号とからなる。
【0059】
つまり、登録したフォルダ(DSC_0005.jpg、DSC_0006.jpg、…)の画像が何枚目のフイルムであるかが分かるようにして、後日作業者が近接、遠景でとったものかが分かるようにしている。
【0060】
前述のフォルダを順次選択することによって領域Bbにフォルダの画像を表示させて、この画像を遠景又は近接に振り分けていく(遠景画像指定領域Bc又は近接画像指定領域Bdに撮影位置と年月日時刻とフイルム番号とを書き込んで)。
【0061】
そして、例えば遠景正規化ボタンBfを選択すると、図9(a)に示す遠景画像正規化の準備画面が表示される。
【0062】
この準備画面には位置のダイアルログと属性情報のダイアルログ等が表示され、位置246は、2002年2月5日に取ったダムの映像が4枚あって、それが未処理(正規化していない)であることを示している。
【0063】
この画面において、正規化処理Caを選択したときには、図9(b)に示すダイアルログが表示される。作業員は、回転並び替えボタンDaを選択する。この回転並び替えボタンDaの選択に伴って図10の並び変え画像を表示する。この画像は、図10(a)の4枚の未処理の画像e1、e2、e3、e4を上段に表示し、下段に並び替えの画面を表示する。この並び替えの画面は被調査面1をメッシュに区切って番号を割り振った図面に対応している。
【0064】
次に、作業員は、上段の各画像ei(第1の遠景画像ともいう)が下段の格子(枠)のどれに該当するかを判断して、該当する格子ni(n1、n2、…)に画像eiを入れ込んでいく。これを遠景画像のモザイク位置の決定と称する。
【0065】
すなわち、並べ替部40は、遠景画像用メモリ領域32aに保存されている第1の遠景画像を全て画面に表示すると共に、被調査面1をメッシュに区切って番号を割り振った図面に対応した多数の枠からなる画面を表示し、この枠と、遠景画像とが指定される毎に、その枠に遠景画像を割り付ける。そして、この結果を並替用メモリ領域32cに保存する。
【0066】
そして、作業員が「00」の並び替えOKとするコマンドを入力すると、図11に示すように、「00」の画像(ポイント付き)が表示される。
【0067】
この画像のポイントPi(P1、P2、…)を右回りでクリックして保存ボタン(図示せず)を選択する。この選択において、各点Piをコンピュータが認識して以下に説明する正規化処理(遠景)を行う。
【0068】
ここで、正規化処理の説明の前に前述のポイントPi(P1、P2、…)付きの写真画像でダムを正面から撮影したときの画像に変換できる原理説明を図11と図12を用いて説明する。
【0069】
図11、図12の内、図11は、真正面から正対して写した時のカメラ本体7のふれ角θがゼロの被調査面3を点線で示し、カメラ本体7のふれ角がθの時、説明上被調査面3に、傾きをもたせた実線で示したのが図11である。カメラ本体7にθの傾きをもたせたものが図12である。
【0070】
ここで、a−1は並行光線、b−1はαをもった角度付光線、fはカメラレンズ焦点距離、aは測定光線間の距離、xは被調査面3までの距離、01はカメラレンズ中心、とした時、図11にあっては、結像面59に得られるふれ角ゼロの時と所定角度ふった時のθ時のL1,L2,L3,L4,L5,L6から、
【数1】

Figure 2004069434
の各式▲1▼,▲2▼,▲3▼,▲4▼,▲5▼,▲6▼が成り立つ。
【0071】
ここで、▲1▼,▲2▼は並行光線成分、▲3▼,▲4▼は上下角度付光線成分、▲5▼,▲6▼は左右角度付光線成分を示し、
これら▲1▼,▲2▼,▲3▼,▲4▼,▲5▼,▲6▼の式よりふれ角tanθと被調査面3まで距離xが求められる。
【0072】
【数2】
Figure 2004069434
一方、図7にあっては、01〜02:焦点距離f、02〜03:測定距離Xレーザビーム間距離aとした時にθ角カメラ本体7をふった時、01〜a´1:L1,01〜a´2:L2,01〜b´1:L3(L5),01〜b´2:L4(L6)から、(直線ビーム)P,Pに関し、▲1▼,▲2▼の式が得られる。
【0073】
【数3】
Figure 2004069434
垂直軸方向角付きビームP,Pに関し、▲3▼,▲4▼の式が得られる。
【0074】
【数4】
Figure 2004069434
水平軸方向角度付きビームP,Pに関し、▲3▼,▲4▼の式からのL,LをL,Lとした時、▲5▼,▲6▼の式が得られる。
【0075】
【数5】
Figure 2004069434
したがって、▲1▼,▲2▼より距離は、
【数6】
Figure 2004069434
:▲3▼,▲4▼より垂直方向の傾きは、
【数7】
Figure 2004069434
で求められる。
【0076】
さらに、鎖線で示すようにコーナ部に並行光線を発射する一対の測定光線発射体を加え、前部で8つの測定光線を発射することで、標定要素となる8つの輝点から、例えば、斜め方向へふった時の斜め方向のふれ角に基づく写真画像データおよびトンネル内の円弧状の写真画像データが得られるようにすることも可能となる。
【0077】
したがって、このように構成された写真撮影装置1によれば、取手15を両手に持つことで、安定した写真撮影が行なえるようになる。この時、取手15を両手で持ったまま、何等支障なくレリーズ操作釦19の操作が行なえるようになり、シャッタ操作が可能となる。この時、撮影場所、撮影アングルに何等制約されることなく写真撮影が行なえるようになる。この写真撮影時において、被調査面3には、2つの並行光線a−1と角度付光線b−1による6つの輝点P1,P2,P3,P4,P5,P6が写し出され、それら各輝点P1,P2,P3,P4,P5,P6は、被調査面1までの距離xとふれ角θを求める標定要素がとり込まれた写真画像データとしてカメラ本体7内のフロッピー(登録商標)ディスク等に収められる。
【0078】
一方、写真撮影して持ち帰った写真画像データが収められたフロッピー(登録商標)ディスク等を図外の写真画像解析装置にかけることで解析が行なわれる。この時、フロッピー(登録商標)ディスクによるデジタル処理によるため一貫した処理が可能になると共に真正面から正対する位置で写真撮影した時と同じ写真画像が迅速に得られる。
【0079】
したがって、前記のようにして得られた写真画像の上下、左右の画像が一致するよう順次配列することで、正確な被調査面及び被調査面を含む全体構造の資料が容易に得られるようになる。
【0080】
また、焦点距離が長くなる望遠レンズに交換することで、55mmのカメラレンズ36の時と同じように被調査面3の拡大した標定要素を備えた写真画像データが得られるようになる。
【0081】
次に、図13の遠景の正規化処理を説明するフローチャートを用いて、本実施の形態を説明する。図13に示すように、図10(a)の画像ei(第1の遠景画像)が指定される毎に、その画像eiの画像データをファイルから読み出し(S1)、指定された下段の格子niに移動させる遠景画像のモザイク位置の決定を行う(S2)。
【0082】
次に、作業員が「00」の並び替えOKとするコマンドを入力すると、図14に示すように、「00」の遠景画像(ポイント付き)が表示される。
【0083】
この遠景画像のポイントPi(P1、P2、…)を右回りでクリックして保存ボタン(図示せず)を選択する(S3)。
【0084】
例えば、図15(a)に示すように、画面における各点の座標P1…P6の座標が保存される。
【0085】
そして、フレームに対するカメラの取り付け状態をチェックする。このチェックは、カメラ中心(フレーム中心と一致しているかどうかをチェックするもので誤差論から見て)が規定を満たしているかどうかを調べる。図15(b)においてはP1とP3とP4とP6とを用いてX軸、Y軸の中心位置を調べる(カメラ中心がフレーム中心に来ていること)。この中心位置はNIKONN D1では、数8に示すピクセル内におさまっていなければならない。
【0086】
【数8】
Figure 2004069434
次に、P2とP5とを用いて、縮尺の計算を行う。セル(カメラのフイルムの大きさ)上のP2とP5間の対向距離l(P2とP5は対角に位置しており、x,y成分の変位置にそのまま、追随するため、数9の式で縮尺系数を求めることができる)は
【数9】
Figure 2004069434
として計算する。
【0087】
次に、左右角(x方向)の傾きを計算する(S6)。
【0088】
すなわち、図17に示すように
【数10】
Figure 2004069434
とする。
【0089】
この条件の元で、
m>nの場合は、
右回転+θ1°
m=nの場合は、
回転なし
m<nの場合は、
左回転−θ1°
と判定する。
【0090】
そして、角度θ1は、前述の m>nの場合、 m=nの場合、 m<nの場合に応じて、図16に示すように求める。
【0091】
次に、上下角(y方向の傾き)を図18に示すように検出する(S6)。
【0092】
【数11】
Figure 2004069434
とする。
【0093】
この条件の元で、
u>vの場合は、
カメラ下向き−θ1°
u=vの場合は、
回転なし
u<vの場合は、
カメラ上向き+θ1°
と判定する。
【0094】
次に、x方向、y方向の画像補正を行う(S7、S8)。
【0095】
例えば、図19に示すように、撮影中心距離L、縮尺計数R、左右回転角±θ1、上下回転角±θ2、カメラの左右画角(半角)b、カメラの上下画角(半角)cとして求められた場合において、原点を画像中心に対して左右にシフトした場合は、図19の(b)及び図20に示すようにして求める。
【0096】
図21はx方向の傾きの補正を説明するための補正係数の求めた方の具体例を示した説明図であり、例えば近景=0.94
遠景=1.06
とした補正係数であり、図22及び図23はこれらの補正係数を基づいて画面のxyを補正していることを示している。
【0097】
次に、指定画像がnがマックスに到達したかどうかを判断し(S10)、到達しない場合はステップS1に戻す。
【0098】
また、指定画像がnがマックスに到達した場合は、各画像の補正係数、縮尺データ等を保存して(S11)、モザイクルーチンに処理を戻す。
【0099】
このモザイクルーチン(モザイク化部)は、図24に示すように、隣合う画像を画面に表示し(e1とe2、e3とe4)、同じとする基準点同士を指定して合成する。例えば、図24においては、画像e1(正規化)と画像e2とに写し出されているTp1、Tp3を指定して合成させる。
【0100】
この合成はバンドル標定を用いている。このような処理を順次行って図25のようなダムの1枚の画像を得る。
【0101】
そして、オペレータは近接画像の割付を行う。この近接画像の割付は、割付ボタンを選択することによって起動する。近接画像近接画像は、図25に示す近接画像のサブ画面を開く。オペレータは、このサブ画面が遠景画像(モザイク画像)のどの部分に当たるかを把握しており、図25に示す枠を指定して近接画像を割り付ける。
【0102】
この近接画像において、枠を指定すると、解析部が起動する。解析部は面積計算、線長計算、スケール計測等を備えており、図26に示すようにひび割れの2点間を指定すると、ひび割れの幅を計算すると共に、所定の長さ単位のスケールを表示する。
【0103】
<実施の形態2>
図27は実施の形態2のシステムの概略構成図である。図27に示すように、本実施の形態はモバイルパソコン側にカメラで撮影した画像データを記憶したフラッシュメモリを格納する機能、ブラウザ機能、無線インターネット機能(PHcカード)等を備えると共に、環境設定部30、画像登録部33、画像割付データ送信部51、解析指示部52、無線インターネットの送受信部53などを備え、モバイルパソコン50で生成した遠景画像、近接画像、各種パラメータ等をインターネットを介してサービスサイトのサーバ55に送信し、サービスサイトのサーバ55が遠景画像の正規化、近接画像の正規化及びモザイク処理等を行って、その結果をモザイクの結果をモバイル側に送信し、ひび割れ解析等のコマンドを受信したときに、ひび割れを解析してモバイル側に送信するものである。
【0104】
すなわち、図28のシーケンス図に示すように、現場側の作業員が環境設定部30を用いてカメラパラメータ等をファイル38に保存させ、かつ画像登録部33を起動させて遠景画像と近接画像とをメモリ領域32a、32bに保存した後に並べ替部40によって並べ替える。そして、各種パラメータと並べ替えファイル(図示せず)のデータとを送信させる(d1、d2)。
【0105】
次に、画像登録部33を起動させて、近接画像を選択して、送受信部53を用いて送信させる(d3)。
【0106】
一方、サービスサイトのサーバ55は、送受信部57によって並べ替えのデータ(遠景)と近接画像とを受信し、上記と同様な遠景画像の正規化処理、近接画像の正規化処理を行ってメモリ領域(58a、58b)に保存して、正規化された各遠景画像を用いてのモザイク処理を行う(d4)。
【0107】
そして、モザイク画像(遠景画像)と、正規化された近接画像とを送受信部57を用いてモバイルパソコン50に送信する(d5)。
【0108】
一方、モバイルパソコン50側はサーバ55からのモザイク画像をメモリ領域32d、正規化された近接画像をメモリ領域32eに保存する。
【0109】
モバイル側の作業員は、画面にモザイク画像を表示した後に、正規化された近接画像を表示し、近接画像がモザイク画像のどのエリアのものかを割り付ける(割付部の処理)。
【0110】
この割付データを作業員はサーバ55に送信する(d6)。サーバ55は、画像割付データファイル56に保存する。
【0111】
すなわち、サーバ55側は、モザイク画像のどのエリアにどのような近接画像が割り付けられたを把握している。
【0112】
一方、モバイルパソコン50の作業員は、解析指示部52を起動させて、ばひび割れ計測の指示(例えば幅)を行う(d6)。このコマンドは無線インターネットでサーバ55に送信され、サーバの解析部37が指定の近接画像のひび割れ幅を計測し、スケールと共にモバイルパソコンに送信する(d7)。
【0113】
従って、無線インターネットが繋がる箇所では、現場側で直ぐにひび割れ結果が判断できるので、より早く現場側で必要の処置を指示又は対処できる。
【0114】
なお、上記実施の形態では、ダムを例にして説明したが、ビル、橋の土台等のコンクリート構造物であってもよい。
【0115】
【発明の効果】
以上のように本発明のレーザ光点付き画像を用いた画像処理方法によれば、第1のレーザ発射体と第2のレーザ発射体とを備えた写真装置で得たレーザ光点付き画像の内で第2のレーザ発射体で得られた4点のピクセル座標に基づいて撮影時のカメラの中心を求め、この中心と4点間の距離から左右角、上下角を求めることができると共に、第1のレーザ発射体で得られた2点のピクセル座標(2点の距離はあまり変化しない)とから縮尺率が求めるので、自動的に正面から撮影した画像い容易に変換できるという効果が得られている。
【0116】
また、本発明のレーザ光点付き画像を用いたモザイク処理方法によれば、第1遠景画像を作業員が撮影したときの調査面に対応させて並べ替え、この並べ替えた第2遠景画像の1個毎に、正規化を行って合成した1枚の画像を得るので、正確に調査面のモザイク画像を得ることができるという効果が得られている。
【0117】
さらに、本発明のレーザ光点付き画像を用いた正規化サービスシステムによれば、サーバはが端末からのレーザ光点付き画像と前記端末の画面の第2のレーザ発射体の4点のピクセル座標と第1のレーザ発射体の2点のピクセル座標とに基づいて、左右角、上下角、縮尺率を求めて正規化して端末に送るので、現場側では小さい容量のパソコンでも正面から撮影させた画像を得ることが容易にできる。特に多数の遠景画像を端末側で撮影したときは、サーバ側から正規化されたモザイク画像が送信され、また近接画像を端末で割り付けたときは、その近接画像内のひび割れの数値等が送信されるので、現場側で調査面の全体像とひび割れ箇所の状況とを直ぐに判断できるという効果が得られている。
【図面の簡単な説明】
【図1】本実施の形態1のレーザ光点付き画像を用いたモザイク処理システムの概略構成図である。
【図2】建物、橋梁、道路、ダム等のコンクリート構造物等の被調査面1の写真を写す損壊写真撮影用カメラ2の概要斜視図を示している。
【図3】カメラ本体7を真正面からの起点の状況を説明する説明図である。
【図4】カメラ本体7を真正面からの起点の状況を説明する説明図である。
【図5】撮影の仕方を説明する説明図である。
【図6】メニュー画面の説明図である。
【図7】カメラパラメータの説明図である。
【図8】画像登録の説明図である。
【図9】画像の正規化の初期画面の説明図である。
【図10】並べ替えの説明図である。
【図11】ポイントPi(P1、P2、…)付きの写真画像でダムを正面から撮影したときの画像に変換できる原理説明である。
【図12】ポイントPi(P1、P2、…)付きの写真画像でダムを正面から撮影したときの画像に変換できる原理説明である。
【図13】本発明に係わる正規化処理を説明するフローチャートである。
【図14】ポイントPi(P1、P2、…)付きの写真画像の説明図である。
【図15】ポイントPi(P1、P2、…)付きの座標認識を説明する説明図である。
【図16】縮尺、対物の算出を説明する説明図である。
【図17】左右角の検出と振れ角の算出を説明する説明図である。
【図18】上下角の検出を説明する説明図である。
【図19】左右の画像の補正を説明する説明図である。
【図20】上下の画像の補正を説明する説明図である。
【図21】画像の正規化の説明図である。
【図22】画像の正規化の説明図である。
【図23】画像の正規化の説明図である。
【図24】画像の合成を説明する説明図である。
【図25】近接画像の割付を説明する説明図である。
【図26】ひび割れ計測の説明図である。
【図27】実施の形態2のシステム構成図である。
【図28】実施の形態2のシーケンス図である。
【符号の説明】
30 環境設定部
33 画像登録部
34 遠景画像正規化部
35 モザイク化部
36 近接画像正規化部
37 画像割付部
38 解析部
32a 遠景用メモリ領域
32c 並替用メモリ領域
32d 遠景正規化用メモリ領域
32e 近接正規化用メモリ領域
32f 解析結果用メモリ領域[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention supports the periphery of a digital camera with a support frame, and emits parallel rays to an optical axis passing through the lens center at the upper corner of the left frame and the lower corner of the right frame of the support frame. A surface to be inspected by a photographic apparatus having a first laser emitter and a second laser emitter that emits a light beam at a predetermined angle outward with respect to the optical axis on the upper, lower, left and right frames of the support frame. The present invention relates to an image processing method using a laser light spotted image that is normalized using a laser light spotted image obtained by photographing the image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, cracking of concrete structures has been mostly performed by the following two methods.
[0003]
(1) Preparation of survey data based on actual measurement (sketch of cracks in concrete structure, actual measurement of cracks)
(2) Three-dimensional measurement using photographs of the site, and subsequent creation of a plotting model (situation map of the structure)
On the other hand, in photography, conventionally, photography is performed by one camera with a parallel movement of 60% overlap (to obtain an orientation element), or photography with a fixed base length is performed by two cameras, and the film is developed. Three-dimensional data was created using a plotter, and cracks were analyzed.
[0004]
Further, with respect to the orientation element, in the conventional method, an orientation point (point serving as a position reference) is set at the time of photographing to be an orientation element, or an orientation parameter is set by calculating from a fixed base line length.
[0005]
However, as described above, damage investigations such as cracks have been carried out by on-site actual measurement methods or photographing measurement methods, but in the former case, a high degree of skill is required of workers, and cracks and the like are required. It is difficult to accurately sketch the position and width of each person without individual differences. Further, it takes a long time to work on site, which is not preferable in terms of workability. In addition, there is a problem that work equipment such as a scaffold is required in a place where a measurement point is high, and there is a danger in work.
[0006]
In the latter case, photo analysis techniques have advanced and photography measurement methods are becoming mainstream.However, even in this case, the size of the actual surveyed surface differs from that of the photographed image. It is necessary to copy a ruler such as a standard sword and a scale serving as an orientation element.
[0007]
This makes it possible to determine the scale of the photographic image from the scale that has been captured and to analyze numerical values such as the length and width of the crack based on the scale. Since the work of sticking to the survey surface is indispensable, for example, when the survey surface is at a high position, a high scaffold for setting the scale is required in the same manner as the on-site actual measurement method.
[0008]
In order to solve this problem, for example, it is possible to reduce the size of the camera so that it can be held in a hand, and to face the camera directly from the front without being limited by the conditions such as the shooting location and the shooting angle (angle of shooting). There is a destructive photographing apparatus for a concrete structure capable of obtaining photographic data having orientation elements for obtaining the same accurate photographic image.
[0009]
[Problems to be solved by the invention]
However, at present, it is necessary to manually measure the distance between several laser light spots projected on the image, obtain the horizontal angle, vertical angle, objective distance, scale, etc., and normalize the image with these parameters. Was most.
[0010]
The present invention obtains the distance between several laser light points automatically projected on an image, the right and left angle, the vertical angle, the object distance, the scale, and the like, and automatically normalizes with these parameters, concrete structure And a system that automatically informs the status of the damaged part by numerical values.
[0011]
[Means for Solving the Problems]
An image processing method using an image with laser light spots according to the present invention includes supporting the periphery of a digital camera with a support frame, and applying the digital image to a corner above a left frame and a corner below a right frame of the support frame. A first laser projecting body that emits a parallel light beam with respect to an optical axis passing through the center of the lens of the camera is provided, and light beams having a predetermined angle outward with respect to the optical axis line are provided on upper, lower, left and right frames of the support frame. This is an image processing method using an image with laser light spots, in which a surface to be inspected is photographed by a photographic device provided with each of the second laser projectiles to be emitted, and normalized using the image with laser light spots.
[0012]
A computer captures the image with the laser light spot taken by the photographic device, and displays the image on the screen.Each time there is a designation of the position of the laser light spot in the image with the laser light spot displayed on the screen Recognizing the pixel coordinates on the screen, and determining a center based on the four pixel coordinates obtained by the second laser projectile; and an x-axis from the center to the four pixel coordinates. a step of obtaining distances on the y-axis and obtaining the vertical and horizontal shake angles of the digital camera from the ratio of these distances; and the pixel coordinates of two points obtained by the first laser projectile. Obtaining an object distance between the film of the digital camera and the surface to be inspected based on the obtained camera parameters, and obtaining a scale factor of an image on the film from the object distance; Vertical, is summarized in that comprising the step of normalizing the image upon shooting laser spot with the image on the screen from the front with the left and right deflection angle and the scale factor.
[0013]
A mosaic processing method using an image with laser light spots according to the present invention, the supporting frame supports the periphery of the digital camera, the upper corner of the left frame and the lower corner of the right frame of the digital, the digital A first laser projecting body that emits a parallel light beam with respect to an optical axis passing through the center of the lens of the camera is provided, and light beams having a predetermined angle outward with respect to the optical axis line are provided on upper, lower, left and right frames of the support frame. This is a mosaic processing method using an image with laser light spots, in which a to-be-examined surface is photographed by a photographic device equipped with each of the second laser projectiles to be emitted, and a mosaic image is generated using the image with laser light spots.
[0014]
The computer reads a large number of first distant images obtained by sequentially photographing predetermined areas adjacent to each other on the inspected surface at an arbitrary inclination while keeping the focal length of the digital camera constant with respect to the inspected surface. And displaying a photographing place piece table in which the surveyed face is divided by a mesh at a fixed interval and a number of the surveyed face is assigned, and a piece of the photographing place piece table is designated, and the When a distant view image among a large number of first distant view images displayed on the screen is designated, the designated second distant view image is moved to the designated piece to determine where the distant view image on the survey plane is located. And displaying one distant view image from the plurality of first distant view images on a screen, and specifying all the laser light spots in the distant view image in a predetermined direction; Pixel coordinates of A step of recognizing and obtaining a center based on the vertical and horizontal coordinates of the four points of the second laser projectile; obtaining the vertical and horizontal distances of the four points from the center; Determining the right and left angles, the object coordinates on the film of the digital camera and the object surface based on the pixel coordinates of the two points obtained by the first laser projectile and the camera parameters input in advance. Determining a distance, and determining a scale of the image on the film from the objective distance and the ratio; and an aspect ratio of one distant view image on the screen based on the scale, the object distance, and the horizontal and vertical angles. To obtain one distant image that assumes that the object to be investigated is photographed from the front, and sequentially displays adjacent distant images, and designates the same spot on these images for each display. Wherein performing bundle orientation is summarized in that comprising the steps of obtaining a mosaic image which is an object to be investigated surface entire image.
[0015]
The normalization service system using the image with laser light spots of the present invention supports the periphery of the digital camera with a support frame, and the upper frame and the lower corner of the right frame of the support frame are A first laser projecting body that emits a parallel ray with respect to an optical axis passing through the center of the lens of the digital camera is provided, and light beams having a predetermined angle outward with respect to the optical axis are provided on upper, lower, left and right frames of the support frame. The image with the laser light spot obtained by photographing the surface to be inspected by a photographic device equipped with a second laser projectile that emits light is stored in a terminal, and is normalized by communicating with the terminal via a computer network system. This is a service system using an image with a laser light spot, which provides the obtained distant view image and proximity image from a server.
[0016]
The server, for the terminal, the image with the laser light spot photographed by the photographing device, the pixel coordinates of four points of the second laser projectile on the screen of the terminal, and the two points of the first laser projectile. Means for transmitting the pixel coordinates of a point; receiving the image with the laser light spot and the pixel coordinates; obtaining a center based on the vertical and horizontal coordinates of the four points on the image; Means for determining the vertical and horizontal distances, the vertical and horizontal angles of the photographing apparatus based on the ratio of these distances, pixel coordinates of two points obtained by the first laser projectile, and camera parameters input in advance Means for obtaining an object distance between the film of the digital camera and the surface to be inspected on the basis of the above, a means for obtaining a scale of an image on the film from the object distance and the ratio, the scale, the object distance, and the right and left angles. Means for correcting the aspect ratio of one distant view image on the screen based on the vertical angle and the vertical angle to obtain a single normalized distant view image that assumes that the subject is photographed from the front. Means for providing one distant view image to the terminal;
The gist is that it is provided.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of a mosaic processing system using an image with laser light spots according to the first embodiment. Before describing the configuration of each part of the present embodiment, a camera (hereinafter referred to as a camera for taking a damaged image) used in this system will be described.
[0018]
FIG. 2 is a schematic perspective view of a camera 2 for taking a damaged photograph for photographing a surface 1 to be inspected, such as a concrete structure such as a building, a bridge, a road, or a dam.
[0019]
The damaged photographing camera 2 includes a camera body 7 (digital camera with a built-in flash memory) set in a support frame 5 framed in a rectangular shape, and six orientation elements on a surface 1 to be inspected such as a concrete structure. It has first laser emitters 9, 10, 11, 12 for projecting bright points P1, P2, P3, P4, P5, P6 and second laser emitters 13, 14. Further, even if the surface 1 to be inspected is curved (for example, a tunnel), the third laser beam emitter 15 for projecting the bright spots P5 and P6 in order to correct the image as viewed from the front and to measure the cracks. , 16 are provided. In addition, a total of eight bright points P1, P2, P3, P4, P5, P6, P7, and P8 may be obtained so that even if the surface 1 to be inspected is curved, it can be corrected to an image viewed directly from the front. . In the present embodiment, a description will be given assuming that there are six.
[0020]
The support frame 5 is made of aluminum to reduce the weight, and is integrally formed by cutting a single thick plate into a rectangular shape. It has a frame structure with.
[0021]
The support frame 5 is provided with a screw hole (not shown) at the bottom that can be set on a tripod or the like, while a handle 15 is provided on both left and right sides so that it can be held by both hands.
[0022]
One of the handles 15 is provided with a measuring beam operation switch 17 for turning on / off the first laser projecting bodies 9, 10, 11, 12 and the second laser projecting bodies 13, 14. When the operation switch 17 is turned on, the measurement light beam (laser) is continuously emitted from the first laser projectiles 9, 10, 11, 12 and the second laser projectiles 13, 14. ing.
[0023]
Further, a release operation button 19 for controlling the operation of the shutter of the camera body 7 is provided on the other side of the handle 15 so that a shutter operation can be performed while holding the handle 15 with both hands.
[0024]
The camera body 7 converts an image into an electric signal using an image pickup device such as a CCD (Charge Coupled Device) instead of a film, digitizes the data, and converts the data into, for example, a semiconductor memory, a floppy (registered trademark) disk, or a flash. It is a digital camera that records photographic data in a memory or the like.
[0025]
Note that the camera body 7 is not necessarily a digital type, and may be an optical camera using a normal film. In this case, the film is read by a scanner and processed. The bottom of the camera body 7 is fixedly supported on the support frame 5 via a camera body setting member 21.
[0026]
In addition, the first laser projectiles 9, 10, 11, 12 and the second laser projectiles 13, 14, and the third laser projectiles 15, 16 supply currents inside the projectile mounting cases 23a... 23h. A semiconductor element (not shown) that outputs a laser beam from the case window hole by flowing is provided. A current is supplied to the semiconductor element from a power supply unit such as a battery disposed above the support frame 5 by turning on the measurement light operation switch 17 described above.
[0027]
Further, the first laser light emitters 9 and 10 are for emitting a set of parallel light rays for emitting measurement light rays in parallel to the optical axis Y of the camera lens 36. The mounting positions are diagonally arranged at the corners of the support frame 5, and the projectile mounting case is directly and detachably fixed and supported by case fixing screws.
[0028]
The first laser projecting bodies 11 and 12 and the second laser projecting bodies 13 and 14 are separated from each other by a predetermined angle (including an angle 0) with respect to the optical axis Y of the camera lens 36 (left and right angles and vertical angles are separated). B) for emitting a set of angled rays that emit angled rays.
[0029]
The first laser projectiles 11 and 12 are for an angled light beam in the vertical direction, and the second laser projectiles 13 and 14 are for an angled light beam in the left and right direction.
[0030]
Further, the laser projecting bodies 11 and 12 are arranged to face the support frame 5 at the up and down positions so as to pass through the optical axis Y of the camera lens 36, while the second laser reflectors 13 and 14 are arranged on the supporting frame 5 , Which are disposed opposite to each other at right and left positions so as to pass through the optical axis Y of the camera lens 36, and are fixed and supported via mounting members.
[0031]
The angle of the above-mentioned angled light beam differs depending on the camera lens focal length f. In this embodiment, when the camera lens focal length f is 55 mm, the angle of the angle light beam is 3 degrees.
[0032]
The projectile mounting cases 23a that emit angled light beams are, for example, for 5 degrees and 7 degrees with respect to different camera lens focal lengths f when a telephoto lens or the like that enlarges and photographs the surface to be inspected 1 is used. It is a dedicated unit whose angle is set in advance, such as for use.
[0033]
The parallel light beam a-1 emitted from the first measurement light beam emitters 9 and 10 and the angled light beam b-1 emitted from the second measurement light beam emitters 11, 12, 13, and 14 are emitted from the camera body 7 The four bright points P3, P4, P5, and P6 are displaced by the vertical and horizontal deflection angles θ.
[0034]
FIG. 3 shows a state in which the camera body 7 is moved upward, for example, from a position directly in front of the camera body 7, and the bright points P3 and P4 of the angled light beam b-1 are changed from a solid line (black point) to a dotted line (white point). ), And the camera body 7 can obtain photographic image data corresponding to the swing angle.
[0035]
Further, as shown in FIG. 4, by moving the shake angle to the left by a predetermined angle from the zero state, the bright spots P5 and P6 are projected from the solid line to the position shown by the dotted line, and the camera body 7 has the shake angle. Photo image data at the time of θ can be obtained.
[0036]
P1 and P2 are two bright spots by the parallel ray a-1, P3, P4, P5 and P6 are bright spots by the angled ray b-1, and the bright spots P3, P4 and P5 at the deflection angle θ. It can be seen that P6 (white point) is much wider than between the two bright points (black points) when the deflection angle is zero. Therefore, based on the distance ratio from 01 between the two open points to the photographic image analysis device (not shown), the deflection angle θ is obtained. Therefore, by performing arithmetic processing based on the deflection angle θ, it is possible to correct a normal image, and the same photographic image data as when facing directly from the front can be obtained.
[0037]
As shown in FIG. 5A, such a damaged photographing camera 2 may be rotated only in the horizontal direction at the same position to sequentially photograph a desired area, or FIG. As shown in FIG. 5, the image may be taken by rotating only in the vertical direction, or as shown in FIG. 5C, the image may be taken by rotating only in the vertical and horizontal directions. Alternatively, the operator may hold and hold the hand and sequentially photograph desired areas only in the horizontal, vertical, and vertical and horizontal directions while moving. These are collectively referred to as distant view images. Further, an area where there is a change such as breakage or crack may be photographed in close proximity (referred to as a proximity image).
[0038]
Next, analysis processing of data photographed by the damaged photographing camera 2 as described above using the configuration of FIG. 1 will be described.
[0039]
In the present embodiment, it is assumed that a large number of captured images (with bright spots) of the inspected surface 1 captured by the damaged photographing camera 2 are already stored in the database. In addition, the operator knows what time the captured image is. Further, the operator prepares a drawing or the like in which the surveyed surface 1 is divided into meshes and assigned numbers.
[0040]
As shown in FIG. 1, a mosaic processing / crack measurement system 29 (personal computer) for an image with a laser beam includes an environment setting unit 30, an image registration unit 33, a distant view image normalization unit 34, a mosaic generation unit 35, A proximity image normalizing unit 36, an image allocating unit 37, an analyzing unit 38, a rearranging unit 40, and the like are provided.
[0041]
The environment setting unit 30 displays a screen (not shown) for specifying a location of the image data captured by the damaged photo capturing camera 2, and displays the specified location (designation of the directory of the input file) input on this screen. ) Is saved in the file 31.
[0042]
Further, the environment setting unit 30 displays a screen (not shown) for designating an area for saving normalized data, analysis data, and the like, which will be described later, and stores the saved area (output file) input on this screen. Directory 32), the memory area for distant view 32a, the memory area for proximity 32b, the memory area for rearrangement 32c, the memory area for distant view normalization 32d, the memory area for proximity normalization 32e, and the memory area for analysis result 32f , Mosaic memory area 32g, etc.).
[0043]
Further, the environment setting unit 30 displays screens for setting camera parameters, survey plane parameters, and laser beam parameters, and saves data of these screens in the file 39. The above-mentioned camera parameters include a camera type, a cell size (film size), a focal length, and the like.
[0044]
Further, the survey surface parameters include the dimensions, coordinates (xyz), and the like of the dam. The laser beam parameters include a beam angle value, a camera type, and the like.
[0045]
The image registration unit 33 displays a screen for distributing the photographic image data stored in the input file 31 into a distant view image and a close-up image. To save.
[0046]
The reordering unit 40 displays all the distant view images stored in the distant view image memory area 32a on the screen, and divides the survey surface 1 into meshes and assigns numbers to the screens. Is displayed, and every time the frame and the distant view image are designated, the distant view image is allocated to the frame. Then, the result is stored in the rearrangement memory area 32c.
[0047]
Each time the distant view image data for normalization is designated (using the sorted distant view image data), the distant view image normalizing unit 34 recognizes the specified point Pi on the screen, and The center of the film of the camera, the horizontal rotation angle, the vertical rotation angle, the scale count, and the projection center distance of the film of the camera are obtained from the coordinate values of each point, and normalization for correcting the image as viewed from the front is performed based on these information. . Then, the normalized distant view image is stored in the distant view normalization memory area 32d.
[0048]
The mosaic unit 35 combines the normalized distant images stored in the distant view normalization memory 32d with each other to obtain one image of the entire dam (hereinafter, referred to as a mosaic image). Then, the mosaic image is stored in the mosaic image memory area 32g.
[0049]
Each time the proximity image data for normalization is designated, the proximity image normalization unit 36 recognizes the designated points Pi on the screen, and, based on the coordinate values of these points, the camera film center, The left-right rotation angle, the up-down rotation angle, the scale count, and the projection center distance of the film are obtained, and normalization for correcting an image viewed from the front is performed based on these information. Then, the normalized proximity image is stored in the proximity normalization memory area 32e.
[0050]
The image allocating unit 38 displays the proximity image stored in the proximity normalization memory area 32e, and displays a frame (defined by coordinates) specified in the mosaic image and the proximity image (displayed proximity) in the proximity normalization memory 32e. (Image: normalized).
[0051]
The analysis unit 38 recognizes a crack location (determined based on density or brightness) of the proximity image (displayed proximity image: normalized), measures the area of the crack portion, the line length of the crack, the crack width, and the like. Are measured, and these results are stored in the measurement result memory area 32f.
[0052]
(Operation explanation)
The operation of the mosaic processing / crack measurement system using the image with laser light spots configured as described above will be described below.
[0053]
First, the computer displays a menu screen shown in FIG. 6 according to an instruction of the worker. This menu screen includes an environment setting button Aa, a digital camera image registration button Ab, a distant view image normalization button Ac, a close image normalization button Ad, an image allocation button Ae, an analysis button Af, and the like.
[0054]
Next, the worker selects the environment setting button Aa to activate the environment setting unit. This operation displays a screen (not shown) for determining where the image of the digital camera is located and where the processed image and conditions are stored. In this way, a large number of camera images are stored (data area of m rows and n columns).
[0055]
In this embodiment, as shown in FIG. 5A, the camera is rotated only in the horizontal direction at the same position using the damaged photographing camera 2, and the desired areas are sequentially photographed and stored in the file 31. It is also assumed that the output file 32 has been created.
[0056]
Also, as shown in FIG. 7, the environment setting unit 30 includes the type of camera, the size / pixel of the cell (the size of the camera), the size (area) of the cell, the size of one pixel of the CCD, and the focal length. , A screen for inputting camera parameters such as right / left angle / half angle and up / down angle / half angle.
[0057]
Then, the user selects the digital camera image registration button Ab. When the digital camera image registration button is selected, the image registration unit 33 is activated, and as shown in FIG. 7, a folder name area Ba indicating a storage location of the digital camera image, a selected image area Bb of the selected folder, and a distant view image designation area A registered image setting screen including Bc and a proximity image designation area Bd is displayed.
[0058]
In the registered image setting screen, the distant view image designation area Bc and the close image designation area Bd shown in FIG. 8 are composed of a shooting position, a date and time, and a film number.
[0059]
In other words, the image of the registered folder (DSC_0005.jpg, DSC_0006.jpg,...) Can be determined so that it is the number of the film, and it can be determined later whether the worker has taken the image in the near or distant view. I have.
[0060]
The images of the folder are displayed in the area Bb by sequentially selecting the above-described folders, and the images are sorted into the distant view or the close view (the shooting position and the date and time are set in the distant view image specification area Bc or the close image specification area Bd). And the film number).
[0061]
Then, for example, when the distant view normalization button Bf is selected, a preparation screen for distant view image normalization shown in FIG. 9A is displayed.
[0062]
On this preparation screen, a dial log of the position and a dial log of the attribute information are displayed. At the position 246, there are four images of the dam taken on February 5, 2002, which are not processed (normalized). No).
[0063]
When the normalization process Ca is selected on this screen, a dial log shown in FIG. 9B is displayed. The operator selects the rotation rearrangement button Da. The rearranged image shown in FIG. 10 is displayed according to the selection of the rotation rearrangement button Da. This image displays the four unprocessed images e1, e2, e3, and e4 of FIG. 10A in the upper row, and displays a rearrangement screen in the lower row. This rearrangement screen corresponds to a drawing in which the surveyed surface 1 is divided into meshes and numbers are assigned.
[0064]
Next, the worker determines which of the lower-level grids (frames) each image ei (also referred to as a first distant view image) in the upper row corresponds to, and the corresponding grid ni (n1, n2,...) Into the image ei. This is referred to as determining the mosaic position of the distant view image.
[0065]
That is, the rearrangement unit 40 displays all the first distant images stored in the distant image memory area 32a on the screen, and divides the surveyed surface 1 into meshes and assigns numbers to the drawings. Is displayed, and each time a frame and a distant view image are designated, a distant view image is allocated to the frame. Then, the result is stored in the rearrangement memory area 32c.
[0066]
Then, when the operator inputs a command to rearrange “00”, the image of “00” (with points) is displayed as shown in FIG.
[0067]
Click on the point Pi (P1, P2,...) Clockwise in this image and select a save button (not shown). In this selection, the computer recognizes each point Pi and performs a normalization process (distant view) described below.
[0068]
Here, before the description of the normalization processing, the principle of converting the above-mentioned photographic image with the points Pi (P1, P2,...) Into an image when the dam is photographed from the front will be described with reference to FIGS. 11 and 12. explain.
[0069]
11 and FIG. 12, FIG. 11 shows the inspection surface 3 where the deflection angle θ of the camera body 7 is zero when the camera body 7 is photographed directly from the front, with a dotted line, and when the deflection angle of the camera body 7 is θ. FIG. 11 shows, for the sake of explanation, the surveyed surface 3 as a solid line with an inclination. FIG. 12 shows the camera body 7 with an inclination of θ.
[0070]
Here, a-1 is a parallel ray, b-1 is an angled ray having α, f is a focal length of a camera lens, a is a distance between measurement rays, x is a distance to a surface to be inspected 3, and 01 is a camera. In FIG. 11, when the lens center is set, L1, L2, L3, L4, L5, and L6 obtained when the deflection angle obtained on the image plane 59 is zero and when the predetermined angle is shifted are θ.
(Equation 1)
Figure 2004069434
Equations (1), (2), (3), (4), (5), and (6) hold.
[0071]
Here, (1) and (2) indicate parallel ray components, (3) and (4) indicate up-down angled ray components, (5) and (6) indicate left-right angled ray components,
From these formulas (1), (2), (3), (4), (5), and (6), the deflection angle tan θ and the distance x to the surface to be inspected 3 are obtained.
[0072]
(Equation 2)
Figure 2004069434
On the other hand, in FIG. 7, when the θ angle camera body 7 is shaken when 01 to 02: focal length f, 02 to 03: measurement distance X distance between laser beams, 01 to a′1: L1, 01 to a'2: L2, 01 to b'1: L3 (L5), 01 to b'2: L4 (L6), (linear beam) P 1 , P 2 , The following equations (1) and (2) are obtained.
[0073]
[Equation 3]
Figure 2004069434
Vertical angle beam P 3 , P 4 With respect to, the expressions of (3) and (4) are obtained.
[0074]
(Equation 4)
Figure 2004069434
Angled beam P in horizontal axis direction 5 , P 6 , From the formulas (3) and (4), L 3 , L 4 To L 5 , L 6 Then, the expressions (5) and (6) are obtained.
[0075]
(Equation 5)
Figure 2004069434
Therefore, the distance from (1) and (2) is
(Equation 6)
Figure 2004069434
: From (3) and (4), the inclination in the vertical direction is
(Equation 7)
Figure 2004069434
Is required.
[0076]
Further, a pair of measurement beam emitters that emit parallel rays at the corners as shown by the dashed lines are added, and eight measurement rays are emitted at the front part. It is also possible to obtain photographic image data based on a tilt angle in a diagonal direction when the player shakes in the direction and arc-shaped photographic image data in the tunnel.
[0077]
Therefore, according to the photographing apparatus 1 configured as described above, by holding the handle 15 in both hands, stable photographing can be performed. At this time, the release operation button 19 can be operated without any trouble while holding the handle 15 with both hands, and the shutter operation can be performed. At this time, the photographing can be performed without being restricted by the photographing place and the photographing angle. At the time of this photographing, six luminous points P1, P2, P3, P4, P5, and P6 due to two parallel light rays a-1 and angled light rays b-1 are projected on the inspected surface 3, and the respective luminous points are shown. The points P1, P2, P3, P4, P5, and P6 are the floppy (registered trademark) disks in the camera body 7 as photographic image data in which the orientation elements for obtaining the distance x and the deflection angle θ to the surface to be inspected 1 are captured. And so on.
[0078]
On the other hand, analysis is performed by applying a floppy (registered trademark) disk or the like containing photographic image data brought back by taking a photograph to a photographic image analysis device (not shown). At this time, since the digital processing is performed by the floppy (registered trademark) disk, the processing can be performed consistently, and the same photographic image as when a photograph is taken at a position facing directly from the front can be obtained quickly.
[0079]
Therefore, by sequentially arranging the upper and lower images and the left and right images of the photographic image obtained as described above so as to coincide with each other, it is possible to easily obtain a material of the entire structure including the accurate inspected surface and the inspected surface. Become.
[0080]
Further, by replacing the telephoto lens with a longer focal length, photographic image data having an enlarged orientation element of the inspection target surface 3 can be obtained as in the case of the camera lens 36 of 55 mm.
[0081]
Next, the present embodiment will be described with reference to the flowchart of FIG. As shown in FIG. 13, every time the image ei (first distant image) of FIG. 10A is designated, the image data of the image ei is read from the file (S1), and the designated lower grid ni is designated. The mosaic position of the distant view image to be moved to is determined (S2).
[0082]
Next, when the operator inputs a command to rearrange “00” to be OK, as shown in FIG. 14, a distant view image (with points) of “00” is displayed.
[0083]
Clicking the point Pi (P1, P2,...) Clockwise in this distant view image and selecting a save button (not shown) (S3).
[0084]
For example, as shown in FIG. 15A, coordinates P1 to P6 of each point on the screen are stored.
[0085]
Then, the state of attachment of the camera to the frame is checked. This check checks whether the camera center (checks whether it is coincident with the frame center and from the viewpoint of error theory) satisfies the rules. In FIG. 15B, the center positions of the X axis and the Y axis are checked using P1, P3, P4, and P6 (the center of the camera is located at the center of the frame). In the NIKONN D1, this center position must fall within the pixel shown in Expression 8.
[0086]
(Equation 8)
Figure 2004069434
Next, the scale is calculated using P2 and P5. The opposing distance 1 between P2 and P5 on the cell (the size of the camera film) (P2 and P5 are located diagonally and follow the change position of the x and y components as they are. Can be used to calculate the scale factor)
(Equation 9)
Figure 2004069434
Is calculated as
[0087]
Next, the inclination of the left and right angles (x direction) is calculated (S6).
[0088]
That is, as shown in FIG.
(Equation 10)
Figure 2004069434
And
[0089]
Under this condition,
If m> n,
Clockwise rotation + θ1 °
If m = n,
No rotation
If m <n,
Left rotation -θ1 °
Is determined.
[0090]
Then, the angle θ1 is obtained as shown in FIG. 16 according to the above-described cases where m> n, m = n, and m <n.
[0091]
Next, the vertical angle (inclination in the y direction) is detected as shown in FIG. 18 (S6).
[0092]
[Equation 11]
Figure 2004069434
And
[0093]
Under this condition,
If u> v,
Camera downward -θ1 °
If u = v,
No rotation
If u <v,
Camera upward + θ1 °
Is determined.
[0094]
Next, image correction in the x and y directions is performed (S7, S8).
[0095]
For example, as shown in FIG. 19, as the photographing center distance L, the scale factor R, the left / right rotation angle ± θ1, the up / down rotation angle ± θ2, the left / right angle of view (half angle) b, and the up / down angle of view (half angle) c of the camera If the origin is shifted to the left or right with respect to the center of the image in the obtained case, it is obtained as shown in FIG. 19B and FIG.
[0096]
FIG. 21 is an explanatory diagram showing a specific example of a method of obtaining a correction coefficient for explaining the correction of the inclination in the x direction. For example, foreground = 0.94
Distant view = 1.06
22 and 23 show that xy of the screen is corrected based on these correction coefficients.
[0097]
Next, it is determined whether or not n of the designated image has reached Max (S10). If not, the process returns to step S1.
[0098]
When n of the designated image reaches the maximum, the correction coefficient and the scale data of each image are stored (S11), and the process returns to the mosaic routine.
[0099]
As shown in FIG. 24, the mosaic routine (mosaicking unit) displays adjacent images on the screen (e1 and e2, e3 and e4), and specifies and combines the same reference points. For example, in FIG. 24, Tp1 and Tp3 appearing in the image e1 (normalized) and the image e2 are designated and combined.
[0100]
This composition uses bundle orientation. By sequentially performing such processing, one image of the dam as shown in FIG. 25 is obtained.
[0101]
Then, the operator assigns a proximity image. The allocation of the proximity image is activated by selecting an allocation button. The close-up image opens a sub-screen of the close-up image shown in FIG. The operator knows which part of the distant view image (mosaic image) this sub-screen corresponds to, and assigns a nearby image by designating a frame shown in FIG.
[0102]
When a frame is designated in this proximity image, the analysis unit starts. The analysis unit is provided with area calculation, line length calculation, scale measurement, etc. When specifying between two points of a crack as shown in FIG. 26, the width of the crack is calculated and the scale of a predetermined length unit is displayed. I do.
[0103]
<Embodiment 2>
FIG. 27 is a schematic configuration diagram of a system according to the second embodiment. As shown in FIG. 27, the present embodiment has a function of storing a flash memory storing image data photographed by a camera on the mobile personal computer side, a browser function, a wireless Internet function (PHc card), and the like. 30, an image registration unit 33, an image allocation data transmission unit 51, an analysis instruction unit 52, a wireless Internet transmission / reception unit 53, etc., and provide a distant view image, a proximity image, various parameters, etc. generated by the mobile personal computer 50 via the Internet. The server 55 of the service site transmits the result of normalization of the distant view image, the normalization of the close image, the mosaic processing, and the like to the server 55 of the service site. When a command is received, cracks are analyzed and transmitted to the mobile side.
[0104]
That is, as shown in the sequence diagram of FIG. 28, the worker at the site uses the environment setting unit 30 to save the camera parameters and the like in the file 38 and activates the image registration unit 33 to store the distant view image and the close-up image. Are stored in the memory areas 32a and 32b, and are rearranged by the rearranging unit 40. Then, various parameters and data of a rearrangement file (not shown) are transmitted (d1, d2).
[0105]
Next, the image registration unit 33 is activated, a nearby image is selected, and transmitted using the transmission / reception unit 53 (d3).
[0106]
On the other hand, the server 55 of the service site receives the rearranged data (distant view) and the close-up image by the transmission / reception unit 57, and performs the same normalization processing of the distant view image and the close-up image as described above to perform the memory area (58a, 58b), and a mosaic process is performed using each normalized distant view image (d4).
[0107]
Then, the mosaic image (distant view image) and the normalized proximity image are transmitted to the mobile personal computer 50 using the transmission / reception unit 57 (d5).
[0108]
On the other hand, the mobile personal computer 50 stores the mosaic image from the server 55 in the memory area 32d and the normalized proximity image in the memory area 32e.
[0109]
After displaying the mosaic image on the screen, the worker on the mobile side displays the normalized proximity image, and allocates which area of the mosaic image is the proximity image (processing of the allocation unit).
[0110]
The worker transmits this allocation data to the server 55 (d6). The server 55 stores the data in the image allocation data file 56.
[0111]
In other words, the server 55 knows which area of the mosaic image has been assigned with which proximity image.
[0112]
On the other hand, the worker of the mobile personal computer 50 activates the analysis instructing unit 52 and gives an instruction (for example, width) for measuring the crack (d6). This command is transmitted to the server 55 via the wireless Internet, and the analysis unit 37 of the server measures the width of the crack in the specified proximity image, and transmits it along with the scale to the mobile personal computer (d7).
[0113]
Therefore, in a place where the wireless Internet is connected, the result of the crack can be immediately judged on the site side, and the necessary treatment can be instructed or dealt with more quickly on the site side.
[0114]
In the above embodiment, the dam is described as an example, but a concrete structure such as a building or a bridge base may be used.
[0115]
【The invention's effect】
As described above, according to the image processing method using an image with a laser light spot of the present invention, an image with a laser light spot obtained by a photographic device including the first laser projectile and the second laser projectile is obtained. The center of the camera at the time of shooting is obtained based on the pixel coordinates of the four points obtained by the second laser projectile within the camera, and the horizontal and vertical angles can be obtained from the distance between the center and the four points. Since the scale factor is obtained from the pixel coordinates of the two points obtained by the first laser projectile (the distance between the two points does not change much), the effect that the image taken automatically from the front can be easily converted can be obtained. Have been.
[0116]
Further, according to the mosaic processing method using the image with laser light spots of the present invention, the first distant images are rearranged so as to correspond to the survey plane when the operator took the images, and the rearranged second distant images are rearranged. Since one image synthesized by normalization is obtained for each image, an effect that a mosaic image of the survey surface can be obtained accurately is obtained.
[0117]
Further, according to the normalized service system using the image with laser light spots of the present invention, the server can store the image with the laser light spot from the terminal and the pixel coordinates of four points of the second laser projectile on the screen of the terminal. The left and right angles, the up and down angles, and the scale are calculated and normalized based on the pixel coordinates of the two points of the first laser projectile and sent to the terminal. Images can be easily obtained. In particular, when a large number of distant images are photographed on the terminal side, a normalized mosaic image is transmitted from the server side, and when a close-up image is allocated by the terminal, a numerical value of a crack in the close-up image is transmitted. Therefore, the effect is obtained that the overall image of the investigation surface and the state of the cracked portion can be immediately determined on the site side.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a mosaic processing system using an image with laser light spots according to a first embodiment.
FIG. 2 is a schematic perspective view of a damaged photographing camera 2 for photographing a surface 1 to be inspected such as a concrete structure such as a building, a bridge, a road, or a dam.
FIG. 3 is an explanatory diagram illustrating a situation where a camera body 7 is started from directly in front.
FIG. 4 is an explanatory diagram illustrating a situation where a camera body 7 is started from directly in front.
FIG. 5 is an explanatory diagram illustrating a method of photographing.
FIG. 6 is an explanatory diagram of a menu screen.
FIG. 7 is an explanatory diagram of camera parameters.
FIG. 8 is an explanatory diagram of image registration.
FIG. 9 is an explanatory diagram of an initial screen for normalizing an image.
FIG. 10 is an explanatory diagram of rearrangement.
FIG. 11 is a diagram illustrating the principle of converting a photographic image with points Pi (P1, P2,...) Into an image of a dam taken from the front.
FIG. 12 is a principle explanation that a photographic image with points Pi (P1, P2,...) Can be converted into an image of a dam taken from the front.
FIG. 13 is a flowchart illustrating a normalization process according to the present invention.
FIG. 14 is an explanatory diagram of a photographic image with points Pi (P1, P2,...).
FIG. 15 is an explanatory diagram illustrating coordinate recognition with a point Pi (P1, P2,...).
FIG. 16 is an explanatory diagram illustrating calculation of a scale and an objective.
FIG. 17 is an explanatory diagram illustrating detection of a left-right angle and calculation of a shake angle.
FIG. 18 is an explanatory diagram illustrating detection of a vertical angle.
FIG. 19 is an explanatory diagram illustrating correction of left and right images.
FIG. 20 is an explanatory diagram illustrating correction of upper and lower images.
FIG. 21 is an explanatory diagram of image normalization.
FIG. 22 is an explanatory diagram of image normalization.
FIG. 23 is an explanatory diagram of image normalization.
FIG. 24 is an explanatory diagram illustrating image composition.
FIG. 25 is an explanatory diagram illustrating allocation of a proximity image.
FIG. 26 is an explanatory diagram of crack measurement.
FIG. 27 is a system configuration diagram of the second embodiment.
FIG. 28 is a sequence diagram of the second embodiment.
[Explanation of symbols]
30 Environment setting section
33 Image registration section
34 Distant image normalization unit
35 Mosaic Department
36 Proximity image normalization unit
37 Image layout section
38 Analysis unit
32a distant view memory area
32c Memory area for sorting
32d distant view normalization memory area
32e Memory area for proximity normalization
32f Analysis result memory area

Claims (8)

支持フレームでデジタルカメラの周囲を支持し、前記支持フレームの左枠の上の角部及び右枠の下の角部に、前記デジタルカメラのレンズ中心を通る光軸線に対して平行光線を発射する第1のレーザ発射体をそれぞれ設けると共に、前記支持フレームの上下左右枠に、前記光軸線に対して外側へ所定角度をの光線を発射する第2のレーザ発射体をそれぞれ備えた写真装置で被調査面を撮影させ、該レーザ光点付き画像を用いて正規化するレーザ光点付き画像を用いた画像処理方法であって、
コンピュータに、
前記写真装置で撮影されたレーザ光点付き画像を取り込んで、画面に表示するステップと、
前記画面に表示されたレーザ光点付き画像の前記レーザ光点の位置の指定が有る毎に、前記画面上のピクセル座標を認識するステップと、
前記第2のレーザ発射体で得られた4点のピクセル座標に基づいて中心を求め、該中心から前記4点のピクセル座標までのx軸、y軸上の距離を求め、これらの距離の比率から上下、左右の前記デジタルカメラの振れ角を求めるステップと、
前記第1のレーザ発射体で得られた2点のピクセル座標と、予め入力されたカメラパラメータとに基づいて前記デジタルカメラのフイルム上と前記被調査面までの対物距離を求め、この対物距離から前記フィルム上の画像の縮尺率を求めるステップと、
前記上下、左右の振れ角と前記縮尺率とを用いて前記画面上のレーザ光点付き画像を正面から撮影したときの画像に正規化するステップと
を有することを特徴とするレーザ光点付き画像を用いた画像処理方法。
The support frame supports the periphery of the digital camera, and emits parallel light rays to an upper corner of the left frame and a lower corner of the right frame of the support frame with respect to an optical axis passing through the lens center of the digital camera. A first laser projecting body is provided, and the upper and lower frames of the support frame are provided with a second laser projecting body for emitting a light beam having a predetermined angle outward with respect to the optical axis. An image processing method using an image with a laser light spot to photograph an investigation surface and normalize using the image with a laser light spot,
On the computer,
Capture the image with laser light spots taken by the photographic device, and display on the screen,
Recognizing pixel coordinates on the screen each time there is a designation of the position of the laser light spot in the image with the laser light spot displayed on the screen;
A center is obtained based on the pixel coordinates of the four points obtained by the second laser projectile, distances on the x-axis and y-axis from the center to the pixel coordinates of the four points are obtained, and a ratio of these distances Calculating the shake angle of the digital camera up and down, left and right,
Based on the pixel coordinates of the two points obtained by the first laser projectile and the camera parameters input in advance, the object distance on the film of the digital camera and the surface to be inspected is obtained, and from this object distance Determining the scale of the image on the film;
Normalizing the image with laser light spots on the screen to an image taken from the front using the vertical and horizontal deflection angles and the scale factor, the image having laser light spots. Image processing method using
支持フレームでデジタルカメラの周囲を支持し、前記支持フレームの左枠の上の角部及び右枠の下の角部に、前記デジタルカメラのレンズ中心を通る光軸線に対して平行光線を発射する第1のレーザ発射体をそれぞれ設けると共に、前記支持フレームの上下左右枠に、前記光軸線に対して外側へ所定角度をの光線を発射する第2のレーザ発射体をそれぞれ備えた写真装置で被調査面を撮影させ、該レーザ光点付き画像を用いてモザイク画像を生成するレーザ光点付き画像を用いたモザイク処理方法であって、
コンピュータに、
前記被調査面に対してデジタルカメラの焦点距離を一定に保って任意の傾きで、前記被調査面の隣接する所定領域同士を順次撮影させた多数の第1遠景画像を読み込んで画面に表示させるステップと、
前記被調査面を一定間隔のメッシュで区切って前記被調査面の番号を割り付けた撮影場所駒表を表示するステップと、
前記撮影場所駒表の駒が指定され、かつ前記画面に表示された多数の第1遠景画像内の遠景画像が指定されたとき、該指定された第2遠景画像を前記指定された駒に移動させて前記調査面のどこの場所の遠景画像かが分かるようにするステップと、
前記多数の第1遠景画像から1個の遠景画像を画面に表示させて、該遠景画像の内の全ての前記レーザ光点を所定方向で指定させ、該指定位置のピクセル座標を認識するステップと、
前記第2のレーザ発射体の4点の縦横座標に基づいて中心を求め、この中心から前記4点の縦横の距離を求め、これらの距離の比率で前記撮影装置の上下角、左右角を求めるステップと、
前記第1のレーザ発射体で得られた2点のピクセル座標と、予め入力されたカメラパラメータとに基づいて前記デジタルカメラのフイルム上と前記被調査面までの対物距離を求め、この対物距離と前記比率から前記フィルム上の画像の縮尺率を求めるステップと、
前記縮尺及び対物距離並びに左右角及び上下角に基づいて前記画面上の1個の遠景画像の縦横比を補正して前記被調査物を正面から撮影したとする1枚の遠景画像を得るステップと、
隣合う遠景画像を順次表示させ、該表示毎にこれらの画像上で同一箇所を指定させてバンドル標定を行って前記被調査面全体の画像であるモザイク画像を得るステップと
を有することを特徴とするレーザ光点付き画像を用いたモザイク処理方法。
The support frame supports the periphery of the digital camera, and emits parallel light rays to an upper corner of the left frame and a lower corner of the right frame of the support frame with respect to an optical axis passing through the lens center of the digital camera. A first laser projecting body is provided, and the upper and lower frames of the support frame are provided with a second laser projecting body for emitting a light beam having a predetermined angle outward with respect to the optical axis. A mosaic processing method using an image with a laser light spot to photograph a survey surface and generate a mosaic image using the image with a laser light spot,
On the computer,
A large number of first distant images obtained by sequentially photographing predetermined adjacent areas of the inspected surface at an arbitrary inclination while keeping the focal length of the digital camera constant with respect to the inspected surface are read and displayed on the screen. Steps and
A step of displaying a photographing place piece table in which the surveyed surface is divided by a mesh at a fixed interval and the number of the surveyed surface is assigned;
When a frame in the shooting location frame table is designated and a distant view image among a number of first distant view images displayed on the screen is designated, the designated second distant view image is moved to the designated frame. Letting it know where the distant view image of the survey surface is,
Displaying one distant view image from the plurality of first distant view images on a screen, specifying all the laser light points in the distant view image in a predetermined direction, and recognizing pixel coordinates of the specified position; ,
A center is determined based on the vertical and horizontal coordinates of four points of the second laser projectile, vertical and horizontal distances of the four points are determined from the center, and a vertical angle and a horizontal angle of the image capturing apparatus are determined by a ratio of these distances. Steps and
The object distance between the film of the digital camera and the surface to be inspected is obtained based on the pixel coordinates of two points obtained by the first laser projectile and the camera parameters input in advance. Calculating the scale of the image on the film from the ratio;
Correcting the aspect ratio of one distant image on the screen based on the scale and the object distance and the left and right angles and the up and down angles to obtain one distant image that assumes that the object to be investigated is photographed from the front; ,
Successively displaying adjacent distant images, performing bundle orientation by specifying the same location on these images for each display, and obtaining a mosaic image that is an image of the entire surface to be inspected. Mosaic processing method using an image with laser light spots.
前記予め入力された前記デジタルカメラのカメラパラメータと前記4点の縦横座標から中心を求めたとき、この中心が前記デジタルカメラ中心とする条件を満足しているかどうかを判定するステップと
を有することを特徴とする請求項2記載のレーザ光点付き画像を用いたモザイク処理方法。
Determining a center from the pre-input camera parameters of the digital camera and the vertical and horizontal coordinates of the four points to determine whether or not the center satisfies the condition of the digital camera center. 3. A mosaic processing method using an image with laser light spots according to claim 2.
前記デジタルカメラの焦点距離より長い焦点距離にして任意の傾きで、前記被調査面の所望の領域を撮影させた近接画像を読み込んで、画面に表示させるステップと、
前記多数の第1近接画像から1個の近接画像を画面に表示させて、該第2の近接画像の内の全ての前記レーザ光点を所定方向で指定させ、該指定位置のピクセル座標を認識するステップと、
前記第2の近接画像において、前記第2のレーザ発射体の4点の縦横座標に基づいて中心を求め、この中心から前記4点の縦横の距離を求め、これらの距離の比率で前記撮影装置の上下角、左右角を求めるステップと、
前記第2の近接画像おいての前記第1のレーザ発射体で得られた2点のピクセル座標と、予め入力されたカメラパラメータとに基づいて前記デジタルカメラのフイルム上と前記被調査面までの対物距離を求め、この対物距離と前記比率から前記フィルム上の画像の縮尺率を求めるステップと、
前記縮尺及び対物距離並びに左右角及び上下角に基づいて前記画面上の第2の近接画像の縦横比を補正して前記被調査物を正面から撮影したとする第3の近接画像を得るステップと、
前記第3の近接画像と前記モザイク画像とを画面に表示させ、前記モザイク画像上で指定された範囲に前記画面に表示した第3の近接画像を割り当てるステップと
を有することを特徴とする請求項2又は3に記載のレーザ光点付き画像を用いたモザイク処理方法。
Reading a close-up image obtained by photographing a desired region of the surface to be inspected at an arbitrary inclination with a focal length longer than the focal length of the digital camera, and displaying the image on a screen,
One proximity image is displayed on the screen from the plurality of first proximity images, all the laser light points in the second proximity image are designated in a predetermined direction, and the pixel coordinates of the designated position are recognized. Steps to
In the second proximity image, a center is obtained based on the vertical and horizontal coordinates of the four points of the second laser projectile, the vertical and horizontal distances of the four points are obtained from the center, and the imaging device is calculated by the ratio of these distances. Determining the vertical and horizontal angles of the
Based on the pixel coordinates of two points obtained by the first laser projectile in the second proximity image, and camera parameters input in advance, a position on the film of the digital camera and the surface to be inspected is determined. Obtaining an object distance, obtaining the scale of the image on the film from the object distance and the ratio,
Correcting the aspect ratio of the second proximity image on the screen based on the scale, the object distance, the left-right angle, and the up-down angle to obtain a third proximity image in which the subject is photographed from the front; ,
Displaying the third proximity image and the mosaic image on a screen, and allocating the third proximity image displayed on the screen to a range specified on the mosaic image. 4. A mosaic processing method using the image with laser light spots according to 2 or 3.
前記第3の近接画像上の濃度、輝度の違いからひび割れの軌跡を求め、このひび割れの軌跡の各種解析結果を求めて表示するステップと、
前記ひび割れの軌跡上に、一定刻みのスケールを表示するステップと
を有することを特徴とする請求項2、3又は4に記載のレーザ光点付き画像を用いたモザイク処理方法。
Obtaining a locus of a crack from the difference in density and luminance on the third proximity image, obtaining and displaying various analysis results of the locus of the crack,
5. The mosaic processing method using an image with laser light spots according to claim 2, further comprising the step of displaying a scale at a fixed interval on the trajectory of the crack.
支持フレームでデジタルカメラの周囲を支持し、前記支持フレームの左枠の上の角部及び右枠の下の角部に、前記デジタルカメラのレンズ中心を通る光軸線に対して平行光線を発射する第1のレーザ発射体をそれぞれ設けると共に、前記支持フレームの上下左右枠に、前記光軸線に対して外側へ所定角度をの光線を発射する第2のレーザ発射体をそれぞれ備えた写真装置で被調査面を撮影させた該レーザ光点付き画像を端末に保存し、コンピュータネットワークシステムを介して前記端末と通信を行って正規化された遠景画像、近接画像をサーバから提供するレーザ光点付き画像を用いたサービスシステムであって、
前記サーバは、
前記端末に対しては、前記撮影装置で撮影させたレーザ光点付き画像と前記端末の画面の第2のレーザ発射体の4点のピクセル座標と第1のレーザ発射体の2点のピクセル座標とを送信させる手段と、
前記レーザ光点付き画像と前記ピクセル座標とを受信し、その画像上の前記4点の縦横座標に基づいて中心を求め、この中心から前記4点の縦横の距離を求め、これらの距離の比率で前記撮影装置の上下角、左右角を求める手段と、
前記第1のレーザ発射体で得られた2点のピクセル座標と、予め入力されたカメラパラメータとに基づいて前記デジタルカメラのフイルム上と前記被調査面までの対物距離を求め、この対物距離と前記比率から前記フィルム上の画像の縮尺率を求める手段と、
前記縮尺及び対物距離並びに左右角及び上下角に基づいて前記画面上の1個の遠景画像の縦横比を補正して前記被調査物を正面から撮影したとする正規化した1枚の遠景画像を得る手段と、
前記正規化した1枚の遠景画像を前記端末に提供する手段と
を備えたことを特徴とするレーザ光点付き画像を用いた正規化サービスシステム。
The support frame supports the periphery of the digital camera, and emits parallel light rays to an upper corner of the left frame and a lower corner of the right frame of the support frame with respect to an optical axis passing through the lens center of the digital camera. A first laser projecting body is provided, and the upper and lower frames of the support frame are provided with a second laser projecting body for emitting a light beam having a predetermined angle outward with respect to the optical axis. The image with the laser light spot obtained by photographing the survey surface is stored in the terminal, and the normalized distance image and the near image are provided from the server by communicating with the terminal via the computer network system. A service system using
The server comprises:
For the terminal, the image with the laser light spot photographed by the photographing device, the pixel coordinates of four points of the second laser projectile on the screen of the terminal, and the pixel coordinates of two points of the first laser projectile Means for transmitting
Receiving the image with the laser light spot and the pixel coordinates, obtaining a center based on the vertical and horizontal coordinates of the four points on the image, obtaining the vertical and horizontal distances of the four points from the center, and determining the ratio of these distances Means for determining the vertical angle, left and right angles of the imaging device,
The object distance between the film of the digital camera and the surface to be inspected is obtained based on the pixel coordinates of two points obtained by the first laser projectile and the camera parameters input in advance. Means for determining the scale of the image on the film from the ratio,
Correcting the aspect ratio of one distant image on the screen based on the scale and the object distance, and the right and left angles and the up and down angles, and normalizing one distant image assuming that the subject is photographed from the front. Means to obtain,
Means for providing the normalized one distant view image to the terminal. A normalized service system using an image with laser light spots.
前記サーバは、
前記端末から前記レーザ光点付き画像を前記被調査面に合わせて並び替えた並び画像群が送信されたときは、これらの画像群を前記正規化して前記端末に送信して、隣接する画像同士の基準点を指定させて送信させる手段と、
前記指定された基準点同士を用いてバンドル標定を行って、それぞれの画像を合成したモザイク画像を前記端末に提供する手段と
を有することを特徴とする請求項6記載のレーザ光点付き画像を用いた正規化サービスシステム。
The server comprises:
When a group of images obtained by rearranging the images with the laser light spots according to the surface to be inspected is transmitted from the terminal, these images are normalized and transmitted to the terminal, and adjacent images are transmitted to the terminal. Means for specifying and transmitting the reference point of the
Means for performing bundle orientation using the designated reference points and providing a mosaic image obtained by synthesizing the respective images to the terminal, the image with laser light spots according to claim 6, The normalization service system used.
前記端末は、
前記被調査面に対してデジタルカメラの焦点距離を一定に保って任意の傾きで、前記被調査面の隣接する所定領域同士を順次撮影させた多数の第1遠景画像を読み込んで画面に表示させる手段と、
前記被調査面を一定間隔のメッシュで区切って前記被調査面の番号を割り付けた撮影場所駒表を表示する手段と、
前記撮影場所駒表の駒が指定され、かつ前記画面に表示された多数の第1遠景画像内の遠景画像が指定されたとき、該指定された第2遠景画像を前記指定された駒に移動させて前記調査面のどこの場所の遠景画像かが分かる並べ替え画像群を得る手段と、
前記多数の第1遠景画像から1個の遠景画像を画面に表示させて、該遠景画像の内の全ての前記レーザ光点を所定方向で指定させ、該指定位置のピクセル座標を認識する手段と、
前記第2のレーザ発射体の4点のピクセル座標と第1のレーザ発射体の2点のピクセル座標とを指定させ、これらのピクセル座標と前記並べ替え画像群とを前記サーバに送信する手段と、
前記サーバからの正規化された遠景画像を受信して、隣合う遠景画像を順次表示させ、該表示毎にこれらの画像上で同一箇所となる前記基準点を指定させ、該指定箇所を前記サーバに送信する手段と、
前記サーバからのモザイク画像を受信して画面に表示する手段と
を備えていることを特徴とする請求項6又は7記載のレーザ光点付き画像を用いた正規化サービスシステム。
The terminal is
A large number of first distant images obtained by sequentially photographing predetermined adjacent areas of the inspected surface at an arbitrary inclination while keeping the focal length of the digital camera constant with respect to the inspected surface are read and displayed on the screen. Means,
Means for displaying a shooting place piece table in which the surveyed surface is divided by a mesh at a fixed interval and the number of the surveyed surface is assigned;
When a frame in the shooting location frame table is designated and a distant view image among a number of first distant view images displayed on the screen is designated, the designated second distant view image is moved to the designated frame. Means for obtaining a rearranged image group that shows a distant view image of a place on the survey surface,
Means for displaying one distant view image from the plurality of first distant view images on a screen, specifying all the laser light points in the distant view image in a predetermined direction, and recognizing pixel coordinates of the specified position; ,
Means for designating four pixel coordinates of the second laser projectile and two pixel coordinates of the first laser projectile, and transmitting the pixel coordinates and the rearranged image group to the server; ,
Receiving the normalized distant view images from the server, sequentially displaying adjacent distant view images, specifying the same reference point on these images for each of the displays, and Means for sending to
8. The system according to claim 6, further comprising: means for receiving a mosaic image from the server and displaying the mosaic image on a screen.
JP2002227696A 2002-08-05 2002-08-05 Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method Pending JP2004069434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002227696A JP2004069434A (en) 2002-08-05 2002-08-05 Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002227696A JP2004069434A (en) 2002-08-05 2002-08-05 Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method

Publications (1)

Publication Number Publication Date
JP2004069434A true JP2004069434A (en) 2004-03-04

Family

ID=32014653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002227696A Pending JP2004069434A (en) 2002-08-05 2002-08-05 Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method

Country Status (1)

Country Link
JP (1) JP2004069434A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006049174A1 (en) * 2004-11-02 2006-05-11 Tooru Hara Concrete structure crack inspection device and crack inspection method
JP2008046103A (en) * 2006-07-19 2008-02-28 Shimatec:Kk Surface inspection apparatus
CN103353387A (en) * 2013-06-28 2013-10-16 哈尔滨工业大学 Light-spot image processing detection system and method for detecting light-spot gray scale centroid and conventional gray-scale image-noise removal effect
JP2015004660A (en) * 2013-06-18 2015-01-08 財團法人國家實驗研究院National Applied Research Laboratories Mobile image velocimetry method, and mobile image velocimetry device
WO2017217185A1 (en) * 2016-06-14 2017-12-21 富士フイルム株式会社 Server device, image processing system, and image processing method
JP2019056961A (en) * 2017-09-19 2019-04-11 大成建設株式会社 Photographed image correction system, photographed image data acquisition apparatus and photographed image correction method
JP2019056679A (en) * 2017-09-22 2019-04-11 株式会社大林組 Surface evaluation method, surface evaluation device, and evaluation model storage device
CN113155756A (en) * 2021-03-31 2021-07-23 中国科学院长春光学精密机械与物理研究所 Light spot online calibration method
CN113155755A (en) * 2021-03-31 2021-07-23 中国科学院长春光学精密机械与物理研究所 On-line calibration method for micro-lens array type imaging spectrometer
JP2022033794A (en) * 2017-09-19 2022-03-02 大成建設株式会社 Captured image correction method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006049174A1 (en) * 2004-11-02 2006-05-11 Tooru Hara Concrete structure crack inspection device and crack inspection method
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP2008046103A (en) * 2006-07-19 2008-02-28 Shimatec:Kk Surface inspection apparatus
JP2015004660A (en) * 2013-06-18 2015-01-08 財團法人國家實驗研究院National Applied Research Laboratories Mobile image velocimetry method, and mobile image velocimetry device
CN104280567A (en) * 2013-06-18 2015-01-14 林圣峰 Method and device for identifying mobile image flow velocity
CN103353387A (en) * 2013-06-28 2013-10-16 哈尔滨工业大学 Light-spot image processing detection system and method for detecting light-spot gray scale centroid and conventional gray-scale image-noise removal effect
WO2017217185A1 (en) * 2016-06-14 2017-12-21 富士フイルム株式会社 Server device, image processing system, and image processing method
JPWO2017217185A1 (en) * 2016-06-14 2019-02-28 富士フイルム株式会社 Server apparatus, image processing system, and image processing method
JP2019056961A (en) * 2017-09-19 2019-04-11 大成建設株式会社 Photographed image correction system, photographed image data acquisition apparatus and photographed image correction method
JP2022033794A (en) * 2017-09-19 2022-03-02 大成建設株式会社 Captured image correction method
JP7060934B2 (en) 2017-09-19 2022-04-27 大成建設株式会社 Captured image correction system
JP7165800B2 (en) 2017-09-19 2022-11-04 大成建設株式会社 Shooting image correction method
JP2019056679A (en) * 2017-09-22 2019-04-11 株式会社大林組 Surface evaluation method, surface evaluation device, and evaluation model storage device
CN113155756A (en) * 2021-03-31 2021-07-23 中国科学院长春光学精密机械与物理研究所 Light spot online calibration method
CN113155755A (en) * 2021-03-31 2021-07-23 中国科学院长春光学精密机械与物理研究所 On-line calibration method for micro-lens array type imaging spectrometer
CN113155755B (en) * 2021-03-31 2022-05-24 中国科学院长春光学精密机械与物理研究所 On-line calibration method for micro-lens array type imaging spectrometer
CN113155756B (en) * 2021-03-31 2022-10-04 中国科学院长春光学精密机械与物理研究所 Light spot online calibration method

Similar Documents

Publication Publication Date Title
JP5770486B2 (en) All-around image measuring device
JP4529157B2 (en) Three-dimensional survey system and electronic storage medium
US20090251680A1 (en) Three dimensional spatial imaging system and method
JPWO2005017644A1 (en) Three-dimensional survey device and electronic storage medium
JP6734583B2 (en) Image processing system, image processing method and program for inspecting structures such as bridges
US20180213148A1 (en) Information acquisition apparatus
JP2004069434A (en) Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method
TW201231913A (en) Device and system for inspecting a substrate, and method for displaying a frame of verifying the result of the inspected
JP6899436B2 (en) Calculation system, program and target
CN102589529B (en) Scanning close-range photogrammetry method
CN112102387B (en) Test method and test system based on depth estimation performance of depth camera
Barreau et al. Photogrammetry based study of ceramics fragments
JP4764896B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP4776983B2 (en) Image composition apparatus and image composition method
EP3287988A1 (en) Modelling system and method
JP4072420B2 (en) Calibration method for fluoroscopic inspection apparatus
JP7044331B2 (en) Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges
CN112254678B (en) Indoor 3D information acquisition equipment and method
JP2022104646A (en) Cargo inspection device, cargo inspection method, program, and cargo inspection system
JP5231331B2 (en) Video composition method, video composition system
JP2004170277A (en) 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program
JP2020076674A (en) Current situation survey drawing creation system, method, and program
JP2021087081A (en) Photography support device, photography support method, and program
JP2004340753A (en) Calibration chart image display device
JP3519296B2 (en) Automatic measurement method and automatic measurement device for thermal image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081007