JP3849420B2 - Interface measuring device - Google Patents

Interface measuring device Download PDF

Info

Publication number
JP3849420B2
JP3849420B2 JP2000352699A JP2000352699A JP3849420B2 JP 3849420 B2 JP3849420 B2 JP 3849420B2 JP 2000352699 A JP2000352699 A JP 2000352699A JP 2000352699 A JP2000352699 A JP 2000352699A JP 3849420 B2 JP3849420 B2 JP 3849420B2
Authority
JP
Japan
Prior art keywords
image
interface
difference
change
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000352699A
Other languages
Japanese (ja)
Other versions
JP2002156272A (en
Inventor
修 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Chemical Co Ltd
Original Assignee
Sumitomo Chemical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Chemical Co Ltd filed Critical Sumitomo Chemical Co Ltd
Priority to JP2000352699A priority Critical patent/JP3849420B2/en
Publication of JP2002156272A publication Critical patent/JP2002156272A/en
Application granted granted Critical
Publication of JP3849420B2 publication Critical patent/JP3849420B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、計測される界面を含む原画像を取得するための画像取得手段と、取得された原画像を解析して界面位置を求める画像解析手段とを備えた界面計測装置に関するものである。
【0002】
【従来の技術】
界面とは、液体、気体、固体等の二層が接している境界のことを言い、例えば、液体が貯蔵されているドラムにおける液体と空気との境界である。かかる界面を測定する装置として一般的に市販されているものとして次のようなものがあげられる。
(1) 垂直反射型変位計
この原理は、液面上空からレーザー光又は超音波を液面に向かって垂直下方に放射し、液面での反射を受信して距離を測定するものである。
(2) 静電容量式レベルスイッチ
この原理は、液体と空気の比誘電率の差を利用してセンサー付近に液面があるかどうかを検知するものである。
【0003】
しかしながら、上記(1)の場合は、装置を二層のうちのいずれかの層中に設置する必要があるので、装置に対して影響を与えないような工夫、例えば装置をシールド状態にできることが必要となる。また、タンク内など外界から閉ざされることが必要な場合は、設置・保全が容易ではないと言う問題があった。
【0004】
また、上記(2)の場合は、センサーが設けられている位置における検知は可能であるが、広範囲にわたる連続値の計測ができないと言う問題があった。
また、上記の他に、フロートレベル計、抵抗レベル計、インピーダンス式界面計もあるが、これらは界面においてインピーダンスや密度と言った特徴値に大きな差があり、かつ、値が安定していると言う前提条件が必要とされていた。実際の界面計測を行なう現場においては、さまざまな不安定要因があり、上記市販装置をそのまま適用することが困難な場合が多い。
【0005】
上記問題点を考慮した従来技術として、特開平8−43173号公報に開示されている画像処理による水位測定装置がある。
この装置は、液体の水面位置(界面)を目測する水位計の画像を取り込み、画像処理によって水位を自動的に測定するものであり、前記水位計の画像を濃淡画像に変換し、その濃淡値を水平方向に積算するとともに、垂直方向の変化として示すヒストグラムを求め、このヒストグラムが予め設定された所定のしきい値を超えて変化した場合に、その位置を水位として求める装置である。
画像処理による界面測定装置としては、他に、実開平6−30727号公報、特開平7−98238号公報に開示される装置があげられる。
【0006】
【発明が解決しようとする課題】
しかしながら、これら従来の画像処理による界面計測装置は、外乱の多い現場環境では安定して使用することができない問題があった。
つまり、従来の画像処理では、界面において何らかの物理量(濃度など:上記例ではヒストグラムの変化)の変化が生じ、それと同様の変化は界面以外の部分においては発生しないと言う前提条件のもとで、安定して界面の検出をすることができるものである。
【0007】
また一方で、界面を形成する二層の画像の濃度差で検出する場合は、界面を形成する二層の物性により夫々の濃度がほぼ決まるため、濃度差が充分ではない場合もある。二層を形成する物質に着色することで濃度差を生じさせる方法はあるが、装置の制約など界面の濃度差を改善することが困難な場合が多い。つまり、濃度差が非常にわずかな画像を基に界面を検出しなければならないことも多い。
【0008】
更に付け加えると、現実の界面測定の現場は屋外であることも多く、その場合には観測面の汚れや周囲の明るさの変化、周辺の設置物による陰影の映り込みなどの、さまざまな外乱が画像として取り込まれる。しかも、これら外乱による濃度変化のほうが、測定すべき界面での濃度変化よりも大きいことも多い。このような場合には、界面における濃度変化分だけを、他の外乱による変化分と区別して抽出する必要がある。
【0009】
本発明は上記実情に鑑みてなされたものであり、その目的は、外乱が生じていたとしても精度良く界面の計測を行なうことのできる界面計測装置を提供するものである。
【0010】
【課題を解決するための手段】
上記目的を達成するための本発明に係る界面計測装置は、計測される界面を含む原画像を取得するための画像取得手段と、取得された原画像を解析して界面位置を求める画像解析手段とを備えた界面計測装置において、前記画像解析手段は、異なる時刻に取得した原画像間の差分画像を求める差分演算部と、この差分画像に基づいて原画像の変化分を抽出した抽出画像を求める変化分抽出部と、この抽出画像に基づいて界面位置を決定する界面位置決定部と、界面計測の過程で得られた変化分抽出画像に対して、当該変化分抽出画像が界面の変化によるものであるかどうかを判定する変化分抽出画像評価部とを備えていることを特徴とするものである。
【0011】
本発明の原理を説明すると、界面において変化が生じる物理量として濃度差のみではなく、界面の位置の時間変化も捉えようとするものである。例えば、稼働中の生産プラントにおける界面の場合は、界面が絶えず揺動している場合が多い。一方、観測面の汚れや周囲の明るさの変化、周辺物の陰影などの外乱の画像は、長い時間幅で見ると変化するかもしれないが、短い時間幅では静止しているとみなせることが多い。
【0012】
そこで、異なる時刻において原画像(原画像とは画像処理を行なう前の画像を意味するものである。)を取得し、現在の原画像と過去の原画像との差分画像を差分演算部により求める。現在の原画像と過去の原画像との間の時間間隔は界面の揺動の周期に合わせて適宜設定すればよい。差分画像を演算することにより、静止状態にある外乱画像を除去することができ、揺動している界面画像のみを残すような抽出画像を得ることができる。つまり、濃度変化の大小に基づいて界面を検出するのではなく、界面の位置の変化を捉えるものであり、界面における濃度変化が外乱画像の濃度変化よりも小さかったとしても検出することができる。界面位置決定部は、抽出画像に基づいて界面位置を最終決定(特定)する。
以上のように、外乱が生じていたとしても精度良く界面の計測を行なうことのできる界面計測装置を提供することができた。
【0013】
本発明の好適な実施形態として、前記画像解析手段は、異なる時刻に取得された2つの原画像間の相対的な位置関係を解析し、2つの原画像間の位置ずれを補正したのち差分をとる位置ずれ補正部を備えているものがあげられる。実際の現場環境では、大がかりな装置と隣接している場合も多く、異なる時刻に取得した原画像間には、これら隣接する装置からの振動等に起因する画像全体にわたるずれがある場合が多い。このような原画像間で差分をとると画像全体にわたりノイズ成分が残る。このような場合には、原画像間の差分をとる前に位置ずれの補正を行い、一方の画像をずれ量だけ逆方向にシフトさせた後、差分をとるようにするのが好ましい。位置関係の解析には、パターンマッチングや正規化相関などの公知の手法を用いることができる。これにより、差分画像に現れるノイズ成分を低減することができ、界面計測を精度良く行なうことができる。
【0014】
本発明の別の好適な実施形態として、前記画像解析手段は、前記差分画像からノイズ成分を除去した平滑化画像を求める平滑化処理部を更に備えているものがあげられる。サンプリング画像の差分をとって差分画像を得たとしても、完全に外乱画像を除去できないことが普通であり、多少のノイズ成分が残る。ノイズ成分が少ない場合は平滑化処理をする必要はないが、ノイズ成分が目立つような場合は差分画像を平滑化処理して平滑化画像を求めるようにするのが好ましい。これにより、界面計測を精度良く行なうことができる。
【0015】
本発明の別の好適な実施形態として、前記差分画像の濃度ヒストグラム又は前記平滑化画像の濃度ヒストグラムから、前記抽出画像を求めるためのしきい値を求めるしきい値演算部を更に備えているものがあげられる。
【0016】
画像の明るさが昼夜天候などの影響で変化する場合には、濃度ヒストグラムも変化するから、その変化に応じて抽出画像(例えば、0(黒)レベルと1(白)レベルとグレーレーベルの3値画像である。)を求めるためのしきい値を求めるようにするのがこのましい。これにより、界面計測を精度よく行なうことができる。なお、昼夜天候などの影響が全くなく、画像の明るさが安定している(濃度ヒストグラムが変化しない)場合には、しきい値は固定しておいても良い。
【0017】
本発明の更に別の好適な実施形態として、前記変化分抽出部は、前記差分画像又は平滑化画像から、前記しきい値演算部により求められたしきい値又は予め設定されたしきい値により前記抽出画像を求めるものがあげられる。
【0018】
差分画像又は差分画像から求められた平滑化画像では、変化分に相当する画素の濃度はある範囲内にあるものと推定されるから、しきい値を設定することによりその変化分の画像を抽出することができる。
【0019】
本発明の更に別の好適な実施形態として、前記界面位置決定部は、前記差分画像から求められる濃度変化パターンと、予め用意している濃度変化パターンとを比較することにより、界面位置を決定するものがあげられる。
【0020】
抽出画像を求めると、この画像から界面位置を特定する必要がある。その際に、前記差分画像から濃度変化パターンを求め、これを予め用意している濃度変化パターンと比較する。この濃度変化パターンとして、例えば、界面が上方向に移動した場合、下方向に移動した場合など考えられるいくつかのパターンを用意しておけば良い。これらのパターンに基づいて、抽出画像から最終的に界面位置を特定することができる。
【0021】
本発明の更に別の好適な実施形態として、前記画像取得手段により取得された原画像を表示する表示手段を備え、この表示手段は、前記界面位置決定部により決定された界面位置及び界面位置の経時的変化を表わすグラフを前記原画像と共に表示するものがあげられる。
【0022】
この構成によると、原画像と共に、界面位置及び界面位置の経時的変化を表示手段に表示できるので、オペレータは計測結果を直ちに認識できる。また、界面位置の経時的変化を表わすグラフも表示することで、界面位置の現在位置のみならず過去の計測結果も直ちに認識することができる。
【0023】
本発明の更に別の好適な実施形態として、界面計測の対象となる原画像に対して、これとの差分画像を求める過去の原画像を複数用意し、それぞれの過去の原画像に対して画像解析を行い、それぞれの画像解析結果の中から最も好適な画像解析結果を採用して界面位置を決定するものがあげられる。
【0024】
この構成によると、2つの原画像において界面の位置の変化がほとんどない場合には差分画像に界面の変化による成分がほとんど抽出されないことがあり、このような場合には計測不能となるが、差分をとる対象画像を複数用意しておくことで、いずれかの画像との差分画像に界面の変化による成分が抽出される可能性が高くなり、より信頼性の高い計測が可能になる。このとき、差分をとる対象画像として、例えば、過去の予め定めた時間幅の中で、界面計測値が最大であったときの画像と最小であったときの画像を選ぶと効果的である。
【0025】
界面の特定にあたっては、複数の差分対象画像を用いて画像解析を行った結果を比較し、抽出された成分が界面の変化によるものである可能性が最も高いものを採用し、これに基づき界面を特定することが好ましい。(抽出された成分が界面の変化によるものである可能性が高いことを以後「界面らしい」と呼ぶことにする。)界面らしいかどうかの判定方法としては、例えば次のような方法があげられる。
【0026】
通常、重力のみの力を受けている場合、界面は水平に近いことが予想される。したがって、抽出された画像成分について特徴量を解析し、垂直方向にはある限られた範囲内に集中し、かつ水平方向には界面の観測窓の幅に近い範囲にわたって分布しているような場合を界面らしいと判断することができる。このためには、抽出された画像の外接長方形の縦横寸法(一般にフェレ径と呼ばれる)を評価する、あるいは抽出された画像の垂直方向の射影をとり射影画像の分布する範囲と最大度数を評価するなどの方法があげられる。また、抽出画像の重心が界面観測窓の水平方向の中央付近に位置するかどうかなども評価の手がかりとなる。
【0027】
界面らしいかどうかの評価方法として、別の好適な実施形態としては前記抽出画像を入力データとするニューラルネットワークを利用する方法があげられる。前記のように抽出画像の特徴量から界面らしさを判定する場合、特徴量の値と界面らしさの値とを実態にあうように対応させなければならないが、この作業は容易ではない。そこで、界面候補として抽出された画像パターンを入力データとするニューラルネットワークを構築し、予め多数の実際の画像解析結果とそれを人間が界面かどうかの判断を下した教師データとに基づいて学習させ、学習結果に基づいて界面らしさを判定させるとよい。複数の差分対象画像に対する画像解析結果のなかで、このニューラルネットワークの出力値が最も大きいものを最も界面らしいとして採用し、界面の位置を特定することができる。
【0028】
本発明の目的を達成するための本発明に係る界面計測方法は、計測される界面を含む原画像を取得するステップと、取得された現在の原画像と過去の原画像との差分画像を求めるステップと、この差分画像に基づいて原画像の変化分を抽出した抽出画像を求めるステップと、この抽出画像に基づいて界面位置を決定するステップとを有することを特徴とするものである。
【0029】
この構成による作用は、本発明に係る界面計測装置と同様であり、次の通りである。
(イ) 計測される界面を含む原画像を取得する。サンプリング間隔の設定は、界面の変動状態に応じて設定すれば良い。
(ロ)差分画像に基づいて原画像の変化分を抽出した抽出画像を求める。ここで、「差分画像に基づいて」とは、差分画像から直接、原画像の変化分を抽出する場合を含むのはもちろんのこと、差分画像から求められる別の画像、例えば、差分画像からノイズ成分を除去した平滑化画像を求めて、この平滑化画像から変化分を抽出する場合なども含む。
(ハ) 抽出画像に基づいて界面位置を決定する。
その他の作用・効果については、界面計測装置の場合と同じであるので説明を省略する。
【0030】
【発明の実施の形態】
本発明に係る界面計測装置の好適な実施形態を図面を用いて説明する。図1は、界面計測装置を含む全体構成(現場+計測室)を示す図である。
<全体構成>
現場には、界面計測対象としての容器(ドラムなど)1と、容器1の観測窓1aから見える被計測界面1bを照明する蛍光灯などの照明手段2と、界面1bの画像を取得するためのTVカメラ3(画像取得手段に相当する。)とが設けられている。
本実施形態における現場は、屋外であり観測窓1aへの汚れ付着などが避けられなく、また、降雨時はその影響が画像に外乱となって現われる可能性がある。かかる外乱があったとしても、既存のTVカメラ3を用いて界面画像を取得してこの画像を解析するアルゴリズムを工夫することで界面位置を検出するものである。
【0031】
計測室には、TVカメラ3から画像が入力される画像解析システム4と、この画像解析システム4に接続されたTVモニタ5とCRモニタ6(夫々表示手段に相当する。)とが設けられている。画像解析システム4については次に説明するが、画像解析手段40が設けられている。
【0032】
<画像解析システム>
次に、画像解析システム4のブロック構成を図2に示す。
この画像解析システム4は、各部の制御を行なうシステム制御部41と、TVカメラ3が取得した画像を解析して界面位置を計測する画像解析手段40と、ハードディスク42と、フロッピーディスク43と、データ記録再生手段44と、周辺処理手段45と、画像合成手段46と、グラフ作成手段47と、キーボード48とを備えている。
【0033】
図3は、画像解析手段40の機能を説明するブロック構成図である。図4は、概略の手順を示すフローチャートである。TVカメラ3から取得されるアナログ画像信号は、A/D変換部10においてデジタルデータ化されたデジタル画像信号(原画像)として所定のサンプリング間隔(周期)で画像解析手段40に取り込まれる。サンプリング間隔は、界面の揺動する周期に合わせて設定すれば良く、本実施形態では2秒に設定している。取り込まれた原画像は、フレームメモリ部40aに取り込まれる。フレームメモリ部40aは少なくとも第1フレームメモリFM1と第2フレームメモリFM2を備えている。差分対象画像を複数用意する場合にはその枚数分だけフレームメモリが必要である。本実施形態では差分対象画像を3枚用意したため、上記に加えてフレームメモリFM3、FM4および画像解析の作業領域として図示しないフレームメモリを確保した。なお、原画像とは画像処理が行なわれる前の画像のことを意味するものであり、本実施形態では、8ビットの濃淡画像(256段階の濃淡画像データ)として表わされる。
【0034】
原画像データはまず、第1フレームメモリFM1に取り込まれる(図4のs1参照)。この原画像(現在の原画像)を図5に示す。また、第2フレームメモリFM2には2秒前に取得した原画像が保存されており、この原画像(過去の原画像)を図6に示す。
【0035】
差分演算部40bは、現在の原画像と過去の原画像との差分画像を求める(s2)。本実施形態では、現在の原画像から過去の原画像を減算処理しているが、もちろんその逆の減算を行なっても良い。なお、差分画像については減算結果を128(中間階調)オフセットしたものを用いており、このオフセットされた差分画像を図7に示す。差分画像は作業領域として確保したフレームメモリに格納される。
【0036】
差分演算部40bは、現在の原画像と過去の原画像との差分画像を求める前に両画像間の相対位置を正規化相関に基づき解析し、両画像の位置のずれと同じだけフレームメモリFM1の画像をシフトさせることで位置ずれを補正する機能を有する。ただし本実施形態では、現場環境における振動等に起因する画像のずれは以後の解析に影響を与えるほどには生じなかったため、この機能は実行せず通過している。
【0037】
差分画像を求めると、外乱画像等の移動しない部分は差分をとると0(オフセットすると128)になるが、実際には差分を取ったとしても微小なノイズ成分が残ることがある。かかるノイズ成分を除去するために平滑化処理部40cにて平滑化処理を行なう(s3)。平滑化処理としては、本実施形態では1行×32列フィルタを用いて平滑化した。これは、移動平均フィルタのことであり、注目画素を中心として32画素の平均を注目画素位置の平滑化画像とする方法である。本実施形態において、上記フィルタを採用した理由は、界面画像への影響が少なく、かつ最も効果が得られたからである。もちろん、平滑化フィルタは、上記フィルタに限定されるものではなく、現場状況などに合わせて適切なものを採用すれば良い。また、差分画像にノイズ成分がほとんどないような場合には、平滑化処理は不要である。
【0038】
次に、平滑化処理された差分画像から、原画像の変化分を抽出するための処理を説明する。この変化分は界面付近の画像に相当するものである。これは、界面は常時揺動しているものと考えられるので、原画像の変化分を抽出することで界面を計測できると言う考え方に基づくものである。
【0039】
まず、図7に示される平滑化された差分画像の濃度ヒストグラムを求めると、図8のようになり、(a)は界面変化がない場合の濃度ヒストグラムであり、(b)は界面変化があった場合の濃度ヒストグラムを示す図である。図8(a)の場合は、しきい値演算部40dは、ノイズによる度数分布の両端部n1とn2
しきい値として設定する。(b)の場合、しきい値演算部40dは、ノイズによる度数分布と界面位置の変化による度数分布の中間であるn3とn4をしきい値
として設定する。度数分布の幅は、天候、時刻、振動、電気ノイズなどにより毎回異なるため、しきい値演算部40dでは、毎回度数分布の形状を数式的に認識してしきい値を演算している。
なお、差分画像の濃度ヒストグラムが毎回ほとんど一定である場合には、しきい値を自動演算する処理は必要がなく、予め設定した固定値で良い。濃度ヒストグラムの形状が毎回ばらつく場合に、上記処理を行なうのが有効である。
【0040】
しきい値が求まると、変化分抽出部40eにおいて、図7の差分画像を2値画像に変換する。具体的には、濃度がn1〜n2の間、又はn3〜n4の間にある
画像は0レベル(0値)に変換し、n2又はn4以上の画像を1レベル(255
値)に変換し、n1又はn3以下の画像を中間のグレーレベルに変換する。これ
により、原画像の変化分を抽出した抽出画像(3値化画像)を求めることができる。この抽出画像を図9に示す。この抽出画像を求めるに際して、ノイズ成分を除去するための孤立点除去処理(膨張・収縮処理等)を行なうのが好ましい。
【0041】
図9は、理想的な抽出画像であり、島が2つ現われる。2つ現われるのは、本実施形態における界面が後述するモデルパターンの図13に相当するようなエマルジョン層を有するからであり、この抽出画像から正しい界面位置を特定するためのアルゴリズムが必要となる。この処理は、界面位置決定部40fにより行なわれる。以下、界面位置を特定するための手順を説明する。
【0042】
まず、差分画像から図10に示すような濃度分布パターンを求める。この濃度分布パターンは、差分画像の縦方向の断面を積算平均(又は、積算)したものであり、変化のない部分(直線部分)では128の値となる。図10(a)は、濃度分布パターンyと、図9の抽出画像における2つの島(白レベルの大楕円E1とグレーレベルの小楕円E2で表わされている。)とを並べてかいたものである。図に示される4つのラインL1,L2,L3,L4は、濃度分布パターンが図8に示されるしきい値を横切る位置を示している。図8(b)の例で言うならば、ラインL3,L4は、しきい値n4を横切る位置、ラインL1,L2はしきい値n3を横切る位置をそれぞれ示している。また、2つの島との関係で言うと、大楕円E1は、ラインL3,L4で挟まれる関係にあり、小楕円E2は、ラインL1,L2で挟まれる関係にある。
【0043】
この濃度分布パターンから界面位置を特定するため、予めいくつかの濃度分布パターンを用意しておく。界面付近の画像の濃度分布パターンは、対象物によりさまざまであるが、夫々の濃度変化パターンに応じてモデルを作成しておき、毎回求められる差分画像の濃度分布パターンから、適合するモデルを選択して界面位置を決定することができる。
【0044】
図11のモデルは、単純界面の場合であって、前回に対して界面位置が上方へ移動した場合のモデルであり、差分をとった場合の濃度分布パターンは図11の右側のようになり、界面位置は濃度分布パターンの凸部の上側である。
図12のモデルは、単純界面の場合であって、前回に対して界面位置が下方に移動した場合のモデルであり、差分をとった場合の濃度分布パターンは図12の右側のようになり、界面位置は濃度分布パターンの凹部の下側である。
【0045】
図13のモデルは、エマルジョン層などの遷移領域がある場合であって、前回に対して界面位置が上方へ移動した場合のモデルであり、差分をとった場合の濃度分布パターンは図12の右側のようになり、界面位置は濃度分布パターンの凸部の上側である。
図13のモデルは、メニスカス層に濃度変化がある場合であって、前回に対して界面位置が上方へ移動した場合のモデルであり、差分をとった場合の濃度分布パターンは図14の右側のようになり、界面位置は濃度分布パターンの凸部の上側である。以上代表的なモデルを4つ例示した。
【0046】
図10(a)に戻り、実際に得られた濃度分布パターンをモデルと比較してみると、図13のモデルに相当するので、ラインL2(白レベルの大楕円E2の上端)を界面位置として決定する。また、図10(b)の例の場合は、ラインL1(大楕円E2の下端)を界面位置として決定する。
【0047】
以上が一連の画像解析アルゴリズムであるが、本実施形態では、より好適な実施形態として、差分をとる対象画像として前回の計測時に取得した原画像のほかに、過去の予め設定した時間幅中で界面の位置が最も高かったときの原画像(FM3)および最も低かったときの原画像(FM4)を用意しておき、これら3つの原画像との間で画像解析を行い、それら画像解析結果の中から最も界面らしい画像解析結果を採用し、その画像解析結果に基づいて界面の位置を特定するようにした。時間幅は界面の揺動が不規則に停止する時間より長く、かつ周囲の環境(観測窓の汚れ具合など)が変化する時間より短いことが望ましい。本実施形態では30分間とした。
【0048】
界面らしさの判定方法として、本実施形態ではニューラルネットワークを用いた判定を行った。ネットワークの構造は、入力データを50点、中間層点数を50点、出力点数を1点とする三層ニューラルネットとした。入力データは、図17に示すように、各々の画像から抽出された界面候補画像を、界面候補位置を中心に垂直方向に2ブロック、水平方向には界面観測窓の幅を25ブロックに分割するような50点のデータにモザイク化し、この50点を入力データとした。教師データとしては、例えば典型的な例として図18のようなデータがあげられるが、このような教師データを実際の画像解析結果から多数作成し、これらの教師データに基づいて学習させた。
【0049】
界面らしさの判定方法として、本実施形態以外の構造をもつニューラルネットワークを使用することも当然可能であり、現実には実際に観測される計測対象の形状に合わせて決定するのが自然である。
【0050】
界面らしさの判定方法として、本実施形態以外には界面候補として抽出された画像の特徴量から判定する方法も有効である。(例えばフェレ径の縦横比、重心が観測窓の中央に位置するかどうか、近似楕円の長軸短軸比など。)
【0051】
図4のフローチャートに戻り、界面位置を特定する処理が完了すると(s3)、第1フレームメモリFM1の現在の原画像データを第2フレームメモリFM2へ転送する(s4)。そして、データを更新処理すべきであれば(s5)、データ更新処理を行ない(s6)、データ更新タイミングでなければs1に戻る。
【0052】
<TVモニタ表示画面例>
図15は、TVモニタ5の表示画面例を示すものである。この表示画面には、原画像に、界面位置を示すラインとトレンドグラフと日付時刻とを画像合成したものが表示されている。図15の、右側の真ん中に見えているのが界面位置であり、最終的に特定された界面位置が1本の横線で示されている。トレンドグラフとは、横軸を時間とし、縦軸を計測データとしたグラフである。計測データとは、毎回の計測により得られた界面位置の画像中における座標値のことを言う。縦軸は、界面位置を示すものであり、例えば、基準位置からの変位量を長さの単位で表わしたものである。
【0053】
トレンドグラフでは、過去n時間の計測データの変化をグラフ化したものである。nは任意に設定可能であり、例えば、4,8,12時間の計測データをグラフに表示させることができる。設定は、キーボード48から入力する。プラントの運転等では、過去数時間の計測データ(界面位置)の変化の様子を知ることが重要であることが多いので、かかる場合にトレンドグラフを表示させると便利である。また、トレンドグラフは所定時間毎(例えば1分)に自動書き換えされるようにしている。
【0054】
TVモニタ5の表示画面のトレンドグラフの左上には、動作インジケータがあり、1回の計測のたびにドットが伸び縮みし、これによりオペレータは本界面計測システムが正常に作動していることを知ることができる。表示画面の左下には、日付時刻が表示されているが、さらに研究部門の名称などをいっしょに表示しても良い。日付表示の位置は、画面の保護のために、表示位置を時間の経過と共に少しずつ移動させるようにするのが好ましい。
【0055】
図2のブロック図に戻り、データ記録再生手段44は、予め設定された時間間隔で計測データを外部記憶装置であるハードディスク42に日付毎に所定のファイル形式で保存する。また、データ記録再生手段44は、ハードディスク42に記憶されている計測データのうち、オペレータがキーボード48から入力指定した年月日(1日分)、又は年月(1ヶ月分)の計測データを読み出して、フロッピーディスク43にコピー(記録)する。また、グラフ作成手段47では、オペレータが指定した年月日の計測データをグラフ表示するための画像データを作成する。
【0056】
画像合成手段46は、原画像と作成された計測データのトレンドグラフと、現在の計測データ(界面位置)を画像合成して、TVモニタ5に表示させる。図2に示される画像計測システムでは、トレンドグラフを自動で作成してこれをTVモニタ5に表示し、計測データはすべて、ハードディスク42やフロッピーディスク43に自動的に保存され、さらにオペレータの指定した日付の計測データを直ちにTVモニタ5に表示させることができる。これにより、オペレータの負担を大幅に軽減することができる。
【0057】
次に、周辺処理手段45は、異常があった場合の自己診断機能を有しており、以下説明する。TVカメラ3により、画像取得を試みてみたが、設定した回数以上、連続して画像信号(同期信号)が入ってこなかった場合は、TVカメラ3の故障かケーブル断線の疑いがあるとして、その旨をCRTモニタ6に警告表示をする。設定した回数以上としたのは、ケーブルが長く屋外を経由して画像解析手段40に入力される場合、外部ノイズなどで瞬間的に信号が乱れる可能性があるからである。かかる瞬間的な異常により画像がうまく取得できずに、計測データが取れないことがあったとしても、その場合は前回の計測データを保持しておくようにし、次回以降の計測を続けることができる。このように、瞬間的な異常による警告表示はしないようにしている。
【0058】
また、画像入力ボードの故障を自己診断することができる。これは、A/D変換部10(図3参照)のA/D変換チップを自己診断する。たとえば、画像取得が完了したような動作をするが、実際の画像データが全く平坦な画像データ(全画素が0値、又は全画素が255値)である場合には、チップの故障であることが考えられるので、この場合にもCRTモニタ6に警告表示をする。
【0059】
また、統計データを元に自己診断をすることもできる。上述したTVカメラ3やA/D変換チップの故障は、それぞれ設定回数以上連続したときにはじめて異常であると警告表示するものであるが、仮に連続的ではなくても、1日における発生回数が無視できないような場合には、やはり、CRTモニタ6に警告表示をするようにする。
【0060】
次に、CRTモニタ6の表示画面を図16に示す。本実施形態では、表示手段としてTVモニタ5とCRTモニタ6とを設けているが、TVモニタ5は、TVカメラ3が撮影しているリアルタイムの原画像と、界面位置、トレンドグラフと日付表示を行なっており、通常の場合は情報はこれで十分である。
【0061】
CRTモニタ6は画像解析手段4のコンピュータを操作するときに用いるものである。CRTモニタ6におけるトレンドグラフC2と日付時刻C5は、図15の表示画面と同じである。ステータスウィンドウC1は、本画像計測システムの動作状態や、オペレータのキー操作に対するメッセージ、及び異常時の警告表示を行なう。図16では、「界面計測:通常運転中」と表示している。その他に、計測データをフロッピーディスク43にコピーするときに、「データ取り出し」の表示、システムに異常が発生したときの「TV信号異常メッセージ」「画像入力ボード異常メッセージ」を表示する。
【0062】
解析結果表示ウィンドウC3は、毎回の画像処理結果の内訳を表示する。内訳は、所定時間毎に更新される。オペレータは、通常このウィンドウC3の表示内容に留意する必要はなく、主として異常時の診断に使用する。このウィンドウC3において数値は発生回数を示している。
ディスク使用状況表示C4は、現在のハードディスク42の使用状況を表示するものである。計測データは所定のファイル形式にて毎日ハードディスク42に保存されるが、月が変わると毎月分の計測データは1つの別ファイルにまとめられる。また、今月の1日から今日までの計測データを所定のキー操作により取り出すこともできる。
【0063】
<変形例>
本実施形態では、抽出画像は3値化画像であるが、図11や図12に示されるような単純界面であるばあいには、2値化画像で抽出しても良い。
【図面の簡単な説明】
【図1】界面計測装置を含む全体構成を示す図
【図2】画像解析システムの構成を示すブロック図
【図3】画像解析手段の機能を説明するブロック構図
【図4】 作動フローチャート
【図5】 現在の原画像を表わす図
【図6】 過去の原画像を表わす図
【図7】 差分画像を表わす図
【図8】 差分画像の濃度ヒストグラム
【図9】 抽出画像を表わす図
【図10】 濃度分布パターンを示す図
【図11】 濃度分布パターンのモデル例1
【図12】 濃度分布パターンのモデル例2
【図13】 濃度分布パターンのモデル例3
【図14】 濃度分布パターンのモデル例4
【図15】 TVモニタの表示画面例
【図16】 CRTモニタの表示画面例
【図17】 入力データの例
【図18】 教師データの例
【符号の説明】
3 TVカメラ(画像取得手段)
4 画像解析システム
5 TVモニタ
6 CRTモニタ
40 画像解析手段
40b 差分演算部
40c 平滑化処理部
40d しきい値演算部
40e 変化分抽出部
40f 変化分抽出画像評価部
40g 界面位置決定部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an interface measurement apparatus including an image acquisition unit for acquiring an original image including an interface to be measured, and an image analysis unit that analyzes the acquired original image to obtain an interface position.
[0002]
[Prior art]
The interface refers to a boundary where two layers such as a liquid, a gas, and a solid are in contact, for example, a boundary between the liquid and air in a drum in which the liquid is stored. The following are examples of commercially available apparatuses for measuring the interface.
(1) Vertical reflection displacement meter
According to this principle, laser light or ultrasonic waves are emitted vertically downward from the liquid surface toward the liquid surface, and the reflection on the liquid surface is received to measure the distance.
(2) Capacitance type level switch
This principle detects whether there is a liquid level in the vicinity of the sensor using a difference in relative permittivity between liquid and air.
[0003]
However, in the case of the above (1), since the device needs to be installed in one of the two layers, a device that does not affect the device, for example, the device can be in a shielded state. Necessary. In addition, when it is necessary to be closed from the outside such as in a tank, there is a problem that installation and maintenance are not easy.
[0004]
In the case of (2), detection at the position where the sensor is provided is possible, but there is a problem that continuous values cannot be measured over a wide range.
In addition to the above, there are also float level meters, resistance level meters, and impedance type interface meters, but these have large differences in characteristic values such as impedance and density at the interface, and the values are stable. The precondition to say was needed. In actual site measurement, there are various instability factors, and it is often difficult to apply the above-mentioned commercially available apparatus as they are.
[0005]
As a prior art considering the above problems, there is a water level measuring device by image processing disclosed in Japanese Patent Laid-Open No. 8-43173.
This device captures an image of a water level gauge that measures the water surface position (interface) of the liquid, automatically measures the water level by image processing, converts the image of the water level meter into a gray image, and the gray value thereof Are obtained in a horizontal direction, and a histogram indicating a change in the vertical direction is obtained. When the histogram changes beyond a predetermined threshold value set in advance, the position is obtained as a water level.
Other examples of the interface measuring device using image processing include the devices disclosed in Japanese Utility Model Laid-Open Nos. 6-30727 and 7-98238.
[0006]
[Problems to be solved by the invention]
However, these conventional interface processing apparatuses based on image processing have a problem that they cannot be used stably in an on-site environment with many disturbances.
In other words, in the conventional image processing, there is a change in some physical quantity (density, etc .: change in the histogram in the above example) at the interface, and under the premise that the same change does not occur in any part other than the interface. The interface can be detected stably.
[0007]
On the other hand, when the detection is performed based on the density difference between the two layers forming the interface, the density difference may not be sufficient because each density is almost determined by the physical properties of the two layers forming the interface. Although there is a method for producing a concentration difference by coloring the substance forming the two layers, it is often difficult to improve the concentration difference at the interface due to restrictions on the apparatus. That is, it is often necessary to detect the interface based on an image having a very small density difference.
[0008]
In addition, the actual interface measurement site is often outdoors, in which case there are various disturbances such as dirt on the observation surface, changes in ambient brightness, and reflections of shadows from surrounding objects. Captured as an image. Moreover, the concentration change due to these disturbances is often larger than the concentration change at the interface to be measured. In such a case, it is necessary to extract only the change in concentration at the interface in distinction from the change due to other disturbances.
[0009]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an interface measuring apparatus that can accurately measure an interface even when a disturbance occurs.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, an interface measurement apparatus according to the present invention includes an image acquisition means for acquiring an original image including an interface to be measured, and an image analysis means for analyzing the acquired original image to obtain an interface position. In the interface measuring apparatus, the image analysis means includes a difference calculation unit for obtaining a difference image between original images acquired at different times, and an extracted image obtained by extracting a change in the original image based on the difference image. With respect to a change extraction unit to be obtained, an interface position determination unit that determines an interface position based on the extracted image, and a change extraction image obtained in the process of interface measurement, the change extraction image depends on a change in the interface. And a change extraction image evaluation unit for determining whether or not the image is a thing.
[0011]
Explaining the principle of the present invention, it is intended to capture not only the concentration difference but also the temporal change in the position of the interface as a physical quantity that changes at the interface. For example, in the case of an interface in an operating production plant, the interface often oscillates constantly. On the other hand, disturbance images such as dirt on the observation surface, changes in ambient brightness, and shadows of surrounding objects may change when viewed over a long period of time, but can be considered to be stationary over a short period of time. Many.
[0012]
Therefore, an original image (an original image means an image before image processing) is acquired at different times, and a difference image between the current original image and a past original image is obtained by the difference calculation unit. . What is necessary is just to set suitably the time interval between the present original image and the past original image according to the period of rocking | fluctuation of an interface. By calculating the difference image, a disturbance image in a stationary state can be removed, and an extracted image that leaves only the oscillating interface image can be obtained. That is, the interface is not detected based on the magnitude of the density change, but the change in the interface position is captured. Even if the density change at the interface is smaller than the density change of the disturbance image, it can be detected. The interface position determination unit finally determines (specifies) the interface position based on the extracted image.
As described above, it has been possible to provide an interface measuring apparatus that can accurately measure an interface even when a disturbance occurs.
[0013]
As a preferred embodiment of the present invention, the image analysis means analyzes a relative positional relationship between two original images acquired at different times, corrects a positional deviation between the two original images, and then calculates a difference. And a misalignment correcting unit that takes the position. In an actual field environment, a large-scale apparatus is often adjacent to each other, and there is often a difference between the original images acquired at different times over the entire image due to vibrations from these adjacent apparatuses. When such a difference is taken between original images, a noise component remains over the entire image. In such a case, it is preferable to correct the misalignment before taking the difference between the original images, and shift the one image in the reverse direction by the amount of the deviation before taking the difference. For the analysis of the positional relationship, a known method such as pattern matching or normalized correlation can be used. Thereby, the noise component which appears in a difference image can be reduced, and interface measurement can be performed accurately.
[0014]
As another preferred embodiment of the present invention, the image analysis means further includes a smoothing processing unit that obtains a smoothed image obtained by removing noise components from the difference image. Even if the difference image is obtained by taking the difference between the sampling images, it is normal that the disturbance image cannot be completely removed, and some noise components remain. When the noise component is small, it is not necessary to perform the smoothing process, but when the noise component is conspicuous, it is preferable to smooth the difference image to obtain a smoothed image. Thereby, interface measurement can be performed with high accuracy.
[0015]
As another preferred embodiment of the present invention, the image processing apparatus further includes a threshold value calculation unit that obtains a threshold value for obtaining the extracted image from the density histogram of the difference image or the density histogram of the smoothed image. Can be given.
[0016]
When the brightness of the image changes due to the influence of the day and night weather, the density histogram also changes. Therefore, the extracted image (for example, 0 (black) level, 1 (white) level, gray label 3) It is preferable to obtain a threshold value for obtaining a value image. Thereby, interface measurement can be performed with high accuracy. Note that the threshold value may be fixed when there is no influence of daytime and nighttime weather and the brightness of the image is stable (the density histogram does not change).
[0017]
As yet another preferred embodiment of the present invention, the change extraction unit is configured to use a threshold value obtained by the threshold value calculation unit or a preset threshold value from the difference image or the smoothed image. The thing which calculates | requires the said extracted image is mention | raise | lifted.
[0018]
In the difference image or the smoothed image obtained from the difference image, the pixel density corresponding to the change is estimated to be within a certain range, so the image of the change is extracted by setting a threshold value. can do.
[0019]
As still another preferred embodiment of the present invention, the interface position determination unit determines an interface position by comparing a density change pattern obtained from the difference image with a density change pattern prepared in advance. Things can be raised.
[0020]
When the extracted image is obtained, it is necessary to specify the interface position from this image. At that time, a density change pattern is obtained from the difference image and is compared with a density change pattern prepared in advance. As this density change pattern, for example, several possible patterns may be prepared, for example, when the interface moves upward or when the interface moves downward. Based on these patterns, the interface position can be finally identified from the extracted image.
[0021]
As still another preferred embodiment of the present invention, the image processing apparatus includes a display unit that displays the original image acquired by the image acquisition unit, and the display unit determines the interface position and the interface position determined by the interface position determination unit. One that displays a graph representing a change over time together with the original image is available.
[0022]
According to this configuration, the interface position and the temporal change of the interface position can be displayed together with the original image on the display means, so that the operator can immediately recognize the measurement result. Further, by displaying a graph showing the change in the interface position over time, not only the current position of the interface position but also the past measurement results can be recognized immediately.
[0023]
As yet another preferred embodiment of the present invention, a plurality of past original images for obtaining a difference image with respect to an original image to be subjected to interface measurement are prepared, and images for each past original image are prepared. An analysis is performed, and the interface position is determined by adopting the most preferable image analysis result from the respective image analysis results.
[0024]
According to this configuration, when there is almost no change in the position of the interface between the two original images, a component due to the change in the interface may be hardly extracted in the difference image. In such a case, measurement is impossible. By preparing a plurality of target images to be taken, a possibility that a component due to a change in the interface is extracted from a difference image from any one of the images increases, and measurement with higher reliability is possible. At this time, for example, it is effective to select an image when the interface measurement value is the maximum and an image when the interface measurement value is the minimum in the past predetermined time width as the target images for which the difference is taken.
[0025]
When specifying the interface, compare the results of image analysis using multiple difference target images, adopt the one that has the highest possibility that the extracted component is due to the change in the interface, and based on this, select the interface Is preferably specified. (Hereinafter, the fact that the extracted component is likely to be due to a change in the interface will be referred to as “appears to be an interface”.) As a method for determining whether or not it is likely to be an interface, for example, the following method may be mentioned. .
[0026]
Usually, when receiving only the force of gravity, the interface is expected to be nearly horizontal. Therefore, if the extracted image components are analyzed for features, they are concentrated in a limited range in the vertical direction and distributed over a range close to the width of the observation window at the interface in the horizontal direction. Can be judged to be an interface. For this purpose, the vertical and horizontal dimensions (generally called the ferret diameter) of the circumscribed rectangle of the extracted image are evaluated, or the range in which the projected image is distributed and the maximum frequency are evaluated by taking a vertical projection of the extracted image. And the like. Further, whether or not the center of gravity of the extracted image is located near the center in the horizontal direction of the interface observation window is also a clue for evaluation.
[0027]
As a method for evaluating whether or not it is likely to be an interface, another preferred embodiment is a method using a neural network using the extracted image as input data. As described above, when the likelihood of the interface is determined from the feature amount of the extracted image, the value of the feature amount and the value of the interface property must be matched with each other, but this operation is not easy. Therefore, we built a neural network that uses the image pattern extracted as the interface candidate as input data, and learned it based on a lot of actual image analysis results and teacher data that made a decision as to whether or not a human is an interface in advance. It is good to determine the likelihood of the interface based on the learning result. Among the image analysis results for a plurality of difference target images, the one with the largest output value of this neural network is adopted as the most likely interface, and the position of the interface can be specified.
[0028]
In order to achieve the object of the present invention, an interface measuring method according to the present invention includes a step of acquiring an original image including an interface to be measured, and obtaining a difference image between the acquired current original image and a past original image. The method includes a step, a step of obtaining an extracted image obtained by extracting a change amount of the original image based on the difference image, and a step of determining an interface position based on the extracted image.
[0029]
The effect | action by this structure is the same as that of the interface measuring apparatus which concerns on this invention, and is as follows.
(B) Acquire an original image including the interface to be measured. The sampling interval may be set according to the interface fluctuation state.
(B) An extracted image obtained by extracting a change in the original image based on the difference image is obtained. Here, “based on the difference image” includes not only the case of extracting the change of the original image directly from the difference image, but also another image obtained from the difference image, for example, noise from the difference image. This includes a case where a smoothed image from which components are removed is obtained, and a change is extracted from the smoothed image.
(C) The interface position is determined based on the extracted image.
Since other operations and effects are the same as those of the interface measuring apparatus, description thereof will be omitted.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
A preferred embodiment of an interface measuring apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an overall configuration (site + measurement room) including an interface measurement device.
<Overall configuration>
In the field, a container (such as a drum) 1 as an interface measurement target, an illuminating means 2 such as a fluorescent lamp that illuminates the measurement interface 1b that can be seen from the observation window 1a of the container 1, and an image for acquiring the interface 1b. A TV camera 3 (corresponding to image acquisition means) is provided.
In the present embodiment, the site is outdoors, and it is unavoidable that dirt adheres to the observation window 1a. In addition, the influence may appear as a disturbance in the image when it rains. Even if there is such a disturbance, the interface position is detected by devising an algorithm for acquiring the interface image using the existing TV camera 3 and analyzing the image.
[0031]
The measurement room is provided with an image analysis system 4 to which an image is input from the TV camera 3, and a TV monitor 5 and a CR monitor 6 (each corresponding to display means) connected to the image analysis system 4. Yes. The image analysis system 4 will be described next, but an image analysis means 40 is provided.
[0032]
<Image analysis system>
Next, a block configuration of the image analysis system 4 is shown in FIG.
The image analysis system 4 includes a system control unit 41 that controls each unit, an image analysis unit 40 that analyzes an image acquired by the TV camera 3 and measures an interface position, a hard disk 42, a floppy disk 43, data A recording / reproducing unit 44, a peripheral processing unit 45, an image synthesis unit 46, a graph creation unit 47, and a keyboard 48 are provided.
[0033]
FIG. 3 is a block diagram illustrating the function of the image analysis means 40. FIG. 4 is a flowchart showing a schematic procedure. The analog image signal acquired from the TV camera 3 is taken into the image analysis unit 40 at a predetermined sampling interval (cycle) as a digital image signal (original image) converted into digital data by the A / D converter 10. The sampling interval may be set according to the period at which the interface swings, and in this embodiment, it is set to 2 seconds. The captured original image is captured in the frame memory unit 40a. The frame memory unit 40a includes at least a first frame memory FM1 and a second frame memory FM2. When a plurality of difference target images are prepared, the same number of frame memories are required. In this embodiment, since three difference target images are prepared, in addition to the above, frame memories FM3 and FM4 and a frame memory (not shown) are secured as work areas for image analysis. The original image means an image before image processing is performed, and is represented as an 8-bit grayscale image (256-level grayscale image data) in this embodiment.
[0034]
First, the original image data is taken into the first frame memory FM1 (see s1 in FIG. 4). This original image (current original image) is shown in FIG. Further, the original image acquired two seconds ago is stored in the second frame memory FM2, and this original image (past original image) is shown in FIG.
[0035]
The difference calculation unit 40b obtains a difference image between the current original image and the past original image (s2). In the present embodiment, the past original image is subtracted from the current original image, but of course the reverse may be performed. Note that the difference image is obtained by offsetting the subtraction result by 128 (intermediate gradation), and this offset difference image is shown in FIG. The difference image is stored in a frame memory secured as a work area.
[0036]
The difference calculation unit 40b analyzes the relative position between the two images based on the normalized correlation before obtaining a difference image between the current original image and the past original image, and the frame memory FM1 is as much as the positional deviation between the two images. This function has a function of correcting misalignment by shifting the image. However, in the present embodiment, the image shift due to vibration or the like in the field environment did not occur so as to affect the subsequent analysis.
[0037]
When the difference image is obtained, the non-moving portion of the disturbance image or the like becomes 0 (128 when offset) when the difference is taken. However, even if the difference is actually taken, a minute noise component may remain. In order to remove such noise components, the smoothing processing unit 40c performs a smoothing process (s3). As the smoothing process, smoothing is performed using a 1 × 32 filter in this embodiment. This is a moving average filter, and is a method in which an average of 32 pixels centered on a target pixel is used as a smoothed image at the target pixel position. In the present embodiment, the reason why the filter is employed is that the influence on the interface image is small and the most effective is obtained. Of course, the smoothing filter is not limited to the above-mentioned filter, and an appropriate filter may be adopted according to the field situation. Further, when there is almost no noise component in the difference image, the smoothing process is unnecessary.
[0038]
Next, a process for extracting a change in the original image from the smoothed difference image will be described. This change corresponds to an image near the interface. This is based on the idea that the interface can be measured by extracting the amount of change in the original image because the interface is considered to be constantly oscillating.
[0039]
First, the density histogram of the smoothed difference image shown in FIG. 7 is obtained as shown in FIG. 8, where (a) is the density histogram when there is no interface change, and (b) is the interface change. FIG. In the case of FIG. 8 (a), the threshold value calculation unit 40d has both ends n of the frequency distribution due to noise. 1 And n 2 The
Set as threshold. In the case of (b), the threshold value calculation unit 40d is n in the middle of the frequency distribution due to noise and the frequency distribution due to changes in the interface position. Three And n Four The threshold
Set as. Since the width of the frequency distribution varies each time due to weather, time, vibration, electrical noise, and the like, the threshold value calculation unit 40d calculates the threshold value by mathematically recognizing the shape of the frequency distribution every time.
When the density histogram of the difference image is almost constant each time, the process for automatically calculating the threshold value is not necessary, and a fixed value set in advance may be used. It is effective to perform the above processing when the shape of the density histogram varies every time.
[0040]
When the threshold value is obtained, the change extraction unit 40e converts the difference image of FIG. 7 into a binary image. Specifically, the concentration is n 1 ~ N 2 Or n Three ~ N Four Between
The image is converted to 0 level (0 value) and n 2 Or n Four The above image is one level (255
Value) and n 1 Or n Three The following image is converted to an intermediate gray level. this
Thus, it is possible to obtain an extracted image (ternary image) obtained by extracting the change of the original image. This extracted image is shown in FIG. When obtaining this extracted image, it is preferable to perform isolated point removal processing (expansion / contraction processing, etc.) for removing noise components.
[0041]
FIG. 9 is an ideal extracted image, and two islands appear. The two appear because the interface in the present embodiment has an emulsion layer corresponding to a model pattern shown in FIG. 13 described later, and an algorithm for specifying the correct interface position from this extracted image is required. This process is performed by the interface position determination unit 40f. Hereinafter, a procedure for specifying the interface position will be described.
[0042]
First, a density distribution pattern as shown in FIG. 10 is obtained from the difference image. This density distribution pattern is a cumulative average (or integration) of the cross-sections in the vertical direction of the difference image, and has a value of 128 in a portion where there is no change (straight line portion). FIG. 10A shows the density distribution pattern y and two islands (represented by a white level large ellipse E1 and a gray level small ellipse E2) in the extracted image of FIG. It is. The four lines L1, L2, L3, and L4 shown in the figure indicate positions where the density distribution pattern crosses the threshold value shown in FIG. In the example of FIG. 8B, the lines L3 and L4 have a threshold value n. Four , The line L1, L2 is the threshold value n Three The positions crossing each are shown. In terms of the relationship with the two islands, the large ellipse E1 is sandwiched between the lines L3 and L4, and the small ellipse E2 is sandwiched between the lines L1 and L2.
[0043]
In order to specify the interface position from this density distribution pattern, several density distribution patterns are prepared in advance. The density distribution pattern of the image near the interface varies depending on the object, but a model is created according to each density change pattern, and the appropriate model is selected from the density distribution pattern of the difference image obtained each time. The interface position can be determined.
[0044]
The model of FIG. 11 is a model in the case of a simple interface and the interface position moves upward with respect to the previous time. The density distribution pattern when the difference is taken is as shown on the right side of FIG. The interface position is above the convex portion of the density distribution pattern.
The model of FIG. 12 is a model in the case of a simple interface, and the interface position has moved downward relative to the previous time. The density distribution pattern when the difference is taken is as shown on the right side of FIG. The interface position is below the concave portion of the concentration distribution pattern.
[0045]
The model in FIG. 13 is a model in the case where there is a transition region such as an emulsion layer, and the interface position moves upward with respect to the previous time. The concentration distribution pattern in the case of taking the difference is the right side of FIG. The interface position is above the convex portion of the density distribution pattern.
The model in FIG. 13 is a model in the case where the meniscus layer has a density change and the interface position moves upward with respect to the previous time. The density distribution pattern in the case of taking the difference is shown on the right side of FIG. Thus, the interface position is above the convex portion of the density distribution pattern. Four typical models have been exemplified above.
[0046]
Returning to FIG. 10 (a), when the actually obtained density distribution pattern is compared with the model, it corresponds to the model of FIG. 13, and therefore the line L2 (the upper end of the white-level large ellipse E2) is taken as the interface position. decide. In the example of FIG. 10B, the line L1 (the lower end of the large ellipse E2) is determined as the interface position.
[0047]
The above is a series of image analysis algorithms. In this embodiment, as a more preferable embodiment, in addition to the original image acquired at the previous measurement as a target image for which a difference is to be obtained, Prepare an original image (FM3) when the position of the interface is the highest and an original image (FM4) when the interface position is the lowest, perform image analysis with these three original images, The image analysis result that seems to be the most interface was adopted from the inside, and the position of the interface was specified based on the image analysis result. It is desirable that the time width is longer than the time when the fluctuation of the interface stops irregularly and shorter than the time when the surrounding environment (such as the degree of contamination of the observation window) changes. In this embodiment, it is 30 minutes.
[0048]
In the present embodiment, the determination using the neural network is performed as a method for determining the likelihood of the interface. The network structure was a three-layer neural network with 50 points of input data, 50 points of intermediate layer, and 1 point of output. As shown in FIG. 17, the input data is obtained by dividing the interface candidate image extracted from each image into two blocks in the vertical direction around the interface candidate position and 25 blocks in the horizontal direction. Mosaic was made into such 50 points of data, and these 50 points were used as input data. The teacher data includes, for example, data as shown in FIG. 18 as a typical example. A large number of such teacher data are created from actual image analysis results, and learning is performed based on these teacher data.
[0049]
Of course, it is possible to use a neural network having a structure other than that of the present embodiment as a method for determining the likelihood of interface, and in reality, it is natural to determine it according to the shape of the measurement object actually observed.
[0050]
As a method for determining the likelihood of an interface, a method for determining from the feature amount of an image extracted as an interface candidate is also effective in addition to the present embodiment. (For example, the aspect ratio of the ferret diameter, whether the center of gravity is located in the center of the observation window, the major axis / minor axis ratio of the approximate ellipse, etc.)
[0051]
Returning to the flowchart of FIG. 4, when the process of specifying the interface position is completed (s3), the current original image data in the first frame memory FM1 is transferred to the second frame memory FM2 (s4). If the data is to be updated (s5), the data update process is performed (s6), and if it is not the data update timing, the process returns to s1.
[0052]
<Example of TV monitor display screen>
FIG. 15 shows a display screen example of the TV monitor 5. On this display screen, an original image obtained by synthesizing the line indicating the interface position, the trend graph, and the date and time is displayed. In FIG. 15, the interface position is visible in the middle on the right side, and the finally specified interface position is indicated by one horizontal line. A trend graph is a graph in which the horizontal axis represents time and the vertical axis represents measurement data. The measurement data refers to coordinate values in the interface position image obtained by each measurement. The vertical axis indicates the interface position. For example, the amount of displacement from the reference position is expressed in units of length.
[0053]
The trend graph is a graph of changes in measurement data in the past n hours. n can be arbitrarily set. For example, measurement data for 4, 8, and 12 hours can be displayed on a graph. Settings are input from the keyboard 48. In plant operation and the like, it is often important to know how the measurement data (interface position) has changed in the past several hours. In such cases, it is convenient to display a trend graph. The trend graph is automatically rewritten every predetermined time (for example, 1 minute).
[0054]
There is an operation indicator at the upper left of the trend graph on the display screen of the TV monitor 5, and the dot expands and contracts at each measurement, and the operator knows that the interface measurement system is operating normally. be able to. The date and time are displayed in the lower left of the display screen, but you may also display the name of the research department together. The date display position is preferably moved little by little as time passes to protect the screen.
[0055]
Returning to the block diagram of FIG. 2, the data recording / reproducing means 44 stores the measurement data in a predetermined file format for each date in the hard disk 42 which is an external storage device at a preset time interval. The data recording / reproducing means 44 also includes the measurement data stored in the hard disk 42 for the year / month / day (for one day) or year / month (for one month) specified by the operator using the keyboard 48. Read and copy (record) to floppy disk 43. The graph creation means 47 creates image data for displaying the measurement data designated by the operator as a graph.
[0056]
The image synthesizing means 46 synthesizes the original image, the created trend graph of the measurement data, and the current measurement data (interface position), and displays them on the TV monitor 5. In the image measurement system shown in FIG. 2, a trend graph is automatically created and displayed on the TV monitor 5, and all measurement data is automatically saved in the hard disk 42 or floppy disk 43, and further specified by the operator. The date measurement data can be immediately displayed on the TV monitor 5. Thereby, an operator's burden can be reduced significantly.
[0057]
Next, the peripheral processing means 45 has a self-diagnosis function when there is an abnormality, which will be described below. I tried to acquire an image with the TV camera 3, but if the image signal (synchronization signal) does not come in continuously for the set number of times or more, I suspect that the TV camera 3 is faulty or the cable is broken. A warning message is displayed on the CRT monitor 6. The reason why the number of times is equal to or more than the set number is that when the cable is long and is input to the image analysis means 40 via the outdoors, the signal may be instantaneously disturbed by external noise or the like. Even if the measurement data cannot be obtained because the image cannot be acquired well due to such a momentary abnormality, the previous measurement data can be retained in that case, and the subsequent measurement can be continued. . In this way, a warning display due to a momentary abnormality is not performed.
[0058]
Further, it is possible to self-diagnose a failure of the image input board. This performs self-diagnosis of the A / D conversion chip of the A / D conversion unit 10 (see FIG. 3). For example, if the image acquisition is complete, but the actual image data is completely flat image data (all pixels are 0 values or all pixels are 255 values), it is a chip failure. Therefore, a warning is displayed on the CRT monitor 6 also in this case.
[0059]
Self-diagnosis can also be performed based on statistical data. The above-mentioned failure of the TV camera 3 or A / D conversion chip is a warning display only when the set number of times continues, but it is not normal. If it cannot be ignored, a warning is displayed on the CRT monitor 6 as well.
[0060]
Next, a display screen of the CRT monitor 6 is shown in FIG. In the present embodiment, a TV monitor 5 and a CRT monitor 6 are provided as display means, but the TV monitor 5 displays a real-time original image taken by the TV camera 3, an interface position, a trend graph, and a date display. This is usually sufficient for information.
[0061]
The CRT monitor 6 is used when operating the computer of the image analysis means 4. The trend graph C2 and date time C5 in the CRT monitor 6 are the same as the display screen of FIG. The status window C1 displays an operation state of the image measurement system, a message for an operator's key operation, and a warning display in case of abnormality. In FIG. 16, “interface measurement: normal operation” is displayed. In addition, when the measurement data is copied to the floppy disk 43, “data retrieval” is displayed, and “TV signal abnormality message” and “image input board abnormality message” when an abnormality occurs in the system are displayed.
[0062]
The analysis result display window C3 displays a breakdown of image processing results for each time. The breakdown is updated every predetermined time. The operator usually does not need to pay attention to the display contents of the window C3, and is mainly used for diagnosis at the time of abnormality. In this window C3, the numerical value indicates the number of occurrences.
The disk usage status display C4 displays the current usage status of the hard disk 42. The measurement data is saved in the hard disk 42 every day in a predetermined file format. However, when the month changes, the measurement data for each month is collected into one separate file. In addition, measurement data from the first day of this month to today can be taken out by a predetermined key operation.
[0063]
<Modification>
In the present embodiment, the extracted image is a ternary image. However, in the case of a simple interface as shown in FIGS. 11 and 12, it may be extracted as a binary image.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration including an interface measuring device.
FIG. 2 is a block diagram showing the configuration of an image analysis system
FIG. 3 is a block diagram illustrating functions of image analysis means.
FIG. 4 Operation flowchart
FIG. 5 shows the current original image
FIG. 6 shows a past original image.
FIG. 7 is a diagram showing a difference image
FIG. 8 is a density histogram of a difference image.
FIG. 9 shows an extracted image
FIG. 10 is a diagram showing a density distribution pattern.
FIG. 11 is a model 1 of a density distribution pattern.
FIG. 12 is a model example 2 of a density distribution pattern.
FIG. 13 is a model example 3 of a density distribution pattern.
FIG. 14 is a model 4 of a density distribution pattern.
FIG. 15 shows a display screen example of a TV monitor.
FIG. 16: Display screen example of CRT monitor
FIG. 17: Example of input data
FIG. 18: Example of teacher data
[Explanation of symbols]
3 TV camera (image acquisition means)
4 Image analysis system
5 TV monitor
6 CRT monitor
40 Image analysis means
40b Difference calculation unit
40c Smoothing processor
40d threshold value calculation unit
40e Change extractor
40f Change extraction image evaluation unit
40g Interface position determination unit

Claims (8)

計測される界面を含む原画像を取得するための画像取得手段と、取得された原画像を解析して界面位置を求める画像解析手段とを備えた界面計測装置において、前記画像解析手段は、異なる時刻に取得した原画像間の差分画像を求める差分演算部と、この差分画像に基づいて原画像の変化分を抽出した抽出画像を求める変化分抽出部と、この抽出画像に基づいて界面位置を決定する界面位置決定部と、界面計測の過程で得られた変化分抽出画像に対して、当該変化分抽出画像が界面の変化によるものであるかどうかを判定する変化分抽出画像評価部とを備えていることを特徴とする界面計測装置。In an interface measurement apparatus comprising an image acquisition means for acquiring an original image including an interface to be measured and an image analysis means for analyzing the acquired original image to obtain an interface position, the image analysis means is different. A difference calculation unit that obtains a difference image between original images acquired at time, a change extraction unit that obtains an extracted image obtained by extracting a change of the original image based on the difference image, and an interface position based on the extracted image An interface position determination unit for determining, and a change extraction image evaluation unit that determines whether the change extraction image is due to a change in the interface with respect to the change extraction image obtained in the interface measurement process; An interface measuring device characterized by comprising. 前記画像解析手段は、異なる時刻に取得した原画像間の差分画像を求めるのに先立ち、現在の原画像と過去の原画像間の位置ずれを解析し、このずれを補正する方向に原画像の少なくとも一方を平行移動したのち差分画像を求める位置ずれ補正部を備えていることを特徴とする請求項1に記載の界面計測装置。Prior to obtaining the difference image between the original images acquired at different times, the image analysis means analyzes the positional deviation between the current original image and the past original image, and corrects the deviation in the direction of correcting the deviation. The interface measuring apparatus according to claim 1, further comprising a position deviation correction unit that obtains a differential image after translating at least one of them. 前記画像解析手段は、前記差分画像からノイズ成分を除去した平滑化画像を求める平滑化処理部を更に備えていることを特徴とする請求項1または2に記載の界面計測装置。The interface measurement apparatus according to claim 1, wherein the image analysis unit further includes a smoothing processing unit that obtains a smoothed image obtained by removing a noise component from the difference image. 前記差分画像の濃度ヒストグラム又は前記平滑化画像の濃度ヒストグラムから、前記抽出画像を求めるためのしきい値を求めるしきい値演算部を更に備えていることを特徴とする請求項1〜3のいずれか1項に記載の界面計測装置。The threshold value calculating part which calculates | requires the threshold value for calculating | requiring the said extracted image from the density | concentration histogram of the said difference image or the density | concentration histogram of the said smoothed image is further provided. The interface measuring device according to claim 1. 前記変化分抽出部は、前記差分画像又は前記平滑化画像から、前記しきい値演算部により求められたしきい値又は予め設定されたしきい値により前記抽出画像を求めることを特徴とする請求項1〜4のいずれか1項に記載の界面計測装置。The change extraction unit obtains the extracted image from the difference image or the smoothed image using a threshold value obtained by the threshold value calculation unit or a preset threshold value. Item 5. The interface measurement apparatus according to any one of Items 1 to 4. 前記界面位置決定部は、前記差分画像から求められる濃度変化パターンと、予め用意している濃度変化パターンとを比較することにより、界面位置を決定することを特徴とする請求項1〜5のいずれか1項に記載の界面計測装置。The interface position determination unit determines an interface position by comparing a density change pattern obtained from the difference image with a density change pattern prepared in advance. The interface measuring device according to claim 1. 前記画像取得手段により取得された原画像を表示する表示手段を備え、この表示手段は、前記界面位置決定部により決定された界面位置及び界面位置の経時的変化を表わすグラフを前記原画像と共に表示することができることを特徴とする請求項1〜6のいずれか1項に記載の界面計測装置。Display means for displaying the original image acquired by the image acquisition means, the display means displaying the interface position determined by the interface position determination unit and a graph showing the change in the interface position over time together with the original image. The interface measuring device according to claim 1, wherein the interface measuring device can be used. 前記画像解析手段は、界面計測の対象となる原画像に対して、これとの差分画像を求める過去の原画像を複数用意し、それぞれの過去の原画像に対して画像解析を行い、それぞれの画像解析結果の中から最も好適な画像解析結果を採用して界面位置を決定することを特徴とする請求項1〜7のいずれか1項に記載の界面計測装置。The image analysis means prepares a plurality of past original images for obtaining a difference image with respect to the original image to be subjected to interface measurement, performs image analysis on each past original image, The interface measurement apparatus according to claim 1, wherein the interface position is determined by adopting a most preferable image analysis result from among the image analysis results.
JP2000352699A 2000-11-20 2000-11-20 Interface measuring device Expired - Fee Related JP3849420B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000352699A JP3849420B2 (en) 2000-11-20 2000-11-20 Interface measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000352699A JP3849420B2 (en) 2000-11-20 2000-11-20 Interface measuring device

Publications (2)

Publication Number Publication Date
JP2002156272A JP2002156272A (en) 2002-05-31
JP3849420B2 true JP3849420B2 (en) 2006-11-22

Family

ID=18825557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000352699A Expired - Fee Related JP3849420B2 (en) 2000-11-20 2000-11-20 Interface measuring device

Country Status (1)

Country Link
JP (1) JP3849420B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5175749B2 (en) * 2009-01-13 2013-04-03 三洋電機株式会社 Conveying device, control device, and program
KR101355466B1 (en) * 2012-08-27 2014-02-12 한국건설기술연구원 Apparatus and method for measuring water level using correlation coefficient analysis
JP6278880B2 (en) * 2014-10-30 2018-02-14 三菱電機株式会社 Water level measuring device
JP6370321B2 (en) * 2016-02-19 2018-08-08 三菱電機株式会社 Water level measuring device
KR20200019250A (en) * 2017-08-25 2020-02-21 후지필름 가부시키가이샤 Learning device, method and program of discriminator and discriminator

Also Published As

Publication number Publication date
JP2002156272A (en) 2002-05-31

Similar Documents

Publication Publication Date Title
CN109410192B (en) Fabric defect detection method and device based on multi-texture grading fusion
CN111598098B (en) Water gauge water line detection and effectiveness identification method based on full convolution neural network
CN112800860B (en) High-speed object scattering detection method and system with coordination of event camera and visual camera
CA2430927A1 (en) Slope monitoring system
CN100474878C (en) Image quality prediction method and apparatus and fault diagnosis system
CN111896549B (en) Building crack monitoring system and method based on machine learning
CN110263692A (en) Container switch gate state identification method under large scene
CN101316371B (en) Flame detecting method and device
KR101874968B1 (en) Visibility measuring system base on image information and method for using the same
KR20150108118A (en) Remote automatic metering system based image recognition
JP3849420B2 (en) Interface measuring device
Zhao et al. Research on remote meter automatic reading based on computer vision
JP4117073B2 (en) Monitoring device
KR101842535B1 (en) Method for the optical detection of symbols
JP3660160B2 (en) Interface measuring apparatus and interface measuring method
JP3500425B2 (en) Road surface condition judgment method in visible image type road surface condition grasping device
KR20100038836A (en) Weather condition detecting unit by analysis of image information and weather condition detecting method using it
KR20210032188A (en) System for measuring prevailing visibility and method thereof
JPH08106534A (en) Movable object detector
CN116310263A (en) Pointer type aviation horizon instrument indication automatic reading implementation method
CN115578695A (en) Water gauge water level machine vision detection method and device with free shooting visual angle
CN115719464A (en) Water meter durability device water leakage monitoring method based on machine vision
CN112801963B (en) Video image occlusion detection method and system
JP2005018565A (en) Image monitoring device
US20230125890A1 (en) Image analysis system, image analysis method, and image analysis program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090908

Year of fee payment: 3

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D05

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130908

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees