JP4048336B2 - Ranging device - Google Patents

Ranging device Download PDF

Info

Publication number
JP4048336B2
JP4048336B2 JP24098098A JP24098098A JP4048336B2 JP 4048336 B2 JP4048336 B2 JP 4048336B2 JP 24098098 A JP24098098 A JP 24098098A JP 24098098 A JP24098098 A JP 24098098A JP 4048336 B2 JP4048336 B2 JP 4048336B2
Authority
JP
Japan
Prior art keywords
light
image
measurement object
measurement
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24098098A
Other languages
Japanese (ja)
Other versions
JP2000074626A (en
Inventor
裕治 幸村
貴裕 松本
Original Assignee
有限会社ルシール
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 有限会社ルシール filed Critical 有限会社ルシール
Priority to JP24098098A priority Critical patent/JP4048336B2/en
Publication of JP2000074626A publication Critical patent/JP2000074626A/en
Application granted granted Critical
Publication of JP4048336B2 publication Critical patent/JP4048336B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、例えば炉内での加熱状況を知るために粒状又は粉状の石炭、微粉炭、廃棄プラスチックやコークスの分布を調べる場合等に使用される測距装置に関するものである。
【0002】
【従来の技術】
例えば、製鉄所等においては、溶鉱炉で原料を溶解する場合に、燃料として例えば粒状又は粉状の石炭やコークスが用いられる。このとき、原料は溶鉱炉の上方より投入する。そして、石炭やコークスを燃焼させることにより、熱風を溶鉱炉の下部から送り、原料を溶解する。ここで、粒状又は粉状の石炭やコークスは燃焼中は高速で舞っている。ところで、石炭やコークスを燃焼しているときに、その空間分布に偏りがあると、原料を均一に加熱することができず、製品の品質が低下する。このため、粒状又は粉状の石炭やコークスが偏りなく舞うように調整することにより、原料を均一に加熱し、生産性の向上を図る必要がある。
【0003】
【発明が解決しようとする課題】
従来より、このような粒状又は粉状の石炭やコークス等のように、移動する多数の計測対象物の分布を調べるための装置としては、撮像手段で一方向から計測対象物の画像を取り込み、その画像に基づいて計測対象物の分布を計測するものがある。しかしながら、この装置では、一方向から見たときの平面的な分布しか計測することができず、計測対象物が奥行き方向に沿ってどのように分布しているかについての情報は得ることができない。このため、従来の装置を用いて得られる粒状又は粉状の石炭やコークスの平面的な分布についての情報のみに基づいて、石炭やコークスの燃焼を調整しても、原料を均一に加熱することはほとんど不可能であった。
【0004】
また、粒状又は粉状の石炭やコークスの燃焼についての定量的な情報として、それら粉状物又は粒状物の温度を知ることができれば、炉内を均一に加熱することができる。このため、粒状又は粉状の石炭やコークスの奥行き方向の分布を計測すると共に、それらの温度を計測することができる装置の開発が望まれている。
【0005】
本発明は上記事情に基づいてなされたものであり、移動する計測対象物の奥行き方向の分布を計測することができる測距装置を提供することを目的とするものである。
また、本発明は上記事情に基づいてなされたものであり、移動する計測対象物の奥行き方向の分布を計測すると共にその計測対象物の温度を計測する測距装置を提供することを目的とするものである。
【0006】
【課題を解決するための手段】
上記の目的を達成するための本発明に係る測距装置は、移動している多数の計測対象物に向けて設置され且つ前記計測対象物に向かう方向に沿って前後に移動可能に構成されており、前記計測対象物からの光をその進行方向と逆向きに反射する第一光学系と、前記第一光学系で反射した光を前記計測対象物からの光の進行方向と同じ向きに反射する第二光学系と、焦点の合う位置及び焦点深度がそれぞれ所望の値になるように調整されており、前記第二光学系で反射した光を結像させる光学レンズ系と、前記第一光学系を移動することによって前記光学レンズ系の前記焦点の合う位置を少なくとも前記焦点深度と同じ距離ずつずらす度に、シャッタ手段を用いて一定時間内に少なくとも一度、前記光学レンズ系を通過した光を取り込むことにより、前記計測対象物の移動を止めた瞬間の状態を捉えた複数の画像を検出する画像検出手段と、前記光学レンズ系の前記焦点を合わせた各位置毎の前記画像に基づいてピントが合っている前記計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する前記計測対象物の個数を求め、その求めた結果に基づいて前記焦点を合わせた各位置に対する前記計測対象物の分布を計測する計測処理手段と、を具備することを特徴とするものである。
【0007】
上記の目的を達成するための本発明に係る測距装置は、移動している多数の計測対象物に向けて設置され且つ前記計測対象物に向かう方向に沿って前後に移動可能に構成されており、前記計測対象物からの光をその進行方向と逆向きに反射する第一光学系と、前記第一光学系で反射した光を前記計測対象物からの光の進行方向と同じ向きに反射する第二光学系と、焦点の合う位置及び焦点深度がそれぞれ所望の値になるように調整されており、前記第二光学系で反射した光を結像させる光学レンズ系と、前記光学レンズ系を通過した光を、波長が所定の第一波長値である第一の光と波長が前記第一波長値と異なる所定の第二波長値である第二の光と前記第一の光及び前記第二の光以外の第三の光とに分けるフィルタ手段と、前記第一光学系を移動することによって前記光学レンズ系の前記焦点の合う位置を少なくとも前記焦点深度と同じ距離ずつずらす度に、シャッタ手段を用いて一定時間内に少なくとも一度、前記光学レンズ系を通過した光を前記フィルタ手段を介して取り込むことにより、前記計測対象物の移動を止めた瞬間の状態を捉えた複数の画像であって、前記第一の光によって得られる第一画像、前記第二の光によって得られる第二画像及び前記第三の光によって得られる第三画像からなるものを検出する画像検出手段と、前記光学レンズ系の前記焦点を合わせた各位置毎の前記第三画像に基づいてピントが合っている前記計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する前記計測対象物の個数を求め、その求めた結果に基づいて前記焦点を合わせた各位置に対する前記計測対象物の分布を計測する計測処理手段と、前記ピントが合っている前記計測対象物の像の各々について、前記計測対象物の像の前記第三画像上の位置に対応する前記第一画像上の位置における前記第一の光の強度と、前記計測対象物の像の前記第三画像上の位置に対応する前記第二画像上の位置における前記第二の光の強度とを求め、その求めた前記第一の光の強度及び前記第二の光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、を具備することを特徴とするものである。
【0008】
上記の目的を達成するための本発明に係る測距装置は、移動している多数の計測対象物に向けて設置され且つ前記計測対象物に向かう方向に沿って前後に移動可能に構成されており、前記計測対象物からの光をその進行方向と逆向きに反射する第一光学系と、前記第一光学系で反射した光を前記計測対象物からの光の進行方向と同じ向きに反射する第二光学系と、焦点の合う位置及び焦点深度がそれぞれ所望の値になるように調整されており、前記第二光学系で反射した光を結像させる光学レンズ系と、前記光学レンズ系を通過した光の一部を取り込むための長方形状の開口部と、前記開口部を通過した光をその光の前記開口部の幅方向に対応する方向に沿って各波長の光に分光する回折格子とを有する分光手段と、前記第一光学系を移動することによって前記光学レンズ系の前記焦点の合う位置を少なくとも前記焦点深度と同じ距離ずつずらす度に、シャッタ手段を用いて一定時間内に少なくとも一度、前記光学レンズ系を通過した光を前記分光手段を介して取り込むことにより、前記計測対象物の移動を止めた瞬間の状態を捉えた複数の画像であって、前記画像上の直交する二つの座標軸のうち一方の座標軸が前記開口部の長さ方向に沿った位置を表し他方の座標軸が波長を表すものを検出する画像検出手段と、前記光学レンズ系の前記焦点を合わせた各位置毎の前記画像に基づいて前記一方の座標の値が同一である画素点における光の強度を加算することにより前記一方の座標に対する光の強度分布を導出した後、その導出した前記光の強度分布に基づいてピントが合っている前記計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する前記計測対象物の個数を求め、その求めた結果に基づいて前記焦点を合わせた各位置に対する前記計測対象物の分布を計測する計測処理手段と、前記ピントが合っている前記計測対象物の像の各々について、前記一方の座標の値が前記計測対象物の像の所定位置であり前記他方の座標が所定の第一波長値である前記画像上の位置における光の強度と、前記一方の座標値が前記計測対象物の像の所定位置であり前記他方の座標が前記第一波長値と異なる所定の第二波長値である前記画像上の位置における光の強度とを求め、その求めた二つの光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、を具備することを特徴とするものである。
【0009】
上記の目的を達成するための本発明に係る測距装置は、所定の第一波長値及び前記第一波長値と異なる所定の第二波長値以外の波長を有するパルス発振のレーザ光を、移動している多数の計測対象物に向けて前方に放射するレーザ発振手段と、前記計測対象物で反射して戻ってきた前記レーザ光を二つに分けるビームスプリッタと、前記ビームスプリッタで分けられた一方の前記レーザ光を検出する光検出手段と、前記レーザ発振手段が前記レーザ光を発した時間と前記光検出手段が前記レーザ光を検出した時間との時間差に基づいて当該レーザ光が当たった前記計測対象物までの距離を算出し、その算出した結果に基づいて前記計測対象物の奥行き方向の分布を計測する計測処理手段と、前記多数の計測対象物に向けて設置され、前記ビームスプリッタで分けられた他方の前記レーザ光を含む前記計測対象物からの光を結像させる光学レンズ系と、前記光学レンズ系を通過した光を、波長が前記第一波長値である第一の光と波長が前記第二波長値である第二の光と前記第一の光及び前記第二の光以外の第三の光とに分けるフィルタ手段と、前記レーザ発振手段が前記レーザ光を発するタイミングに対応してシャッタ手段を切ることにより、前記計測対象物の移動を止めた瞬間の状態を捉えた画像であって、前記第一の光によって得られる第一画像、前記第二の光によって得られる第二画像及び前記第三の光によって得られる第三画像からなるものを検出する画像検出手段と、前記第三画像に基づいて前記計測対象物で反射した前記レーザ光による前記計測対象物の像を認識し、前記計測対象物の像の前記第三画像上の位置に対応する前記第一画像上の位置における前記第一の光の強度と、前記計測対象物の像の前記第三画像上の位置に対応する前記第二画像上の位置における前記第二の光の強度とを求め、その求めた前記第一の光の強度及び前記第二の光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、を具備することを特徴とするものである。
【0010】
上記の目的を達成するための本発明に係る測距装置は、所定の第一波長値及び前記第一波長値と異なる所定の第二波長値以外の波長を有するパルス発振のレーザ光を、移動している多数の計測対象物に向けて前方に放射するレーザ発振手段と、前記計測対象物で反射して戻ってきた前記レーザ光を二つに分けるビームスプリッタと、前記ビームスプリッタで分けられた一方の前記レーザ光を検出する光検出手段と、前記レーザ発振手段が前記レーザ光を発した時間と前記光検出手段が前記レーザ光を検出した時間との時間差に基づいて当該レーザ光が当たった前記計測対象物までの距離を算出し、その算出した結果に基づいて前記計測対象物の奥行き方向の分布を計測する計測処理手段と、前記多数の計測対象物に向けて設置され、前記ビームスプリッタで分けられた他方の前記レーザ光を含む前記計測対象物からの光を結像させる光学レンズ系と、前記光学レンズ系を通過した光の一部を取り込むための長方形状の開口部と、前記開口部を通過した光をその光の前記開口部の幅方向に対応する方向に沿って各波長の光に分光する回折格子とを有する分光手段と、前記レーザ発振手段が前記レーザ光を発するタイミングに対応してシャッタ手段を切ることにより、前記計測対象物の移動を止めた瞬間の状態を捉えた画像であって、前記画像上の直交する二つの座標軸のうち一方の座標軸が前記開口部の長さ方向に沿った位置を表し他方の座標軸が波長を表すものを検出する画像検出手段と、前記画像に基づいて前記計測対象物で反射した前記レーザ光による前記計測対象物の像を認識し、前記一方の座標の値が前記計測対象物の像の所定位置であり前記他方の座標が前記第一波長値である前記画像上の位置における光の強度と、前記一方の座標値が前記計測対象物の像の所定位置であり前記他方の座標が前記第二波長値である前記画像上の位置における光の強度とを求め、その求めた二つの光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、を具備することを特徴とするものである。
【0011】
【発明の実施の形態】
以下に本発明の第一実施形態について図面を参照して説明する。図1は本発明の第一実施形態である測距装置の概略構成図である。
第一実施形態の測距装置は、図1に示すように、第一光学系10と、第二光学系20と、光学レンズ系30と、画像検出部40と、画像処理部50と、コンピュータ60とを備えるものである。
【0012】
第一実施形態では、多数の計測対象物2がランダムに落下しており、それらの計測対象物2について、光学レンズ系30の中心軸方向に平行な方向(以下、奥行き方向とも称する。)に対する分布を測定する場合について説明する。ここで、計測対象物2は画像検出部40の前方、約6〜10mのところを通過する場合を考える。また、計測対象物2は球形状をしており、その直径は約1〜2cmである。更に、第一実施形態では、計測対象物2に一様な自然光が当たっているものとする。
【0013】
第一光学系10は、移動している多数の計測対象物2に向けて設置されており、計測対象物2からの光L(像)をその進行方向と逆向きに反射するものである。この第一光学系10は、反射鏡11と、その下側に設けられた反射鏡12とを有する。第二光学系20は、第一光学系10で反射した光を、計測対象物2からの光の進行方向と同じ向きに反射するものであり、反射鏡21と、その下側に設けられた反射鏡22とを有する。
【0014】
計測対象物2には自然光が一様に当たっており、計測対象物2で反射した光のうち第一光学系10に向かって進む光Lは、反射鏡11で反射した後、反射鏡12に入射する。反射鏡12は、その入射した光を反射して、奥行き方向に平行な方向であって計測対象物2の側に進行させる。また、反射鏡12で反射した光は、反射鏡21で反射した後、反射鏡22に入射する。反射鏡22は、その入射した光を奥行き方向に平行な方向に反射して、光学レンズ系に30に導く。特に、第一実施形態では、第二光学系20の反射鏡21,22の間隔や向き等を調整することにより、光学レンズ系30及び画像検出部40を動かすことなく、光軸の調整をすることができる。このため、セッティング時の調整を容易に行うことができるという利点がある。
【0015】
光学レンズ系30は、第二光学系20で反射した計測対象物2のイメージ光を結像させるものであり、画像検出部40の前側に取り付けられる。光学レンズ系30としては、可能な限り焦点深度の浅いカメラレンズを用いる。特に、第一実施形態では、ニコン株式会社製のニッコールED180mmF2.8Sを使用している。このカメラレンズのレンズ構成は5群5枚である。ここで、焦点深度とは、光学レンズ系30の焦点をある位置に合わせたときに、その位置と奥行き方向に沿ってはっきり見える位置との距離の最大値をいう。一般に、焦点の合う位置を一定にしたときには、焦点深度は、カメラレンズの絞り値を大きくするほど深く、カメラレンズの焦点距離が大きいほど浅くなる。また、カメラレンズの絞り値及び焦点距離が同じであれば、焦点の合う位置をカメラレンズに近づけるほど浅くなる。焦点深度が浅くなるにしたがって、焦点の合う位置の前後の像のぼけは著しくなる。いわゆるバカチョンカメラで撮影したものが視界の全てのものにピントが合っているように見えるのは、焦点深度が極端に深いためである。上記のカメラレンズは、その絞り値を開放(F2.8)に設定して使用する。このとき、画像検出部40の光電面から6mの位置に焦点を合わせたとすると、焦点深度は約70mmである。尚、以下では、説明を分かりやすくするために、画像検出部40の光電面から6mの位置に焦点を合わせたときに、光学レンズ系30の焦点深度が50mmである場合について説明することにする。
【0016】
また、第一光学系10は、反射鏡11及び反射鏡12を一緒にして、奥行き方向に沿って前後に移動可能に構成されている。第一光学系10を移動すると、計測対象物2からの光が光学レンズ系30に入射するまでの距離が変わり、これにより、光学レンズ系30の焦点の合う位置Pを奥行き方向に沿ってずらすことができる。また、第一光学系10と第二光学系20とを設け、計測対象物2からの光を二度折り返して、光学レンズ系30に導くことにより、第一光学系10をある一定距離だけ奥行き方向に沿って動かすと、光学レンズ系30の焦点の合う位置Pは、第一光学系10の動かした距離の二倍移動することになる。したがって、光学レンズ系30の焦点の合う位置Pをある距離dだけ図1の左側(右側)に動かしたい場合には、第一光学系10をその距離dの半分d/2だけ図1の左側(右側)に動かすだけでよい。
【0017】
ところで、第一光学系10及び第二光学系20を設けなくとも、光学レンズ系30を構成する各レンズの相対位置を変えることにより、光学レンズ系30の焦点の合う位置をずらすことができる。しかしながら、光学レンズ系30の各構成レンズの相対位置を変えると、光学レンズ系30の焦点が合う位置に応じて、焦点深度が変わってしまう。これでは、光学レンズ系30の焦点の合う位置を変えるにしたがって、画像検出部40では焦点深度の異なる画像を検出することになる。第一実施形態では、後述するように、焦点深度を利用して計測対象物2の位置を計測するので、焦点深度が常に一定である画像を検出する必要がある。このため、第一光学系10を移動可能に構成し、第一光学系10を動かすことにより、焦点深度はそのままにして、光学レンズ系30の焦点の合う位置だけを変えることにしている。
【0018】
但し、実際には、画像検出部40から光学レンズ系30の焦点の合う位置までの距離が5、6m以上である場合、光学レンズ系30を構成する各レンズの相対位置を変えても、焦点深度が大きな影響を受けることはない。したがって、この場合、計測対象物2の位置をあまり高精度で求める必要がなければ、第一光学系10を移動させる代わりに、オートフォーカスで光学レンズ系30を構成する各レンズの相対位置を変えることにより、光学レンズ系30の焦点の合う位置をずらすようにしてもよい。
【0019】
尚、第一光学系10及び第二光学系20を設けずに、光学レンズ系30と画像検出部40とを一体として移動することも考えられるが、画像検出部40にはケーブル等の付属物が付いているため、これら付属物ごと動かすのは容易ではない。第一実施形態のように第一光学系10だけを動かすことにより、光学レンズ系30の焦点の合う位置を容易にずらすことができる。
【0020】
画像検出部40としては、高感度の理化学用CCDカメラと電子シャッタ(ゲート)とを組み合わせたゲーティングCCDを用いる。図2は画像検出部40の概略構成図である。画像検出部40は、図2に示すように、光電面41と、多数の細いガラスパイプを束ねたものであるマイクロチャネルプレート42と、蛍光面43と、多数のCCDからなる撮像部44とを有する。光電面41上には、光学レンズ系30により計測対象物2からの光が光学像として結像する。光電面41に入射した光は光電面41で光電変換され、その変換された電子はマイクロチャネルプレート42を通過する際に増幅される。そして、その増幅された電子が蛍光体43上に入射すると、再び光に変換され、その後、その光は撮像部44に入る。このとき、光電面41とマイクロチャネルプレート42との間に印加する電圧差により、ゲーティング動作、すなわち電子シャッタの開閉動作が制御される。この電子シャッタの、計測対象物2からの光を撮像部44に取り込む露光時間(露光時間の逆数をシャッタスピードと称することにする。)は、最短で5ナノ秒、すなわち5×10-9秒である。この最高のシャッタスピード(2×108 /秒)は、光の速度で動いているものが約150cmしか進めない時間に相当する。この電子シャッタを用いれば、機械的に動いているものは必ず止めて撮像することができる。第一実施形態では、計測対象物2がどんなに高速で移動していても、その移動を止めた瞬間の状態を捉えた画像を得ることができるように、高速シャッタスピードを有する電子シャッタを用いることにしている。尚、計測対象物2があまり高速に移動していなければ、電子シャッタの代わりに、例えば機械シャッタを用いてもよい。
【0021】
このように画像検出部40の電子シャッタは、計測対象物2の移動を止めた状態で捉えることができるようなシャッタスピードに設定する。また、電子シャッタを短い時間のうちに頻繁に切ったのでは、同一の計測対象物2が複数の画像に写ってしまうことがある。このため、同一の計測対象物2は一つの画像でしか検出されることのないように、計測対象物2の速度や位置等に応じて、電子シャッタの切るタイミングを定める必要がある。
【0022】
ところで、第一実施形態で使用する画像検出部40では、マイクロチャネルプレート42の各ガラスパイプの太さが約85μmであり、一方、撮像部44の各CCDの直径は約20μmである。このため、一つのガラスパイプを通って来た光は隣り合う四つのCCDに入ることになり、あたかもCCDの数が四分の一に減ったかのように、画像分解能が低下する。このように、電子シャッタを有するCCDカメラの画像分解能が、電子シャッタのデバイスの分解能に応じて落ちてしまうことは、機械シャッタとの相違点であり、電子シャッタの持つ欠点と言える。しかながら、将来的には電子シャッタのデバイスの分解能が向上する可能性があるので、このことが致命的な欠点となるわけではない。
【0023】
画像処理部50は、CCDカメラのCCD一個当たりの輝度信号(画像信号)を8ビットでA/D変換し、その変換して得られた画像データを画像メモリに取り込むものである。コンピュータ60は、図1に示すように、コンピュータ本体61と、CRT表示装置62と、キーボード及びマウス(不図示)と、出力装置(不図示)とを有する。コンピュータ本体61は、画像検出部40の動作を制御すると共に、画像処理部50の画像メモリに記憶された画像データを読み出し、画像データに基づいて計測対象物2の奥行き方向の分布を計測する処理を行う。CRT表示装置62は、画像データを画面上に表示したりするものである。また、オペレータは、キーボード及びマウスを用いて、電子シャッタのシャッタスピードを入力する。
【0024】
第一実施形態では、画像検出部40は、第一光学系10を移動することによって光学レンズ系30の焦点の合う位置を少なくとも光学レンズ系30の焦点深度と同じ距離ずつずらす度に、電子シャッタを用いて一定時間内に何度も光学レンズ系30を通過した光をCCDカメラに取り込むことにより、ランダムに移動する計測対象物の瞬間の状態を捉えた複数の画像を検出する。コンピュータ本体61は、光学レンズ系30の焦点を合わせた各位置毎の画像データに基づいて、画像処理ソフト等を用いてエッジ検出等を施して、各計測対象物2の像にピントが合っているか否かを判断することにより、計測対象物2を検知し、またその位置を算出する。すなわち、ピントが合っていると判断された計測対象物2は当該焦点を合わせた位置を通過したことになり、これによりその計測対象物2の位置が分かる。また、ピントが合っていると判断された計測対象物2の像の個数が、当該一定時間に、当該焦点を合わせた位置を通過した計測対象物2の個数となる。例えば、光学レンズ系30の焦点の合う位置を画像検出部40の光電面から前方6mのところに設定して、10秒間に多数の画像を検出した場合に、ピントの合った計測対象物2の像の個数が100個あったときには、計測対象物2はその6mの位置を1秒当たり10個落下しているになる。このように、光学レンズ系30の焦点の合う位置を一定距離ずつずらしながら、画像を検出することにより、奥行き方向に沿った各位置を通過する計測対象物2の個数を統計的に知ることができる。
【0025】
また、このように計測対象物2の像にピントが合っているか否かを判断して、計測対象物2の位置を計測するので、光学レンズ系30の焦点の合う位置から前後に焦点深度だけ離れたところに位置している計測対象物2は、すべて当該焦点が合う位置に存在しているものと判断される。すなわち、計測対象物2の位置をどれぐらいの距離間隔で計測することができるかを表す最小の尺度(分解能)は、焦点深度によって定まることになる。第一実施形態で使用する光学レンズ系30については、上述したように画像検出部40の光電面から前方6mの距離において焦点深度が5cmであるので、計測対象物2の位置を例えば10cm単位で計測することができる。さらに短い距離間隔で計測対象物2の位置を計測したい場合には、光学レンズ系30の焦点深度を一層浅くする必要がある。
【0026】
次に、計測対象物2の像にピントが合っているか否かの判断をどのようにして行うかについて説明する。ここでは、背景が白色である場合と黒色である場合とに分けて考えることにする。
最初に、背景が白色である場合について説明する。図3は背景が白色である場合にピントが合っている計測対象物2の画像データを模式的に示した図、図4は背景が白色である場合にピントが合っていない計測対象物2の画像データを模式的に示した図である。まず、コンピュータ本体61は、画像データに、例えばソフト的にフィルタをかける処理を施すことにより、画像データの中で一定の輝度以上の明るい範囲を見いだす。この明るい範囲は計測対象物2の像を表す範囲として特定される。
【0027】
次に、コンピュータ本体61は、画像データに対して、その特定した範囲の中心位置を通り画像上のx方向又はy方向に平行な直線上の各画素に対する光の強度分布を求める。図5(a)は図3の場合にx方向の光の強度分布を示す図、図5(b)は図4の場合にx方向の光の強度分布を示す図である。計測対象物2は球形状をしているため、計測対象物2の中央からの光はその大部分が光学レンズ系30に入射するが、計測対象物2の輪郭部分からの光は光学レンズ系30にほとんど入射しない。また、背景は白色であるので、背景からの光もある程度、光学レンズ系30に入射する。このため、計測対象物2の像にピントが合っている場合、x方向の光の強度分布は、図5(a)に示すように、計測対象物2の像の中央部でピークを持ち、計測対象物2の像の輪郭部分では光の強度の落ち込みが激しい。この輪郭部分における光の強度の落ち込みは、計測対象物2の像にピントが合えば合うほど激しくなる。一方、計測対象物2の像にピントが合わなくなると、光学レンズ系30には、計測対象物2からの光は分散して入射することになる。このため、計測対象物2の像にピントが合っていない場合、x方向の光の強度分布は、図5(b)に示すように、図5(a)に比べて、計測対象物2の像の中央部でのピークの形状がなだらかになると共に、その輪郭部分における光の強度の落ち込みが緩やかになる。したがって、計測対象物2の像にピントが合っているか否かは、計測対象物2の像の輪郭部分における光の強度の立ち上がり(傾き)を調べることにより、判断することができる。すなわち、計測対象物2の像の輪郭部分における光の強度の傾きの大きさが所定の基準値以上であれば、計測対象物2の像にピントが合っていると判断し、一方、その傾きの大きさが所定の基準値よりも小さければ、計測対象物2の像にピントが合っていないと判断する。
【0028】
次に、背景が黒色である場合について説明する。この場合も、コンピュータ本体61は、まず、画像データの中で一定の輝度以上の明るい範囲を見いだし、この明るい範囲を計測対象物2の像を表す範囲として特定する。そして、画像データに対して、その特定した範囲の中心位置を通り画像上のx方向又はy方向に平行な直線上の各画素に対する光の強度分布を求める。図6(a)は背景が黒色の場合に計測対象物2の像にピントが合っているときのx方向の光の強度分布を示す図、図6(b)は背景が黒色の場合に計測対象物2の像にピントが合っていないときのx方向の光の強度分布を示す図である。背景が黒色である場合には、背景からの光は光学レンズ系30にほとんど入射しない。このため、図6(a)又は(b)に示すx方向の光の強度分布はそれぞれ、図5(a)又は(b)に示すx方向の光の強度分布において背景に対応する部分の光の強度をゼロにしたものとなる。すなわち、計測対象物2の像にピントが合っている場合、x方向の光の強度分布は、図6(a)に示すように、計測対象物2の像の中央部でピークを持ち、計測対象物2の像の輪郭部分では光の強度の傾きが急になる。一方、計測対象物2の像にピントが合っていない場合、x方向の光の強度分布は、図6(b)に示すように、計測対象物2の像の輪郭部分で光の強度の立ち上がりが緩やかになる。したがって、背景が黒色である場合も、x方向又はy方向の光の強度分布を求め、その光の強度の傾きを調べることにより、計測対象物2の像にピントが合っているか否かを判断することができる。
【0029】
但し、このように光の強度の傾きに基づいて計測対象物2の像にピントが合っているか否かを正確に判断するためには、計測対象物2の像を表す範囲が画像データ上で最低でも10画素(第一実施形態では、電子シャッタを有するCCDカメラを用いているため、画素分解能が四分の一に落ちるので、この場合には、四倍の40画素)ぐらいを占めていなければならない。これよりも以下では、コンピュータ本体61は光の強度の傾きを算出できないからである。かかる条件を満たさない場合には、光学レンズ系30として、計測対象物2を一定の大きさ以上に拡大できるもの、例えば望遠レンズ等を使用する必要がある。
【0030】
尚、第一実施形態では、計測対象物2が球形状である場合を考えているが、一般に、計測対象物2が任意の形状をしている場合であっても、上記のようにx方向又はy方向の光の強度分布を求め、計測対象物2の像の輪郭部分における光の強度の傾きを調べることにより、計測対象物2の像にピントが合っているか否かを判断することができる。
【0031】
次に、第一実施形態の測距装置において、計測対象物2の奥行き方向の分布を計測する場合の処理手順について説明する。
まず準備作業として、オペレータは、第一光学系10を図1の右側に移動した後、光学レンズ系30の各構成レンズの相対位置を調整して、画像検出部40の光電面から前方、例えば6mのところに光学レンズ系30の焦点を正確に合わせる。以後は、このレンズ光学系30の各構成レンズの相対位置を変えることはない。また、オペレータは、計測対象物2の落下速度に応じて、計測対象物2の瞬間の状態を捉えた画像を得ることができるような電子シャッタのシャッタスピードを、マウスを用いてCRT表示装置62の画面上で入力する。
【0032】
かかる準備作業が終了した後、オペレータは、キーボード又はマウスを用いて、CRT表示装置62の画面上で、光学レンズ系30の焦点位置についての情報と、第一光学系10の位置についての情報とを入力すると共に、画像検出の動作を開始する旨のボタンを押す。すると、コンピュータ本体61は画像検出部40に信号を送り、画像検出部40の電子シャッタが一定時間内に何度も切られて、多数の画像が検出される。次に、かかる動作が終了した後、オペレータは、第一光学系10を5cmだけ図1の左側に移動させる。これにより、光学レンズ系30の焦点は、画像検出部40の光電面から前方、6m10cmのところに合うことになる。そして、オペレータは、その第一光学系10の位置についての情報を入力すると共に、画像検出の動作を開始する旨のボタンを押す。すると、コンピュータ本体61は再び、画像検出部40に信号を送り、画像検出部40の電子シャッタが一定時間内に何度も切られて、多数の画像が検出される。その後も、第一光学系10を5cmずつ前方に移動しながら、画像検出部40で画像を検出する処理を上記と同様にして繰り返す。この繰り返す動作は、光学レンズ系30の焦点が画像検出部40の光電面から前方10mのところに合うまで行う。
【0033】
画像検出部40で得られた各画像信号は、画像処理部50に送られ、画像処理部50は画像信号を画像データに変換して、画像メモリに記憶する。コンピュータ本体61は、画像メモリに記憶された画像データを読み出し、光学レンズ系30の焦点を合わせた各位置毎の画像データに基づいて、計測対象物2の像にピントが合っているか否かを判断する。ピントが合っていると判断された計測対象物2の像の個数が当該一定時間の間に当該焦点の合う位置を通過した計測対象物2の個数となる。コンピュータ本体61は、光学レンズ系30の焦点を合わせた各位置毎に、ピントが合っている計測対象物2の像の個数を数え、これから、計測対象物2の奥行き方向の位置に対する分布を求める。例えば、図1に示すように、横軸に焦点を合わせた位置を、縦軸に単位時間当たりの計測対象物の個数をとったヒストグラム63を作成し、かかるヒストグラムをCRT表示装置62の画面上に表示する。
【0034】
第一実施形態の測距装置では、第一光学系を移動することによって光学レンズ系の焦点の合う位置を少なくとも光学レンズ系の焦点深度と同じ距離ずつずらす度に、電子シャッタを用いて一定時間内に何度も光学レンズ系を通過した光をCCDカメラに取り込むことにより、移動する計測対象物の瞬間の状態を捉えた多数の画像を検出する。特に、画像検出部として電子シャッタを有するCCDカメラを用いることにより、計測対象物がどんなに高速で移動していても、その瞬間の状態を捉えた画像を得ることができる。そして、焦点を合わせた各位置毎の画像データに基づいてピントが合っている計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する計測対象物の個数を求めることができる。また、その求めた結果から、移動している計測対象物の奥行き方向の分布を計測することができる。
【0035】
尚、かかる測距装置は様々な分野において適用することができる。例えば、製鉄所等において、溶鉱炉内で粒状又は粉状の石炭、コークスや微粉炭を燃焼させている場合に、石炭やコークスの奥行き方向の分布を計測することができる。この場合には、溶鉱炉の観測窓を介して石炭やコークスからの光を光学レンズ系に導くことになる。石炭やコークスの分布を調べることにより、溶鉱炉内での加熱状況を知ることができる。例えば、石炭やコークスの分布に偏りがあれば、溶鉱炉内で均一な加熱がなされていないことが分かる。また、火力発電所や電子力発電所等において炉内の加熱状況を調べる場合にも、第一実施形態の測距装置を利用することができる。一般に、第一実施形態の測距装置は、移動している粒体や粉体について奥行き方向の分布を調べるのに適している。
【0036】
次に、本発明の第二実施形態について図面を参照して説明する。図7は本発明の第二実施形態である測距装置の概略構成図である。尚、第二実施形態において、第一実施形態のものと同一の機能を有するものには、同一の符号を付すことによりその詳細な説明を省略する。
第二実施形態の測距装置は、図7に示すように、第一光学系10と、第二光学系20と、光学レンズ系30aと、画像検出部40と、画像処理部50と、コンピュータ60と、レーザ発振装置70とを備えるものである。
【0037】
第二実施形態でも、第一実施形態と同様に、落下している多数の計測対象物2についての奥行き方向の分布を計測する場合について説明する。計測対象物2の移動する環境は明るくても暗くてもよいが、ここでは、特に背景が真っ暗であるとする。
第二実施形態の測距装置が第一実施形態のものと異なる主な点は、レーザ発振装置70を設け、計測対象物2で反射したレーザ光を計測対象物2からの光として画像検出部40で検出することにより、計測対象物2の位置を算出する点である。かかる構成により、計測対象物2が発光しておらず、真っ暗な状況であっても、計測対象物の奥行き方向の分布を計測することができる。
【0038】
レーザ発振装置70は、一定振幅の連続出力を発生するもの(CWレーザ)である。CWレーザとしては、例えば、Ar+ レーザ、He−Neレーザ、YAGレーザ等を用いることができる。レーザ光は、ビーム折返し用プリズム160で反射した後、第二光学系20、第一光学系10を介して、前方に放射される。そして、計測対象物2がレーザ光の光軸上を横切って落下すると、レーザ光はその計測対象物2で反射される。計測対象物2で反射したレーザ光のうち第一光学系10に向かって進むレーザ光は、第一光学系10、第二光学系20を介して、光学レンズ系30aに入射することになる。
【0039】
また、レーザ光のスポット径は、計測対象物2の直径よりも小さくしている。このため、画像検出部40は、レーザ光の光軸上を通過する計測対象物2であってレーザ光が当たった部分(スポット部分と称する。)の像が写った画像を検出することになる。コンピュータ本体61は、画像データに基づいて計測対象物2のスポット部分の像にピントが合っているか否かを判断することにより、計測対象物2の位置を計測する。したがって、第二実施形態では、レーザ光の光軸上を通過する計測対象物2だけが計測の対象となる。レーザ光の光軸以外の部分を通過する計測対象物2については、その位置を計測しない。
【0040】
画像検出部40の電子シャッタは、移動する計測対象物2の瞬間の状態を捉えた画像を検出することができるようなシャッタスピードに設定される。また、電子シャッタを短い時間のうちに頻繁に切ったのでは、同一の計測対象物2についてのスポット部分の像が複数の画像に写ってしまうことがある。このため、一つの計測対象物2については一つのスポット部分の像だけが一つの画像に写るように、計測対象物2の速度や位置等に応じて、電子シャッタの切るタイミングを定める必要がある。
【0041】
光学レンズ系30aとしては、第一実施形態の光学レンズ系30の前面に、レーザ発振装置70が発するレーザ光の波長と同じ波長の光を透過するバンドパスフィルタ31を設けたものを用いる。これは、たとえ背景が明るい場合でも、計測対象物2の奥行き方向の分布を測定できるようにするためである。例えば、背景がとても明るく、計測対象物2と背景との区別ができないような状況にあるとする。このとき、バンドパスフィルタ31を設けることにより、計測対象物2で反射して戻ってきたレーザ光はすべて、バンドパスフィルタ31を透過し、光学レンズ系30aに入射する。これに対して、背景からの光はレーザ光の波長と同じ波長の光しかバンドパスフィルタ31を透過することができず、したがって一部の光しか光学レンズ系30aに入射することができない。このため、画像検出器40では、レーザ光と背景からの光とを差別化して、スポット部分の像がはっきり写った画像を検出することができる。尚、例えばレーザ光と背景からの光とが強度的に大幅に異なっていたり、その差別化が容易である場合には、必ずしもバンドパスフィルタ31を用いる必要はない。
【0042】
コンピュータ本体61は、第一実施形態と同様にして、計測対象物2の奥行き方向の分布を計測する。具体的には、まず、画像データの中に一定の輝度以上の明るい範囲が存在するか否かを判断する。一定の輝度以上の明るい範囲があれば、その範囲は計測対象物2のスポット部分の像を表す範囲として特定される。次に、そのスポット部分の像を含む画像データに対して、そのスポット部分の像にピントが合っているか否かを判断する。すなわち、その画像データに基づいて、スポット部分の像を表す範囲の中心位置を通り画像上のx方向又はy方向に平行な直線上の各画素に対する光の強度分布を求める。このとき、バンドパスフィルタ31を設けたことにより、計測対象物2で反射したレーザ光はほとんど光学レンズ系30aに入射するが、計測対象物2からの光のうちレーザ光が照射されなかった部分からの光や背景からの光は光学レンズ系30aにほとんど入射しない。このため、計測対象物2のスポット部分の像にピントが合っているときには、x方向又はy方向の光の強度分布は、図8に示すように、スポット部分の像の中央部で鋭いピークを持ち、スポット部分の像の輪郭部分では光の強度の傾きが急になる。コンピュータ本体61は、x方向又はy方向の光の強度分布から、スポット部分の像の輪郭部分における光の強度の傾きを求め、その傾きの大きさが所定の基準値以上であれば、スポット部分、したがって計測対象物2の像にピントが合っていると判断する。一方、その傾きの大きさが所定の基準値よりも小さければ、計測対象物2の像にピントが合っていないと判断する。コンピュータ本体61は、このような判断処理を各画像データについて行い、光学レンズ系30aの焦点を合わせた各位置毎に、ピントが合っている計測対象物2の像の個数を数えることにより、計測対象物2の奥行き方向の分布を計測する。
【0043】
尚、第二実施形態の測距装置において、計測対象物2の奥行き方向の分布を計測する場合の処理手順は、上記第一実施形態と同様である。
第二実施形態の測距装置では、連続発振のレーザ光を発するレーザ発振装置を設け、計測対象物で反射したレーザ光を計測対象物からの光として利用することにより、例えば、計測対象物が自分で発光していなかったり、背景が暗い場合でも、計測対象物のスポット部分の像が明確に写った画像を検出することができる。しかも、このスポット部分の像については、その大きさや光量を予測することができるので、スポット部分の像を認識する処理や、スポット部分の像にピントが合っているか否かの判断処理が、第一実施形態のものに比べて、簡単且つ迅速に行うことができる。その他の効果は、上記第一実施形態のものと同様である。
【0044】
尚、上記の第二実施形態では、レーザ光のスポット径を計測対象物の直径よりも小さくした場合について説明したが、レーザ光のスポット径は自由に変えることができる。例えば、計測対象物の大きさに応じて、レーザ光のスポット径をある程度大きく調整してもよい。これによりスポット部分の像にピントが合っているか否かの判断がしやすくなる。また、レーザ光を拡げて計測対象物に照射するようにしてもよい。この場合には、コンピュータ本体は、第一実施形態と同様に、計測対象物の像の輪郭部分における光の強度の傾きを調べて、計測対象物の像にピントが合っているか否かを判断することになる。
【0045】
次に、本発明の第三実施形態について図面を参照して説明する。図9は本発明の第三実施形態である測距装置の概略構成図である。尚、第三実施形態において、第一及び第二実施形態のものと同一の機能を有するものには、同一の符号を付すことによりその詳細な説明を省略する。
第三実施形態の測距装置は、図9に示すように、第一光学系10と、第二光学系20と、光学レンズ系30aと、画像検出部40aと、画像処理部50と、コンピュータ60と、レーザ発振装置70aとを備えるものである。
【0046】
第三実施形態でも、第一実施形態と同様に、落下している多数の計測対象物2についての奥行き方向の分布を計測する場合について説明する。計測対象物2の移動する環境は明るくても暗くてもよいが、ここでは、特に背景が真っ暗であるとする。
第三実施形態の測距装置が第一実施形態のものと異なる主な点は、レーザ発振装置70aを設け、計測対象物2で反射したレーザ光を計測対象物2からの光として画像検出部40aで検出することにより、計測対象物2の位置を算出する点である。かかる構成により、計測対象物2が発光しておらず、真っ暗な状況であっても、計測対象物2の奥行き方向の分布を計測することができる。
【0047】
レーザ発振装置70aは、断続するパルス波形出力を発生するもの(パルスレーザ)である。ここでは、パルスレーザとして、例えばYAGレーザを用いる。特に、YAGレーザの第二高調波(SHG)を利用する。このレーザ光の波長は532nmであり、パルス幅は約10ナノ秒、すなわち10×10-9秒である。レーザ光は、ビーム折返し用プリズム160で反射した後、第二光学系20、第一光学系10を介して、前方に放射される。そして、計測対象物2がレーザ光の光軸上を横切って落下し、レーザ光が計測対象物2に当たると、レーザ光はその計測対象物2で反射される。計測対象物2で反射したレーザ光のうち第一光学系10に向かって進むレーザ光は、第一光学系10、第二光学系20を介して、光学レンズ系30aに入射することになる。
【0048】
また、レーザ光のスポット径は、計測対象物2の直径よりも小さくしている。このため、画像検出部40aは、レーザ光の光軸上を通過する計測対象物2であってレーザ光が当たった部分(スポット部分)の像が写った画像を検出することになる。コンピュータ本体61は、画像データに基づいて計測対象物2のスポット部分の像にピントが合っているか否かを判断することにより、計測対象物2の位置を計測する。したがって、第三実施形態でも、第二実施形態と同様に、レーザ光の光軸上を通過する計測対象物2だけが計測の対象となる。レーザ光の光軸以外の部分を通過する計測対象物2については、その位置を計測しない。
【0049】
画像検出部40aは、上記第一及び第二実施形態のものとは異なり、機械シャッタを有するCCDカメラを用いる。第三実施形態では、パルス幅のかなり短いレーザ光を用いることにより、CCDカメラの露光時間はレーザ光のパルス幅で決まってしまうので、高速でシャッタを切る必要はない。これが、機械シャッタを用いることにしている理由である。
【0050】
実際、移動している計測対象物2の瞬間の状態を捉えた画像を検出するためには、計測対象物2の移動速度や位置にもよるが、露光時間、したがってレーザ光のパルス幅は、マイクロ秒オーダとする必要がある。この条件は、上記のYAGレーザの第二高調波を利用することにより、満たされている。また、一回の撮像では、計測対象物2で反射して戻ってきた一つのパルスレーザ光のみをCCDカメラで取り込むことができるように、レーザ光のパルス間隔、機械シャッタの切るタイミングを定める必要がある。計測対象物2は移動しているため、二つ以上のパルスレーザ光をCCDカメラに取り込むことにすると、計測対象物2についての正確な情報が得られなくなるからでなる。
【0051】
また、光学レンズ系30aとしては、第二実施形態のものと同様に、レーザ発振装置70aが発するレーザ光の波長と同じ波長の光を透過するバンドパスフィルタ31を設けたものを用いる。コンピュータ本体61が画像データに基づいて計測対象物2の奥行き方向の分布を計測する方法は、上記第二実施形態と同様であるので、その詳細な説明は省略する。
【0052】
第三実施形態の測距装置では、画像検出部として機械シャッタを有するCCDカメラを用いることにより、電子シャッタのデバイスの分解能に起因してCCDカメラの画像分解能が落ちてしまうことがなく、CCDカメラの持つ画像分解能をそのまま引き出すことができるという利点がある。その他の効果は上記第二実施形態のものと同様である。
【0053】
尚、上記の第三実施形態では、画像検出部として機械式シャッタを有するCCDカメラを用いる場合について説明したが、電子シャッタを有するCCDカメラを用いることも可能である。
次に、本発明の第四実施形態について図面を参照して説明する。図10は本発明の第四実施形態である測距装置の概略構成図、図11(a)はその測距装置のフィルタユニットの概略構成図、図11(b)はその測距装置の画像検出部で得られた画像を説明するための図である。尚、第四実施形態において、第一実施形態のものと同一の機能を有するものには、同一の符号を付すことによりその詳細な説明を省略する。
【0054】
第四実施形態の測距装置は、図10に示すように、第一光学系10と、第二光学系20と、光学レンズ系30と、画像検出部40と、画像処理部50と、コンピュータ60と、フィルタ手段としてのフィルタユニット80とを備える。
ここでは、第一実施形態と同様に、落下している多数の計測対象物2についての奥行き方向の分布を計測する場合について説明する。また、第四実施形態では、計測対象物2は自ら発光しており、その表面温度を計測する場合についても説明する。フィルタユニット80は計測対象物2の温度を計測するために設けられたものである。
【0055】
フィルタユニット80は、光学レンズ系30を通過した光を、波長が略460nm(青色)である第一の光と、波長が略660nm(赤色)である第二の光と、第一の光及び第二の光以外の第三の光とに分けるものである。かかるフィルタユニット80は、図10に示すように、光学レンズ系30と画像検出部40との間に取り付けられ、具体的には、図11(a)に示すように、二つの干渉フィルタ81,82と、一つの反射鏡83とを有する。干渉フィルタ81は、光学レンズ系30を通ってきた光のうち波長が略460nmの第一の光を透過し、その他の波長の光(第二の光及び第三の光)を反射する。また、干渉フィルタ82は、干渉フィルタ81で反射した光のうち波長が略660nmの第二の光を反射し、その他の波長の光(第三の光)を透過する。反射鏡83は、干渉フィルタ82を透過した第三の光を反射するものである。第四実施形態では、干渉フィルタ81,82として、例えばダイクロイックミラーを用いる。
【0056】
画像検出部40の光電面41は、図11(a)に示すように、第一エリアA1 、第二エリアA2 、第三エリアA3 の三つに区分されている。第一エリアA1 には干渉フィルタ81を透過した第一の光が入射し、第二エリアA2 には干渉フィルタ82で反射した第二の光が入射し、そして、第三エリアA3 には反射鏡83で反射した第三の光が入射する。したがって、画像検出部40では、図11(b)に示すように、第一エリアA1 に対応する第一画像と、第二エリアA2 に対応する第二画像と、第三エリアA3 に対応する第三画像とからなる画像が検出される。この画像検出部40で検出された画像信号は画像処理部50に送られ、ディジタルの画像データに変換されて、画像メモリに記憶される。
【0057】
コンピュータ60のコンピュータ本体61は、計測対象物2の奥行き方向の分布と計測対象物2の表面温度を計測する。計測対象物2の奥行き方向の分布を計測する処理は、画像検出部40で検出された画像のうち第三画像に基づいて行う。この第三画像を用いる点を除けば、計測対象物2の奥行き方向の分布を計測する処理は、上記第一実施形態のものと同様であるので、ここでは、その詳細な説明を省略する。
【0058】
一方、計測対象物2の表面温度を計測するには、公知の二色温度計測法を用いる。二色温度計測法とは、熱放射体の二つの波長460nm、660nmにおける光の強度の比がその放射体の温度の関数で表されることを利用して、放射体の温度を計測するものである。計測対象物2の温度計測は、計測対象物2の奥行き方向の分布を計測する際にピントが合っていると判断された計測対象物2の像の各々について行う。コンピュータ本体61は、計測対象物2の像の第三画像上の位置に対応する第一画像上の位置における第一の光(波長460nm)の強度と、その計測対象物2の像の第三画像上の位置に対応する第二画像上の位置における第二の光(波長660nm)の強度とを求める。そして、その求めた第一の光の強度と第二の光の強度とを用いて、計測対象物2の温度を計測する。
次に、第四実施形態の測距装置において、計測対象物2の奥行き方向の分布及び計測対象物2の表面温度を計測する処理手順について説明する。
【0059】
まず準備作業として、オペレータは、第一光学系10を図10の右側に移動した後、光学レンズ系30の各構成レンズの相対位置を調整して、画像検出部40の光電面から前方、例えば6mのところに光学レンズ系30の焦点を正確に合わせる。また、オペレータは、計測対象物2の落下速度に応じて、計測対象物2の瞬間の状態を捉えた画像を得ることができるような電子シャッタのシャッタスピードを、マウスを用いてCRT表示装置62の画面上で入力する。
【0060】
かかる準備作業が終了した後、オペレータは、キーボード又はマウスを用いて、CRT表示装置62の画面上で、光学レンズ系30の焦点位置についての情報と、第一光学系10の位置についての情報とを入力すると共に、画像検出の動作を開始する旨のボタンを押す。すると、コンピュータ本体61は画像検出部40に信号を送り、画像検出部40の電子シャッタが一定時間内に何度も切られて、多数の画像が検出される。このとき、各画像において、その第一画像には、波長460nmの第一の光による像が写り、第二画像には、波長660nmの第二の光による像が写り、そして、第三画像には、波長460nm及び660nm以外の波長の第三の光による像が写る。
【0061】
次に、かかる動作が終了した後、オペレータは、第一光学系10を5cmだけ図10の左側に移動させる。これにより、光学レンズ系30の焦点は、画像検出部40の光電面から前方、6m10cmのところに合うことになる。そして、オペレータは、その第一光学系10の位置についての情報を入力すると共に、画像検出の動作を開始する旨のボタンを押す。すると、コンピュータ本体61は再び、画像検出部40に信号を送り、画像検出部40の電子シャッタが一定時間内に何度も切られて、多数の画像が検出される。その後も、第一光学系10を5cmずつ前方に移動しながら、画像検出部40で画像を検出する処理を上記と同様にして繰り返す。この繰り返す動作は、光学レンズ系30の焦点が画像検出部40の光電面から前方10mのところに合うまで行う。
【0062】
画像検出部40で得られた各画像信号は、画像処理部50に送られ、画像処理部50は画像信号を画像データに変換して、画像メモリに記憶する。コンピュータ本体61は、最初に、計測対象物2の奥行き方向の分布を計測する。すなわち、画像メモリに記憶された画像データを読み出し、光学レンズ系30の焦点を合わせた各位置毎の画像データのうち第三画像に基づいて、計測対象物2の像にピントが合っているか否かを判断する。コンピュータ本体61は、光学レンズ系30の焦点を合わせた各位置毎に、ピントが合っている計測対象物2の像の個数を数え、これから、計測対象物2の奥行き方向の分布を求める。
【0063】
次に、コンピュータ本体61は、計測対象物2の表面温度を計測する。上記の計測対象物2の奥行き方向の分布を計測する処理の際にピントが合っていると判断された計測対象物2の像については、その中心が第三画像上においてどこに位置しているかが既に特定されている。コンピュータ本体61は、その計測対象物2の像の中心を表す第三画像上の位置に対応する第一画像上の位置における第一の光(波長460nm)の強度を求めると共に、その計測対象物2の像の中心を表す第三画像上の位置に対応する第二画像上の位置における第二の光(波長660nm)の強度を求める。そして、これら二つの波長(460nm、660nm)における光の強度を用いて、当該計測対象物2の温度を計測する。このようにして、移動する計測対象物2の奥行き方向の分布を求めると同時に、計測対象物2の温度を計測することができる。
【0064】
第四実施形態の測距装置では、光学レンズ系を通過した光を、波長が略460nmである第一の光と、波長が略660nmである第二の光と、第一の光及び第二の光以外の第三の光とに分けるフィルタユニットを設けたことにより、画像検出部は、第一の光によって得られる第一画像と、第二の光によって得られる第二画像と、第三の光によって得られる第三画像とからなる多数の画像を検出することができる。このため、第三画像に基づいてピントが合っていると判断された計測対象物の像の各々について、計測対象物の像の第三画像上の位置に対応する第一画像上の位置における第一の光の強度と、計測対象物の像の第三画像上の位置に対応する第二画像上の位置における第二の光の強度とを求めることにより、二色温度計測法を用いて、計測対象物の温度を計測することができる。尚、その他の効果は上記第一実施形態のものと同様である。
【0065】
次に、本発明の第五実施形態について図面を参照して説明する。図12は本発明の第五実施形態である測距装置の概略構成図、図13はその測距装置の分光ユニットの概略構成図である。尚、第五実施形態において、第一実施形態のものと同一の機能を有するものには、同一の符号を付すことによりその詳細な説明を省略する。
【0066】
第五実施形態の測距装置は、図12に示すように、第一光学系10と、第二光学系20と、光学レンズ系30と、画像検出部40と、画像処理部50と、コンピュータ60と、分光手段としての分光ユニット90とを備える。
第五実施形態では、第四実施形態と同様に、落下している多数の計測対象物2についての奥行き方向の分布を計測すると共に、その計測対象物2の表面温度を計測する場合について説明する。分光ユニット90は、計測対象物2の温度を計測するために設けられたものである。
【0067】
分光ユニット90は、光学レンズ系30と画像検出部40との間に取り付けられる。分光ユニット90は、図13に示すように、スリット(開口部)91と、二つの反射鏡92a,92bと、二つの凹面鏡93a,93bと、回折格子94とを有する。スリット91は、光学レンズ系30を通過した光の一部を分光ユニット90内に取り込むためのものであり、略長方形状をしている。スリット91を通過した光は、反射鏡92a及び凹面鏡93aで反射された後、回折格子94に入射する。回折格子94は、スリット91を通過した光を、その光のスリット91の幅方向に対応する方向に沿って各波長の光に分光するものである。そして、回折格子94で分光した光は、凹面鏡93b及び反射鏡92bで反射した後、画像検出部40の光電面に入る。
【0068】
このため、画像検出部40は、スリット91の幅方向に対応する方向には分光されており、スリット91の長さ方向に対応する方向には分光されていない光を検出することになる。したがって、画像検出部40で検出される画像は、例えば、図14(a)に示すように、y座標軸がスリット91の長さ方向の位置を表し、x座標軸が波長を表すものとなる。すなわち、その画像上の各画素点は、その点のy座標に対応するスリット91の長さ方向の位置を通過した光であって、その点のx座標に対応する波長を有する光の強度の情報を持っている。尚、画像検出部40で検出された画像信号は画像処理部50に送られ、ディジタルの画像データに変換されて、画像メモリに記憶される。
【0069】
コンピュータ60のコンピュータ本体61は、計測対象物2の奥行き方向の分布と計測対象物2の表面温度を計測する。計測対象物2の奥行き方向の分布を計測する処理は、原理的には上記第一実施形態のものと同様である。しかし、画像検出部40は分光ユニット90で分光した光を検出するので、計測対象物2の像にピントが合っているか否かを判断する処理が上記第一実施形態のものと若干異なる。すなわち、コンピュータ本体61は、例えば、図14(a)に示す画像データに基づいて、同じy座標を持つ画素点について、それらの光の強度を加算することにより、図14(b)に示すように、スリット91の長さ方向に対する光の強度分布を求める。次に、この光の強度分布において一定の強度以上の明るい範囲を見いだす。この明るい範囲は計測対象物2の像を表す範囲として特定される。その後、コンピュータ本体61は、そのスリットの長さ方向の光の強度分布に基づいて、計測対象物2の像の輪郭部分における光の強度の傾きを求める。その光の強度の傾きの大きさが所定の基準値以上であれば、計測対象物2の像にピントが合っていると判断し、一方、その傾きの大きさが所定の基準値よりも小さければ、計測対象物2の像にピントが合っていないと判断する。
【0070】
一方、計測対象物2の表面温度を計測するには、上記の第四実施形態と同様に、公知の二色温度計測法を用いる。この計測対象物2の温度計測は、計測対象物2の奥行き方向の分布を計測する際にピントが合っていると判断された計測対象物2の像の各々に対して行う。コンピュータ本体61は、y座標が計測対象物2の像の所定位置でありx座標が460nmである画像上の位置における光の強度と、y座標が計測対象物2の像の所定位置でありx座標が660nmである画像上の位置における光の強度とを求める。そして、その求めた二つの光の強度を用いて、計測対象物2の温度を計測する。
【0071】
次に、第五実施形態の測距装置において、計測対象物2の奥行き方向の分布及び計測対象物2の表面温度を計測する処理手順について説明する。
まず準備作業として、オペレータは、第一光学系10を図12の右側に移動した後、光学レンズ系30の各構成レンズの相対位置を調整して、画像検出部40の光電面から前方、例えば6mのところに光学レンズ系30の焦点を正確に合わせる。また、オペレータは、計測対象物2の落下速度に応じて、計測対象物2の瞬間の状態を捉えた画像を得ることができるような電子シャッタのシャッタスピードを、マウスを用いてCRT表示装置62の画面上で入力する。
【0072】
かかる準備作業が終了した後、オペレータは、キーボード又はマウスを用いて、CRT表示装置62の画面上で、光学レンズ系30の焦点位置についての情報と、第一光学系10の位置についての情報とを入力すると共に、画像検出の動作を開始する旨のボタンを押す。すると、コンピュータ本体61は画像検出部40に信号を送り、画像検出部40の電子シャッタが一定時間内に何度も切られて、多数の画像が検出される。こうして検出された各画像は、y座標軸がスリット91の長さ方向を表し、x座標軸が波長を表すものである。かかる動作が終了した後、オペレータは、第一光学系10を5cmだけ図12の左側に移動させる。そして、その第一光学系10の位置についての情報を入力すると共に、画像検出の動作を開始する旨のボタンを押す。すると、コンピュータ本体61は再び、画像検出部40に信号を送り、画像検出部40の電子シャッタが一定時間内に何度も切られて、多数の画像が検出される。その後も、第一光学系10を5cmずつ前方に移動しながら、画像検出部40で画像を検出する処理を上記と同様にして繰り返す。この繰り返す動作は、光学レンズ系30の焦点が画像検出部40の光電面から前方10mのところに合うまで行う。
【0073】
画像検出部40で得られた各画像信号は、画像処理部50に送られ、画像処理部50は画像信号を画像データに変換して、画像メモリに記憶する。コンピュータ本体61は、最初に、計測対象物2の奥行き方向の分布を計測する。すなわち、画像メモリに記憶された画像データを読み出し、光学レンズ系30の焦点を合わせた各位置毎の画像データに基づいて、スリット91の長さ方向に対する光の強度分布を求める。そして、その光の強度分布を用いて、計測対象物2の像にピントが合っているか否かを判断する。コンピュータ本体61は、光学レンズ系30の焦点を合わせた各位置毎に、ピントが合っている計測対象物2の像の個数を数え、これから、計測対象物2の奥行き方向の分布を求める。
【0074】
次に、コンピュータ本体61は、計測対象物2の表面温度を計測する。上記の計測対象物2の奥行き方向の分布を計測する処理の際にピントが合っていると判断された各計測対象物2の像については、その中心が画像上においてどのy座標に対応するものかが既に特定されている。コンピュータ本体61は、y座標がその計測対象物2の像の中心を表す位置であってx座標が波長460nmである画素点における光の強度と、y座標がその計測対象物2の像の中心を表す位置であってx座標が波長660nmである画素点における光の強度とを求める。そして、これら二つの波長(460nm、660nm)における光の強度を用いて、当該計測対象物2の温度を計測する。このようにして、移動する計測対象物2の奥行き方向の分布を求めると同時に、計測対象物2の温度を計測することができる。
【0075】
第五実施形態の測距装置では、光学レンズ系を通過した光の一部を取り込むための長方形状のスリットと、スリットを通過した光をその光のスリットの幅方向に対応する方向に沿って各波長の光に分ける回折格子とを有する分光ユニットを設けたことにより、画像検出部は、例えばy座標軸がスリットの長さ方向の位置を表しx座標軸が波長を表す画像を検出することができる。このため、かかる画像に基づいて計測対象物の奥行き方向の分布を計測する際にピントが合っていると判断された計測対象物の像の各々について、y座標が計測対象物の像の所定位置でありx座標が460nmである画像上の位置における光の強度と、y座標が計測対象物の像の所定位置でありx座標が660nmである画像上の位置における光の強度とを求めることにより、二色温度計測法を用いて、計測対象物の温度を計測することができる。尚、その他の効果は上記第一実施形態のものと同様である。
【0076】
次に、本発明の第六実施形態について図面を参照して説明する。図15は本発明の第六実施形態である測距装置の概略構成図である。尚、第六実施形態において、第一及び第四実施形態のものと同一の機能を有するものには、同一の符号を付すことによりその詳細な説明を省略する。
第六実施形態の測距装置は、図15に示すように、光学レンズ系30と、画像検出部40aと、画像処理部50と、コンピュータ60と、レーザ発振装置70bと、フィルタユニット80と、光検出器110と、電気信号処理保存器120とを備えるものである。ここで、コンピュータ60のコンピュータ本体61と電気信号処理保存器120とが本発明の信号処理手段の役割を果たす。
【0077】
第六実施形態では、第四実施形態と同様に、落下している多数の計測対象物2についての奥行き方向の分布を計測すると共に、その計測対象物2の表面温度を計測する場合について説明する。このとき、計測対象物2の表面温度を計測する方法は第四実施形態のものと同様であるが、計測対象物2の奥行き方向の分布を求める方法は第四実施形態のものと全く異なる。
【0078】
第六実施形態では、レーザ発振装置70b、光検出器110、電気信号処理保存器120、コンピュータ本体61により、計測対象物2の奥行き方向の分布を計測する。レーザ発振装置70bは、断続するパルス波形出力を発生するもの(パルスレーザ)である。パルスレーザとしては、例えばN2 レーザを用いる。このレーザ光の波長は337nmであり、パルス幅は10-12 秒である。このパルス幅は第三実施形態で使用するものに比べてかなり短い。一般に、レーザ発振装置70bとしては、460nm及び660nm以外の波長のレーザ光を発するものを用いる必要がある。これは、後述するように、計測対象物2が発する光のうち波長460nm及び660nmの光と、計測対象物2で反射して戻ってきたレーザ光とをフィルタユニット80で分けることができるようにするためである。また、レーザ光のスポット径は、計測対象物2の直径よりも小さくする。レーザ発振装置70bは、一つのパルスレーザ光を発すると、その発生タイミングと同時に、一つのパルスレーザ光を発した旨の信号をコンピュータ本体61と電気信号処理保存器120とに送る。
【0079】
レーザ発振装置70bから発せられたパルスレーザ光は、ビーム折返し用プリズム160を介して、移動している多数の計測対象物2に向けて前方に放射される。そして、計測対象物2がパルスレーザ光の光軸上を横切って落下し、パルスレーザ光が計測対象物2に当たると、パルスレーザ光はその計測対象物2で反射される。計測対象物2で反射したパルスレーザ光のうち光学レンズ系30に向かって進むものは、ビームスプリッタ170で二つに分けられる。ビームスプリッタ170で分けられた一方のパルスレーザ光はさらに反射鏡180で反射して、光検出器110に入射する。また、ビームスプリッタ170で分けられた他方のパルスレーザ光はそのまま直進して、光学レンズ系30に入射する。
【0080】
光検出器110は、計測対象物2で反射して戻ってきたパルスレーザ光を検出するものである。かかる光検出器110は、パルスレーザ光を検出すると、パルスレーザ光を検出した旨の信号を電気信号処理保存器120に送る。電気信号処理保存器120は、レーザ発振装置70bからのパルスレーザ光を発した旨の信号を受け取った時間と、光検出器110からのパルスレーザ光を検出した旨の信号を受け取った時間とに基づいて、計測対象物2の距離を算出するものである。すなわち、パルスレーザ光を検出した旨の信号を受け取った時間が、パルスレーザ光を発した旨の信号を受け取った時間からΔtだけ遅れていたとすると、この時間差Δtは、レーザ発振装置70bから計測対象物2までの距離d1 と計測対象物2から光検出器110までの距離d2 とをパルスレーザ光が進んだときに要した時間である。したがって、大気中の光の速度をcとすれば、Δtを計測することにより、パルスレーザ光が進んだ全距離d1 +d2 は、d1 +d2 =Δt×cから容易に求めることができる。また、レーザ光の進行ルートは予め分かっているので、求めた全距離d1 +d2 に基づいて、例えばCCDカメラの光電面から計測対象物2までの奥行き方向の距離を簡単に得ることができる。電気信号処理保存器120は、こうして算出した計測対象物2の距離に関する情報をコンピュータ本体61に送る。コンピュータ本体61は、電気信号処理保存器120から送られる情報に基づいて、算出した各距離毎の計測対象物2の個数を数えることにより、計測対象物2の奥行き方向の分布を求める。
【0081】
光学レンズ系30は、計測対象物2が発する光及び計測対象物2で反射して戻ってきたレーザ光を含む計測対象物2からの光を結像させるものであり、多数の計測対象物2に向けて設置される。ここで、光学レンズ系30は、第一実施形態の場合とは異なり、焦点深度を深くして、視野に含まれるすべてのものにピントが合うように調整する。フィルタユニット80は、光学レンズ系30と画像検出部40aとの間に取り付けられる。
【0082】
画像検出部40aは、機械シャッタを有するCCDカメラである。第四実施形態で詳述したように、フィルタユニット80は、光学レンズ系30を通過した光を、波長が略460nmである第一の光と、波長が略660nmである第二の光と、第一の光及び第二の光以外の第三の光とに分けるものである。第六実施形態では、レーザ光の波長が337nmであるので、計測対象物2で反射して戻ってきたレーザ光は第三の光に含まれ、第一の光及び第二の光に含まれることはない。第一の光及び第二の光には、計測対象物2が発する光及び背景からの光が含まれる。また、画像検出部40aの光電面は、第一の光が入射する第一エリア、第二の光が入射する第二エリア、第三の光が入射する第三エリアに区分されている。このため、画像検出部40aでは、第一エリアに対応する第一画像と、第二エリアに対応する第二画像と、第三エリアに対応する第三画像とからなる画像が検出される。この画像検出部40aで検出された画像信号は画像処理部50に送られ、ディジタルの画像データに変換されて、画像メモリに記憶される。尚、第六実施形態では、画像検出部40aで検出した画像は、計測対象物2の温度を検出するためだけに使用する。
【0083】
コンピュータ本体61は、電気信号処理保存器120から送られる各計測対象物の距離情報に基づいて計測対象物2の奥行き方向の分布を求めると共に、画像メモリに記憶された画像データに基づいて計測対象物2の表面温度を計測するものである。コンピュータ本体61は、計測対象物2の温度を計測する場合には、第三の光によって得られた第三画像に基づいて計測対象物2のスポット部分の像の位置を検出した後、その検出した第三画像上の位置に対応する第一画像上の位置における第一の光の強度と、その検出した第三画像上の位置に対応する第二画像上の位置における第二の光の強度とを求める。そして、その求めた第一の光の強度と第二の光の強度とを用いて、公知の二色温度計測法により計測対象物2の温度を計測する。
【0084】
次に、第六実施形態の測距装置において、計測対象物2の奥行き方向の分布及び計測対象物2の表面温度を計測する処理手順について説明する。
オペレータがキーボード又はマウスを用いてCRT表示装置62の画面上で、処理を開始する旨のボタンを押すと、コンピュータ本体61は各部に信号を送り、処理が開始される。レーザ発振装置70bは、一つのパルスレーザ光を発すると、パルスレーザ光を発した旨の信号をコンピュータ本体61と電気信号処理保存器120とに送る。レーザ発振装置70bから発せられたパルスレーザ光が計測対象物2に当たると、その計測対象物2で反射したパルスレーザ光のうち光学レンズ系30に向かって進むものはビームスプリッタ170で二つに分けられる。そして、分けられた二つのパルスレーザ光はそれぞれ、光検出器110、光学レンズ系30に導かれる。
【0085】
光検出器110は、計測対象物2で反射して戻ってきたパルスレーザ光を検出すると、パルスレーザ光を検出した旨の信号を電気信号処理保存器120に送る。電気信号処理保存器120は、レーザ発振装置70bからのパルスレーザ光を発した旨の信号を受け取った時間と光検出器110からのパルスレーザ光を検出した旨の信号を受け取った時間との時間差に基づいて、当該レーザ光が当たった計測対象物2までの距離を算出する。電気信号処理保存器120は、こうして計測した計測対象物2の距離に関する情報をコンピュータ本体61に送る。コンピュータ本体61は、こうして電気信号処理保存器120から送られる多数の情報に基づいて、算出した各距離毎の計測対象物2の個数を数えることにより、計測対象物2の奥行き方向の分布を求める。
【0086】
一方、コンピュータ本体61は、レーザ発振装置70bからパルスレーザ光を発した旨の信号を受け取ると、機械シャッタを切る旨の信号を画像検出部40aに送る。これにより機械シャッタが切られ、画像検出部40aで画像が検出される。ここで、機械シャッタの最高のシャッタスピードは、ミリ秒オーダである。このため、当該パルスレーザ光が計測対象物2に当たり、その計測対象物2で反射したパルスレーザ光は、機械シャッタが開いている間に、ビームスプリッタ170、光学レンズ系30、フィルタユニット80を介して画像検出部40aに必ず入射することになる。また、かかる画像には、当然のことながら、計測対象物2が発する光、背景からの光についての情報も含まれている。この画像検出部40aで検出された画像信号は画像処理部50に送られ、ディジタルの画像データに変換されて、画像メモリに記憶される。
【0087】
その後、コンピュータ本体61は、画像メモリに記憶された画像データを読み出し、画像データのうち第三画像に基づいて計測対象物2のスポット部分の像を認識し、その像の中心を特定する。ここで、第六実施形態では、光学レンズ系30を視野のすべてのものにピントが合うように調整しているため、第三画像にはスポット部分の像が明確に写るので、そのスポット部分の像を容易に特定することができる。コンピュータ本体61は、そのスポット部分の像の中心を表す第三画像上の位置に対応する第一画像上の位置における第一の光(波長460nm)の強度を求めると共に、そのスポット部分の像の中心を表す第三画像上の位置に対応する第二画像上の位置における第二の光(波長660nm)の強度を求める。そして、これら二つの波長(波長460nm、660nm)における光の強度に基づいて、計測対象物2の温度を計測する。このようにして、移動する計測対象物2の奥行き方向の分布を求めると同時に、計測対象物2の温度を計測することができる。
【0088】
第六実施形態の測距装置では、パルスレーザ光を発してから戻ってくるまでの時間差に基づいて計測対象物の距離を算出することにより、計測対象物の距離を高分解能で求めることができる。したがって、その算出した結果から各距離毎の計測対象物2の個数を数えることにより計測対象物の奥行き方向の分布を高精度で求めることができる。また、パルスレーザ光が当たった各計測対象物毎に、その計測対象物の位置と温度を計測することができる。
【0089】
尚、本発明は上記の各実施形態に限定されるものではなく、その要旨の範囲内において種々の変形が可能である。
例えば、上記の第四実施形態では、第一実施形態の測距装置にフィルタユニットを設けることにより、計測対象物の奥行き方向の分布を求めると共に、計測対象物の温度を計測する場合について説明したが、第二実施形態の測距装置又は第三実施形態の測距装置にフィルタユニットを設けるようにしてもよい。図16は第二実施形態の測距装置にフィルタユニットを加えて構成した測距装置の概略構成図、図17は第三実施形態の測距装置にフィルタユニットを加えて構成した測距装置の概略構成図である。尚、図16及び図17において、第一乃至第四実施形態のものと同一の機能を有するものには同一の符号を付している。
【0090】
図16又は図17の測距装置において、光学レンズ系30としては、バンドパスフィルタを設けない第一実施形態のものを用いる。また、図16の測距装置におけるレーザ発振装置70、又は図17の測距装置におけるレーザ発振装置70aとしては、二色温度計測法で用いる二つの波長460nm及び660nm以外の波長を持つレーザ光を発するものを用いる。これにより、第三画像には計測対象物のスポット部分の像が明確に写るため、第三画像に基づいてスポット部分の像を認識する処理や、スポット部分の像にピントが合っているか否かの判断処理が簡単且つ迅速に行うことができるという利点がある。これらの測距装置は、上記第四実施形態のものと同様の効果を奏する。
【0091】
また、上記の第五実施形態では、第一実施形態の測距装置に分光ユニットを設けることにより、計測対象物の奥行き方向の分布を求めると共に、計測対象物の温度を計測する場合について説明したが、第二実施形態の測距装置又は第三実施形態の測距装置に分光ユニットを設けるようにしてもよい。図18は第二実施形態の測距装置に分光ユニットを加えて構成した測距装置の概略構成図、図19は第三実施形態の測距装置に分光ユニットを加えて構成した測距装置の概略構成図である。尚、図18及び図19において、第一乃至第四実施形態のものと同一の機能を有するものには同一の符号を付している。
【0092】
図18又は図19の測距装置において、光学レンズ系30としては、バンドパスフィルタを設けない第一実施形態のものを用いる。また、図18の測距装置におけるレーザ発振装置70、又は図19の測距装置におけるレーザ発振装置70aとしては、二色温度計測法で用いる二つの波長460nm及び660nm以外の波長を持つレーザ光を発するものを用いる。これにより、画像には計測対象物のスポット部分の像が明確に写るため、スポット部分の像を認識する処理や、スポット部分の像にピントが合っているか否かの判断処理が簡単且つ迅速に行うことができる。これらの測距装置は、上記第五実施形態のものと同様の効果を奏する。
【0093】
また、上記の第六実施形態において、フィルタユニット80に代えて分光ユニット90を用いることにより、第五実施形態と同様にして計測対象物の温度を検出するようにしてもよい。
また、上記の第四及び第五実施形態では、第一の光の波長が460nm、第二の光の波長が660nmである場合について説明したが、第一の光として460nmと異なる波長の光を用い、第二の光として660nm及び第一の光の波長と異なる波長の光を用いてもよい。
【0094】
更に、上記の第四乃至第六実施形態では、移動する計測対象物の奥行き方向の分布を計測すると共に、その計測対象物の温度を計測する場合について説明したが、第四乃至第六実施形態の測距装置は、移動する計測対象物の温度のみを計測する温度計測装置として使用することも可能である。
加えて、上記の各実施形態では、計測対象物が直径約1〜2cmの球形状をしている場合について説明したが、計測対象物は粒状物だけでなく粉状物であってもよい。一般に、本発明は、どのような大きさ・形状の物に対しても適用することができる。
【0095】
【発明の効果】
以上説明したように本発明によれば、第一光学系を移動することによって光学レンズ系の焦点の合う位置を少なくとも光学レンズ系の焦点深度と同じ距離ずつずらす度に、シャッタ手段を用いて一定時間内に少なくとも一度、光学レンズ系を通過した光を画像検出手段に取り込むことにより、移動する計測対象物の瞬間の状態を捉えた複数の画像を検出することができる。そして、焦点を合わせた各位置毎の画像データに基づいてピントが合っている計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する計測対象物の個数を求めることができるので、その求めた結果から、移動している計測対象物の奥行き方向の分布を計測することができる。
【0096】
また、光学レンズ系を通過した光を、波長が第一波長値(例えば略460nm)である第一の光と、波長が第一波長値と異なる第二波長値(例えば略660nm)である第二の光と、第一の光及び第二の光以外の第三の光とに分けるフィルタ手段を設けることにより、画像検出手段は、第一の光によって得られる第一画像と、第二の光によって得られる第二画像と、第三の光によって得れらる第三画像とからなる多数の画像を検出することができる。このため、第三画像に基づいてピントが合っていると判断された計測対象物の像の各々について、計測対象物の像の第三画像上の位置に対応する第一画像上の位置における第一の光の強度と、計測対象物の像の第三画像上の位置に対応する第二画像上の位置における第二の光の強度とを求めることにより、二色温度計測法を用いて、計測対象物の温度を計測することができる。
【0097】
更に、上記フィルタ手段の代わりに、光学レンズ系を通過した光の一部を取り込むための長方形状の開口部と、開口部を通過した光をその光の開口部の幅方向に対応する方向に沿って各波長の光に分ける回折格子とを有する分光手段を設けることにより、画像検出手段は、例えばy座標軸が開口部の長さ方向の位置を表しx座標軸が波長を表す画像を検出することができる。このため、かかる画像に基づいて計測対象物の奥行き方向の分布を計測する際にピントが合っていると判断された計測対象物の像の各々について、y座標が計測対象物の像の所定位置でありx座標が第一波長値である画像上の位置における光の強度と、y座標が計測対象物の像の所定位置でありx座標が第二波長値である画像上の位置における光の強度とを求めることにより、二色温度計測法を用いて、計測対象物の温度を計測することができる。
【図面の簡単な説明】
【図1】本発明の第一実施形態である測距装置の概略構成図である。
【図2】その測距装置の画像検出部の概略構成図である。
【図3】背景が白色である場合にピントが合っている計測対象物の画像データを模式的に示した図である。
【図4】背景が白色である場合にピントが合っていない計測対象物の画像データを模式的に示した図である。
【図5】(a)は図3の場合にx方向の光の強度分布を示す図、(b)は図4の場合にx方向の光の強度分布を示す図である。
【図6】(a)は背景が黒色の場合に計測対象物の像にピントが合っているときのx方向の光の強度分布を示す図、(b)は背景が黒色の場合に計測対象物の像にピントが合っていないときのx方向の光の強度分布を示す図である。
【図7】本発明の第二実施形態である測距装置の概略構成図である。
【図8】球形状の計測対象物の像にピントが合っている場合の光の強度分布を示す図である。
【図9】本発明の第三実施形態である測距装置の概略構成図である。
【図10】本発明の第四実施形態である測距装置の概略構成図である。
【図11】(a)はその測距装置のフィルタユニットの概略構成図、(b)はその測距装置の画像検出部で得られた画像を説明するための図である。
【図12】本発明の第五実施形態である測距装置の概略構成図である。
【図13】その測距装置の分光ユニットの概略構成図である。
【図14】(a)は画像データを説明するための図、(b)はスリットの長さ方向に対する光の強度分布の一例を示す図である。
【図15】本発明の第六実施形態である測距装置の概略構成図である。
【図16】第二実施形態の測距装置にフィルタユニットを加えて構成した測距装置の概略構成図である。
【図17】第三実施形態の測距装置にフィルタユニットを加えて構成した測距装置の概略構成図である。
【図18】第二実施形態の測距装置に分光ユニットを加えて構成した測距装置の概略構成図である。
【図19】第三実施形態の測距装置に分光ユニットを加えて構成した測距装置の概略構成図である。
【符号の説明】
2 計測対象物
10 第一光学系
11,12 反射鏡
20 第二光学系
21,22 反射鏡
30,30a 光学レンズ系
31 バンドパスフィルタ
40,40a 画像検出部
41 光電面
42 マイクロチャネルプレート
43 蛍光面
44 撮像部
50 画像処理部
60 コンピュータ
61 コンピュータ本体
62 CRT表示装置
70,70a,70b レーザ発振装置
80 フィルタユニット
81,82 干渉フィルタ
83 反射鏡
90 分光ユニット
91 スリット
92a,92b 反射鏡
93a,93b 凹面鏡
94 回折格子
110 光検出器
120 電気信号処理保存器
160 ビーム折返し用プリズム
170 ビームスプリッタ
180 反射鏡
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distance measuring device used when, for example, examining the distribution of granular or pulverized coal, pulverized coal, waste plastic and coke in order to know the heating condition in a furnace.
[0002]
[Prior art]
For example, in steelworks, etc., when raw materials are melted in a blast furnace, for example, granular or powdery coal or coke is used as fuel. At this time, the raw material is charged from above the blast furnace. And by burning coal and coke, hot air is sent from the lower part of a blast furnace, and a raw material is melted. Here, granular or powdery coal and coke are flying at high speed during combustion. By the way, when burning coal or coke, if the spatial distribution is biased, the raw material cannot be heated uniformly, and the quality of the product is lowered. For this reason, it is necessary to heat the raw material uniformly and improve productivity by adjusting so that granular or powdery coal and coke behave evenly.
[0003]
[Problems to be solved by the invention]
Conventionally, as an apparatus for examining the distribution of a large number of moving measurement objects such as granular or powdery coal or coke, an image of the measurement object is captured from one direction by an imaging means, Some measure the distribution of the measurement object based on the image. However, this apparatus can only measure a planar distribution when viewed from one direction, and cannot obtain information on how the measurement object is distributed along the depth direction. For this reason, even if the combustion of coal or coke is adjusted based on only the information about the planar distribution of granular or powdery coal or coke obtained using conventional equipment, the raw material can be heated uniformly. Was almost impossible.
[0004]
Moreover, if the temperature of these powdery substances or granular materials can be known as quantitative information about combustion of granular or powdery coal or coke, the inside of a furnace can be heated uniformly. For this reason, development of the apparatus which can measure the distribution of the depth direction of granular coal or coke, and can measure those temperature is desired.
[0005]
The present invention has been made based on the above circumstances, and an object thereof is to provide a distance measuring device capable of measuring the distribution in the depth direction of a moving measurement object.
Another object of the present invention is to provide a distance measuring device that measures the distribution in the depth direction of a moving measurement object and measures the temperature of the measurement object. Is.
[0006]
[Means for Solving the Problems]
A distance measuring apparatus according to the present invention for achieving the above object is configured to be installed toward a large number of moving measurement objects and to be movable back and forth along a direction toward the measurement objects. A first optical system that reflects light from the measurement object in a direction opposite to its traveling direction, and light that is reflected by the first optical system is reflected in the same direction as the light traveling direction from the measurement object. A second optical system that adjusts the in-focus position and the focal depth to a desired value, and forms an image of the light reflected by the second optical system, and the first optical system. Each time the in-focus position of the optical lens system is shifted by at least the same distance as the focal depth by moving the system, the light that has passed through the optical lens system at least once within a predetermined time using the shutter means is used. To capture The image detection means for detecting a plurality of images capturing the state of the moment when the measurement object stops moving, and the image at each position where the focal point of the optical lens system is focused. By counting the number of images of the measurement object that is present, the number of the measurement object that moves the focused position is obtained, and the measurement object for each focused position based on the obtained result And a measurement processing means for measuring the distribution of the object.
[0007]
A distance measuring apparatus according to the present invention for achieving the above object is configured to be installed toward a large number of moving measurement objects and to be movable back and forth along a direction toward the measurement objects. A first optical system that reflects light from the measurement object in a direction opposite to its traveling direction, and light that is reflected by the first optical system is reflected in the same direction as the light traveling direction from the measurement object. A second optical system that adjusts the focal position and depth of focus to desired values, and forms an image of light reflected by the second optical system, and the optical lens system The first light whose wavelength is a predetermined first wavelength value, the second light whose wavelength is a predetermined second wavelength value different from the first wavelength value, the first light and the light Filter means for dividing the light into third light other than the second light, and the first optical system Each time the focal position of the optical lens system is shifted by at least the same distance as the depth of focus by moving the light, the light that has passed through the optical lens system at least once within a predetermined time using the shutter means By capturing through the means, a plurality of images capturing the state at the moment when the movement of the measurement object is stopped, which is obtained by the first light and the second light obtained by the first light. An image detecting means for detecting a second image and a third image obtained by the third light, and the third image at each focused position of the optical lens system are in focus. By counting the number of images of the measurement object, the number of the measurement object that moves the focused position is obtained, and the focus is determined based on the obtained result. Measurement processing means for measuring the distribution of the measurement object with respect to each of the combined positions, and each of the images of the measurement object in focus are positioned on the third image of the measurement object image. The intensity of the first light at the corresponding position on the first image and the second light at the position on the second image corresponding to the position on the third image of the image of the measurement object. And a temperature measuring means for measuring the temperature of the object to be measured by a two-color temperature measurement method using the determined intensity of the first light and the intensity of the second light. It is characterized by.
[0008]
A distance measuring apparatus according to the present invention for achieving the above object is configured to be installed toward a large number of moving measurement objects and to be movable back and forth along a direction toward the measurement objects. A first optical system that reflects light from the measurement object in a direction opposite to its traveling direction, and light that is reflected by the first optical system is reflected in the same direction as the light traveling direction from the measurement object. A second optical system that adjusts the focal position and depth of focus to desired values, and forms an image of light reflected by the second optical system, and the optical lens system A rectangular opening for capturing part of the light that has passed through, and diffraction that splits the light that has passed through the opening into light of each wavelength along a direction corresponding to the width direction of the opening of the light A spectroscopic means having a grating and moving the first optical system Thus, each time the in-focus position of the optical lens system is shifted by at least the same distance as the depth of focus, the light that has passed through the optical lens system at least once within a predetermined time using the shutter means is passed through the spectroscopic means. A plurality of images capturing the state at the moment when the movement of the measurement object is stopped, and one of the two orthogonal coordinate axes on the image is in the length direction of the opening. And a value of the one coordinate based on the image for each position where the focal point of the optical lens system is focused, and detecting the one along which the other coordinate axis represents the wavelength. After deriving the light intensity distribution for the one coordinate by adding the light intensities at a certain pixel point, the focus is achieved based on the derived light intensity distribution. By counting the number of images of the measurement object, the number of the measurement object that moves the focused position is obtained, and based on the obtained result, the measurement object for each focused position is obtained. For each of the measurement processing means for measuring the distribution and the image of the measurement object in focus, the value of the one coordinate is a predetermined position of the image of the measurement object, and the other coordinate is a predetermined value. Light intensity at a position on the image that is a first wavelength value, and a predetermined second value in which the one coordinate value is a predetermined position of the image of the measurement object and the other coordinate is different from the first wavelength value. Temperature measurement means for determining the intensity of light at a position on the image, which is a wavelength value, and measuring the temperature of the measurement object by a two-color temperature measurement method using the determined two light intensities. It is characterized by Is.
[0009]
In order to achieve the above object, a distance measuring device according to the present invention moves a pulsed laser beam having a wavelength other than a predetermined first wavelength value and a predetermined second wavelength value different from the first wavelength value. Laser oscillation means that radiates forward toward a large number of measurement objects, a beam splitter that divides the laser light reflected back from the measurement object into two parts, and the beam splitter One of the light detecting means for detecting the laser light, and the time when the laser oscillating means emits the laser light and the time when the light detecting means detects the laser light hit the laser light. A measurement processing means for calculating a distance to the measurement object, and measuring a distribution in the depth direction of the measurement object based on the calculated result; An optical lens system that forms an image of light from the measurement object including the other laser beam divided by the splitter, and a light whose wavelength has passed through the optical lens system is a first wavelength value. Filter means for separating light and second light whose wavelength is the second wavelength value, first light and third light other than the second light, and the laser oscillation means emits the laser light It is an image that captures the state at the moment when the movement of the measurement object is stopped by cutting the shutter means in accordance with the timing, and is based on the first image obtained by the first light and the second light. Image detection means for detecting a second image obtained and a third image obtained by the third light, and the measurement object by the laser beam reflected by the measurement object based on the third image Recognize the image of the previous Corresponding to the intensity of the first light at the position on the first image corresponding to the position on the third image of the image of the measurement object and the position on the third image of the image of the measurement object The intensity of the second light at a position on the second image is obtained, and the measurement object is measured by a two-color temperature measurement method using the obtained intensity of the first light and the intensity of the second light. And a temperature measuring means for measuring the temperature.
[0010]
In order to achieve the above object, a distance measuring device according to the present invention moves a pulsed laser beam having a wavelength other than a predetermined first wavelength value and a predetermined second wavelength value different from the first wavelength value. Laser oscillation means that radiates forward toward a large number of measurement objects, a beam splitter that divides the laser light reflected back from the measurement object into two parts, and the beam splitter One of the light detecting means for detecting the laser light, and the time when the laser oscillating means emits the laser light and the time when the light detecting means detects the laser light hit the laser light. A measurement processing means for calculating a distance to the measurement object, and measuring a distribution in the depth direction of the measurement object based on the calculated result; An optical lens system for imaging light from the measurement object including the other laser beam divided by the splitter, and a rectangular opening for capturing a part of the light that has passed through the optical lens system, A spectroscopic unit having a diffraction grating that splits light having passed through the opening into light of each wavelength along a direction corresponding to a width direction of the opening of the light, and the laser oscillation unit emits the laser light It is an image that captures the state at the moment when the movement of the measurement object is stopped by cutting the shutter means in accordance with the timing, and one of the two orthogonal coordinate axes on the image is the opening portion. An image detecting means for detecting a position along the length direction of the light and the other coordinate axis representing a wavelength; and an image of the measurement object by the laser beam reflected by the measurement object based on the image. The intensity of light at the position on the image where the value of the one coordinate is a predetermined position of the image of the measurement object and the other coordinate is the first wavelength value, and the one coordinate value is the A two-color temperature measurement is performed using the two calculated light intensities at the predetermined position of the image of the measurement object and the other coordinate being the second wavelength value. Temperature measuring means for measuring the temperature of the measurement object by a method.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
A first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic configuration diagram of a distance measuring apparatus according to a first embodiment of the present invention.
As shown in FIG. 1, the distance measuring device of the first embodiment includes a first optical system 10, a second optical system 20, an optical lens system 30, an image detection unit 40, an image processing unit 50, and a computer. 60.
[0012]
In the first embodiment, a large number of measurement objects 2 are randomly falling, and the measurement objects 2 are in a direction parallel to the central axis direction of the optical lens system 30 (hereinafter also referred to as a depth direction). A case where the distribution is measured will be described. Here, a case where the measurement object 2 passes through about 6 to 10 m in front of the image detection unit 40 is considered. Moreover, the measuring object 2 has a spherical shape, and its diameter is about 1 to 2 cm. Furthermore, in the first embodiment, it is assumed that the measurement object 2 is irradiated with uniform natural light.
[0013]
The first optical system 10 is installed toward a large number of moving measurement objects 2, and reflects the light L (image) from the measurement object 2 in the direction opposite to its traveling direction. The first optical system 10 includes a reflecting mirror 11 and a reflecting mirror 12 provided below the reflecting mirror 11. The second optical system 20 reflects the light reflected by the first optical system 10 in the same direction as the traveling direction of the light from the measurement object 2, and is provided on the reflecting mirror 21 and the lower side thereof. And a reflecting mirror 22.
[0014]
Natural light is uniformly applied to the measurement object 2, and light L traveling toward the first optical system 10 out of the light reflected by the measurement object 2 is reflected by the reflection mirror 11 and then enters the reflection mirror 12. . The reflecting mirror 12 reflects the incident light and advances it to the measurement object 2 side in a direction parallel to the depth direction. The light reflected by the reflecting mirror 12 is reflected by the reflecting mirror 21 and then enters the reflecting mirror 22. The reflecting mirror 22 reflects the incident light in a direction parallel to the depth direction and guides it to the optical lens system 30. In particular, in the first embodiment, the optical axis is adjusted without moving the optical lens system 30 and the image detection unit 40 by adjusting the interval and orientation of the reflecting mirrors 21 and 22 of the second optical system 20. be able to. For this reason, there exists an advantage that the adjustment at the time of a setting can be performed easily.
[0015]
The optical lens system 30 forms an image of the image light of the measurement object 2 reflected by the second optical system 20 and is attached to the front side of the image detection unit 40. As the optical lens system 30, a camera lens having a shallow focal depth is used as much as possible. In particular, in the first embodiment, Nikkor ED180mmF2.8S manufactured by Nikon Corporation is used. The lens configuration of this camera lens is 5 elements in 5 groups. Here, the depth of focus refers to the maximum value of the distance between the position of the optical lens system 30 and the position clearly visible along the depth direction when the optical lens system 30 is focused on a certain position. In general, when the in-focus position is fixed, the depth of focus increases as the aperture value of the camera lens increases, and decreases as the focal length of the camera lens increases. If the aperture value and focal length of the camera lens are the same, the closer the in-focus position is to the camera lens, the shallower it becomes. As the depth of focus becomes shallower, the blurring of the image before and after the in-focus position becomes significant. The reason why the image taken with the so-called idiot camera seems to be in focus for everything in the field of view is because the depth of focus is extremely deep. The above camera lens is used with its aperture value set to open (F2.8). At this time, assuming that the focal point is 6 m from the photocathode of the image detection unit 40, the depth of focus is about 70 mm. In the following, for the sake of easy understanding, the case where the focal depth of the optical lens system 30 is 50 mm when focusing on a position 6 m from the photocathode of the image detection unit 40 will be described. .
[0016]
Further, the first optical system 10 is configured to be movable back and forth along the depth direction together with the reflecting mirror 11 and the reflecting mirror 12. When the first optical system 10 is moved, the distance until the light from the measurement object 2 enters the optical lens system 30 changes, and thereby the in-focus position P of the optical lens system 30 is shifted along the depth direction. be able to. In addition, the first optical system 10 and the second optical system 20 are provided, and the light from the measurement object 2 is folded twice and guided to the optical lens system 30, so that the first optical system 10 has a depth of a certain distance. When moved along the direction, the in-focus position P of the optical lens system 30 moves twice the distance moved by the first optical system 10. Therefore, when it is desired to move the in-focus position P of the optical lens system 30 to the left side (right side) of FIG. 1 by a certain distance d, the first optical system 10 is moved to the left side of FIG. 1 by half d / 2 of the distance d. Just move it to the right.
[0017]
By the way, even if the first optical system 10 and the second optical system 20 are not provided, the in-focus position of the optical lens system 30 can be shifted by changing the relative position of each lens constituting the optical lens system 30. However, if the relative position of each component lens of the optical lens system 30 is changed, the depth of focus changes depending on the position where the optical lens system 30 is in focus. In this case, as the focal position of the optical lens system 30 is changed, the image detection unit 40 detects images having different depths of focus. In the first embodiment, as described later, since the position of the measurement object 2 is measured using the depth of focus, it is necessary to detect an image in which the depth of focus is always constant. For this reason, the first optical system 10 is configured to be movable, and the first optical system 10 is moved so that only the in-focus position of the optical lens system 30 is changed while the depth of focus remains unchanged.
[0018]
However, in practice, when the distance from the image detection unit 40 to the in-focus position of the optical lens system 30 is 5 or 6 m or more, even if the relative position of each lens constituting the optical lens system 30 is changed, the focus is changed. The depth is not greatly affected. Therefore, in this case, if it is not necessary to obtain the position of the measurement object 2 with very high accuracy, the relative position of each lens constituting the optical lens system 30 is changed by autofocusing instead of moving the first optical system 10. Accordingly, the in-focus position of the optical lens system 30 may be shifted.
[0019]
Although it is possible to move the optical lens system 30 and the image detection unit 40 together without providing the first optical system 10 and the second optical system 20, the image detection unit 40 includes accessories such as cables. It is not easy to move with these accessories. By moving only the first optical system 10 as in the first embodiment, the in-focus position of the optical lens system 30 can be easily shifted.
[0020]
As the image detection unit 40, a gating CCD in which a high sensitivity CCD camera for physics and chemistry and an electronic shutter (gate) are combined is used. FIG. 2 is a schematic configuration diagram of the image detection unit 40. As shown in FIG. 2, the image detection unit 40 includes a photocathode 41, a microchannel plate 42 formed by bundling a large number of thin glass pipes, a phosphor screen 43, and an image pickup unit 44 including a large number of CCDs. Have. On the photocathode 41, light from the measurement object 2 is formed as an optical image by the optical lens system 30. Light incident on the photocathode 41 is photoelectrically converted by the photocathode 41, and the converted electrons are amplified when passing through the microchannel plate 42. Then, when the amplified electrons are incident on the phosphor 43, it is converted into light again, and then the light enters the imaging unit 44. At this time, the gating operation, that is, the opening / closing operation of the electronic shutter is controlled by the voltage difference applied between the photocathode 41 and the microchannel plate 42. The exposure time (the reciprocal of the exposure time is referred to as shutter speed) for taking the light from the measurement object 2 into the imaging unit 44 of this electronic shutter is 5 nanoseconds at the shortest, that is, 5 × 10. -9 Seconds. This maximum shutter speed (2 × 10 8 / Second) corresponds to the time that the object moving at the speed of light can advance only about 150 cm. If this electronic shutter is used, it is possible to stop and image an object that is moving mechanically. In the first embodiment, an electronic shutter having a high shutter speed is used so that an image can be obtained that captures the state at the moment when the measurement object 2 is moving at any high speed. I have to. If the measurement object 2 is not moving at a very high speed, for example, a mechanical shutter may be used instead of the electronic shutter.
[0021]
In this way, the electronic shutter of the image detection unit 40 is set to a shutter speed that can be captured in a state where the movement of the measurement object 2 is stopped. In addition, if the electronic shutter is frequently turned off in a short time, the same measurement object 2 may appear in a plurality of images. For this reason, it is necessary to determine the timing at which the electronic shutter is cut according to the speed, position, etc. of the measurement object 2 so that the same measurement object 2 can be detected by only one image.
[0022]
By the way, in the image detection unit 40 used in the first embodiment, the thickness of each glass pipe of the microchannel plate 42 is about 85 μm, while the diameter of each CCD of the imaging unit 44 is about 20 μm. For this reason, light that has passed through one glass pipe enters four adjacent CCDs, and the image resolution is lowered as if the number of CCDs has decreased to a quarter. Thus, the fact that the image resolution of a CCD camera having an electronic shutter falls according to the resolution of the device of the electronic shutter is a difference from the mechanical shutter, and can be said to be a drawback of the electronic shutter. However, in the future, the resolution of the electronic shutter device may be improved, and this is not a fatal drawback.
[0023]
The image processing unit 50 performs A / D conversion on a luminance signal (image signal) per CCD of the CCD camera with 8 bits, and takes in image data obtained by the conversion into an image memory. As shown in FIG. 1, the computer 60 includes a computer main body 61, a CRT display device 62, a keyboard and a mouse (not shown), and an output device (not shown). The computer main body 61 controls the operation of the image detection unit 40, reads the image data stored in the image memory of the image processing unit 50, and measures the distribution in the depth direction of the measurement object 2 based on the image data. I do. The CRT display device 62 displays image data on a screen. The operator inputs the shutter speed of the electronic shutter using a keyboard and a mouse.
[0024]
In the first embodiment, the image detection unit 40 moves the first optical system 10 to move the electronic shutter every time the focal position of the optical lens system 30 is shifted by at least the same depth as the focal depth of the optical lens system 30. A plurality of images capturing the instantaneous state of a measurement object that moves at random are detected by capturing light that has passed through the optical lens system 30 many times within a predetermined time using a CCD camera. The computer main body 61 performs edge detection or the like using image processing software or the like based on the image data at each position where the optical lens system 30 is focused, and focuses on the image of each measurement object 2. By determining whether or not there is, the measurement object 2 is detected and its position is calculated. That is, the measurement object 2 determined to be in focus has passed through the focused position, and thereby the position of the measurement object 2 can be known. In addition, the number of images of the measurement object 2 determined to be in focus is the number of the measurement objects 2 that have passed through the focused position during the certain time. For example, when the in-focus position of the optical lens system 30 is set at a position 6 m ahead of the photocathode of the image detection unit 40 and a large number of images are detected in 10 seconds, the measurement object 2 in focus is in focus. When the number of images is 100, the measurement object 2 is dropped 10 pieces per second at the 6 m position. In this way, by detecting the image while shifting the in-focus position of the optical lens system 30 by a certain distance, it is possible to statistically know the number of measurement objects 2 that pass through each position along the depth direction. it can.
[0025]
In addition, since it is determined whether or not the image of the measurement object 2 is in focus and the position of the measurement object 2 is measured in this way, only the depth of focus is back and forth from the in-focus position of the optical lens system 30. It is determined that all the measurement objects 2 located at a distance are present at the position where the focus is achieved. That is, the minimum scale (resolution) indicating how far the position of the measurement object 2 can be measured is determined by the depth of focus. As described above, the optical lens system 30 used in the first embodiment has a depth of focus of 5 cm at a distance of 6 m ahead from the photocathode of the image detection unit 40. Therefore, the position of the measurement object 2 is, for example, in units of 10 cm. It can be measured. In addition, when it is desired to measure the position of the measurement object 2 at shorter distance intervals, the depth of focus of the optical lens system 30 needs to be further reduced.
[0026]
Next, how to determine whether or not the image of the measurement object 2 is in focus will be described. Here, the case where the background is white and the case where it is black are considered separately.
First, a case where the background is white will be described. FIG. 3 is a diagram schematically showing image data of the measurement object 2 in focus when the background is white, and FIG. 4 is a diagram of the measurement object 2 that is not in focus when the background is white. It is the figure which showed image data typically. First, the computer main body 61 finds a bright range of a certain luminance or higher in the image data by performing, for example, a software filtering process on the image data. This bright range is specified as a range representing the image of the measurement object 2.
[0027]
Next, the computer main body 61 obtains a light intensity distribution for each pixel on a straight line that passes through the center position of the specified range and is parallel to the x direction or the y direction on the image. FIG. 5A is a diagram showing the light intensity distribution in the x direction in the case of FIG. 3, and FIG. 5B is a diagram showing the light intensity distribution in the x direction in the case of FIG. Since the measurement object 2 has a spherical shape, most of the light from the center of the measurement object 2 is incident on the optical lens system 30, but the light from the contour portion of the measurement object 2 is the optical lens system. 30 hardly enters. Since the background is white, light from the background also enters the optical lens system 30 to some extent. For this reason, when the image of the measurement object 2 is in focus, the light intensity distribution in the x direction has a peak at the center of the image of the measurement object 2 as shown in FIG. In the contour portion of the image of the measurement object 2, the light intensity drops drastically. The drop in light intensity at the contour portion becomes more severe as the image of the measurement object 2 is focused. On the other hand, when the image of the measurement object 2 is not in focus, the light from the measurement object 2 enters the optical lens system 30 in a dispersed manner. For this reason, when the image of the measurement object 2 is not in focus, the intensity distribution of the light in the x direction is higher than that of FIG. 5A, as shown in FIG. 5B. The shape of the peak at the center of the image becomes gentle, and the drop in light intensity at the contour portion becomes gentle. Therefore, whether or not the image of the measurement object 2 is in focus can be determined by examining the rise (inclination) of the light intensity at the contour portion of the image of the measurement object 2. That is, if the magnitude of the light intensity gradient at the contour of the image of the measurement object 2 is equal to or greater than a predetermined reference value, it is determined that the image of the measurement object 2 is in focus, Is smaller than a predetermined reference value, it is determined that the image of the measurement object 2 is not in focus.
[0028]
Next, a case where the background is black will be described. Also in this case, the computer main body 61 first finds a bright range having a certain luminance or higher in the image data, and specifies this bright range as a range representing the image of the measurement object 2. Then, with respect to the image data, a light intensity distribution for each pixel on a straight line passing through the center position of the specified range and parallel to the x direction or the y direction on the image is obtained. FIG. 6A shows the light intensity distribution in the x direction when the image of the measurement object 2 is in focus when the background is black, and FIG. 6B shows the measurement when the background is black. It is a figure which shows intensity distribution of the light of the x direction when the image of the target object 2 is not focused. When the background is black, light from the background hardly enters the optical lens system 30. For this reason, the light intensity distribution in the x direction shown in FIG. 6A or 6B is the light corresponding to the background in the light intensity distribution in the x direction shown in FIG. 5A or 5B, respectively. The strength is zero. That is, when the image of the measurement object 2 is in focus, the light intensity distribution in the x direction has a peak at the center of the image of the measurement object 2 as shown in FIG. At the contour portion of the image of the object 2, the light intensity has a steep inclination. On the other hand, when the image of the measurement object 2 is not in focus, the light intensity distribution in the x direction rises in the light intensity at the contour portion of the image of the measurement object 2 as shown in FIG. Becomes moderate. Therefore, even when the background is black, it is determined whether or not the image of the measurement object 2 is in focus by obtaining the light intensity distribution in the x direction or the y direction and examining the inclination of the light intensity. can do.
[0029]
However, in order to accurately determine whether or not the image of the measurement object 2 is in focus based on the inclination of the light intensity in this way, the range representing the image of the measurement object 2 is represented on the image data. It must occupy at least 10 pixels (in the first embodiment, since a CCD camera having an electronic shutter is used, the pixel resolution falls to a quarter, in this case, 40 times the 40 pixels). I must. This is because the computer main body 61 cannot calculate the light intensity gradient below. When such a condition is not satisfied, it is necessary to use an optical lens system 30 that can enlarge the measurement object 2 to a certain size, for example, a telephoto lens.
[0030]
In the first embodiment, the case where the measurement object 2 has a spherical shape is considered. However, generally, even when the measurement object 2 has an arbitrary shape, the x direction is used as described above. Alternatively, it is possible to determine whether or not the image of the measurement object 2 is in focus by obtaining the light intensity distribution in the y direction and examining the inclination of the light intensity at the contour portion of the image of the measurement object 2. it can.
[0031]
Next, a processing procedure in the case of measuring the distribution in the depth direction of the measurement object 2 in the distance measuring device of the first embodiment will be described.
First, as a preparatory work, the operator moves the first optical system 10 to the right side in FIG. 1 and then adjusts the relative positions of the constituent lenses of the optical lens system 30 to move forward from the photoelectric surface of the image detection unit 40, for example, The optical lens system 30 is accurately focused at a distance of 6 m. Thereafter, the relative positions of the constituent lenses of the lens optical system 30 are not changed. Further, the operator uses the mouse to set the shutter speed of the electronic shutter so that an image capturing the instantaneous state of the measurement object 2 can be obtained according to the falling speed of the measurement object 2 using the mouse. Enter on the screen.
[0032]
After the preparation work is completed, the operator uses the keyboard or the mouse to display information on the focal position of the optical lens system 30 and information on the position of the first optical system 10 on the screen of the CRT display device 62. And a button to start the image detection operation is pressed. Then, the computer main body 61 sends a signal to the image detection unit 40, and the electronic shutter of the image detection unit 40 is cut many times within a predetermined time, and a large number of images are detected. Next, after the operation is completed, the operator moves the first optical system 10 to the left side of FIG. 1 by 5 cm. As a result, the focus of the optical lens system 30 is in front of the photocathode of the image detection unit 40, 6 m10 cm. Then, the operator inputs information about the position of the first optical system 10 and presses a button to start the image detection operation. Then, the computer main body 61 sends a signal to the image detection unit 40 again, and the electronic shutter of the image detection unit 40 is cut many times within a predetermined time, and a large number of images are detected. Thereafter, the process of detecting the image by the image detection unit 40 is repeated in the same manner as described above while moving the first optical system 10 forward by 5 cm. This repeating operation is performed until the focus of the optical lens system 30 is 10 m forward from the photocathode of the image detection unit 40.
[0033]
Each image signal obtained by the image detection unit 40 is sent to the image processing unit 50. The image processing unit 50 converts the image signal into image data and stores it in the image memory. The computer main body 61 reads the image data stored in the image memory, and determines whether or not the image of the measurement object 2 is in focus based on the image data for each position where the optical lens system 30 is focused. to decide. The number of images of the measurement object 2 determined to be in focus is the number of the measurement objects 2 that have passed through the in-focus position during the certain time. The computer main body 61 counts the number of images of the measurement object 2 in focus at each position where the optical lens system 30 is focused, and calculates the distribution of the measurement object 2 with respect to the position in the depth direction. . For example, as shown in FIG. 1, a histogram 63 is created in which the horizontal axis indicates the focused position and the vertical axis indicates the number of objects to be measured per unit time, and this histogram is displayed on the screen of the CRT display device 62. To display.
[0034]
In the distance measuring apparatus of the first embodiment, the electronic shutter is used for a certain period of time each time the focal position of the optical lens system is shifted by at least the same depth as the focal depth of the optical lens system by moving the first optical system. By capturing the light that has passed through the optical lens system many times in the CCD camera, a large number of images that capture the instantaneous state of the moving measurement object are detected. In particular, by using a CCD camera having an electronic shutter as the image detection unit, an image capturing the state at that moment can be obtained no matter how fast the measurement object is moving. Then, by counting the number of images of the measurement object that is in focus based on the image data for each focused position, the number of measurement objects that move the focused position can be obtained. . Further, the distribution in the depth direction of the moving measurement object can be measured from the obtained result.
[0035]
Such a distance measuring device can be applied in various fields. For example, when a granular or powdery coal, coke or pulverized coal is burned in a blast furnace at an ironworks or the like, the distribution in the depth direction of the coal or coke can be measured. In this case, light from coal or coke is guided to the optical lens system through the observation window of the blast furnace. By examining the distribution of coal and coke, it is possible to know the heating situation in the blast furnace. For example, if there is a bias in the distribution of coal or coke, it can be seen that uniform heating is not performed in the blast furnace. The distance measuring device of the first embodiment can also be used when examining the heating state in the furnace at a thermal power plant, an electronic power plant, or the like. In general, the distance measuring device of the first embodiment is suitable for examining the distribution in the depth direction of a moving particle or powder.
[0036]
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 7 is a schematic configuration diagram of a distance measuring apparatus according to the second embodiment of the present invention. In the second embodiment, components having the same functions as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
As shown in FIG. 7, the distance measuring apparatus according to the second embodiment includes a first optical system 10, a second optical system 20, an optical lens system 30a, an image detection unit 40, an image processing unit 50, and a computer. 60 and a laser oscillation device 70.
[0037]
In the second embodiment, as in the first embodiment, the case of measuring the distribution in the depth direction for a large number of falling measurement objects 2 will be described. Although the environment in which the measurement object 2 moves may be bright or dark, it is assumed here that the background is particularly dark.
The main difference between the distance measuring device of the second embodiment and that of the first embodiment is that a laser oscillation device 70 is provided, and the laser beam reflected by the measurement object 2 is used as the light from the measurement object 2 and the image detection unit. By detecting at 40, the position of the measurement object 2 is calculated. With this configuration, the distribution in the depth direction of the measurement target can be measured even when the measurement target 2 is not emitting light and is in a completely dark situation.
[0038]
The laser oscillation device 70 generates a continuous output with a constant amplitude (CW laser). As the CW laser, for example, Ar + A laser, a He—Ne laser, a YAG laser, or the like can be used. The laser light is reflected by the beam folding prism 160 and then emitted forward through the second optical system 20 and the first optical system 10. When the measurement object 2 falls across the optical axis of the laser light, the laser light is reflected by the measurement object 2. Of the laser light reflected by the measurement object 2, the laser light traveling toward the first optical system 10 enters the optical lens system 30 a via the first optical system 10 and the second optical system 20.
[0039]
Further, the spot diameter of the laser beam is made smaller than the diameter of the measurement object 2. For this reason, the image detection unit 40 detects an image of the measurement object 2 that passes on the optical axis of the laser beam and that includes an image of a portion (referred to as a spot portion) that has been irradiated with the laser beam. . The computer main body 61 measures the position of the measurement object 2 by determining whether or not the image of the spot portion of the measurement object 2 is in focus based on the image data. Therefore, in the second embodiment, only the measurement object 2 that passes on the optical axis of the laser light is the measurement target. The position of the measuring object 2 that passes through a part other than the optical axis of the laser light is not measured.
[0040]
The electronic shutter of the image detection unit 40 is set to a shutter speed that can detect an image that captures the instantaneous state of the moving measurement object 2. Further, if the electronic shutter is frequently turned off in a short time, the image of the spot portion of the same measurement object 2 may appear in a plurality of images. For this reason, it is necessary to determine the timing at which the electronic shutter is cut according to the speed, position, etc. of the measurement object 2 so that only one spot portion image appears in one image for one measurement object 2. .
[0041]
As the optical lens system 30a, an optical lens system 30 provided with a band-pass filter 31 that transmits light having the same wavelength as the laser light emitted from the laser oscillation device 70 is used in front of the optical lens system 30 of the first embodiment. This is so that the distribution in the depth direction of the measurement object 2 can be measured even when the background is bright. For example, assume that the background is very bright and the measurement object 2 cannot be distinguished from the background. At this time, by providing the band-pass filter 31, all the laser light reflected and returned by the measurement object 2 passes through the band-pass filter 31 and enters the optical lens system 30a. On the other hand, as for the light from the background, only light having the same wavelength as that of the laser light can pass through the bandpass filter 31, and therefore only a part of the light can enter the optical lens system 30a. For this reason, the image detector 40 can distinguish between the laser light and the light from the background, and detect an image in which the image of the spot portion is clearly visible. Note that, for example, when the laser light and the light from the background are greatly different from each other in intensity or are easily differentiated, the band-pass filter 31 is not necessarily used.
[0042]
The computer main body 61 measures the distribution in the depth direction of the measurement object 2 as in the first embodiment. Specifically, first, it is determined whether or not a bright range having a certain luminance or higher exists in the image data. If there is a bright range with a certain luminance or higher, the range is specified as a range representing an image of the spot portion of the measurement object 2. Next, it is determined whether or not the image data including the spot portion image is in focus. That is, based on the image data, the light intensity distribution for each pixel on a straight line passing through the center position of the range representing the image of the spot portion and parallel to the x direction or y direction on the image is obtained. At this time, by providing the band-pass filter 31, most of the laser light reflected by the measurement object 2 is incident on the optical lens system 30a, but the portion of the light from the measurement object 2 that is not irradiated with the laser light. The light from the background and the light from the background hardly enter the optical lens system 30a. For this reason, when the image of the spot portion of the measurement object 2 is in focus, the light intensity distribution in the x direction or y direction has a sharp peak at the center of the image of the spot portion as shown in FIG. The spot of the image of the spot portion has a steep slope of light intensity. The computer main body 61 obtains the light intensity gradient at the contour portion of the image of the spot portion from the light intensity distribution in the x direction or the y direction, and if the magnitude of the gradient is equal to or greater than a predetermined reference value, the spot portion Therefore, it is determined that the image of the measurement object 2 is in focus. On the other hand, if the magnitude of the inclination is smaller than a predetermined reference value, it is determined that the image of the measuring object 2 is not in focus. The computer main body 61 performs such determination processing for each image data, and counts the number of images of the measuring object 2 in focus for each position where the optical lens system 30a is focused. The distribution in the depth direction of the object 2 is measured.
[0043]
In the distance measuring device of the second embodiment, the processing procedure when measuring the distribution in the depth direction of the measurement object 2 is the same as that of the first embodiment.
In the distance measuring device of the second embodiment, a laser oscillation device that emits continuous-wave laser light is provided, and the laser light reflected by the measurement object is used as light from the measurement object. Even when light is not emitted by itself or the background is dark, an image in which an image of the spot portion of the measurement object is clearly shown can be detected. In addition, since the size and amount of light of this spot portion image can be predicted, the processing for recognizing the spot portion image and the processing for determining whether or not the spot portion image is in focus are the first steps. Compared to one embodiment, this can be done easily and quickly. Other effects are the same as those of the first embodiment.
[0044]
In the second embodiment, the case where the spot diameter of the laser beam is made smaller than the diameter of the measurement object has been described, but the spot diameter of the laser beam can be freely changed. For example, the spot diameter of the laser beam may be adjusted to a certain extent depending on the size of the measurement object. This makes it easy to determine whether or not the spot image is in focus. Moreover, you may make it irradiate a measurement object by expanding a laser beam. In this case, as in the first embodiment, the computer main body examines the inclination of the light intensity at the contour portion of the image of the measurement object and determines whether or not the image of the measurement object is in focus. Will do.
[0045]
Next, a third embodiment of the present invention will be described with reference to the drawings. FIG. 9 is a schematic configuration diagram of a distance measuring apparatus according to the third embodiment of the present invention. In the third embodiment, components having the same functions as those in the first and second embodiments are denoted by the same reference numerals, and detailed description thereof is omitted.
As shown in FIG. 9, the distance measuring apparatus according to the third embodiment includes a first optical system 10, a second optical system 20, an optical lens system 30a, an image detection unit 40a, an image processing unit 50, and a computer. 60 and a laser oscillation device 70a.
[0046]
In the third embodiment, as in the first embodiment, a case where the distribution in the depth direction of a large number of falling measurement objects 2 is measured will be described. Although the environment in which the measurement object 2 moves may be bright or dark, it is assumed here that the background is particularly dark.
The main difference between the distance measuring device of the third embodiment and that of the first embodiment is that a laser oscillation device 70 a is provided, and the laser beam reflected by the measurement object 2 is used as light from the measurement object 2 to detect the image. It is a point which calculates the position of the measurement target object 2 by detecting by 40a. With this configuration, the distribution of the measurement object 2 in the depth direction can be measured even when the measurement object 2 is not emitting light and is in a completely dark situation.
[0047]
The laser oscillation device 70a generates an intermittent pulse waveform output (pulse laser). Here, for example, a YAG laser is used as the pulse laser. In particular, the second harmonic (SHG) of a YAG laser is used. The laser beam has a wavelength of 532 nm and a pulse width of about 10 nanoseconds, that is, 10 × 10. -9 Seconds. The laser light is reflected by the beam folding prism 160 and then emitted forward through the second optical system 20 and the first optical system 10. Then, when the measurement object 2 falls across the optical axis of the laser light and the laser light hits the measurement object 2, the laser light is reflected by the measurement object 2. Of the laser light reflected by the measurement object 2, the laser light traveling toward the first optical system 10 enters the optical lens system 30 a via the first optical system 10 and the second optical system 20.
[0048]
Further, the spot diameter of the laser beam is made smaller than the diameter of the measurement object 2. For this reason, the image detection unit 40a detects an image of the measurement object 2 that passes on the optical axis of the laser beam and that includes an image of a portion (spot portion) that has been irradiated with the laser beam. The computer main body 61 measures the position of the measurement object 2 by determining whether or not the image of the spot portion of the measurement object 2 is in focus based on the image data. Therefore, also in the third embodiment, as in the second embodiment, only the measurement object 2 that passes on the optical axis of the laser light is the measurement target. The position of the measuring object 2 that passes through a part other than the optical axis of the laser light is not measured.
[0049]
Unlike the first and second embodiments, the image detection unit 40a uses a CCD camera having a mechanical shutter. In the third embodiment, since the exposure time of the CCD camera is determined by the pulse width of the laser light by using laser light having a considerably short pulse width, it is not necessary to release the shutter at high speed. This is the reason for using a mechanical shutter.
[0050]
Actually, in order to detect an image that captures the instantaneous state of the measuring object 2 that is moving, although depending on the moving speed and position of the measuring object 2, the exposure time, and therefore the pulse width of the laser beam, Must be in microsecond order. This condition is satisfied by using the second harmonic of the YAG laser. In addition, in one imaging, it is necessary to determine the pulse interval of the laser beam and the timing of turning off the mechanical shutter so that only one pulsed laser beam reflected and returned from the measurement object 2 can be captured by the CCD camera. There is. This is because, since the measurement object 2 is moving, accurate information about the measurement object 2 cannot be obtained if two or more pulsed laser beams are taken into the CCD camera.
[0051]
Further, as the optical lens system 30a, an optical lens system 30a provided with a band-pass filter 31 that transmits light having the same wavelength as the laser light emitted from the laser oscillation device 70a is used as in the second embodiment. The method by which the computer main body 61 measures the distribution in the depth direction of the measurement object 2 based on the image data is the same as that in the second embodiment, and a detailed description thereof will be omitted.
[0052]
In the distance measuring apparatus according to the third embodiment, by using a CCD camera having a mechanical shutter as an image detection unit, the image resolution of the CCD camera is not reduced due to the resolution of the electronic shutter device. There is an advantage that the image resolution of can be extracted as it is. Other effects are the same as those of the second embodiment.
[0053]
In the third embodiment, the case where a CCD camera having a mechanical shutter is used as the image detection unit has been described. However, a CCD camera having an electronic shutter can also be used.
Next, a fourth embodiment of the present invention will be described with reference to the drawings. 10 is a schematic configuration diagram of a distance measuring device according to a fourth embodiment of the present invention, FIG. 11A is a schematic configuration diagram of a filter unit of the distance measuring device, and FIG. 11B is an image of the distance measuring device. It is a figure for demonstrating the image obtained in the detection part. In addition, in 4th embodiment, the detailed description is abbreviate | omitted by attaching | subjecting the same code | symbol to what has the same function as the thing of 1st embodiment.
[0054]
As shown in FIG. 10, the distance measuring device according to the fourth embodiment includes a first optical system 10, a second optical system 20, an optical lens system 30, an image detection unit 40, an image processing unit 50, and a computer. 60 and a filter unit 80 as filter means.
Here, as in the first embodiment, a case will be described in which the distribution in the depth direction of a large number of falling measurement objects 2 is measured. Moreover, in 4th embodiment, the measurement target object 2 light-emits itself, and the case where the surface temperature is measured is also demonstrated. The filter unit 80 is provided for measuring the temperature of the measurement object 2.
[0055]
The filter unit 80 divides light that has passed through the optical lens system 30 with first light having a wavelength of approximately 460 nm (blue), second light having a wavelength of approximately 660 nm (red), first light, This is divided into third light other than the second light. As shown in FIG. 10, the filter unit 80 is mounted between the optical lens system 30 and the image detection unit 40. Specifically, as shown in FIG. 11A, two interference filters 81, 82 and one reflecting mirror 83. The interference filter 81 transmits the first light having a wavelength of about 460 nm out of the light that has passed through the optical lens system 30, and reflects the light having the other wavelengths (second light and third light). The interference filter 82 reflects the second light having a wavelength of about 660 nm among the light reflected by the interference filter 81 and transmits the light having the other wavelength (third light). The reflecting mirror 83 reflects the third light transmitted through the interference filter 82. In the fourth embodiment, for example, dichroic mirrors are used as the interference filters 81 and 82.
[0056]
As shown in FIG. 11A, the photocathode 41 of the image detection unit 40 has a first area A. 1 Second area A 2 , Third area A Three It is divided into three. First area A 1 1st light which permeate | transmitted the interference filter 81 injects into 2nd area A 2 The second light reflected by the interference filter 82 is incident on the third area A. Three The third light reflected by the reflecting mirror 83 enters. Therefore, in the image detection unit 40, as shown in FIG. 1 The first image corresponding to, and the second area A 2 Second image corresponding to, and third area A Three An image composed of a third image corresponding to is detected. The image signal detected by the image detection unit 40 is sent to the image processing unit 50, converted into digital image data, and stored in the image memory.
[0057]
The computer main body 61 of the computer 60 measures the distribution in the depth direction of the measurement object 2 and the surface temperature of the measurement object 2. The process of measuring the distribution in the depth direction of the measurement object 2 is performed based on the third image among the images detected by the image detection unit 40. Except for the point of using the third image, the process of measuring the distribution in the depth direction of the measurement object 2 is the same as that in the first embodiment, and therefore detailed description thereof is omitted here.
[0058]
On the other hand, in order to measure the surface temperature of the measurement object 2, a known two-color temperature measurement method is used. The two-color temperature measurement method measures the temperature of a radiator using the fact that the ratio of the intensity of light at two wavelengths of 460 nm and 660 nm of a thermal radiator is expressed as a function of the temperature of the radiator. It is. The temperature measurement of the measurement object 2 is performed for each image of the measurement object 2 that is determined to be in focus when measuring the distribution of the measurement object 2 in the depth direction. The computer main body 61 determines the intensity of the first light (wavelength 460 nm) at the position on the first image corresponding to the position on the third image of the image of the measurement object 2 and the third of the image of the measurement object 2. The intensity of the second light (wavelength 660 nm) at the position on the second image corresponding to the position on the image is obtained. And the temperature of the measuring object 2 is measured using the calculated | required 1st light intensity | strength and 2nd light intensity | strength.
Next, in the distance measuring device of the fourth embodiment, a processing procedure for measuring the distribution in the depth direction of the measurement object 2 and the surface temperature of the measurement object 2 will be described.
[0059]
First, as a preparatory work, the operator moves the first optical system 10 to the right side of FIG. 10 and then adjusts the relative position of each component lens of the optical lens system 30 to move forward from the photoelectric surface of the image detection unit 40, for example, The optical lens system 30 is accurately focused at a distance of 6 m. Further, the operator uses the mouse to set the shutter speed of the electronic shutter so that an image capturing the instantaneous state of the measurement object 2 can be obtained according to the falling speed of the measurement object 2 using the mouse. Enter on the screen.
[0060]
After the preparation work is completed, the operator uses the keyboard or the mouse to display information on the focal position of the optical lens system 30 and information on the position of the first optical system 10 on the screen of the CRT display device 62. And a button to start the image detection operation is pressed. Then, the computer main body 61 sends a signal to the image detection unit 40, and the electronic shutter of the image detection unit 40 is cut many times within a predetermined time, and a large number of images are detected. At this time, in each image, an image of the first light with a wavelength of 460 nm appears in the first image, an image of the second light with a wavelength of 660 nm appears in the second image, and the third image Shows an image of the third light having a wavelength other than 460 nm and 660 nm.
[0061]
Next, after the operation is completed, the operator moves the first optical system 10 to the left side of FIG. 10 by 5 cm. As a result, the focus of the optical lens system 30 is in front of the photocathode of the image detection unit 40, 6 m10 cm. Then, the operator inputs information about the position of the first optical system 10 and presses a button to start the image detection operation. Then, the computer main body 61 sends a signal to the image detection unit 40 again, and the electronic shutter of the image detection unit 40 is cut many times within a predetermined time, and a large number of images are detected. Thereafter, the process of detecting the image by the image detection unit 40 is repeated in the same manner as described above while moving the first optical system 10 forward by 5 cm. This repeating operation is performed until the focus of the optical lens system 30 is 10 m forward from the photocathode of the image detection unit 40.
[0062]
Each image signal obtained by the image detection unit 40 is sent to the image processing unit 50. The image processing unit 50 converts the image signal into image data and stores it in the image memory. The computer main body 61 first measures the distribution in the depth direction of the measurement object 2. That is, the image data stored in the image memory is read out, and whether or not the image of the measuring object 2 is in focus based on the third image among the image data for each position where the optical lens system 30 is focused. Determine whether. The computer main body 61 counts the number of images of the measurement object 2 in focus at each position where the optical lens system 30 is focused, and calculates the distribution of the measurement object 2 in the depth direction.
[0063]
Next, the computer main body 61 measures the surface temperature of the measurement object 2. As for the image of the measurement object 2 that is determined to be in focus during the process of measuring the distribution of the measurement object 2 in the depth direction, where the center is located on the third image. Already identified. The computer main body 61 obtains the intensity of the first light (wavelength 460 nm) at the position on the first image corresponding to the position on the third image representing the center of the image of the measurement object 2, and the measurement object The intensity of the second light (wavelength 660 nm) at the position on the second image corresponding to the position on the third image representing the center of the two images is obtained. And the temperature of the said measurement target object 2 is measured using the intensity | strength of the light in these two wavelengths (460 nm, 660 nm). In this manner, the temperature of the measurement object 2 can be measured at the same time as obtaining the distribution of the moving measurement object 2 in the depth direction.
[0064]
In the distance measuring apparatus according to the fourth embodiment, the light that has passed through the optical lens system is divided into first light having a wavelength of approximately 460 nm, second light having a wavelength of approximately 660 nm, first light, and second light. By providing a filter unit that divides the light into third light other than the first light, the image detection unit can transmit the first image obtained by the first light, the second image obtained by the second light, and the third light. It is possible to detect a large number of images including the third image obtained by the light. For this reason, for each image of the measurement object that is determined to be in focus based on the third image, the first image at the position on the first image corresponding to the position on the third image of the image of the measurement object. By determining the intensity of one light and the intensity of the second light at a position on the second image corresponding to the position on the third image of the image of the measurement object, using a two-color temperature measurement method, The temperature of the measurement object can be measured. The other effects are the same as those of the first embodiment.
[0065]
Next, a fifth embodiment of the present invention will be described with reference to the drawings. FIG. 12 is a schematic configuration diagram of a distance measuring device according to a fifth embodiment of the present invention, and FIG. 13 is a schematic configuration diagram of a spectroscopic unit of the distance measuring device. In the fifth embodiment, components having the same functions as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
[0066]
As shown in FIG. 12, the distance measuring device of the fifth embodiment includes a first optical system 10, a second optical system 20, an optical lens system 30, an image detection unit 40, an image processing unit 50, and a computer. 60 and a spectroscopic unit 90 as spectroscopic means.
In the fifth embodiment, as in the fourth embodiment, a case will be described in which the distribution in the depth direction of a large number of falling measurement objects 2 is measured and the surface temperature of the measurement object 2 is measured. . The spectroscopic unit 90 is provided to measure the temperature of the measurement object 2.
[0067]
The spectroscopic unit 90 is attached between the optical lens system 30 and the image detection unit 40. As shown in FIG. 13, the spectroscopic unit 90 includes a slit (opening) 91, two reflecting mirrors 92 a and 92 b, two concave mirrors 93 a and 93 b, and a diffraction grating 94. The slit 91 is for taking a part of the light that has passed through the optical lens system 30 into the spectroscopic unit 90 and has a substantially rectangular shape. The light that has passed through the slit 91 is reflected by the reflecting mirror 92a and the concave mirror 93a and then enters the diffraction grating 94. The diffraction grating 94 splits the light having passed through the slit 91 into light of each wavelength along a direction corresponding to the width direction of the slit 91 of the light. Then, the light dispersed by the diffraction grating 94 is reflected by the concave mirror 93b and the reflecting mirror 92b and then enters the photoelectric surface of the image detection unit 40.
[0068]
For this reason, the image detection unit 40 detects light that is dispersed in the direction corresponding to the width direction of the slit 91 and is not dispersed in the direction corresponding to the length direction of the slit 91. Therefore, for example, as shown in FIG. 14A, the image detected by the image detection unit 40 has the y coordinate axis representing the position in the length direction of the slit 91 and the x coordinate axis representing the wavelength. That is, each pixel point on the image is light that has passed through the position in the length direction of the slit 91 corresponding to the y coordinate of the point, and has an intensity of light having a wavelength corresponding to the x coordinate of the point. I have information. The image signal detected by the image detection unit 40 is sent to the image processing unit 50, converted into digital image data, and stored in the image memory.
[0069]
The computer main body 61 of the computer 60 measures the distribution in the depth direction of the measurement object 2 and the surface temperature of the measurement object 2. The processing for measuring the distribution in the depth direction of the measuring object 2 is in principle the same as that in the first embodiment. However, since the image detection unit 40 detects the light separated by the spectroscopic unit 90, the process of determining whether or not the image of the measurement object 2 is in focus is slightly different from that of the first embodiment. That is, the computer main body 61 adds the light intensities of pixel points having the same y coordinate based on the image data shown in FIG. 14A, for example, as shown in FIG. 14B. In addition, the light intensity distribution in the length direction of the slit 91 is obtained. Next, a bright range of a certain intensity or higher is found in the light intensity distribution. This bright range is specified as a range representing the image of the measurement object 2. Thereafter, the computer main body 61 obtains the light intensity gradient at the contour portion of the image of the measuring object 2 based on the light intensity distribution in the length direction of the slit. If the magnitude of the inclination of the light intensity is equal to or greater than a predetermined reference value, it is determined that the image of the measurement object 2 is in focus, while the magnitude of the inclination is smaller than the predetermined reference value. For example, it is determined that the image of the measurement object 2 is not in focus.
[0070]
On the other hand, in order to measure the surface temperature of the measurement object 2, a known two-color temperature measurement method is used as in the fourth embodiment. The temperature measurement of the measurement object 2 is performed on each image of the measurement object 2 that is determined to be in focus when measuring the distribution of the measurement object 2 in the depth direction. The computer main body 61 has a light intensity at a position on the image where the y coordinate is a predetermined position of the image of the measurement object 2 and the x coordinate is 460 nm, and the y coordinate is a predetermined position of the image of the measurement object 2. The intensity of light at the position on the image whose coordinates are 660 nm is obtained. And the temperature of the measuring object 2 is measured using the calculated | required intensity | strength of two light.
[0071]
Next, in the distance measuring device of the fifth embodiment, a processing procedure for measuring the distribution in the depth direction of the measurement object 2 and the surface temperature of the measurement object 2 will be described.
First, as a preparatory work, the operator moves the first optical system 10 to the right side of FIG. 12 and then adjusts the relative position of each component lens of the optical lens system 30 to move forward from the photoelectric surface of the image detection unit 40, for example, The optical lens system 30 is accurately focused at a distance of 6 m. Further, the operator uses the mouse to set the shutter speed of the electronic shutter so that an image capturing the instantaneous state of the measurement object 2 can be obtained according to the falling speed of the measurement object 2 using the mouse. Enter on the screen.
[0072]
After the preparation work is completed, the operator uses the keyboard or the mouse to display information on the focal position of the optical lens system 30 and information on the position of the first optical system 10 on the screen of the CRT display device 62. And a button to start the image detection operation is pressed. Then, the computer main body 61 sends a signal to the image detection unit 40, and the electronic shutter of the image detection unit 40 is cut many times within a predetermined time, and a large number of images are detected. In each image thus detected, the y coordinate axis represents the length direction of the slit 91, and the x coordinate axis represents the wavelength. After the operation is completed, the operator moves the first optical system 10 by 5 cm to the left side in FIG. Then, information on the position of the first optical system 10 is input, and a button for starting an image detection operation is pressed. Then, the computer main body 61 sends a signal to the image detection unit 40 again, and the electronic shutter of the image detection unit 40 is cut many times within a predetermined time, and a large number of images are detected. Thereafter, the process of detecting the image by the image detection unit 40 is repeated in the same manner as described above while moving the first optical system 10 forward by 5 cm. This repeating operation is performed until the focus of the optical lens system 30 is 10 m forward from the photocathode of the image detection unit 40.
[0073]
Each image signal obtained by the image detection unit 40 is sent to the image processing unit 50. The image processing unit 50 converts the image signal into image data and stores it in the image memory. The computer main body 61 first measures the distribution in the depth direction of the measurement object 2. That is, the image data stored in the image memory is read out, and the light intensity distribution in the length direction of the slit 91 is obtained based on the image data for each position where the optical lens system 30 is focused. Then, using the intensity distribution of the light, it is determined whether or not the image of the measurement object 2 is in focus. The computer main body 61 counts the number of images of the measurement object 2 in focus at each position where the optical lens system 30 is focused, and calculates the distribution of the measurement object 2 in the depth direction.
[0074]
Next, the computer main body 61 measures the surface temperature of the measurement object 2. As for the image of each measurement object 2 that is determined to be in focus during the process of measuring the distribution of the measurement object 2 in the depth direction, which y coordinate corresponds to the center of the image on the image. Has already been identified. The computer main body 61 is configured such that the y-coordinate is the position representing the center of the image of the measurement object 2 and the x-coordinate is the light intensity at the pixel point having the wavelength of 460 nm, and the y-coordinate is the center of the image of the measurement object 2. And the intensity of light at a pixel point having an x coordinate wavelength of 660 nm. And the temperature of the said measurement target object 2 is measured using the intensity | strength of the light in these two wavelengths (460 nm, 660 nm). In this manner, the temperature of the measurement object 2 can be measured at the same time as obtaining the distribution of the moving measurement object 2 in the depth direction.
[0075]
In the distance measuring device according to the fifth embodiment, a rectangular slit for capturing a part of the light that has passed through the optical lens system, and the light that has passed through the slit along a direction corresponding to the width direction of the slit of the light. By providing a spectroscopic unit having a diffraction grating that divides light of each wavelength, the image detection unit can detect, for example, an image in which the y coordinate axis represents the position in the length direction of the slit and the x coordinate axis represents the wavelength. . For this reason, for each of the images of the measurement object that is determined to be in focus when measuring the distribution of the measurement object in the depth direction based on such an image, the y coordinate is a predetermined position of the image of the measurement object. And the light intensity at the position on the image where the x coordinate is 460 nm and the light intensity at the position on the image where the y coordinate is a predetermined position of the image of the measurement object and the x coordinate is 660 nm. Using the two-color temperature measurement method, the temperature of the measurement object can be measured. The other effects are the same as those of the first embodiment.
[0076]
Next, a sixth embodiment of the present invention will be described with reference to the drawings. FIG. 15 is a schematic configuration diagram of a distance measuring apparatus according to the sixth embodiment of the present invention. Note that, in the sixth embodiment, those having the same functions as those in the first and fourth embodiments are denoted by the same reference numerals, and detailed description thereof is omitted.
As shown in FIG. 15, the distance measuring device of the sixth embodiment includes an optical lens system 30, an image detection unit 40a, an image processing unit 50, a computer 60, a laser oscillation device 70b, a filter unit 80, A photodetector 110 and an electrical signal processing storage unit 120 are provided. Here, the computer main body 61 of the computer 60 and the electric signal processing storage 120 serve as signal processing means of the present invention.
[0077]
In the sixth embodiment, as in the fourth embodiment, a case will be described in which the distribution in the depth direction of a large number of falling measurement objects 2 is measured and the surface temperature of the measurement object 2 is measured. . At this time, the method for measuring the surface temperature of the measurement object 2 is the same as that in the fourth embodiment, but the method for obtaining the distribution of the measurement object 2 in the depth direction is completely different from that in the fourth embodiment.
[0078]
In the sixth embodiment, the distribution in the depth direction of the measurement object 2 is measured by the laser oscillation device 70b, the photodetector 110, the electric signal processing storage device 120, and the computer main body 61. The laser oscillation device 70b generates an intermittent pulse waveform output (pulse laser). As a pulse laser, for example, N 2 Use a laser. The wavelength of this laser beam is 337 nm, and the pulse width is 10 -12 Seconds. This pulse width is considerably shorter than that used in the third embodiment. In general, it is necessary to use a laser oscillator 70b that emits laser light having a wavelength other than 460 nm and 660 nm. As will be described later, the filter unit 80 can separate light having wavelengths of 460 nm and 660 nm from the light emitted from the measurement object 2 and the laser light reflected and returned from the measurement object 2. It is to do. Further, the spot diameter of the laser light is made smaller than the diameter of the measurement object 2. When the laser oscillation device 70b emits one pulsed laser beam, it sends a signal to the computer main body 61 and the electric signal processing storage unit 120 at the same time as the generation timing.
[0079]
The pulsed laser light emitted from the laser oscillation device 70b is radiated forward toward a large number of moving measurement objects 2 via the beam folding prism 160. Then, when the measurement object 2 falls across the optical axis of the pulse laser light and the pulse laser light hits the measurement object 2, the pulse laser light is reflected by the measurement object 2. Of the pulsed laser light reflected by the measurement object 2, the light traveling toward the optical lens system 30 is divided into two by the beam splitter 170. One pulsed laser beam divided by the beam splitter 170 is further reflected by the reflecting mirror 180 and enters the photodetector 110. Further, the other pulse laser beam divided by the beam splitter 170 goes straight as it is and enters the optical lens system 30.
[0080]
The photodetector 110 detects the pulsed laser light that has been reflected back from the measurement object 2. When the photodetector 110 detects the pulse laser beam, the photodetector 110 sends a signal indicating that the pulse laser beam has been detected to the electrical signal processing storage unit 120. The electrical signal processing storage unit 120 receives the signal indicating that the pulse laser beam is emitted from the laser oscillation device 70b and the time when the signal indicating that the pulse laser beam is detected from the photodetector 110 is received. Based on this, the distance of the measurement object 2 is calculated. That is, if the time when the signal indicating the detection of the pulse laser beam is received is delayed by Δt from the time when the signal indicating the generation of the pulse laser beam is received, this time difference Δt is measured from the laser oscillation device 70b. Distance d to object 2 1 And the distance d from the measurement object 2 to the photodetector 110 2 Is the time required when the pulse laser beam travels. Therefore, if the speed of light in the atmosphere is c, the total distance d traveled by the pulse laser beam by measuring Δt 1 + D 2 D 1 + D 2 = Δt × c can be easily obtained. Further, since the traveling route of the laser light is known in advance, the obtained total distance d 1 + D 2 For example, the distance in the depth direction from the photocathode of the CCD camera to the measurement object 2 can be easily obtained. The electrical signal processing storage unit 120 sends information related to the distance of the measurement object 2 calculated in this way to the computer main body 61. The computer main body 61 obtains the distribution in the depth direction of the measurement object 2 by counting the number of the measurement objects 2 for each calculated distance based on the information sent from the electrical signal processing storage unit 120.
[0081]
The optical lens system 30 forms an image of the light emitted from the measurement object 2 and the light from the measurement object 2 including the laser light reflected and returned from the measurement object 2. It is installed toward Here, unlike the case of the first embodiment, the optical lens system 30 is adjusted so that the depth of focus is increased and everything in the field of view is in focus. The filter unit 80 is attached between the optical lens system 30 and the image detection unit 40a.
[0082]
The image detection unit 40a is a CCD camera having a mechanical shutter. As described in detail in the fourth embodiment, the filter unit 80 includes the first light having a wavelength of approximately 460 nm, the second light having a wavelength of approximately 660 nm, and the light that has passed through the optical lens system 30. The light is divided into first light and third light other than the second light. In the sixth embodiment, since the wavelength of the laser light is 337 nm, the laser light reflected and returned by the measurement object 2 is included in the third light, and is included in the first light and the second light. There is nothing. The first light and the second light include light emitted from the measurement object 2 and light from the background. The photocathode of the image detection unit 40a is divided into a first area where the first light is incident, a second area where the second light is incident, and a third area where the third light is incident. For this reason, the image detection unit 40a detects an image including a first image corresponding to the first area, a second image corresponding to the second area, and a third image corresponding to the third area. The image signal detected by the image detection unit 40a is sent to the image processing unit 50, converted into digital image data, and stored in the image memory. In the sixth embodiment, the image detected by the image detection unit 40a is used only for detecting the temperature of the measurement object 2.
[0083]
The computer main body 61 obtains the distribution in the depth direction of the measurement object 2 based on the distance information of each measurement object sent from the electrical signal processing storage 120, and also measures the measurement object based on the image data stored in the image memory. The surface temperature of the object 2 is measured. When measuring the temperature of the measurement object 2, the computer main body 61 detects the position of the image of the spot portion of the measurement object 2 based on the third image obtained by the third light, and then detects the position. The intensity of the first light at the position on the first image corresponding to the position on the third image and the intensity of the second light at the position on the second image corresponding to the detected position on the third image And ask. Then, the temperature of the measurement object 2 is measured by a known two-color temperature measurement method using the obtained first light intensity and second light intensity.
[0084]
Next, a processing procedure for measuring the distribution in the depth direction of the measurement object 2 and the surface temperature of the measurement object 2 in the distance measuring device of the sixth embodiment will be described.
When the operator presses a button to start processing on the screen of the CRT display device 62 using the keyboard or mouse, the computer main body 61 sends a signal to each part and processing is started. When the laser oscillation device 70 b emits one pulse laser beam, the laser oscillation device 70 b sends a signal indicating that the pulse laser beam has been emitted to the computer main body 61 and the electric signal processing storage unit 120. When the pulse laser beam emitted from the laser oscillation device 70 b hits the measurement object 2, the pulse laser light reflected by the measurement object 2 and traveling toward the optical lens system 30 is divided into two by the beam splitter 170. It is done. Then, the two divided pulse laser beams are guided to the photodetector 110 and the optical lens system 30, respectively.
[0085]
When the photodetector 110 detects the pulse laser beam that has been reflected back from the measurement object 2, the photodetector 110 sends a signal indicating that the pulse laser beam has been detected to the electrical signal processing storage unit 120. The electrical signal processing storage unit 120 has a time difference between the time when the signal indicating that the pulse laser beam is emitted from the laser oscillation device 70b and the time when the signal indicating that the pulse laser beam is detected from the photodetector 110 is received. Based on the above, the distance to the measurement object 2 hit by the laser beam is calculated. The electrical signal processing storage unit 120 sends information related to the distance of the measurement object 2 thus measured to the computer main body 61. The computer main body 61 obtains the distribution in the depth direction of the measurement object 2 by counting the number of measurement objects 2 for each calculated distance based on a lot of information thus sent from the electrical signal processing storage unit 120. .
[0086]
On the other hand, when the computer main body 61 receives a signal indicating that the pulse laser beam has been emitted from the laser oscillation device 70b, the computer main body 61 sends a signal indicating that the mechanical shutter is released to the image detection unit 40a. As a result, the mechanical shutter is released, and the image is detected by the image detector 40a. Here, the maximum shutter speed of the mechanical shutter is on the order of milliseconds. For this reason, the pulse laser beam hits the measurement object 2 and the pulse laser beam reflected by the measurement object 2 passes through the beam splitter 170, the optical lens system 30, and the filter unit 80 while the mechanical shutter is open. Thus, the light is necessarily incident on the image detection unit 40a. In addition, such an image naturally includes information on light emitted from the measurement object 2 and light from the background. The image signal detected by the image detection unit 40a is sent to the image processing unit 50, converted into digital image data, and stored in the image memory.
[0087]
Thereafter, the computer main body 61 reads the image data stored in the image memory, recognizes the image of the spot portion of the measurement object 2 based on the third image in the image data, and specifies the center of the image. Here, in the sixth embodiment, since the optical lens system 30 is adjusted so as to focus on all objects in the field of view, an image of the spot portion is clearly shown in the third image. The image can be easily identified. The computer main body 61 obtains the intensity of the first light (wavelength 460 nm) at the position on the first image corresponding to the position on the third image representing the center of the image of the spot portion, and The intensity of the second light (wavelength 660 nm) at the position on the second image corresponding to the position on the third image representing the center is obtained. And the temperature of the measuring object 2 is measured based on the intensity | strength of the light in these two wavelengths (wavelength 460nm, 660nm). In this manner, the temperature of the measurement object 2 can be measured simultaneously with the distribution in the depth direction of the measurement object 2 that moves.
[0088]
In the distance measuring device of the sixth embodiment, the distance of the measurement object can be obtained with high resolution by calculating the distance of the measurement object based on the time difference from when the pulse laser beam is emitted until it returns. . Therefore, the distribution in the depth direction of the measurement object can be obtained with high accuracy by counting the number of measurement objects 2 for each distance from the calculated result. Further, the position and temperature of the measurement object can be measured for each measurement object that has been irradiated with the pulse laser beam.
[0089]
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the gist.
For example, in the fourth embodiment, the case where the filter unit is provided in the distance measuring device of the first embodiment to obtain the distribution in the depth direction of the measurement object and the temperature of the measurement object is measured has been described. However, a filter unit may be provided in the distance measuring device of the second embodiment or the distance measuring device of the third embodiment. FIG. 16 is a schematic configuration diagram of a distance measuring device configured by adding a filter unit to the distance measuring device of the second embodiment, and FIG. 17 is a diagram of a distance measuring device configured by adding a filter unit to the distance measuring device of the third embodiment. It is a schematic block diagram. In FIG. 16 and FIG. 17, the same reference numerals are given to those having the same functions as those in the first to fourth embodiments.
[0090]
In the distance measuring apparatus of FIG. 16 or FIG. 17, the optical lens system 30 is the same as that of the first embodiment in which no bandpass filter is provided. Further, as the laser oscillation device 70 in the distance measuring device in FIG. 16 or the laser oscillation device 70a in the distance measuring device in FIG. 17, laser light having a wavelength other than the two wavelengths 460 nm and 660 nm used in the two-color temperature measurement method is used. Use what emits. As a result, the spot image of the object to be measured is clearly shown in the third image, so the process of recognizing the spot image based on the third image and whether the spot image is in focus This is advantageous in that the determination process can be performed easily and quickly. These distance measuring devices have the same effects as those of the fourth embodiment.
[0091]
Further, in the fifth embodiment, the case where the distribution of the measurement object in the depth direction is obtained and the temperature of the measurement object is measured by providing the spectral unit in the distance measuring device of the first embodiment has been described. However, the spectral unit may be provided in the distance measuring device of the second embodiment or the distance measuring device of the third embodiment. FIG. 18 is a schematic configuration diagram of a distance measuring device configured by adding a spectral unit to the distance measuring device of the second embodiment, and FIG. 19 is a diagram of a distance measuring device configured by adding a spectral unit to the distance measuring device of the third embodiment. It is a schematic block diagram. In FIG. 18 and FIG. 19, the same reference numerals are given to the components having the same functions as those in the first to fourth embodiments.
[0092]
In the distance measuring apparatus of FIG. 18 or FIG. 19, the optical lens system 30 is the same as that of the first embodiment provided with no band pass filter. Further, as the laser oscillation device 70 in the distance measuring device of FIG. 18 or the laser oscillation device 70a in the distance measuring device of FIG. 19, laser light having a wavelength other than the two wavelengths 460 nm and 660 nm used in the two-color temperature measurement method is used. Use what emits. As a result, since the image of the spot portion of the measurement object is clearly shown in the image, the processing for recognizing the image of the spot portion and the processing for determining whether the image of the spot portion is in focus are simple and quick. It can be carried out. These distance measuring devices have the same effects as those of the fifth embodiment.
[0093]
In the sixth embodiment, the temperature of the measurement object may be detected in the same manner as the fifth embodiment by using the spectroscopic unit 90 instead of the filter unit 80.
In the fourth and fifth embodiments, the case where the wavelength of the first light is 460 nm and the wavelength of the second light is 660 nm has been described. However, light having a wavelength different from 460 nm is used as the first light. Alternatively, light having a wavelength different from that of 660 nm and the wavelength of the first light may be used as the second light.
[0094]
Further, in the fourth to sixth embodiments, the case where the depth direction distribution of the moving measurement object is measured and the temperature of the measurement object is measured has been described, but the fourth to sixth embodiments are described. This distance measuring device can also be used as a temperature measuring device that measures only the temperature of a moving measuring object.
In addition, although each said embodiment demonstrated the case where the measurement target object was carrying out the spherical shape of a diameter of about 1-2 cm, the measurement target object may be not only a granular material but a powdery material. In general, the present invention can be applied to objects of any size and shape.
[0095]
【The invention's effect】
As described above, according to the present invention, every time the focal position of the optical lens system is shifted by at least the same distance as the focal depth of the optical lens system by moving the first optical system, the shutter means is used to make a constant. By capturing light that has passed through the optical lens system at least once in time into the image detection means, a plurality of images that capture the instantaneous state of the moving measurement object can be detected. Then, by counting the number of images of the measurement object that is in focus based on the image data for each focused position, the number of measurement objects that move the focused position can be obtained. Therefore, the distribution in the depth direction of the moving measurement object can be measured from the obtained result.
[0096]
In addition, the light that has passed through the optical lens system has a first wavelength whose wavelength is a first wavelength value (for example, approximately 460 nm) and a second wavelength whose wavelength is different from the first wavelength value (for example, approximately 660 nm). By providing the filter means for separating the second light and the third light other than the first light and the second light, the image detection means can obtain the first image obtained by the first light, the second light, A large number of images composed of the second image obtained by light and the third image obtained by third light can be detected. For this reason, for each image of the measurement object that is determined to be in focus based on the third image, the first image at the position on the first image corresponding to the position on the third image of the image of the measurement object. By determining the intensity of one light and the intensity of the second light at a position on the second image corresponding to the position on the third image of the image of the measurement object, using a two-color temperature measurement method, The temperature of the measurement object can be measured.
[0097]
Further, instead of the filter means, a rectangular opening for capturing a part of the light passing through the optical lens system, and the light passing through the opening in a direction corresponding to the width direction of the light opening. By providing a spectroscopic means having a diffraction grating that divides light of each wavelength along, the image detecting means detects, for example, an image in which the y coordinate axis represents the position in the length direction of the opening and the x coordinate axis represents the wavelength. Can do. For this reason, for each of the images of the measurement object that is determined to be in focus when measuring the distribution of the measurement object in the depth direction based on such an image, the y coordinate is a predetermined position of the image of the measurement object. And the light intensity at the position on the image where the x coordinate is the first wavelength value and the light intensity at the position on the image where the y coordinate is the predetermined position of the image of the measurement object and the x coordinate is the second wavelength value. By obtaining the intensity, the temperature of the measurement object can be measured using the two-color temperature measurement method.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a distance measuring device according to a first embodiment of the present invention.
FIG. 2 is a schematic configuration diagram of an image detection unit of the distance measuring device.
FIG. 3 is a diagram schematically showing image data of a measurement object in focus when the background is white.
FIG. 4 is a diagram schematically showing image data of a measurement object that is not in focus when the background is white.
5A is a diagram showing the light intensity distribution in the x direction in the case of FIG. 3, and FIG. 5B is a diagram showing the light intensity distribution in the x direction in the case of FIG. 4;
6A is a diagram showing an intensity distribution of light in the x direction when an image of an object to be measured is in focus when the background is black, and FIG. 6B is an object to be measured when the background is black. It is a figure which shows the intensity distribution of the light of the x direction when the image of an object is not focused.
FIG. 7 is a schematic configuration diagram of a distance measuring apparatus according to a second embodiment of the present invention.
FIG. 8 is a diagram showing a light intensity distribution when an image of a spherical measurement object is in focus.
FIG. 9 is a schematic configuration diagram of a distance measuring device according to a third embodiment of the present invention.
FIG. 10 is a schematic configuration diagram of a distance measuring device according to a fourth embodiment of the present invention.
11A is a schematic configuration diagram of a filter unit of the distance measuring device, and FIG. 11B is a diagram for explaining an image obtained by an image detection unit of the distance measuring device.
FIG. 12 is a schematic configuration diagram of a distance measuring device according to a fifth embodiment of the present invention.
FIG. 13 is a schematic configuration diagram of a spectroscopic unit of the distance measuring device.
14A is a diagram for explaining image data, and FIG. 14B is a diagram showing an example of light intensity distribution in the slit length direction.
FIG. 15 is a schematic configuration diagram of a distance measuring apparatus according to a sixth embodiment of the present invention.
FIG. 16 is a schematic configuration diagram of a distance measuring device configured by adding a filter unit to the distance measuring device of the second embodiment.
FIG. 17 is a schematic configuration diagram of a distance measuring device configured by adding a filter unit to the distance measuring device of the third embodiment.
FIG. 18 is a schematic configuration diagram of a distance measuring device configured by adding a spectroscopic unit to the distance measuring device of the second embodiment.
FIG. 19 is a schematic configuration diagram of a distance measuring device configured by adding a spectroscopic unit to the distance measuring device of the third embodiment.
[Explanation of symbols]
2 Measurement object
10 First optical system
11,12 Reflector
20 Second optical system
21,22 Reflector
30, 30a Optical lens system
31 Band pass filter
40, 40a Image detection unit
41 photocathode
42 Microchannel plate
43 phosphor screen
44 Imaging unit
50 Image processing section
60 computers
61 Computer body
62 CRT display device
70, 70a, 70b Laser oscillator
80 Filter unit
81,82 interference filter
83 Reflector
90 Spectroscopic unit
91 slit
92a, 92b reflector
93a, 93b Concave mirror
94 Diffraction grating
110 Photodetector
120 Electric signal processing storage
160 Beam folding prism
170 Beam splitter
180 Reflector

Claims (12)

移動している多数の計測対象物に向けて設置され且つ前記計測対象物に向かう方向に沿って前後に移動可能に構成されており、前記計測対象物からの光をその進行方向と逆向きに反射する第一光学系と、
前記第一光学系で反射した光を前記計測対象物からの光の進行方向と同じ向きに反射する第二光学系と、
焦点の合う位置及び焦点深度がそれぞれ所望の値になるように調整されており、前記第二光学系で反射した光を結像させる光学レンズ系と、
前記第一光学系を移動することによって前記光学レンズ系の前記焦点の合う位置を少なくとも前記焦点深度と同じ距離ずつずらす度に、シャッタ手段を用いて一定時間内に少なくとも一度、前記光学レンズ系を通過した光を取り込むことにより、前記計測対象物の移動を止めた瞬間の状態を捉えた複数の画像を検出する画像検出手段と、
前記光学レンズ系の前記焦点を合わせた各位置毎の前記画像に基づいてピントが合っている前記計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する前記計測対象物の個数を求め、その求めた結果に基づいて前記焦点を合わせた各位置に対する前記計測対象物の分布を計測する計測処理手段と、
を具備することを特徴とする測距装置。
It is arranged toward a large number of moving measurement objects and is configured to be movable back and forth along the direction toward the measurement object. Light from the measurement object is directed in the direction opposite to its traveling direction. A first optical system that reflects;
A second optical system that reflects the light reflected by the first optical system in the same direction as the traveling direction of the light from the measurement object;
An optical lens system that adjusts the in-focus position and the depth of focus to a desired value, and forms an image of light reflected by the second optical system;
Each time the focus position of the optical lens system is shifted by at least the same distance as the focal depth by moving the first optical system, the optical lens system is moved at least once within a predetermined time using a shutter unit. Image capturing means for detecting a plurality of images capturing the state of the moment when the movement of the measurement object is stopped by capturing the light that has passed;
The measurement object that moves the focused position is counted by counting the number of images of the measurement object that are in focus based on the image at each focused position of the optical lens system. A measurement processing means for obtaining a number and measuring a distribution of the measurement object for each focused position based on the obtained result;
A distance measuring device comprising:
前記計測処理手段は、前記焦点を合わせた各位置毎の前記画像に基づいて、光の強度が所定値以上である範囲を前記計測対象物に対応する像として特定した後、その特定した前記計測対象物の像を横切る所定の直線に沿った光の強度分布を求め、前記計測対象物の像の輪郭部分における光の強度の傾きの大きさが基準値よりも小さいときに前記計測対象物にはピントが合っていないと判断し、一方、前記計測対象物の像の輪郭部分における光の強度の傾きの大きさが前記基準値以上であるときに前記計測対象物にピントが合っていると判断することを特徴とする請求項1記載の測距装置。The measurement processing unit specifies a range in which the intensity of light is a predetermined value or more as an image corresponding to the measurement object based on the image at each focused position, and then specifies the specified measurement. A light intensity distribution along a predetermined straight line crossing the image of the object is obtained, and when the magnitude of the light intensity gradient at the contour portion of the image of the measurement object is smaller than a reference value, Is determined to be out of focus, and on the other hand, when the magnitude of the light intensity gradient at the contour portion of the image of the measurement object is greater than or equal to the reference value, the measurement object is in focus. The distance measuring device according to claim 1, wherein the distance measuring device is determined. 移動している多数の計測対象物に向けて設置され且つ前記計測対象物に向かう方向に沿って前後に移動可能に構成されており、前記計測対象物からの光をその進行方向と逆向きに反射する第一光学系と、
前記第一光学系で反射した光を前記計測対象物からの光の進行方向と同じ向きに反射する第二光学系と、
焦点の合う位置及び焦点深度がそれぞれ所望の値になるように調整されており、前記第二光学系で反射した光を結像させる光学レンズ系と、
前記光学レンズ系を通過した光を、波長が所定の第一波長値である第一の光と波長が前記第一波長値と異なる所定の第二波長値である第二の光と前記第一の光及び前記第二の光以外の第三の光とに分けるフィルタ手段と、
前記第一光学系を移動することによって前記光学レンズ系の前記焦点の合う位置を少なくとも前記焦点深度と同じ距離ずつずらす度に、シャッタ手段を用いて一定時間内に少なくとも一度、前記光学レンズ系を通過した光を前記フィルタ手段を介して取り込むことにより、前記計測対象物の移動を止めた瞬間の状態を捉えた複数の画像であって、前記第一の光によって得られる第一画像、前記第二の光によって得られる第二画像及び前記第三の光によって得られる第三画像からなるものを検出する画像検出手段と、
前記光学レンズ系の前記焦点を合わせた各位置毎の前記第三画像に基づいてピントが合っている前記計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する前記計測対象物の個数を求め、その求めた結果に基づいて前記焦点を合わせた各位置に対する前記計測対象物の分布を計測する計測処理手段と、
前記ピントが合っている前記計測対象物の像の各々について、前記計測対象物の像の前記第三画像上の位置に対応する前記第一画像上の位置における前記第一の光の強度と、前記計測対象物の像の前記第三画像上の位置に対応する前記第二画像上の位置における前記第二の光の強度とを求め、その求めた前記第一の光の強度及び前記第二の光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、
を具備することを特徴とする測距装置。
It is arranged toward a large number of moving measurement objects and is configured to be movable back and forth along the direction toward the measurement object. Light from the measurement object is directed in the direction opposite to its traveling direction. A first optical system that reflects;
A second optical system that reflects the light reflected by the first optical system in the same direction as the traveling direction of the light from the measurement object;
An optical lens system that adjusts the in-focus position and the depth of focus to a desired value, and forms an image of light reflected by the second optical system;
The light that has passed through the optical lens system is divided into first light whose wavelength is a predetermined first wavelength value, second light whose wavelength is a predetermined second wavelength value different from the first wavelength value, and the first light. Filter means for dividing the light into a third light other than the second light and the second light,
Each time the focus position of the optical lens system is shifted by at least the same distance as the focal depth by moving the first optical system, the optical lens system is moved at least once within a predetermined time using a shutter unit. A plurality of images capturing the state at the moment when the movement of the measurement object is stopped by capturing the passed light through the filter means, the first image obtained by the first light, the first Image detecting means for detecting a second image obtained by the second light and a third image obtained by the third light;
The measurement object that moves the focused position by counting the number of images of the measurement object that are in focus based on the third image at each focused position of the optical lens system Measurement processing means for obtaining the number of objects, and measuring the distribution of the measurement object for each focused position based on the obtained results;
For each image of the measurement object in focus, the intensity of the first light at a position on the first image corresponding to a position on the third image of the image of the measurement object; The intensity of the second light at the position on the second image corresponding to the position on the third image of the image of the measurement object is obtained, and the obtained intensity of the first light and the second light are obtained. Temperature measuring means for measuring the temperature of the measurement object by a two-color temperature measurement method using the intensity of the light;
A distance measuring device comprising:
前記計測処理手段は、前記焦点を合わせた各位置毎の前記第三画像に基づいて、光の強度が所定値以上である範囲を前記計測対象物に対応する像として特定した後、その特定した前記計測対象物の像を横切る所定の直線に沿った光の強度分布を求め、前記計測対象物の像の輪郭部分における光の強度の傾きの大きさが基準値よりも小さいときに前記計測対象物にはピントが合っていないと判断し、一方、前記計測対象物の像の輪郭部分における光の強度の傾きの大きさが前記基準値以上であるときに前記計測対象物にピントが合っていると判断することを特徴とする請求項3記載の測距装置。The measurement processing unit specifies a range in which the intensity of light is a predetermined value or more as an image corresponding to the measurement object on the basis of the third image for each focused position, and then specifies the measurement object. A light intensity distribution along a predetermined straight line crossing the image of the measurement object is obtained, and the measurement object is obtained when the magnitude of the light intensity gradient at the contour portion of the image of the measurement object is smaller than a reference value The object is determined to be out of focus, while the object to be measured is in focus when the gradient of the light intensity at the contour of the image of the object to be measured is greater than or equal to the reference value. The distance measuring device according to claim 3, wherein the distance measuring device is determined to be. 移動している多数の計測対象物に向けて設置され且つ前記計測対象物に向かう方向に沿って前後に移動可能に構成されており、前記計測対象物からの光をその進行方向と逆向きに反射する第一光学系と、
前記第一光学系で反射した光を前記計測対象物からの光の進行方向と同じ向きに反射する第二光学系と、
焦点の合う位置及び焦点深度がそれぞれ所望の値になるように調整されており、前記第二光学系で反射した光を結像させる光学レンズ系と、
前記光学レンズ系を通過した光の一部を取り込むための長方形状の開口部と、前記開口部を通過した光をその光の前記開口部の幅方向に対応する方向に沿って各波長の光に分光する回折格子とを有する分光手段と、
前記第一光学系を移動することによって前記光学レンズ系の前記焦点の合う位置を少なくとも前記焦点深度と同じ距離ずつずらす度に、シャッタ手段を用いて一定時間内に少なくとも一度、前記光学レンズ系を通過した光を前記分光手段を介して取り込むことにより、前記計測対象物の移動を止めた瞬間の状態を捉えた複数の画像であって、前記画像上の直交する二つの座標軸のうち一方の座標軸が前記開口部の長さ方向に沿った位置を表し他方の座標軸が波長を表すものを検出する画像検出手段と、
前記光学レンズ系の前記焦点を合わせた各位置毎の前記画像に基づいて前記一方の座標の値が同一である画素点における光の強度を加算することにより前記一方の座標に対する光の強度分布を導出した後、その導出した前記光の強度分布に基づいてピントが合っている前記計測対象物の像の個数を数えることにより当該焦点を合わせた位置を移動する前記計測対象物の個数を求め、その求めた結果に基づいて前記焦点を合わせた各位置に対する前記計測対象物の分布を計測する計測処理手段と、
前記ピントが合っている前記計測対象物の像の各々について、前記一方の座標の値が前記計測対象物の像の所定位置であり前記他方の座標が所定の第一波長値である前記画像上の位置における光の強度と、前記一方の座標値が前記計測対象物の像の所定位置であり前記他方の座標が前記第一波長値と異なる所定の第二波長値である前記画像上の位置における光の強度とを求め、その求めた二つの光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、
を具備することを特徴とする測距装置。
It is arranged toward a large number of moving measurement objects and is configured to be movable back and forth along the direction toward the measurement object. Light from the measurement object is directed in the direction opposite to its traveling direction. A first optical system that reflects;
A second optical system that reflects the light reflected by the first optical system in the same direction as the traveling direction of the light from the measurement object;
An optical lens system that adjusts the in-focus position and the depth of focus to a desired value, and forms an image of light reflected by the second optical system;
A rectangular opening for capturing part of the light that has passed through the optical lens system, and light having each wavelength along the direction corresponding to the width direction of the opening of the light passing through the opening. A spectroscopic means having a diffraction grating
Each time the focus position of the optical lens system is shifted by at least the same distance as the focal depth by moving the first optical system, the optical lens system is moved at least once within a predetermined time using a shutter unit. A plurality of images capturing the state at the moment when the movement of the measurement object is stopped by capturing the passed light through the spectroscopic means, and one coordinate axis of two orthogonal coordinate axes on the image Image detecting means for detecting the position along the length direction of the opening and the other coordinate axis representing the wavelength;
The light intensity distribution with respect to the one coordinate is obtained by adding the light intensity at the pixel point having the same value of the one coordinate based on the image at each focused position of the optical lens system. After deriving, by determining the number of images of the measurement object that is in focus based on the derived intensity distribution of the light, obtain the number of the measurement object that moves the focused position, Measurement processing means for measuring the distribution of the measurement object for each focused position based on the obtained result; and
On each of the images of the measurement object in focus, the value of the one coordinate is a predetermined position of the image of the measurement object and the other coordinate is a predetermined first wavelength value. The position on the image where the light intensity at the position and the one coordinate value are a predetermined position of the image of the measurement object and the other coordinate is a predetermined second wavelength value different from the first wavelength value A temperature measuring means for measuring the temperature of the measurement object by a two-color temperature measurement method using the calculated two light intensities.
A distance measuring device comprising:
前記計測処理手段は、前記光の強度分布において光の強度が所定値以上である範囲を前記計測対象物に対応する像として特定した後、前記計測対象物の像の輪郭部分における光の強度の傾きの大きさが基準値よりも小さいときに前記計測対象物にはピントが合っていないと判断し、一方、前記計測対象物の像の輪郭部分における光の強度の傾きの大きさが前記基準値以上であるときに前記計測対象物にピントが合っていると判断することを特徴とする請求項5記載の測距装置。The measurement processing means specifies a range in which the light intensity is equal to or greater than a predetermined value in the light intensity distribution as an image corresponding to the measurement object, and then determines the light intensity in the contour portion of the image of the measurement object. When the magnitude of the inclination is smaller than a reference value, it is determined that the object to be measured is not in focus. On the other hand, the magnitude of the inclination of the light intensity at the contour portion of the image of the object to be measured is the reference value. 6. The distance measuring device according to claim 5, wherein when the value is equal to or greater than the value, it is determined that the object to be measured is in focus. 前記シャッタ手段は電子シャッタであることを特徴とする請求項1、2、3、4、5又は6記載の測距装置。7. The distance measuring device according to claim 1, wherein the shutter means is an electronic shutter. 連続発振のレーザ光又はパルス発振のレーザ光を前記第二光学系、前記第一光学系を介して前方に照射するレーザ発振手段を備えることを特徴とする請求項1又は2記載の測距装置。3. A distance measuring apparatus according to claim 1, further comprising laser oscillation means for irradiating a continuous wave laser beam or a pulsed laser beam forward through the second optical system and the first optical system. . 波長が前記第一波長値及び前記第二波長値以外の波長を有する連続発振のレーザ光又はパルス発振のレーザ光を前記第二光学系、前記第一光学系を介して前方に照射するレーザ発振手段を備えることを特徴とする請求項3、4、5、6又は7記載の測距装置。Laser oscillation in which a continuous wave laser beam or a pulsed laser beam having a wavelength other than the first wavelength value and the second wavelength value is irradiated forward through the second optical system and the first optical system. The distance measuring apparatus according to claim 3, 4, 5, 6, or 7, further comprising means. 前記光学レンズ系に、前記レーザ光の波長と同じ波長の光を透過するバンドパスフィルタを設けたことを特徴とする請求項8記載の測距装置。9. The distance measuring device according to claim 8, wherein the optical lens system is provided with a band-pass filter that transmits light having the same wavelength as the wavelength of the laser light. 所定の第一波長値及び前記第一波長値と異なる所定の第二波長値以外の波長を有するパルス発振のレーザ光を、移動している多数の計測対象物に向けて前方に放射するレーザ発振手段と、
前記計測対象物で反射して戻ってきた前記レーザ光を二つに分けるビームスプリッタと、
前記ビームスプリッタで分けられた一方の前記レーザ光を検出する光検出手段と、
前記レーザ発振手段が前記レーザ光を発した時間と前記光検出手段が前記レーザ光を検出した時間との時間差に基づいて当該レーザ光が当たった前記計測対象物までの距離を算出し、その算出した結果に基づいて前記計測対象物の奥行き方向の分布を計測する計測処理手段と、
前記多数の計測対象物に向けて設置され、前記ビームスプリッタで分けられた他方の前記レーザ光を含む前記計測対象物からの光を結像させる光学レンズ系と、
前記光学レンズ系を通過した光を、波長が前記第一波長値である第一の光と波長が前記第二波長値である第二の光と前記第一の光及び前記第二の光以外の第三の光とに分けるフィルタ手段と、
前記レーザ発振手段が前記レーザ光を発するタイミングに対応してシャッタ手段を切ることにより、前記計測対象物の移動を止めた瞬間の状態を捉えた画像であって、前記第一の光によって得られる第一画像、前記第二の光によって得られる第二画像及び前記第三の光によって得られる第三画像からなるものを検出する画像検出手段と、
前記第三画像に基づいて前記計測対象物で反射した前記レーザ光による前記計測対象物の像を認識し、前記計測対象物の像の前記第三画像上の位置に対応する前記第一画像上の位置における前記第一の光の強度と、前記計測対象物の像の前記第三画像上の位置に対応する前記第二画像上の位置における前記第二の光の強度とを求め、その求めた前記第一の光の強度及び前記第二の光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、
を具備することを特徴とする測距装置。
Laser oscillation for emitting a pulsed laser beam having a wavelength other than a predetermined first wavelength value and a predetermined second wavelength value different from the first wavelength value toward a large number of moving measurement objects Means,
A beam splitter that divides the laser light reflected back from the measurement object into two parts;
Light detection means for detecting one of the laser beams divided by the beam splitter;
Based on the time difference between the time when the laser oscillating means emits the laser light and the time when the light detecting means detects the laser light, the distance to the measurement object struck by the laser light is calculated, and the calculation Measurement processing means for measuring the distribution of the measurement object in the depth direction based on the results,
An optical lens system configured to image light from the measurement object including the other laser beam, which is installed toward the multiple measurement objects and divided by the beam splitter;
The light that has passed through the optical lens system, except for the first light whose wavelength is the first wavelength value, the second light whose wavelength is the second wavelength value, the first light, and the second light. Filter means to divide into the third light of
An image capturing the state at the moment when the movement of the measurement object is stopped by turning off the shutter unit corresponding to the timing at which the laser oscillation unit emits the laser beam, and is obtained by the first light. An image detecting means for detecting a first image, a second image obtained by the second light, and a third image obtained by the third light;
Recognizing an image of the measurement object by the laser beam reflected by the measurement object based on the third image, on the first image corresponding to a position on the third image of the image of the measurement object Determining the intensity of the first light at the position of the second object and the intensity of the second light at the position on the second image corresponding to the position on the third image of the image of the measurement object. Temperature measuring means for measuring the temperature of the measurement object by a two-color temperature measurement method using the intensity of the first light and the intensity of the second light;
A distance measuring device comprising:
所定の第一波長値及び前記第一波長値と異なる所定の第二波長値以外の波長を有するパルス発振のレーザ光を、移動している多数の計測対象物に向けて前方に放射するレーザ発振手段と、
前記計測対象物で反射して戻ってきた前記レーザ光を二つに分けるビームスプリッタと、
前記ビームスプリッタで分けられた一方の前記レーザ光を検出する光検出手段と、
前記レーザ発振手段が前記レーザ光を発した時間と前記光検出手段が前記レーザ光を検出した時間との時間差に基づいて当該レーザ光が当たった前記計測対象物までの距離を算出し、その算出した結果に基づいて前記計測対象物の奥行き方向の分布を計測する計測処理手段と、
前記多数の計測対象物に向けて設置され、前記ビームスプリッタで分けられた他方の前記レーザ光を含む前記計測対象物からの光を結像させる光学レンズ系と、
前記光学レンズ系を通過した光の一部を取り込むための長方形状の開口部と、前記開口部を通過した光をその光の前記開口部の幅方向に対応する方向に沿って各波長の光に分光する回折格子とを有する分光手段と、
前記レーザ発振手段が前記レーザ光を発するタイミングに対応してシャッタ手段を切ることにより、前記計測対象物の移動を止めた瞬間の状態を捉えた画像であって、前記画像上の直交する二つの座標軸のうち一方の座標軸が前記開口部の長さ方向に沿った位置を表し他方の座標軸が波長を表すものを検出する画像検出手段と、
前記画像に基づいて前記計測対象物で反射した前記レーザ光による前記計測対象物の像を認識し、前記一方の座標の値が前記計測対象物の像の所定位置であり前記他方の座標が前記第一波長値である前記画像上の位置における光の強度と、前記一方の座標値が前記計測対象物の像の所定位置であり前記他方の座標が前記第二波長値である前記画像上の位置における光の強度とを求め、その求めた二つの光の強度を用いて二色温度計測法により前記計測対象物の温度を計測する温度計測手段と、
を具備することを特徴とする測距装置。
Laser oscillation for emitting a pulsed laser beam having a wavelength other than a predetermined first wavelength value and a predetermined second wavelength value different from the first wavelength value toward a large number of moving measurement objects Means,
A beam splitter that divides the laser light reflected back from the measurement object into two parts;
Light detection means for detecting one of the laser beams divided by the beam splitter;
Based on the time difference between the time when the laser oscillating means emits the laser light and the time when the light detecting means detects the laser light, the distance to the measurement object struck by the laser light is calculated, and the calculation Measurement processing means for measuring the distribution of the measurement object in the depth direction based on the results,
An optical lens system configured to image light from the measurement object including the other laser beam, which is installed toward the multiple measurement objects and divided by the beam splitter;
A rectangular opening for capturing part of the light that has passed through the optical lens system, and light having each wavelength along the direction corresponding to the width direction of the opening of the light passing through the opening. A spectroscopic means having a diffraction grating
An image capturing the state at the moment when the movement of the measurement object is stopped by turning off the shutter unit in response to the timing at which the laser oscillation unit emits the laser beam, and two orthogonal directions on the image Image detecting means for detecting one of the coordinate axes representing a position along the length direction of the opening and the other coordinate axis representing a wavelength; and
Recognizing the image of the measurement object by the laser beam reflected by the measurement object based on the image, the value of the one coordinate is a predetermined position of the image of the measurement object, and the other coordinate is the The intensity of light at the position on the image that is the first wavelength value, and the one coordinate value on the image that is the predetermined position of the image of the measurement object and the other coordinate is the second wavelength value A temperature measuring means for determining the light intensity at the position, and measuring the temperature of the measurement object by a two-color temperature measurement method using the two calculated light intensities;
A distance measuring device comprising:
JP24098098A 1998-08-27 1998-08-27 Ranging device Expired - Fee Related JP4048336B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24098098A JP4048336B2 (en) 1998-08-27 1998-08-27 Ranging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24098098A JP4048336B2 (en) 1998-08-27 1998-08-27 Ranging device

Publications (2)

Publication Number Publication Date
JP2000074626A JP2000074626A (en) 2000-03-14
JP4048336B2 true JP4048336B2 (en) 2008-02-20

Family

ID=17067536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24098098A Expired - Fee Related JP4048336B2 (en) 1998-08-27 1998-08-27 Ranging device

Country Status (1)

Country Link
JP (1) JP4048336B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4855009B2 (en) * 2005-08-10 2012-01-18 オリンパス株式会社 Scanning fluorescence microscope
JP2012013580A (en) * 2010-07-01 2012-01-19 Central Res Inst Of Electric Power Ind System and program for simultaneously measuring shape, diameter and temperature of particle and droplet
DE102015100706A1 (en) * 2014-12-15 2016-06-16 Vorwerk & Co. Interholding Gmbh Automatically movable cleaning device
JP2019211998A (en) * 2018-06-04 2019-12-12 富士通株式会社 Inspection support program, inspection support method and inspection support device

Also Published As

Publication number Publication date
JP2000074626A (en) 2000-03-14

Similar Documents

Publication Publication Date Title
JP5688722B2 (en) Improved optical ranging camera
US9013711B2 (en) Contour sensor incorporating MEMS mirrors
JP5966467B2 (en) Ranging device
WO1997001111B1 (en) Improved optical ranging camera
KR20140027815A (en) 3d image acquisition apparatus and method of obtaining color and depth images simultaneously
JPH0754684B2 (en) electronic microscope
US3786184A (en) Focusing
CN107810403A (en) Multiple beam and the beam imaging of convergence light irradiation cross light
CN103486979A (en) Hybrid sensor
JP2004045266A (en) Three-dimensional information detection method and apparatus
KR101175780B1 (en) 3-Dimension depth camera using the Infrared laser projection display
US6927856B2 (en) Method for imaging measurement, imaging measurement device and use of measured information in process control
CN104048813B (en) The recording method of a kind of damage from laser optical element process and device thereof
JP4048336B2 (en) Ranging device
JPH10513287A (en) Method and apparatus for recording and imaging images of objects, images
CN108253905A (en) Vertical color cofocus scanning method and system
CN107782732A (en) Automatic focusing system, method and image detection instrument
CN101886951B (en) System and method for analyzing movable target aiming performance of high repetition frequency laser
KR101920012B1 (en) Depth Extraction Apparatus and Method Using Retroreflective Film
KR102040629B1 (en) Depth Extraction Apparatus Using Camera
JP3184641B2 (en) Edge detecting device for tapered hole and its depth measuring device
JPH0949706A (en) Method for measuring moving amount of object to be measured in front/rear direction with using laser light
WO2023112452A1 (en) Measurement device and measurement method
JPH04110706A (en) Device for taking three-dimensional form data
JP2003307484A (en) Particle feature photographing/measuring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071113

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131207

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees