JP4168591B2 - Infrared imaging device - Google Patents

Infrared imaging device Download PDF

Info

Publication number
JP4168591B2
JP4168591B2 JP2000387156A JP2000387156A JP4168591B2 JP 4168591 B2 JP4168591 B2 JP 4168591B2 JP 2000387156 A JP2000387156 A JP 2000387156A JP 2000387156 A JP2000387156 A JP 2000387156A JP 4168591 B2 JP4168591 B2 JP 4168591B2
Authority
JP
Japan
Prior art keywords
target
distance
infrared imaging
visual axis
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000387156A
Other languages
Japanese (ja)
Other versions
JP2002188914A (en
JP2002188914A5 (en
Inventor
雄一 中村
光幸 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000387156A priority Critical patent/JP4168591B2/en
Publication of JP2002188914A publication Critical patent/JP2002188914A/en
Publication of JP2002188914A5 publication Critical patent/JP2002188914A5/ja
Application granted granted Critical
Publication of JP4168591B2 publication Critical patent/JP4168591B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Radiation Pyrometers (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、航空機等の移動体に搭載される赤外線撮像装置に係り、特に目標までの距離を得るための測距技術に関するものである。
【0002】
【従来の技術】
赤外線を用いた赤外線撮像装置には2つの技術があった。第1の技術は移動体に搭載された視軸駆動部を有する1台の赤外線撮像部の視軸を一定期間目標に指向させ続け、その間の移動量と目標への視軸指向方向とで形成される三角形を基に、目標との距離を演算により求める。
【0003】
第2の技術は視軸を固定した2台の赤外線撮像部により目標を撮像し、それぞれの赤外線撮像部で撮像した画像信号における目標までの走査時間から目標方向を求め、その2つの目標方向と2台の赤外線撮像部間の距離とで形成される三角形を基に、目標との距離を演算により求める。
【0004】
図14は従来の第1の技術による構成例を示す図である。図において、1は赤外線撮像部、3は表示器、29は機体情報信号、34は目標追尾指令信号発生器、36は目標追尾指令信号、37は視軸駆動部、38は視軸操作器、39は画像追尾処理器、40は角度入力信号、41は目標角度信号、58は角度信号、51は角速度指令演算器、52は角速度誤差演算器、53は駆動部、54はレートジャイロ、55は角速度信号、56は制御出力信号、57は角速度指令信号、59は1台の撮像部による測距演算器、78は角度検出器、8 は撮像ビデオ信号である。
【0005】
次に動作について説明する。赤外線撮像部1は、撮像した画像を撮像ビデオ信号8として表示器3に送信する。表示器3は、撮像ビデオ信号8を受信し、赤外線撮像部1で撮像された画像を表示する。まず、オペレータは目標を発見するために、表示器3の画像を見ながら視軸操作器38を操作する。オペレータの操作により、視軸操作器38から角度入力信号40が視軸駆動部37の角速度指令演算器51に送信される。
【0006】
角速度指令演算器51は、角度入力信号40と、赤外線撮像部1の視軸が機軸となす角度を検出する角度検出器78からの角度信号58と比較し、その差分をなくすよう角速度を演算した結果をそのまま角速度指令信号57として視軸駆動部37の角速度誤差演算器52に送信する。
【0007】
角速度誤差演算器52は、赤外線撮像部1の視軸の角速度を、慣性空間を基準として検出する視軸駆動部37のレートジャイロ54からの角速度信号55と角速度指令信号57とを比較してその差分を誤差とし、これが無くなるよう演算し、結果を制御出力信号56として視軸駆動部37の駆動部53に送信する。駆動部53は、制御出力信号56を受信し、赤外線撮像部1の視軸及びレートジャイロ54を駆動する。
【0008】
角速度誤差演算器52は、レートジャイロ54からの角速度信号55と角速度指令演算器51からの角速度指令信号57との差分が無くなるよう制御出力信号56を演算し続けるため、赤外線撮像部1の視軸の角速度は所望の設定角速度と一致することになる。
【0009】
このようにして、オペレータは表示器3の画像を見ながら視軸操作器38を操作することにより、任意の方向に赤外線撮像部1の視軸を指向させることができ、目標を発見することができる。
【0010】
オペレータが目標を発見し、測距する目標と判断すると、目標追尾指令信号発生器38の操作により、目標追尾指令信号40が画像追尾処理器39に送信される。画像追尾処理器39は、目標追尾指令信号発生器34からの目標追尾指令信号36を受信すると撮像ビデオ信号8を受信し、画像から目標を抽出し、以降その目標を継続的に画像追尾しながら、入力した角度信号58と画像内の目標と視軸との誤差とから目標の方向を算出し、目標角度信号41として角速度指令演算器51と1台の撮像部による測距演算器59に送信する。
【0011】
角速度指令演算器51は、画像追尾処理器39から目標角度信号41を受信すると、目標追尾を行うための角速度を演算し、その結果を角速度指令信号57として角速度誤差演算器52へ送信する。以降、画像追尾処理器39の送信する目標角度信号41に従って角速度指令信号57を演算しつづけることで、画像追尾している目標に対し、視軸を指向し続ける。
【0012】
測距演算器59は、目標追尾指令信号発生器34からの目標追尾指令信号40を受信すると、時間計測を開始するとともに、画像追尾処理器39からの目標角度信号41と、機体搭載他装置からの機体情報信号29とを入力し、記憶する。続いて、計測した時間がΔt秒になったところで、時間間隔と、機体搭載他装置からの機体情報信号29と、Δt秒前に記憶した機体搭載他装置からの機体情報信号29とから機体の位置の変化量を演算により求める。
【0013】
さらに求めた機体の位置の変化量と、機体搭載他装置からの機体情報信号29と、Δt秒前に記憶した機体搭載他装置からの機体情報信号29と、画像追尾処理器39からの目標角度信号41と、Δt秒前に記憶した画像追尾処理器39からの目標角度信号41とから、視軸の交点を演算により求めることで目標の距離を演算により求める。
【0014】
図15は従来の第1の技術の装置を搭載した移動体の測距動作を説明する図である。図において、9は目標、79は目標 9を発見し追尾を指令したときの移動体の位置、80は移動体の位置 79における目標 9を指向する視軸と機軸のなす角度、81は移動体の位置 79よりΔt秒後の航空機の位置、82は航空機の位置 81における目標 9を指向する視軸と機軸のなす角度、83は移動体の移動量である。
【0015】
オペレータが目標9を発見し、これを追尾する目標と判断した場合、視軸操作器38の操作により視軸を目標に向け、目標追尾指令信号発生器34の操作により目標追尾指令信号を送信される。このときが、目標を発見し追尾を指令したときの移動体の位置79である。
【0016】
目標追尾指令信号が送信されると、ビデオ信号から画像追尾処理により目標が抽出され、目標方向に視軸を指向し続ける。移動体の位置 79よりΔt秒後の航空機の位置 81においても、表示ビデオ信号から画像追尾処理により目標が抽出され、航空機の位置 81における目標を指向する視軸と機軸のなす角度82が演算により求められ、目標を視軸が指向している。
【0017】
ここで、目標を発見し追尾を指令したときの移動体の位置79から、移動体の位置 79よりΔt秒後の航空機の位置 81への位置の変化量83と、移動体の位置 79における目標を指向する視軸と機軸のなす角度80と、航空機の位置 81における目標を指向する視軸と機軸のなす角度82とで構成される三角形の交点の位置を演算により求めることで、目標9の距離が求められる。
【0018】
図16は第2の技術の構成例を示す図である。図において、2はカーソル表示器、4はカーソル操作器、5は2台の撮像部による測距演算器、7はカーソル位置信号、84は同期発生器、85は目標抽出器、86は同期信号、87は目標走査時間信号である。
【0019】
次に動作について説明する。2台の赤外線撮像部1は同一の視野角を有し、所定の間隔を持って横列に配置する。同期発生器84は同期信号87を赤外線撮像部1の2台に出力する。赤外線撮像部1は入力した同期信号86により走査の同期を取り、撮像する。赤外線撮像部1で撮像した画像は撮像ビデオ信号87としてカーソル表示器2及び目標抽出器85に出力される。カーソル表示器2は、入力したカーソル位置信号7に基づき、入力した撮像ビデオ信号87にカーソルを重畳させ、ビデオ信号8として表示器3に出力する。
【0020】
表示器3は、ビデオ信号8を受信し、表示する。まず、オペレータは目標を指定するために、表示器3を見ながらカーソルが目標に重なるように2台のカーソル操作器4を操作する。オペレータの操作によりカーソル操作器4はカーソル位置指令7をカーソル表示器2及び目標抽出器86に出力する。
【0021】
目標抽出器86は、カーソル操作指令7に従って入力した撮像ビデオ信号87から目標を抽出する。さらに抽出した目標位置の走査時間を目標走査時間信号88として2台の撮像部による測距演算器5に出力する。2台の撮像部による測距演算器5は、入力した目標走査時間信号88と、全画面の走査時間と、赤外線撮像部1の視野角とから目標の方向を演算により求める。
【0022】
さらに、2台の赤外線撮像部1の画面中の目標方向と2台の赤外線撮像部1の間隔で形成される三角形の頂点を演算により求めることで、目標の距離が求められる。
【0023】
図17は第2の技術の装置を搭載した移動体の測距動作を説明する図である。図において、10は第1の赤外線撮像部、11は第2の赤外線撮像部、12は赤外線撮像部10と目標9のなす角、13は赤外線撮像部11と目標9のなす角、14は2台の赤外線撮像部の間隔、15は赤外線撮像部10で撮像した目標9の表示、16は赤外線撮像部11で撮像した目標9の表示、90は赤外線撮像部10で撮像した目標9の画像を抽出した点の走査時間、91は赤外線撮像部11で撮像した目標9の画像を抽出した点の走査時間、92は画面全体の走査時間である。
【0024】
17(a)に示すように目標9を赤外線撮像部10及び赤外線撮像部11で撮像すると、 17(b)のごとく表示される。このとき、目標9は 17 (c)に示す通り走査時間が計測される。画面全体の走査時間91は視野角に相当し、赤外線撮像部10で撮像した目標9の画像を抽出した点の走査時間89と画面全体の走査時間91との比、及び赤外線撮像部11で撮像した目標9の画像を抽出した点の走査時間90と画面全体の走査時間91との比をとることで、目標のなす角を算出できる。
【0025】
従って、赤外線撮像部10で撮像した目標9の画像を抽出した点の走査時間89と、赤外線撮像部11で撮像した目標9の画像を抽出した点の走査時間90と、画面全体の走査時間91とを比較し、赤外線撮像部10と目標9のなす角12と、赤外線撮像部11と目標9のなす角13が算出される。赤外線撮像部10と目標9のなす角12と、赤外線撮像部11と目標9のなす角13と、2台の赤外線撮像部の間隔14により形成される三角形の頂点を演算で求めることで目標9の距離が算出される。
【0026】
【発明が解決しようとする課題】
以上の様な従来の赤外線撮像装置においては、次のような問題点があった。従来の第1の技術は、測距開始から結果を得るまでに測距精度を満たす三角形を形成するまでの移動体移動時間Δtや測距計算のためのフィルタ静定時間等に長時間が必要であり、結果が得られるまでに時間がかかった。また、測距演算を行うために移動体は定められた軌道に添って移動する必要があった。
【0027】
従来の第2の技術は、走査時間により距離を求めるため、正確な走査時間を得る必要があり、そのため素子走査周期の同期を取る必要があるのみならず、素子走査速度も揃える必要があった。
【0028】
この発明は、上記のような従来の問題点を解消するためになされたもので、移動体等に搭載される撮像部により瞬時に目標の距離を計測できる赤外線撮像装置を得ることを目的とする。
【0029】
【課題を解決するための手段】
第1の発明における赤外線撮像装置は、2次元配列の凝視型赤外線撮像素子を有し、横列に配置した同一視野角の2台の赤外線撮像部と、撮像した画像中の目標位置をオペレータの指示に従い出力するカーソル操作器とにより目標の画像中の位置を指定し、指定された画像中の目標位置に対応する赤外線撮像素子の画素の位置から目標方向を算出し、2台の赤外線撮像部からの目標方向と2台の赤外線撮像部間の距離で形成される三角形の頂点を演算により求めることで距離を求められるよう構成したものである。
【0030】
第2の発明における赤外線撮像装置は、第1の発明において2台の赤外線撮像部の赤外線撮像素子に3〜5μm帯を検出するものと、8〜12μm帯を検出するものを使用し、波長帯の違いによる大気透過率の違いによる放射強度比から距離を求め、第1の発明による測距結果と比較して精度の高い方を選択することで、遠距離における測距精度低下を防止するよう構成したものである。
【0031】
第3の発明における赤外線撮像装置は、第1と第2の発明において、撮像画像中より指定された目標を抽出し、その目標を継続的に追尾し、追尾している目標に対して測距を行うことで、連続的に測距を行えるよう構成したものである。
【0032】
第4の発明における赤外線撮像装置は、第1と第2の発明において、赤外線撮像部の視軸を視軸駆動部を用いて回転できるようにし、画像中の目標を追尾して常に視軸を目標に向けて指向し、目標方向を視軸指向方向から算出し、2台の赤外線撮像部からの目標方向と2台の赤外線撮像部間の距離で形成される三角形の頂点を演算により求めることにより測距を行うことで、視野角の狭い赤外線撮像部を用て測距精度を向上しながら視界を広くとれるよう構成したものである。
【0033】
第5の発明における赤外線撮像装置は、第4の発明において、視軸駆動部を構成していた角度検出器の代わりに積分器を用いることで、安価になるよう構成したものである。
【0034】
第6の発明における赤外線撮像装置は、第4と第5の発明において、目標を追尾中にΔt秒の間隔を空けて視軸の方向を取得し、その間の移動体の変化量とΔt秒間隔前後の視軸の方向とで形成される三角形の頂点を演算により求めることにより目標の距離を求める測距演算器と、複数の測距演算器の測距結果から精度の高い測距結果を選択する測距結果選択器とにより、測距時間の短縮と遠距離での測距精度向上を図れるよう構成したものである。
【0035】
第7の発明における赤外線撮像装置は、第6の発明において赤外線撮像部と視軸駆動部と画像追尾処理器をN台(Nは3以上)組合せることで、移動体自身が視野を遮ることによる死角、または障害物、または大気条件により目標が撮像不能になる赤外線撮像部が生じても、他の撮像可能な赤外線撮像部を用いて測距を継続すると共に、測距結果から目標を撮像不能なため目標に視野を指向し続けられない赤外線撮像部の目標への視軸指向方向を算出し、目標の再発見を容易にするよう構成したものである。
【0036】
【発明の実施の形態】
実施の形態1.
以下、この発明における実施の形態1を図1により説明する。図1は、この発明の実施の形態1を示す赤外線撮像装置の構成図である。図において、8は従来の第1の技術と同一のもの、2、4、7は従来の第2の技術と同一のもの、1、5は従来の第2の技術を改良したもの、6は撮像信号である。
【0037】
次に動作について説明する。2台の赤外線撮像部1は同一の視野角を有し、所定の間隔を持って横列に配置する。赤外線撮像部1は、2次元配列の凝視型赤外線撮像素子を有し、撮像した画像を画素の位置とそれぞれの画素の輝度情報を有する撮像信号6として出力するよう改良したものである。
【0038】
撮像信号6はカーソル表示器2に出力される。カーソル表示器2は、入力したカーソル位置信号7に基づき、入力した撮像信号6の指定された位置にカーソルを重畳させ、ビデオ信号に変換してビデオ信号8として表示器3に出力する。表示器3は、ビデオ信号8を受信し、表示する。
【0039】
まず、オペレータは目標を指定するために、表示器3を見ながらカーソルが目標に重なるように2台のカーソル操作器4を操作する。オペレータの操作によりカーソル操作器4はカーソル位置信号7をカーソル表示器2と、2台の撮像部による測距演算器5とに出力する。2台の撮像部による測距演算器5はカーソル位置信号7を入力し、画面上のカーソル位置を撮像素子上画素位置に変換し、撮像素子上画素位置と視野角度とから目標の方向を算出するよう改良したものである。
【0040】
さらに2台の撮像部による測距演算器5は、従来の第2の技術と同様の動作により2台の赤外線撮像部1の画面上の目標方向と、2台の赤外線撮像部1の間隔とで形成される三角形の頂点を演算により求めることで、目標の距離が瞬時に求められる。
【0041】
図2は測距動作を説明する図である。図において、9〜16は従来の第2の技術と同一のもの、17は赤外線撮像部10で撮像した目標9の画素位置、18は赤外線撮像部10の画素数、19は赤外線撮像部11で撮像した目標9の画素位置、20は赤外線撮像部11の画素数である。
【0042】
図2(a)に示すように赤外線撮像部10と、赤外線撮像部11で撮像すると、図2(b)のごとく表示される。表示された目標の位置は、図2(c)に示すように撮像素子上の位置に対応しており、赤外線撮像部10で撮像した目標9の表示15と赤外線撮像部10で撮像した目標9の画素位置17と、赤外線撮像部11で撮像した目標9の表示16と赤外線撮像部11で撮像した目標9の画素位置19とがそれぞれ対応している。
【0043】
赤外線撮像部10で撮像した目標9の画素位置17と、赤外線撮像部10の画素数18とから、第1の赤外線撮像部10と目標9のなす角12が算出されると共に、第2の赤外線撮像部11で撮像した目標9の画素位置19と、赤外線撮像部11の画素数18とから、第2の赤外線撮像部11と目標9のなす角13が算出される。
【0044】
これにより図2(a)に示すように赤外線撮像部10と目標9のなす角12と、赤外線撮像部11と目標9のなす角13と、2台の赤外線撮像部の間隔14により形成される三角形の頂点を演算で求めることで目標9の距離が算出される。
【0045】
実施の形態2.
図3は、この発明の実施の形態2を示す赤外線撮像装置の構成図である。図において8、29は従来の第1の技術と同一のもの、2、4、7は従来の第2の技術と同一のもの、5は実施の形態1と同一のもの、1a、1bは実施の形態1を改良したもの、20は放射強度による測距演算部、21は透過率算出器、22aは目標の4μm帯放射強度算出器、22bは目標の10μm帯放射強度算出器、23は放射強度比較器、24は測距結果選択器、25aは4μm帯の透過率信号、25bは10μm帯の透過率信号、26aは4μm帯の放射強度信号、26bは10μm帯放射強度信号、27は2台の撮像部による距離信号、28は放射強度比による距離信号である。
【0046】
次に動作について説明する。実施の形態1の装置では、遠距離の目標を測距する場合は2台の赤外線撮像部と目標とで構成する三角形が鋭角となるために精度が低下する。遠距離での精度低下を防止するようにする。2台の赤外線撮像部1a及び1bは同一の視野角を有し、所定の間隔を持って横列に配置する。また2台の赤外線撮像部1a及び1bはそれぞれ異なる波長帯に感度を有し、1aは3〜5μmの波長に感度を有する赤外線撮像部、1bは8〜12μmの波長に感度を有する赤外線撮像部である。
【0047】
また2台の赤外線撮像部1a及び1bは2次元配列の凝視型赤外線撮像素子を有し、撮像した画像を画素の位置とそれぞれの画素の輝度情報を有する撮像信号6としてカーソル表示器2と、放射強度による測距演算部20の放射強度算出器22とに出力する。以下、実施の例1と同様の動作によりオペレータがカーソルを目標に合わせ、測距演算器5により距離を算出し、2台の撮像部による距離信号27として測距結果選択器24に出力する。
【0048】
同時に、放射強度による測距演算部20の透過率算出器21は、機体情報29に含まれる大気条件と、自己の高度と、姿勢とから各波長帯に対する目標の距離と大気透過率との関連を算出し、透過率信号25として放射強度算出器22に出力する。放射強度による測距演算部20の放射強度算出器22は、入力した透過率信号25と、撮像信号6と、カーソル位置指令7と、仮定した距離とからそれぞれの波長帯における目標の放射強度を算出し、放射強度信号26として放射強度比較器23に出力する。
【0049】
放射強度による測距演算部20の放射強度比較器23は入力した4μm帯の放射強度信号26aと、10μm帯の放射強度信号26bとを比較し、各波長帯の放射強度比が設定した値と等しいかどうかを判定する。放射強度算出器22と放射強度比較器23とは、各波長帯の放射強度比が設定した値と等しくなるまで仮定の距離を変化させ、等しくなった時の仮定の距離を目標の距離を、放射強度比による距離信号28として測距結果選択器24に出力する。
【0050】
測距結果選択器24は、2台の撮像部による距離信号27と、放射強度比による距離信号28とから、設定した距離よりも近距離の場合は2台の撮像部による距離信号27を、遠距離の場合は放射強度比による距離信号28を選択し、これを目標の距離として出力する。これにより、遠距離においても精度の低下を抑えることができる。
【0051】
図4は、放射強度による測距動作を説明する図であり、目標の距離と大気透過率との関係を2つの波長帯について示したものの一例である。図に示すように、2つの波長帯は異なった大気透過特性を示す。大気透過率は、この他に大気温度、大気湿度、目標温度、高度の影響を受けるが、大気温度、大気湿度及び高度については予めデータを取得しておくことが可能である。そのため、目標の特徴量として各波長帯での放射エネルギー量比を与えておくことで、赤外線撮像部で検出した2つの波長帯での放射エネルギー量及び2つの波長帯での大気透過率とより、各波長帯での放射エネルギー比が設定値と等しくなる目標の距離を算出することが可能となる。
【0052】
図5は2台の撮像部の測距精度を説明する図である。図において、30は近距離における単位距離変化、31は30による視軸のなす角の変化量、32は遠距離における単位距離変化、33は32による視軸のなす角の変化量である。図に示す通り、同一の距離の変化に対し、近距離と遠距離の場合を比べると、遠距離の場合の視軸のなす角の変化量33は、近距離の場合の視軸のなす角の変化量31に比べて変化量が少なく、遠距離においては測距精度が低下することがわかる。
【0053】
図4に示すように、放射強度の変化量を元に測距する方法では、遠距離においても2つの波長帯の大気透過率の比は、目標の距離変化に対して大きく変化するので精度の低下が少ない。そのため、実施の形態1の構成に比べて遠距離での精度が少ない。これらより、近距離で精度の高い2台の撮像部による測距と、遠距離で精度の低下の少ない放射強度による測距とを組み合わせることで、距離による精度低下の少ない測距が行える。
【0054】
実施の形態3.
図6は、この発明の実施の形態3を示す赤外線撮像装置の構成図である。図において3、8は従来の第1の技術と同一のもの、4、7は従来の第2の技術と同一のもの、1a、1b、20、24、27〜29は実施の形態2と同一のもの、2と5は実施の形態1を改良したもの、20は実施の形態2を改良したもの、34は目標追尾指令信号発生器、35は画像抽出処理器、36は追尾指令信号、37は目標位置信号である。
【0055】
次に動作について説明する。実施の形態1及び実施の形態2の装置では移動体または目標が移動した場合、測距を実施するには再度オペレータの操作を必要とする。指定された目標を自動的に抽出しつづけ、オペレータの操作無しに継続的に測距できるようにする。2台の赤外線撮像部1a及び1bは2次元配列の凝視型赤外線撮像素子を有し、同一の視野角を有し、所定の間隔を持って横列に配置する。2台の赤外線撮像部1a及1bで撮像した画像は、画素の位置とそれぞれの画素の輝度情報を有する撮像信号6としてカーソル表示器2と、画像抽出処理器35と、放射強度による測距演算部20とに出力される。
【0056】
表示器3は、ビデオ信号8を受信し、表示する。まず、オペレータは目標を指定するために、表示器3を見ながらカーソルが目標に重なるように2台のカーソル操作器4を操作する。オペレータの操作によりカーソル操作器4はカーソル位置指令7を画像抽出処理器35に出力する。画像抽出処理器35は、目標追尾指令信号36が入力される前は、カーソル操作器4の出力するカーソル位置指令7をそのまま目標位置信号37としてカーソル表示器2に出力する。
【0057】
オペレータがカーソルを目標に重ねた後、目標追尾指令信号発生器34を操作することで、目標追尾指令信号発生器34は目標追尾指令信号36を画像抽出処理器35に出力する。画像抽出処理器35は追尾指令信号発生器34を入力すると、入力した撮像信号6から目標を抽出するとともに、その目標を抽出し、画面上で追尾しつづけ、その位置を目標位置信号37としてカーソル表示器2と、2台の撮像部による測距演算器5と、放射強度による測距演算部20とに出力する。
【0058】
2台の撮像部による測距演算器5と放射強度による測距演算部20は、入力した目標位置信号37から素子上の目標位置を求めるよう改良したものであり、素子上の目標位置を求めた後は実施の形態2と同じ動作により目標の距離を算出する。測距結果選択器24は、実施の形態2と同様の動作により2台の撮像部による距離信号27と、放射強度比による距離信号28とから目標の距離を選択し、これを目標の距離として出力する。
【0059】
なお、画像抽出処理器35が継続的に目標位置信号37を出力するため、目標の距離はオペレータが操作することなく連続的に算出し続けることができる。
【0060】
実施の形態4.
図7は、この発明の実施の形態4を示す赤外線撮像装置の構成図である。図において34、36、37、38、39、40、41は従来の第1の技術と同一のもの、6は実施の形態1と同一のもの、1a、1b、24、27、28、は実施の形態2と同一のもの、3は実施の形態1を改良したもの、5、20は実施の形態2を改良したものである。
【0061】
次に動作について説明する。実施の形態1、実施の形態2及び実施の形態3の装置では、赤外線撮像部が固定されているため視界が狭く、視界を少しでも広げるために視野角を広げると測距精度が低下する。視界を広くし、かつ測距精度を上げるようにする。2台の赤外線撮像部1a及び1bはそれぞれ視軸駆動部37の画像追尾処理器39に取り付け、視軸を回転できるようにする。赤外線撮像部1a及び1bは撮像信号6を表示器3と、放射強度による測距演算部20と視軸駆動部37の画像追尾処理器39とに出力する。
【0062】
表示器3は、撮像信号6を入力し、表示するよう改良したものである。以下、2台の赤外線撮像部それぞれについて、オペレータが視軸を目標に指向させるよう視軸操作器38を操作し、追尾指令信号発生器34を操作することで、画像追尾処理器39と視軸駆動部37により従来の第1の技術と同様の動作にて、オペレータの指定した目標に対し2台の赤外線撮像部1の視軸を目標に追尾しつづけることができる。
【0063】
これにより、赤外線撮像部の視野角を狭くしても、視軸を回転させることで視界を広げることができる。
【0064】
2台の撮像部による測距演算器5は、カーソル位置信号の代わりに画像追尾処理器39からの目標角度信号41を入力し、これを目標の方向として測距を行うよう改良したものであり、演算結果を2台の撮像部による測距結果27として測距結果選択器24に出力する。放射強度による測距演算部20は、画面中心に相当する画素位置の輝度値と目標角度信号41とから測距演算を行うよう改良したものであり、放射強度による測距結果28として測距結果選択器24に出力する。
【0065】
測距結果選択器24は実施の形態2と同様の動作により、入力した測距結果を選択する。狭い視野角を有する赤外線撮像部で測距を行うことにより、目標の方向の角度検出精度が上がるため、2台の撮像部による測距演算の精度を向上させることができる。
【0066】
図8は測距動作を説明する図である。図において、9、14は従来の第2の技術と同一のもの、42は第1の視軸駆動部を有する赤外線撮像部、43は第2の視軸駆動部を有する赤外線撮像部、44は赤外線撮像部42の視軸、45は赤外線撮像部43の視軸、46は赤外線撮像部42の視野、47は赤外線撮像部43の視野、48は赤外線撮像部間を結ぶ線分と視軸44のなす角、49は赤外線撮像部間を結ぶ線分と視軸45のなす角である。
【0067】
赤外線撮像部42の視野46と赤外線撮像部43の視野47が狭い場合、視軸を正面に向けた状態では目標9が視野に入らない。しかし視軸を動かすことで目標9を探し、視野に入れることができる。目標9に赤外線撮像部42の視軸44と赤外線撮像部43の視軸45を指向させることで、赤外線撮像部間を結ぶ線分と視軸44のなす角48と、赤外線撮像部間を結ぶ線分と視軸45のなす角49と、2台の赤外線撮像部の間隔14により形成される三角形の頂点を演算で求めることで目標9の距離が算出される。
【0068】
実施の形態5.
図9は、この発明の実施の形態5を示す赤外線撮像装置の構成図である。図において40、41、51〜59は従来の第1の技術と同一のもの、1は実施の形態3と同一のもの、50は積分器である。
【0069】
次に動作について説明する。実施の形態4で使用されている角度検出器は高価である。角度検出器の代わりの手段を用いることで、低コスト化を図る。視軸駆動部37は、実施の形態4における角度検出器の代わりに積分器50を組み合わせて改良したものである。レートジャイロ54の角速度信号55を積分器50に出力する。
【0070】
積分器50は入力した角速度信号55を積分することで視軸の角度を求め、角度信号58として出力する。以下、実施の形態4と同様の動作により、目標の測距を行う。
【0071】
実施の形態6.
図10は、この発明の実施の形態6を示す赤外線撮像装置の構成図である。図において29、34、36、37、38、40、41、58、59は従来の第1の技術と同一のもの、6は実施の形態1と同一のもの、1、27、28は実施の形態2と同一のもの、3、5、20、39は実施の形態4と同一のもの、24は実施の形態2を改良したもの、60は1台の撮像部による測距結果、61は視軸駆動部付き赤外線撮像部である。
【0072】
次に動作について説明する。実施の形態4及び実施の形態5の装置よりも、遠距離における測距精度を向上する。赤外線撮像部1はそれぞれ表示器3と、目標追尾指令信号発生器34と、視軸駆動部37と、視軸操作器38と、視軸駆動部37の画像追尾処理器39と、1台の撮像部による測距演算器59とを有し、この構成を視軸駆動部付き赤外線撮像部61とする。なお、表示器3と、目標追尾指令信号発生器34と、視軸操作器38と、1台の撮像部による測距演算器59は1台みとし、2台の視軸駆動部付き赤外線撮像部61毎に切り替えて使用してもよい。
【0073】
まず、オペレータは目標を発見するために、1台の視軸駆動部付き赤外線撮像部61の表示器3の画像を見ながら視軸操作器38を操作する。オペレータの操作により、従来の第1の技術と同様の動作にて視軸駆動部37の視軸を指向し、目標を発見することができる。オペレータが目標を発見し、測距する目標と判断すると、目標追尾指令信号発生器38の操作により、従来の第1の技術と同様の動作にて画像追尾処理器39は撮像信号6から目標を抽出し、以降その目標を継続的に画像追尾し、視軸駆動部37により視軸を指向し続ける。
【0074】
次にオペレータは他のもう1台の視軸駆動部付き赤外線撮像部61に対して同様の操作を行い、目標に視軸を指向させる。
【0075】
2台の撮像部による測距演算器5と、放射強度による測距演算部20とは、実施の形態4と同様の動作にて測距演算を行い、それぞれ2台の撮像部による測距結果27と、放射強度による測距結果28を測距結果選択器24に出力する。1台の撮像部による測距演算器59は、従来の第1の技術と同様の動作により測距演算を行い、1台の撮像部による測距結果60として測距結果選択器24に出力する。
【0076】
測距結果選択器24は、1台の撮像部による測距結果60と、2台の撮像部による測距結果27と、放射強度による測距結果28を入力し、距離の設定及び1台の撮像部による測距結果60の有無により測距結果を選択する。
【0077】
図11は測距動作を説明する図である。図において、9は目標、62は遠距離において目標を発見し追尾を指令したときの移動体の位置、63は62からΔt秒後の位置、64は目標に近づいた位置、65は62と63の間の移動量、66は62における目標と視軸のなす角、67は63における目標と視軸のなす角、68は64における第1の撮像部の視軸と目標のなす角、69は64における第2の撮像部の視軸と目標のなす角である。
【0078】
オペレータが遠距離において目標9を発見し、これを追尾する目標と判断した場合、視軸操作器38の操作により視軸を目標に向け、目標追尾指令信号発生器34の操作により目標追尾指令信号を送信される。このときが、目標を発見し追尾を指令したときの移動体の位置62である。この位置において、2台の撮像部による測距は精度が悪く、1台の撮像部による測距は、2度目の視軸指向を行っていないため測距不能であるため放射強度による測距の結果を測距結果として用いる。
【0079】
Δt秒後、1台の62からΔt秒後の位置63において、1台の撮像部による測距が可能になる。この時、62と63の間の移動量65が十分大きくなるため、1台の撮像部による測距結果の精度は、放射強度による測距結果の精度を上回り、62と63の間の移動量65と、62における目標と視軸のなす角66と、63における目標と視軸のなす角67とで形成される三角形から1台の撮像部による測距演算を行い、結果を測距結果として用いる。
【0080】
目標に近づいた位置64においては、2台の撮像部による測距結果の精度が向上し、1台の撮像部による測距結果に比べ、測距時間や遅れが小さいので、第1の撮像部と第2の撮像部の間隔と、64における第1の撮像部の視軸と目標のなす角68と、69は64における第2の撮像部の視軸と目標のなす角69とで形成される三角形を基に2台の撮像部による測距演算を行い。その結果を用いる。このようにして測距方式を切り替えることで、最適な測距を行える。
【0081】
実施の形態7.
図12は、この発明の実施の形態7を示す赤外線撮像装置の構成図である。図において29、34、36、37、38、40、41、58、59は従来の第1の技術と同一のもの、6は実施の形態1と同一のもの、1はN台(Nは3以上)の実施の形態2の赤外線撮像部、27、28は実施の形態2と同一のもの、3は実施の形態4と同一のもの、60、61は実施の形態6と同一のもの、39は実施の形態4を改良したもの、5、20、24は実施の形態6を改良したもの、70は目標位置情報信号である。
【0082】
次に動作について説明する。移動体自身による死角や障害物、大気条件等により1台の赤外線撮像部が目標が捕らえられない場合でも、測距できるようにする。1はN台(Nは3以上)の実施の形態2の赤外線撮像部であり、検出波長帯の異なるものを振り分けている。1台の赤外線撮像部1はそれぞれ表示器3と、目標追尾指令信号発生器34と、画像追尾処理器39を有する視軸駆動部37と、視軸操作器38と、1台の撮像部による測距演算器59とを有し、この組み合わせを視軸駆動部付き赤外線撮像部61とする。
【0083】
なお、表示器3と、目標追尾指令信号発生器34と、視軸操作器38と、1台の撮像部による測距演算器59は1台または2台のみとし、複数の視軸駆動部付き赤外線撮像部61毎に切り替えて使用してもよい。
【0084】
まず、オペレータは目標を発見するために、ある1台の視軸駆動部付き赤外線撮像部61の表示器3の画像を見ながら視軸操作器38を操作する。オペレータの操作により、従来の第1の技術と同様の動作にて視軸駆動部37の視軸を指向し、目標を目標を発見することができる。
【0085】
オペレータが目標を発見し、測距する目標と判断すると、目標追尾指令信号発生器38の操作により、従来の第1の技術と同様の動作にて画像追尾処理器39は撮像信号6から目標を抽出し、以降その目標を継続的に画像追尾し、視軸駆動部37により視軸を指向し続ける。つづいて、オペレータは他のもう1台の視軸駆動部付き赤外線撮像部61に対して同様の操作を行い、目標に視軸を指向させる。
【0086】
オペレータにより目標に視軸を指向させた2台の視軸駆動部付き赤外線撮像部61は、撮像信号6と、目標角度信号41を出力する。2台の撮像部による測距演算器5は、N台の視軸駆動部付き赤外線撮像部61の出力する目標角度信号41を入力し、その中から有効な2つの目標角度信号41の組み合わせを選択して測距演算を行うよう改良したものであり、実施の形態6と同様の演算を行って演算結果を2台の撮像部による測距結果27として測距結果選択器24に出力する。
【0087】
放射強度による測距演算部20は、N台の視軸駆動部付き赤外線撮像部61の出力する撮像信号6と、目標角度信号41の組み合わせを入力し、その中から有効な2つの組み合わせを選択して測距演算を行うよう改良したものであり、実施の形態6と同様の演算を行って演算結果を放射強度による測距結果28として測距結果選択器24に出力する。
【0088】
オペレータにより目標に視軸を指向させた2台の視軸駆動部付き赤外線撮像部61の、1台の撮像部による測距演算器59は、従来の第1の技術と同様の動作により測距演算を行い、1台の撮像部による測距結果60として測距結果選択器24に出力する。
【0089】
測距結果選択器24は入力した測距結果を選択した後、目標の位置を算出し、視軸駆動部付き赤外線撮像部61に出力するよう改良したものである。測距結果選択器24は、1台の撮像部による測距結果60と、2台の撮像部による測距結果27と、放射強度による測距結果28を入力し、実施の形態6と同様の動作により、測距結果を選択する。
【0090】
さらに選択した測距結果と、機体情報29とから目標の位置を算出し、目標位置情報信号70を視軸駆動部付き赤外線撮像部61に出力する。
【0091】
視軸駆動部付き赤外線撮像部61の画像追尾処理器39は、自らが目標を画像追尾していない場合に測距結果選択器24から目標位置情報信号70を入力すると、目標位置情報信号70から目標の方向を演算し、その方向を向くよう目標角度信号41を出力するとともに、視軸を指向した方向において目標を探し、目標を抽出できた場合には画像追尾するよう改良したものである。
【0092】
これによりオペレータにより目標に視軸を指向させた2台以外の全ての視軸駆動部付き赤外線撮像部61は、測距結果選択器24からの目標位置情報信号70を入力することで、自動的に目標方向に視軸を指向し、画像追尾することができる。
【0093】
以下、複数の視軸駆動部付き赤外線撮像部61からの有効な測距情報と測距方式を選択しつづけ、ある視軸駆動部付き赤外線撮像部61が目標が死角に入る等の画像追尾不可能な状態になっても他の視軸駆動部付き赤外線撮像部61から測距情報により視軸を指向し続けることで、目標の再発見を可能にした。これにより、常に精度が高く、測距範囲が広く、死角や大気条件の影響を受けにくい測距が行える。
【0094】
図13は測距動作を説明する図である。図において、71はオペレータが目標を発見し追尾を指令したときの移動体の位置、72は全ての視軸駆動部付き赤外線撮像部の視軸が目標を指向したときの移動体の位置、73は目標9との間に障害物が発生したときの移動体の位置、74は障害物が無くなったときの位置、75は他の視軸駆動部付き赤外線撮像部からの情報を基に指向した視軸、76は障害物を透過して目標9を撮像する視軸、77は目標を再度発見した視軸である。
【0095】
オペレータが目標9を発見し、これを追尾する目標と判断した場合、2つの視軸駆動部付き赤外線撮像部61の操作により視軸を目標に向け、目標追尾指令信号発生器34の操作により目標追尾指令信号を送信される。このときが、オペレータが目標を発見し追尾を指令したときの位置71である。目標追尾指令信号が送信されると目標が測距され、全ての視軸駆動部付き赤外線撮像部61の視軸を目標9に指向するよう演算する。
【0096】
これにより全ての視軸駆動部付き赤外線撮像部61の視軸が目標を指向したときの位置72において、他の視軸駆動部付き赤外線撮像部61からの情報を基に指向した視軸75は目標9を指向して目標9を発見し、追尾することができる。目標9と移動体の間に障害物が発生したときの位置73において、視軸駆動部付き赤外線撮像部61のひとつが目標を撮像できなくなったとする。この場合、残りの視軸駆動部付き赤外線撮像部61により目標9を捕らえつづけ、追尾を続行し、測距を継続することができる。
【0097】
また雲など、大気透過率の下がる要因は、赤外線撮像部にとって障害物となるが、波長帯により大気透過率が変わるため、ある波長帯を検出できる赤外線撮像部においては目標を捕らえつづけることができる。
【0098】
このため、障害物を透過して目標9を撮像する視軸76により追尾は続行できる。移動体の移動により、障害物が無くなったときの位置74においては、追尾を続行していた視軸駆動部付き赤外線撮像部61により、目標を撮像できなかった視軸駆動部付き赤外線撮像部61の視軸は、目標を再度発見した視軸77のように目標方向を指向しており、再度目標を追尾することが可能となる。
【0099】
【発明の効果】
以上のように第1の発明は、瞬時に目標の距離が求められ、測距のための機動をする必要が無く、また赤外線撮像部の走査時間に関係なく測距できるため、正確な走査時間を得る必要が無く、さらに2台の赤外線撮像部間の同期を取る必要が無いので、赤外線撮像部を簡略化できる。
【0100】
また、第2の発明は、遠距離目標の測距精度の低下を抑えることができる。
【0101】
第3の発明では、最初のオペレータの操作のみで以降は自動的かつ連続的に目標の距離を求めることができる。
【0102】
また、第4の発明は、測距精度を向上すると共に、視界を広げることができる。
【0103】
第5の発明では、装置のコストを下げることができる。
【0104】
また、第6の発明では、遠距離目標の測距を瞬時に行うと共に、一定時間経過後には測距精度を向上できる。
【0105】
第7の発明では、移動体自身が視野を遮ることによる死角、または障害物、または大気条件により目標が撮像不能になっても、他の場所に設置され目標を撮像している他の赤外線撮像部を用いて測距を継続すると共に、目標を撮像不能なため目標に視野を指向し続けられない赤外線撮像部の目標への視軸指向方向を測距結果から算出し、目標に指向し続けることで目標の再発見を容易にする。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による赤外線撮像装置を示す構成図である。
【図2】 この発明の実施の形態1における測距動作を説明する図である。
【図3】 この発明の実施の形態2による赤外線撮像装置を示す構成図である。
【図4】 この発明の実施の形態2における放射強度による測距動作を説明する図である。
【図5】 この発明の実施の形態2における2台の撮像部の測距精度を説明する図である。
【図6】 この発明の実施の形態3による赤外線撮像装置を示す構成図である。
【図7】 この発明の実施の形態4による赤外線撮像装置を示す構成図である。
【図8】 この発明の実施の形態4における測距動作を説明する図である。
【図9】 この発明の実施の形態5による赤外線撮像装置を示す構成図である。
【図10】 この発明の実施の形態6による赤外線撮像装置を示す構成図である。
【図11】 この発明の実施の形態6における測距動作を説明する図である。
【図12】 この発明の実施の形態7による赤外線撮像装置を示す構成図である。
【図13】 この発明の実施の形態7における測距動作を説明する図である。
【図14】 従来の第1の技術の構成例を示す図である。
【図15】 従来の第1の技術における測距動作を説明する図である。
【図16】 従来の第2の技術の構成例を示す図である。
【図17】 従来の第2の技術における測距動作を説明する図である。
【符号の説明】
赤外線撮像部、1a 赤外線撮像部、1b 赤外線撮像部、2 カーソル表示器、 3 表示器、4 カーソル操作器、5 測距演算器、10 第1の赤外線撮像部、11 第2の赤外線撮像部、20 測距演算部、21 透過率算出器、22a 目標の4μm帯放射強度算出器、22b 目標の10μm帯放射強度算出器、23 放射強度比較器、24 測距結果選択器、34 目標追尾指令信号発生器、35 画像抽出処理器、37 視軸駆動部、38 視軸操作器、39 画像追尾処理器、42 赤外線撮像部、43 赤外線撮像部、44 赤外線撮像部42の視軸、45 赤外線撮像部43の視軸、50 積分器、 51 角速度指令演算器、52 角速度誤差演算器、53 駆動部、54 レートジャイロ、59 測距演算器、61 視軸駆動部付き赤外線撮像部、78 角度検出器、84 同期発生器、85 目標抽出器。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an infrared imaging device mounted on a moving body such as an aircraft, and more particularly to a distance measuring technique for obtaining a distance to a target.
[0002]
[Prior art]
There have been two technologies for infrared imaging devices using infrared rays. In the first technique, the visual axis of one infrared imaging unit having a visual axis driving unit mounted on a moving body is continuously directed to a target for a certain period, and the movement amount during that time and the visual axis directing direction to the target are formed. The distance to the target is obtained by calculation based on the triangle to be obtained.
[0003]
In the second technique, a target is imaged by two infrared imaging units having fixed visual axes, a target direction is obtained from a scanning time to the target in the image signals captured by the respective infrared imaging units, and the two target directions and Based on the triangle formed by the distance between the two infrared imaging units, the distance to the target is obtained by calculation.
[0004]
  FIG. 14 is a diagram showing a configuration example according to the first conventional technique. In the figure, 1 is an infrared imaging unit, 3 is a display, 29 is an airframe information signal, 34 is a target tracking command signal generator, 36 is a target tracking command signal, 37 is a visual axis drive unit, 38 is a visual axis controller, 39 is an image tracking processor, 40 is an angle input signal, 41 is a target angle signal, 58 is an angle signal, 51 is an angular velocity command calculator, 52 is an angular velocity error calculator, 53 is a drive unit, 54 is a rate gyro, 55 is Angular velocity signal, 56 is a control output signal, 57 is an angular velocity command signal, 59 is a distance measuring calculator by one imaging unit, 78 is an angle detector,8 Is the imaging video signalIt is.
[0005]
Next, the operation will be described. The infrared imaging unit 1 transmits the captured image as the captured video signal 8 to the display 3. The display 3 receives the captured video signal 8 and displays an image captured by the infrared imaging unit 1. First, the operator operates the visual axis controller 38 while looking at the image on the display 3 in order to find a target. The angle input signal 40 is transmitted from the visual axis operator 38 to the angular velocity command calculator 51 of the visual axis drive unit 37 by the operation of the operator.
[0006]
The angular velocity command calculator 51 compares the angle input signal 40 with the angle signal 58 from the angle detector 78 that detects the angle between the visual axis of the infrared imaging unit 1 and the axis, and calculates the angular velocity so as to eliminate the difference. The result is transmitted as it is to the angular velocity error calculator 52 of the visual axis drive unit 37 as an angular velocity command signal 57.
[0007]
The angular velocity error calculator 52 compares the angular velocity signal 55 from the rate gyro 54 of the visual axis drive unit 37 that detects the angular velocity of the visual axis of the infrared imaging unit 1 with reference to the inertial space, and compares the angular velocity command signal 57 The difference is regarded as an error, the calculation is performed so that the difference is eliminated, and the result is transmitted as a control output signal 56 to the drive unit 53 of the visual axis drive unit 37. The drive unit 53 receives the control output signal 56 and drives the visual axis and the rate gyro 54 of the infrared imaging unit 1.
[0008]
The angular velocity error calculator 52 continues to calculate the control output signal 56 so that the difference between the angular velocity signal 55 from the rate gyro 54 and the angular velocity command signal 57 from the angular velocity command calculator 51 is eliminated. The angular velocity of this coincides with the desired set angular velocity.
[0009]
In this way, the operator can point the visual axis of the infrared imaging unit 1 in an arbitrary direction by operating the visual axis operation unit 38 while viewing the image on the display 3, and the target can be found. it can.
[0010]
When the operator finds a target and determines that the target is a distance measurement target, a target tracking command signal 40 is transmitted to the image tracking processor 39 by the operation of the target tracking command signal generator 38. When the image tracking processor 39 receives the target tracking command signal 36 from the target tracking command signal generator 34, the image tracking processor 39 receives the imaging video signal 8, extracts the target from the image, and then continuously tracks the target image. , Calculates the target direction from the input angle signal 58 and the error between the target and the visual axis in the image, and sends it as a target angle signal 41 to the angular velocity command calculator 51 and the distance calculator 59 by one imaging unit To do.
[0011]
Upon receiving the target angle signal 41 from the image tracking processor 39, the angular velocity command calculator 51 calculates an angular velocity for performing target tracking, and transmits the result to the angular velocity error calculator 52 as an angular velocity command signal 57. Thereafter, by continuing to calculate the angular velocity command signal 57 in accordance with the target angle signal 41 transmitted by the image tracking processor 39, the visual axis is continuously directed toward the target that is tracking the image.
[0012]
When the ranging calculator 59 receives the target tracking command signal 40 from the target tracking command signal generator 34, it starts time measurement, the target angle signal 41 from the image tracking processor 39, and the other onboard equipment. The airframe information signal 29 is input and stored. Subsequently, when the measured time reaches Δt seconds, the time interval, the aircraft information signal 29 from the other aircraft-mounted device, and the aircraft information signal 29 from the other aircraft-mounted device stored before Δt seconds, The amount of change in position is calculated.
[0013]
Furthermore, the amount of change in the position of the airframe obtained, the airframe information signal 29 from the airframe-mounted other device, the airframe information signal 29 from the airborne other device stored Δt seconds ago, and the target angle from the image tracking processor 39 From the signal 41 and the target angle signal 41 from the image tracking processor 39 stored before Δt seconds, the target distance is calculated by calculating the intersection of the visual axes.
[0014]
  FIG. 15 is a diagram for explaining the distance measuring operation of a moving body equipped with the conventional first device. In the figure, 9 is the target, 79 is the targetGoal 9The position of the moving object when tracking is commanded and 80 isPosition of moving object 79InGoal 9The angle between the visual axis that points to the aircraft axis, 81 isPosition of moving object 79The position of the aircraft after Δt seconds, 82 isAircraft position 81InGoal 9The angle formed by the visual axis that points to the axis and the machine axis, 83 is the amount of movement of the moving body.
[0015]
When the operator finds the target 9 and determines that it is a target to be tracked, the visual axis is directed to the target by operating the visual axis operator 38, and the target tracking command signal is transmitted by operating the target tracking command signal generator 34. The This is the position 79 of the moving object when the target is found and tracking is commanded.
[0016]
  When the target tracking command signal is transmitted, the target is extracted from the video signal by image tracking processing, and the visual axis is continuously directed in the target direction.Position of moving object 79Δt seconds laterAircraft position 81The target is extracted from the display video signal by the image tracking process,Aircraft position 81The angle 82 formed by the visual axis that directs the target and the machine axis is obtained by calculation, and the visual axis points at the target.
[0017]
  Here, from the position 79 of the moving object when the target was found and tracking was commanded,Position of moving object 79Δt seconds laterAircraft position 81The amount of change in position to 83,Position of moving object 79The angle 80 between the axis of vision and the axis of sight that directs the target inAircraft position 81The distance of the target 9 is obtained by calculating the position of the intersection of the triangle formed by the visual axis that directs the target and the angle 82 formed by the axis.
[0018]
FIG. 16 is a diagram illustrating a configuration example of the second technique. In the figure, 2 is a cursor display, 4 is a cursor operation unit, 5 is a distance measuring unit using two imaging units, 7 is a cursor position signal, 84 is a synchronization generator, 85 is a target extractor, 86 is a synchronization signal , 87 are target scanning time signals.
[0019]
Next, the operation will be described. The two infrared imaging units 1 have the same viewing angle and are arranged in a row at a predetermined interval. The synchronization generator 84 outputs a synchronization signal 87 to the two infrared imaging units 1. The infrared imaging unit 1 takes an image by synchronizing the scanning with the input synchronization signal 86. The image captured by the infrared imaging unit 1 is output to the cursor display 2 and the target extractor 85 as the captured video signal 87. The cursor display 2 superimposes the cursor on the input captured video signal 87 based on the input cursor position signal 7 and outputs the video signal 8 to the display 3.
[0020]
The display 3 receives the video signal 8 and displays it. First, in order to designate a target, the operator operates the two cursor operation devices 4 so that the cursor overlaps the target while looking at the display device 3. The cursor operation device 4 outputs a cursor position command 7 to the cursor display device 2 and the target extractor 86 by the operation of the operator.
[0021]
The target extractor 86 extracts a target from the captured video signal 87 input according to the cursor operation command 7. Further, the extracted scanning time of the target position is output as a target scanning time signal 88 to the distance measuring unit 5 by the two imaging units. The distance measuring calculator 5 by the two imaging units calculates the target direction by calculation from the input target scanning time signal 88, the scanning time of the entire screen, and the viewing angle of the infrared imaging unit 1.
[0022]
Further, the target distance is obtained by calculating the vertex of a triangle formed by the target direction in the screen of the two infrared imaging units 1 and the interval between the two infrared imaging units 1 by calculation.
[0023]
FIG. 17 is a diagram for explaining the distance measuring operation of a moving body equipped with the device of the second technique. In the figure, 10 is a first infrared imaging unit, 11 is a second infrared imaging unit, 12 is an angle formed by the infrared imaging unit 10 and the target 9, 13 is an angle formed by the infrared imaging unit 11 and the target 9, and 14 is 2 15 is the display of the target 9 captured by the infrared imaging unit 10, 16 is the display of the target 9 captured by the infrared imaging unit 11, and 90 is the image of the target 9 captured by the infrared imaging unit 10. The scanning time of the extracted point, 91 is the scanning time of the point where the image of the target 9 imaged by the infrared imaging unit 11 is extracted, and 92 is the scanning time of the entire screen.
[0024]
  Figure 17When the target 9 is imaged by the infrared imaging unit 10 and the infrared imaging unit 11 as shown in (a),Figure 17Displayed as shown in (b). At this time, goal 9 isFigure 17 The scanning time is measured as shown in (c). The scanning time 91 of the entire screen corresponds to the viewing angle, the ratio of the scanning time 89 of the point where the image of the target 9 captured by the infrared imaging unit 10 is extracted to the scanning time 91 of the entire screen, and the imaging by the infrared imaging unit 11 The angle formed by the target can be calculated by taking the ratio of the scanning time 90 of the point where the target 9 image is extracted and the scanning time 91 of the entire screen.
[0025]
Accordingly, the scanning time 89 of the point where the image of the target 9 captured by the infrared imaging unit 10 is extracted, the scanning time 90 of the point where the image of the target 9 captured by the infrared imaging unit 11 is extracted, and the scanning time 91 of the entire screen And the angle 12 formed by the infrared imaging unit 10 and the target 9 and the angle 13 formed by the infrared imaging unit 11 and the target 9 are calculated. The target 9 is obtained by calculating the vertex of the triangle formed by the angle 12 formed by the infrared imaging unit 10 and the target 9, the angle 13 formed by the infrared imaging unit 11 and the target 9, and the interval 14 between the two infrared imaging units. The distance is calculated.
[0026]
[Problems to be solved by the invention]
The conventional infrared imaging apparatus as described above has the following problems. The first conventional technique requires a long time for the moving body movement time Δt until the formation of a triangle satisfying the distance measurement accuracy from the start of distance measurement until the formation of the triangle, the filter settling time for the distance measurement calculation, etc. And it took time to get the results. Further, in order to perform the distance measurement calculation, the moving body has to move along a predetermined trajectory.
[0027]
In the second conventional technique, since the distance is determined by the scanning time, it is necessary to obtain an accurate scanning time. Therefore, it is necessary not only to synchronize the element scanning period but also to align the element scanning speed. .
[0028]
The present invention has been made to solve the conventional problems as described above, and an object thereof is to obtain an infrared imaging device capable of instantaneously measuring a target distance by an imaging unit mounted on a moving body or the like. .
[0029]
[Means for Solving the Problems]
The infrared imaging device according to the first aspect of the invention has a two-dimensional array of staring infrared imaging elements, two infrared imaging units arranged in rows and having the same viewing angle, and an operator's instruction for a target position in the captured image The target position in the target image is specified by the cursor operation device that outputs the target according to the target position, the target direction is calculated from the pixel position of the infrared imaging element corresponding to the target position in the specified image, and the two infrared imaging units The distance is obtained by calculating the vertex of a triangle formed by the target direction and the distance between the two infrared imaging units.
[0030]
The infrared imaging device according to the second invention uses the one detecting the 3 to 5 μm band and the one detecting the 8 to 12 μm band for the infrared imaging device of the two infrared imaging units in the first invention, and the wavelength band. The distance is obtained from the radiation intensity ratio due to the difference in atmospheric transmittance due to the difference between the two, and the one with higher accuracy than the distance measurement result according to the first invention is selected to prevent the distance measurement accuracy from being lowered at a long distance. It is composed.
[0031]
In the first and second inventions, the infrared imaging device according to the third invention extracts a target specified from the captured image, continuously tracks the target, and measures the distance to the tracked target. By performing this, the distance can be continuously measured.
[0032]
According to a fourth aspect of the present invention, in the first and second aspects of the infrared imaging device, the visual axis of the infrared imaging unit can be rotated using the visual axis drive unit, and the visual axis is always tracked by tracking the target in the image. Aiming at the target, calculating the target direction from the visual axis directing direction, and calculating the vertex of the triangle formed by the target direction from the two infrared imaging units and the distance between the two infrared imaging units by calculation By performing the distance measurement by using the infrared imaging unit, an infrared imaging unit having a narrow viewing angle is used so that the range of view can be widened while improving the distance measurement accuracy.
[0033]
The infrared imaging device according to the fifth invention is configured to be inexpensive by using an integrator in place of the angle detector that constitutes the visual axis driving unit in the fourth invention.
[0034]
An infrared imaging device according to a sixth invention is the infrared imaging device according to the fourth and fifth inventions, wherein the direction of the visual axis is acquired with an interval of Δt seconds while tracking the target, and the change amount of the moving body and the Δt second interval between them A distance measurement calculator that calculates the target distance by calculating the vertex of the triangle formed by the front and rear visual axis directions, and a distance measurement result with high accuracy from the distance measurement results of multiple distance measurement calculators With the distance measurement result selector, the distance measurement time can be shortened and the distance measurement accuracy at a long distance can be improved.
[0035]
In the infrared imaging device according to the seventh invention, the mobile body itself blocks the field of view by combining N infrared imaging units, visual axis driving units, and image tracking processors in the sixth invention (N is 3 or more). Even if there is an infrared imaging unit that makes it impossible to capture the target due to blind spots, obstacles, or atmospheric conditions, it will continue ranging using another imageable infrared imaging unit and capture the target from the ranging result The visual axis directing direction to the target of the infrared imaging unit that cannot be directed toward the target because it is impossible is calculated to facilitate rediscovery of the target.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
A first embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a configuration diagram of an infrared imaging device showing Embodiment 1 of the present invention. In the figure, 8 is the same as the conventional first technique, 2, 4, 7 are the same as the conventional second technique, 1, 5 are improvements of the conventional second technique, 6 is It is an imaging signal.
[0037]
Next, the operation will be described. The two infrared imaging units 1 have the same viewing angle and are arranged in a row at a predetermined interval. The infrared imaging unit 1 has a two-dimensional array of staring infrared imaging elements and is improved so as to output a captured image as an imaging signal 6 having pixel positions and luminance information of each pixel.
[0038]
The imaging signal 6 is output to the cursor display 2. The cursor display 2 superimposes the cursor on the designated position of the input imaging signal 6 based on the input cursor position signal 7, converts it to a video signal, and outputs it as a video signal 8 to the display 3. The display 3 receives the video signal 8 and displays it.
[0039]
  First, in order to designate a target, the operator operates the two cursor operation devices 4 so that the cursor overlaps the target while looking at the display device 3. The cursor controller 4 is positioned at the cursor position by the operator's operation.signal7 is output to the cursor display 2 and the distance measuring unit 5 by the two imaging units. Distance calculator 5 with two imaging units is at the cursor positionsignal7 is input, the cursor position on the screen is converted into the pixel position on the image sensor, and the target direction is calculated from the pixel position on the image sensor and the viewing angle.
[0040]
Further, the distance measuring unit 5 by the two image pickup units operates in the same manner as in the conventional second technology, with the target direction on the screen of the two infrared image pickup units 1 and the interval between the two infrared image pickup units 1. The target distance can be obtained instantaneously by calculating the vertices of the triangle formed by.
[0041]
FIG. 2 is a diagram for explaining the distance measuring operation. In the figure, 9 to 16 are the same as the conventional second technology, 17 is the pixel position of the target 9 imaged by the infrared imaging unit 10, 18 is the number of pixels of the infrared imaging unit 10, and 19 is the infrared imaging unit 11. The pixel position of the captured target 9, 20 is the number of pixels of the infrared imaging unit 11.
[0042]
  As shown in FIG. 2 (a), when the image is picked up by the infrared imaging unit 10 and the infrared imaging unit 11, the image is displayed as shown in FIG. 2 (b). The displayed target position is shown in Figure 2.(c)Corresponding to the position on the image sensor, the display 15 of the target 9 imaged by the infrared imaging unit 10, the pixel position 17 of the target 9 imaged by the infrared imaging unit 10, and the imaged by the infrared imaging unit 11 The display 16 of the target 9 and the pixel position 19 of the target 9 imaged by the infrared imaging unit 11 correspond to each other.
[0043]
The angle 12 formed by the first infrared imaging unit 10 and the target 9 is calculated from the pixel position 17 of the target 9 imaged by the infrared imaging unit 10 and the number 18 of pixels of the infrared imaging unit 10, and the second infrared ray The angle 13 formed by the second infrared imaging unit 11 and the target 9 is calculated from the pixel position 19 of the target 9 captured by the imaging unit 11 and the number of pixels 18 of the infrared imaging unit 11.
[0044]
As a result, as shown in FIG. 2 (a), the angle 12 formed by the infrared imaging unit 10 and the target 9, the angle 13 formed by the infrared imaging unit 11 and the target 9, and the interval 14 between the two infrared imaging units are formed. The distance of the target 9 is calculated by calculating the vertex of the triangle.
[0045]
Embodiment 2. FIG.
FIG. 3 is a block diagram of an infrared imaging device showing Embodiment 2 of the present invention. In the figure, 8 and 29 are the same as the conventional first technique, 2, 4, and 7 are the same as the conventional second technique, 5 is the same as the first embodiment, and 1a and 1b are the implementation 20 is a distance calculation unit based on radiation intensity, 21 is a transmittance calculator, 22a is a target 4 μm band radiation intensity calculator, 22b is a target 10 μm band radiation intensity calculator, and 23 is radiation. Intensity comparator, 24 is a distance measurement result selector, 25a is a 4 μm band transmittance signal, 25b is a 10 μm band transmittance signal, 26a is a 4 μm band radiation intensity signal, 26b is a 10 μm band radiation intensity signal, 27 is 2 A distance signal by the imaging unit of the table, and 28 is a distance signal by the radiation intensity ratio.
[0046]
Next, the operation will be described. In the apparatus according to the first embodiment, when a long-distance target is measured, the triangle formed by the two infrared imaging units and the target has an acute angle, so the accuracy decreases. Try to prevent accuracy loss at long distances. The two infrared imaging units 1a and 1b have the same viewing angle and are arranged in a row with a predetermined interval. The two infrared imaging units 1a and 1b are sensitive to different wavelength bands, 1a is an infrared imaging unit sensitive to a wavelength of 3 to 5 μm, and 1b is an infrared imaging unit sensitive to a wavelength of 8 to 12 μm. It is.
[0047]
The two infrared imaging units 1a and 1b each have a two-dimensional array of staring infrared imaging elements, and the cursor display 2 uses the captured image as an imaging signal 6 having the pixel position and luminance information of each pixel, The result is output to the radiation intensity calculator 22 of the distance calculation unit 20 based on the radiation intensity. Thereafter, the operator moves the cursor to the target by the same operation as in the first embodiment, calculates the distance by the distance calculation unit 5, and outputs the distance signal 27 to the distance measurement result selector 24 by the two imaging units.
[0048]
At the same time, the transmittance calculator 21 of the distance calculation unit 20 based on radiation intensity relates the relationship between the target distance and the atmospheric transmittance for each wavelength band from the atmospheric conditions contained in the aircraft information 29, its altitude, and the attitude. Is output to the radiation intensity calculator 22 as the transmittance signal 25. The radiation intensity calculator 22 of the distance calculation unit 20 based on the radiation intensity calculates the target radiation intensity in each wavelength band from the input transmittance signal 25, the imaging signal 6, the cursor position command 7, and the assumed distance. Calculated and output to the radiation intensity comparator 23 as a radiation intensity signal 26.
[0049]
The radiation intensity comparator 23 of the distance calculation unit 20 by the radiation intensity compares the input 4 μm band radiation intensity signal 26a with the 10 μm band radiation intensity signal 26b, and sets the radiation intensity ratio of each wavelength band to the set value. Determine if they are equal. The radiant intensity calculator 22 and the radiant intensity comparator 23 change the assumed distance until the radiant intensity ratio of each wavelength band becomes equal to the set value, and the assumed distance when it becomes equal to the target distance, A distance signal 28 based on the radiation intensity ratio is output to the distance measurement result selector 24.
[0050]
The distance measurement result selector 24 uses the distance signal 27 from the two imaging units and the distance signal 28 from the radiant intensity ratio to calculate the distance signal 27 from the two imaging units when the distance is shorter than the set distance. In the case of a long distance, a distance signal 28 based on a radiation intensity ratio is selected and output as a target distance. Thereby, it is possible to suppress a decrease in accuracy even at a long distance.
[0051]
FIG. 4 is a diagram for explaining the distance measurement operation based on the radiation intensity, and is an example showing the relationship between the target distance and the atmospheric transmittance for two wavelength bands. As shown in the figure, the two wavelength bands exhibit different atmospheric transmission characteristics. In addition to this, the atmospheric transmittance is affected by the atmospheric temperature, atmospheric humidity, target temperature, and altitude, but it is possible to acquire data in advance for the atmospheric temperature, atmospheric humidity, and altitude. Therefore, by giving the ratio of radiant energy in each wavelength band as the target feature amount, the amount of radiant energy in the two wavelength bands detected by the infrared imaging unit and the atmospheric transmittance in the two wavelength bands It is possible to calculate a target distance at which the radiant energy ratio in each wavelength band is equal to the set value.
[0052]
FIG. 5 is a diagram for explaining the ranging accuracy of the two imaging units. In the figure, 30 is a unit distance change at a short distance, 31 is a change amount of an angle formed by the visual axis due to 30, 32 is a unit distance change at a long distance, and 33 is a change amount of an angle formed by the visual axis due to 32. As shown in the figure, when the same distance change is compared between short distance and long distance, the change amount 33 of the angle formed by the visual axis at long distance is the angle formed by the visual axis at short distance. It can be seen that the amount of change is small compared to the amount of change 31 and the distance measurement accuracy decreases at a long distance.
[0053]
As shown in Fig. 4, in the method of distance measurement based on the amount of change in radiant intensity, the ratio of the atmospheric transmittance of the two wavelength bands greatly changes with the target distance change even at a long distance. There is little decrease. Therefore, the accuracy at a long distance is less than that of the configuration of the first embodiment. Thus, distance measurement with less accuracy degradation due to distance can be performed by combining distance measurement with two imaging units with high precision at short distance and distance measurement with radiation intensity with little precision degradation at long distance.
[0054]
Embodiment 3 FIG.
FIG. 6 is a block diagram of an infrared imaging device showing Embodiment 3 of the present invention. In the figure, 3, 8 are the same as the conventional first technique, 4, 7 are the same as the conventional second technique, and 1a, 1b, 20, 24, 27 to 29 are the same as in the second embodiment. , 2 and 5 are improvements of the first embodiment, 20 is an improvement of the second embodiment, 34 is a target tracking command signal generator, 35 is an image extraction processor, 36 is a tracking command signal, 37 Is a target position signal.
[0055]
Next, the operation will be described. In the apparatus according to the first and second embodiments, when the moving body or the target moves, the operator needs to operate again to perform the distance measurement. The specified target is continuously extracted automatically so that the distance can be continuously measured without an operator's operation. The two infrared imaging units 1a and 1b have a two-dimensional array of staring infrared imaging devices, have the same viewing angle, and are arranged in rows with a predetermined interval. The images captured by the two infrared imaging units 1a and 1b are obtained as an imaging signal 6 having pixel positions and luminance information of the respective pixels, a cursor display 2, an image extraction processor 35, and a distance measurement calculation based on radiation intensity. To the unit 20.
[0056]
The display 3 receives the video signal 8 and displays it. First, in order to designate a target, the operator operates the two cursor operation devices 4 so that the cursor overlaps the target while looking at the display device 3. The cursor operator 4 outputs the cursor position command 7 to the image extraction processor 35 by the operation of the operator. The image extraction processor 35 outputs the cursor position command 7 output from the cursor operator 4 as it is to the cursor display 2 as the target position signal 37 before the target tracking command signal 36 is input.
[0057]
After the operator places the cursor on the target, the target tracking command signal generator 34 operates the target tracking command signal generator 34 so that the target tracking command signal generator 34 outputs the target tracking command signal 36 to the image extraction processor 35. When the tracking command signal generator 34 is input to the image extraction processor 35, the target is extracted from the input imaging signal 6, and the target is extracted and continuously tracked on the screen. The data is output to the display device 2, the distance calculating unit 5 including two imaging units, and the distance calculating unit 20 based on radiation intensity.
[0058]
The distance measuring unit 5 by two imaging units and the distance calculating unit 20 by radiation intensity are improved so as to obtain the target position on the element from the input target position signal 37, and the target position on the element is obtained. After that, the target distance is calculated by the same operation as in the second embodiment. The distance measurement result selector 24 selects the target distance from the distance signal 27 by the two imaging units and the distance signal 28 by the radiation intensity ratio by the same operation as in the second embodiment, and uses this as the target distance. Output.
[0059]
Since the image extraction processor 35 continuously outputs the target position signal 37, the target distance can be continuously calculated without being operated by the operator.
[0060]
Embodiment 4 FIG.
FIG. 7 is a block diagram of an infrared imaging device showing Embodiment 4 of the present invention. In the figure, 34, 36, 37, 38, 39, 40, 41 are the same as those in the first conventional technique, 6 is the same as in the first embodiment, and 1a, 1b, 24, 27, 28 are implemented. The same as in Embodiment 2, 3 is an improvement of Embodiment 1, and 5 and 20 are improvements of Embodiment 2.
[0061]
Next, the operation will be described. In the devices of the first embodiment, the second embodiment, and the third embodiment, since the infrared imaging unit is fixed, the field of view is narrow, and if the viewing angle is widened to widen the field of view, the ranging accuracy is lowered. Widen the field of view and improve the ranging accuracy. The two infrared imaging units 1a and 1b are respectively attached to the image tracking processor 39 of the visual axis drive unit 37 so that the visual axis can be rotated. The infrared imaging units 1a and 1b output the imaging signal 6 to the display 3, the distance calculation unit 20 based on the radiation intensity, and the image tracking processor 39 of the visual axis driving unit 37.
[0062]
The display device 3 is improved to receive and display the imaging signal 6. Hereinafter, for each of the two infrared imaging units, the image tracking processor 39 and the visual axis are operated by operating the visual axis operator 38 and the tracking command signal generator 34 so that the operator directs the visual axis to the target. The driving unit 37 can keep tracking the visual axes of the two infrared imaging units 1 with respect to the target designated by the operator in the same operation as the conventional first technique.
[0063]
Thereby, even if the viewing angle of the infrared imaging unit is narrowed, the visual field can be expanded by rotating the visual axis.
[0064]
The distance calculation unit 5 with two image pickup units is an improvement in which the target angle signal 41 from the image tracking processor 39 is input instead of the cursor position signal, and distance measurement is performed using this as the target direction. The calculation result is output to the distance measurement result selector 24 as the distance measurement result 27 by the two imaging units. Distance calculation unit 20 based on radiant intensity is improved so as to perform distance calculation based on the luminance value at the pixel position corresponding to the center of the screen and the target angle signal 41. Output to selector 24.
[0065]
The distance measurement result selector 24 selects the input distance measurement result by the same operation as in the second embodiment. By performing distance measurement with an infrared imaging unit having a narrow viewing angle, the angle detection accuracy in the target direction is increased, so that the accuracy of distance measurement calculation by the two imaging units can be improved.
[0066]
FIG. 8 is a diagram for explaining the distance measuring operation. In the figure, 9 and 14 are the same as the conventional second technology, 42 is an infrared imaging unit having a first visual axis drive unit, 43 is an infrared imaging unit having a second visual axis drive unit, 44 is The visual axis of the infrared imaging unit 42, 45 is the visual axis of the infrared imaging unit 43, 46 is the visual field of the infrared imaging unit 42, 47 is the visual field of the infrared imaging unit 43, and 48 is the line segment connecting the infrared imaging unit and the visual axis 44. 49 is an angle formed by the line segment connecting the infrared imaging units and the visual axis 45.
[0067]
When the visual field 46 of the infrared imaging unit 42 and the visual field 47 of the infrared imaging unit 43 are narrow, the target 9 does not enter the visual field when the visual axis is directed to the front. However, by moving the visual axis, you can find the target 9 and put it in the field of view. By directing the visual axis 44 of the infrared imaging unit 42 and the visual axis 45 of the infrared imaging unit 43 to the target 9, the angle between the line segment connecting the infrared imaging units and the visual axis 44 and the infrared imaging unit are connected. The distance of the target 9 is calculated by calculating the vertex of the triangle formed by the angle 49 formed by the line segment and the visual axis 45 and the interval 14 between the two infrared imaging units.
[0068]
Embodiment 5 FIG.
FIG. 9 is a block diagram of an infrared imaging device showing Embodiment 5 of the present invention. In the figure, 40, 41, 51 to 59 are the same as those of the first conventional technique, 1 is the same as that of the third embodiment, and 50 is an integrator.
[0069]
Next, the operation will be described. The angle detector used in the fourth embodiment is expensive. By using a means instead of the angle detector, the cost can be reduced. The visual axis drive unit 37 is improved by combining an integrator 50 instead of the angle detector in the fourth embodiment. The angular velocity signal 55 of the rate gyro 54 is output to the integrator 50.
[0070]
The integrator 50 integrates the input angular velocity signal 55 to obtain the angle of the visual axis and outputs it as an angle signal 58. Thereafter, the target distance measurement is performed by the same operation as in the fourth embodiment.
[0071]
Embodiment 6 FIG.
FIG. 10 is a block diagram of an infrared imaging device showing Embodiment 6 of the present invention. In the figure, 29, 34, 36, 37, 38, 40, 41, 58, 59 are the same as those in the first conventional technique, 6 is the same as in the first embodiment, and 1, 27, 28 are the implementations. Same as form 2, 3, 5, 20, 39 are the same as in embodiment 4, 24 is an improvement of embodiment 2, 60 is a distance measurement result by one image pickup unit, 61 is a view It is an infrared imaging part with an axis drive part.
[0072]
Next, the operation will be described. The distance measurement accuracy at a long distance is improved as compared with the apparatuses of the fourth and fifth embodiments. Each of the infrared imaging units 1 includes a display 3, a target tracking command signal generator 34, a visual axis driving unit 37, a visual axis operating unit 38, an image tracking processing unit 39 of the visual axis driving unit 37, and a single unit. A distance measuring calculator 59 by the imaging unit is provided, and this configuration is referred to as an infrared imaging unit 61 with a visual axis drive unit. It should be noted that the display 3, the target tracking command signal generator 34, the visual axis controller 38, and the distance measuring unit 59 by one imaging unit are only one, and infrared imaging with two visual axis driving units is provided. The units 61 may be switched for use.
[0073]
First, in order to find a target, the operator operates the visual axis controller 38 while viewing the image on the display 3 of the single infrared imaging unit 61 with the visual axis drive unit. By the operation of the operator, the visual axis of the visual axis drive unit 37 can be pointed and the target can be found by the same operation as the first conventional technique. When the operator finds a target and determines that the target is a distance measurement, the image tracking processor 39 operates the target tracking command signal generator 38 to perform the operation similar to that of the first conventional technique. After that, the image of the target is continuously tracked and the visual axis drive unit 37 continues to point the visual axis.
[0074]
Next, the operator performs the same operation on the other infrared imaging unit 61 with the visual axis drive unit, and directs the visual axis toward the target.
[0075]
The distance calculation unit 5 by two image pickup units and the distance calculation unit 20 by radiation intensity perform distance calculation by the same operation as in the fourth embodiment, and the distance measurement results by two image pickup units, respectively. 27 and the distance measurement result 28 based on the radiation intensity are output to the distance measurement result selector 24. The distance calculation unit 59 by one image pickup unit performs distance calculation by the same operation as the conventional first technique, and outputs the result to the distance measurement result selector 24 as the distance measurement result 60 by one image pickup unit. .
[0076]
The distance measurement result selector 24 inputs a distance measurement result 60 by one image pickup unit, a distance measurement result 27 by two image pickup units, and a distance measurement result 28 by radiation intensity. A distance measurement result is selected based on the presence or absence of a distance measurement result 60 by the imaging unit.
[0077]
FIG. 11 is a diagram for explaining the distance measuring operation. In the figure, 9 is the target, 62 is the position of the moving body when the target is found at a long distance and tracking is commanded, 63 is the position after Δt seconds from 62, 64 is the position approaching the target, 65 is 62 and 63 66 is an angle formed by the target and the visual axis in 62, 67 is an angle formed by the target and the visual axis in 63, 68 is an angle formed by the visual axis of the first imaging unit and the target in 64, and 69 is 64 is an angle formed by the visual axis of the second imaging unit and a target at 64.
[0078]
When the operator finds the target 9 at a long distance and determines that the target is to be tracked, the visual axis is directed to the target by operating the visual axis controller 38, and the target tracking command signal 34 is operated by operating the target tracking command signal generator 34 Will be sent. This is the position 62 of the moving body when the target is found and tracking is commanded. At this position, the distance measurement by the two image pickup units is inaccurate, and the distance measurement by the one image pickup unit is not possible because the second visual axis pointing is not performed. The result is used as a distance measurement result.
[0079]
After Δt seconds, distance measurement by one image pickup unit becomes possible at position 63 after Δt seconds from one 62. At this time, since the amount of movement 65 between 62 and 63 is sufficiently large, the accuracy of the distance measurement result by one imaging unit exceeds the accuracy of the distance measurement result by the radiation intensity, and the amount of movement between 62 and 63 A distance measurement calculation is performed by one imaging unit from the triangle formed by the angle 66 between the target and the visual axis in 65 and 62, and the angle 67 between the target and the visual axis in 63, and the result is used as the distance measurement result. Use.
[0080]
At the position 64 approaching the target, the accuracy of the distance measurement results by the two image pickup units is improved, and the distance measurement time and delay are small compared to the distance measurement result by the single image pickup unit. , The angle 68 formed between the visual axis of the first image capturing unit and the target at 64, and the angle 69 formed between the visual axis of the second image capturing unit and the target 69 at 64. Ranging calculation is performed by two imaging units based on the triangle. The result is used. Thus, the optimum distance measurement can be performed by switching the distance measurement method.
[0081]
Embodiment 7 FIG.
FIG. 12 is a block diagram of an infrared imaging device showing Embodiment 7 of the present invention. In the figure, 29, 34, 36, 37, 38, 40, 41, 58, 59 are the same as those in the first conventional technology, 6 is the same as in the first embodiment, 1 is N units (N is 3) In the infrared imaging section of the second embodiment, 27 and 28 are the same as those of the second embodiment, 3 is the same as the fourth embodiment, 60 and 61 are the same as the sixth embodiment, 39 Is an improvement of the fourth embodiment, 5, 20, 24 are improvements of the sixth embodiment, and 70 is a target position information signal.
[0082]
Next, the operation will be described. Even if the target cannot be captured by one infrared imaging unit due to blind spots, obstacles, atmospheric conditions, etc. by the moving body itself, it will be able to measure the distance. Reference numeral 1 denotes N (N is 3 or more) infrared imaging units according to the second embodiment, which distribute different detection wavelength bands. Each infrared imaging unit 1 is composed of a display 3, a target tracking command signal generator 34, a visual axis drive unit 37 having an image tracking processor 39, a visual axis controller 38, and a single imaging unit. This combination is referred to as an infrared imaging unit 61 with a visual axis drive unit.
[0083]
It should be noted that the display unit 3, the target tracking command signal generator 34, the visual axis controller 38, and only one or two ranging calculators 59 with a single imaging unit are provided, and a plurality of visual axis driving units are provided. The infrared imaging unit 61 may be switched for use.
[0084]
First, in order to find a target, the operator operates the visual axis operator 38 while viewing an image on the display 3 of one infrared imaging unit 61 with a visual axis drive unit. By the operation of the operator, the visual axis of the visual axis drive unit 37 can be directed by the same operation as the first conventional technique, and the target can be found.
[0085]
When the operator finds a target and determines that the target is a distance measurement, the image tracking processor 39 operates the target tracking command signal generator 38 to perform the operation similar to that of the first conventional technique. After that, the image of the target is continuously tracked and the visual axis drive unit 37 continues to point the visual axis. Subsequently, the operator performs the same operation on the other infrared imaging unit 61 with the visual axis drive unit, and directs the visual axis toward the target.
[0086]
Two infrared imaging units 61 with a visual axis drive unit in which the visual axis is directed to the target by an operator outputs an imaging signal 6 and a target angle signal 41. The distance calculator 5 with two imaging units inputs the target angle signal 41 output from the N infrared imaging units 61 with the visual axis driving unit, and selects a valid combination of the two target angle signals 41 from among them. The distance calculation is improved by selecting it, and the same calculation as in the sixth embodiment is performed, and the calculation result is output to the distance measurement result selector 24 as the distance measurement result 27 by the two imaging units.
[0087]
The distance calculation unit 20 based on the radiation intensity inputs the combination of the imaging signal 6 output from the N infrared imaging units 61 with the visual axis driving unit and the target angle signal 41, and selects two effective combinations from them. Thus, the distance calculation is improved, and the same calculation as in the sixth embodiment is performed, and the calculation result is output to the distance measurement result selector 24 as the distance measurement result 28 based on the radiation intensity.
[0088]
The distance measuring unit 59 of one imaging unit of the two infrared imaging units 61 with the visual axis driving unit in which the visual axis is directed to the target by the operator performs distance measurement by the same operation as the conventional first technique. The calculation is performed, and the result is output to the distance measurement result selector 24 as the distance measurement result 60 by one imaging unit.
[0089]
The distance measurement result selector 24 is improved so as to calculate the target position after selecting the input distance measurement result and output it to the infrared imaging unit 61 with the visual axis drive unit. The distance measurement result selector 24 inputs a distance measurement result 60 by one image pickup unit, a distance measurement result 27 by two image pickup units, and a distance measurement result 28 by radiation intensity, and is the same as in the sixth embodiment. The distance measurement result is selected by the operation.
[0090]
Further, the target position is calculated from the selected distance measurement result and the body information 29, and the target position information signal 70 is output to the infrared imaging unit 61 with the visual axis drive unit.
[0091]
When the image tracking processor 39 of the infrared imaging unit 61 with the visual axis driving unit inputs the target position information signal 70 from the distance measurement result selector 24 when the target does not track the target, the target position information signal 70 The target direction is calculated and the target angle signal 41 is output so as to face the direction, and the target is searched in the direction directed to the visual axis, and when the target can be extracted, the image tracking is improved.
[0092]
As a result, all the infrared imaging units 61 with the visual axis drive unit other than the two units in which the visual axis is directed to the target by the operator are automatically input by inputting the target position information signal 70 from the distance measurement result selector 24. The visual axis can be directed to the target direction and the image can be tracked.
[0093]
In the following, effective distance measurement information and distance measurement methods from a plurality of infrared imaging units 61 with visual axis driving units are continuously selected, and image tracking failure such as that a certain infrared imaging unit 61 with visual axis driving unit enters a blind spot. Even if it becomes possible, the target can be rediscovered by continuing to point the visual axis from the other infrared imaging unit 61 with visual axis drive unit according to the distance measurement information. This makes it possible to perform distance measurement that is always highly accurate, has a wide distance measurement range, and is not easily affected by blind spots or atmospheric conditions.
[0094]
FIG. 13 is a diagram for explaining the distance measuring operation. In the figure, 71 is the position of the moving body when the operator finds the target and commands tracking, 72 is the position of the moving body when the visual axes of all infrared imaging units with visual axis driving sections are directed to the target, 73 Is the position of the moving object when an obstacle occurs between the target 9 and 74 is the position when the obstacle disappears, 75 is directed based on information from the infrared imaging unit with other visual axis drive unit The visual axis, 76 is a visual axis through which an object is imaged through an obstacle, and 77 is a visual axis in which the target is found again.
[0095]
When the operator finds the target 9 and determines that the target is to be tracked, the visual axis is directed to the target by operating the two infrared imaging units 61 with the visual axis drive unit, and the target is detected by operating the target tracking command signal generator 34. A tracking command signal is transmitted. This is the position 71 when the operator finds the target and commands tracking. When the target tracking command signal is transmitted, the target is measured, and calculation is performed so that the visual axes of all the infrared imaging units 61 with the visual axis drive unit are directed to the target 9.
[0096]
Thereby, at the position 72 when the visual axes of all the infrared imaging units 61 with visual axis driving units are directed to the target, the visual axis 75 directed based on the information from the other infrared imaging units 61 with visual axis driving units is Target 9 can be found and tracked. It is assumed that one of the infrared imaging units 61 with the visual axis drive unit cannot capture the target at a position 73 when an obstacle is generated between the target 9 and the moving body. In this case, it is possible to continue capturing the target 9 by the remaining infrared imaging unit 61 with the visual axis driving unit, continue tracking, and continue ranging.
[0097]
In addition, the factor that lowers the atmospheric transmittance, such as clouds, is an obstacle for the infrared imaging unit, but since the atmospheric transmittance changes depending on the wavelength band, the infrared imaging unit that can detect a certain wavelength band can continue to capture the target. .
[0098]
Therefore, tracking can be continued by the visual axis 76 that images the target 9 through the obstacle. At the position 74 when the obstacle disappears due to the movement of the moving body, the infrared imaging unit 61 with the visual axis drive unit that could not image the target by the infrared imaging unit 61 with the visual axis drive unit that had continued tracking. The visual axis is directed in the target direction like the visual axis 77 where the target is found again, and the target can be tracked again.
[0099]
【The invention's effect】
As described above, according to the first aspect of the invention, the target distance is instantaneously obtained, and it is not necessary to perform the ranging operation, and the distance can be measured regardless of the scanning time of the infrared imaging unit. Since there is no need to obtain the same and there is no need to synchronize the two infrared imaging units, the infrared imaging unit can be simplified.
[0100]
In addition, the second invention can suppress a decrease in distance measurement accuracy of the long distance target.
[0101]
In the third aspect of the invention, the target distance can be obtained automatically and continuously after only the operation of the first operator.
[0102]
In addition, the fourth invention can improve the distance measurement accuracy and widen the field of view.
[0103]
In the fifth invention, the cost of the apparatus can be reduced.
[0104]
In the sixth invention, distance measurement of a long-distance target is performed instantaneously, and distance measurement accuracy can be improved after a predetermined time has elapsed.
[0105]
In the seventh invention, even if the moving object itself blocks the field of view, or if the target cannot be imaged due to an obstacle or atmospheric conditions, the other infrared imaging that is installed in another place and images the target The distance measurement is continued using the unit, and the visual axis pointing direction to the target of the infrared imaging unit that cannot continue to direct the field of view to the target because the target cannot be imaged is calculated from the distance measurement result and continues to be directed to the target Making it easier to rediscover goals.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an infrared imaging device according to Embodiment 1 of the present invention;
FIG. 2 is a diagram illustrating a distance measuring operation in Embodiment 1 of the present invention.
FIG. 3 is a block diagram showing an infrared imaging device according to Embodiment 2 of the present invention.
FIG. 4 is a diagram illustrating a distance measuring operation based on radiation intensity in Embodiment 2 of the present invention.
FIG. 5 is a diagram for explaining ranging accuracy of two imaging units in Embodiment 2 of the present invention.
FIG. 6 is a block diagram showing an infrared imaging device according to Embodiment 3 of the present invention.
FIG. 7 is a block diagram showing an infrared imaging device according to Embodiment 4 of the present invention.
FIG. 8 is a diagram for explaining a distance measuring operation in Embodiment 4 of the present invention.
FIG. 9 is a block diagram showing an infrared imaging device according to Embodiment 5 of the present invention.
FIG. 10 is a block diagram showing an infrared imaging device according to Embodiment 6 of the present invention.
FIG. 11 is a diagram illustrating a distance measuring operation in Embodiment 6 of the present invention.
FIG. 12 is a block diagram showing an infrared imaging device according to Embodiment 7 of the present invention.
FIG. 13 is a diagram for explaining a distance measuring operation in Embodiment 7 of the present invention.
FIG. 14 is a diagram illustrating a configuration example of a first conventional technique.
FIG. 15 is a diagram for explaining a distance measuring operation in the first conventional technique.
FIG. 16 is a diagram illustrating a configuration example of a second conventional technique.
FIG. 17 is a diagram for explaining a distance measuring operation in the second conventional technique.
[Explanation of symbols]
Infrared imaging unit, 1a Infrared imaging unit, 1b Infrared imaging unit, 2 Cursor display, 3 Display unit, 4 Cursor operation unit, 5 Distance calculator, 10 First infrared imaging unit, 11 Second infrared imaging unit, 20 Distance calculator, 21 Transmittance calculator, 22a Target 4 μm band radiation intensity calculator, 22b Target 10 μm band radiation intensity calculator, 23 Radiation intensity comparator, 24 Distance measurement result selector, 34 Target tracking command signal Generator, 35 Image extraction processor, 37 Visual axis drive unit, 38 Visual axis controller, 39 Image tracking processor, 42 Infrared imaging unit, 43 Infrared imaging unit, 44 Visual axis of infrared imaging unit 42, 45 Infrared imaging unit 43 visual axes, 50 integrator, 51 angular velocity command calculator, 52 angular velocity error calculator, 53 drive unit, 54 rate gyro, 59 ranging calculator, 61 infrared imaging unit with visual axis drive unit, 78 angle detector, 84 synchronization generator, 85 target extractor.

Claims (2)

移動体に搭載される赤外線撮像装置において、それぞれ異なる波長帯を検出する2次元配列の凝視型赤外線撮像素子を有し、同一視野角を有する、横列に配置された第1、第2の赤外線撮像部と、オペレータの指示に従い撮像画像中の目標位置を出力するカーソル操作器と、撮像画像中の指示された位置にカーソルを重畳させるカーソル表示器と、カーソルを重畳した撮像画像を表示する表示器と、オペレータの指示した画像中の目標位置に対応する赤外線撮像素子上の画素の位置から目標方向を算出し、第1、第2の赤外線撮像部からの目標方向と第1、第2の赤外線撮像部間の距離とで形成される三角形の頂点を演算により求めることで距離を求める2台の撮像部による測距演算器と、オペレータの指示した画像中の目標位置に対応する赤外線撮像素子上の画素の輝度値から目標の放射強度を算出し、第1、第2の赤外線撮像部の放射強度比から距離を求める放射強度による測距演算器と、上記2台の撮像部による測距演算器と上記放射強度による測距演算器の測距結果から、設定した距離よりも近距離の場合に上記2台の撮像部による測距演算器の測距結果を選択し、設定した距離よりも遠距離の場合に上記放射強度による測距演算器の測距結果を選択する測距結果選択器とを具備したことを特徴とする赤外線撮像装置。In an infrared imaging device mounted on a moving body, first and second infrared imaging devices arranged in rows having a two-dimensional array of staring infrared imaging devices that detect different wavelength bands and having the same viewing angle , A cursor operating device that outputs a target position in the captured image in accordance with an instruction from the operator, a cursor display that superimposes the cursor on the instructed position in the captured image, and a display that displays the captured image on which the cursor is superimposed The target direction is calculated from the position of the pixel on the infrared imaging element corresponding to the target position in the image designated by the operator, and the target direction from the first and second infrared imaging units and the first and second infrared rays are calculated. Corresponding to the distance measuring calculator by the two imaging units for obtaining the distance by calculating the vertex of the triangle formed by the distance between the imaging units and the target position in the image instructed by the operator A distance measuring calculator based on a radiation intensity for calculating a target radiation intensity from a luminance value of a pixel on an external imaging device and obtaining a distance from a radiation intensity ratio of the first and second infrared imaging units, and the two imaging units Select the distance measurement result of the distance measurement unit by the two image pickup units when the distance is shorter than the set distance from the distance measurement result of the distance calculation unit by the above and the distance calculation unit by the radiation intensity. An infrared imaging apparatus, comprising: a distance measurement result selector that selects a distance measurement result of the distance measurement calculator based on the radiation intensity when the distance is longer than the measured distance . オペレータの操作により追尾指令を出力する目標追尾指令信号発生器と、撮像した画像からオペレータの指示した目標を抽出し追尾し続けて画像中の目標位置を出力する目標抽出処理器とを具備したことを特徴とする請求項1記載の赤外線撮像装置。  A target tracking command signal generator that outputs a tracking command by an operator's operation, and a target extraction processor that extracts a target instructed by the operator from the captured image and continuously outputs the target position in the image. The infrared imaging device according to claim 1.
JP2000387156A 2000-12-20 2000-12-20 Infrared imaging device Expired - Fee Related JP4168591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000387156A JP4168591B2 (en) 2000-12-20 2000-12-20 Infrared imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000387156A JP4168591B2 (en) 2000-12-20 2000-12-20 Infrared imaging device

Publications (3)

Publication Number Publication Date
JP2002188914A JP2002188914A (en) 2002-07-05
JP2002188914A5 JP2002188914A5 (en) 2005-11-04
JP4168591B2 true JP4168591B2 (en) 2008-10-22

Family

ID=18854143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000387156A Expired - Fee Related JP4168591B2 (en) 2000-12-20 2000-12-20 Infrared imaging device

Country Status (1)

Country Link
JP (1) JP4168591B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003308A (en) * 2005-06-22 2007-01-11 Pasuko:Kk Method of estimating ground temperature and program for it
JP5890261B2 (en) * 2012-06-21 2016-03-22 アズビル株式会社 Temperature detection range specifying device and method
JP5966935B2 (en) * 2013-01-10 2016-08-10 三菱電機株式会社 Infrared target detection device
JP6775541B2 (en) 2018-04-03 2020-10-28 株式会社Subaru Position measurement method and position measurement system
KR102251307B1 (en) * 2020-09-10 2021-05-13 주식회사 콕스 Thermal camera system with distance measuring function
KR102487590B1 (en) * 2020-12-04 2023-01-13 주식회사 콕스 Method for measuring of object based on face-recognition

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6063478A (en) * 1983-09-16 1985-04-11 Fujitsu Ltd Infrared range finder
JPS62197774A (en) * 1986-02-25 1987-09-01 Mitsubishi Electric Corp Picture image tracking instrument
JPH0617795B2 (en) * 1988-06-22 1994-03-09 株式会社大林組 Three-dimensional position measuring device
JP2615904B2 (en) * 1988-09-14 1997-06-04 三菱電機株式会社 Electro-optical equipment
JPH03215708A (en) * 1990-01-20 1991-09-20 Mitsubishi Electric Corp Vehicle-to-vehicle distance detecting device
JP3517804B2 (en) * 1995-10-03 2004-04-12 富士通株式会社 Infrared imaging device
JPH10213432A (en) * 1997-01-30 1998-08-11 Mitsubishi Electric Corp Apparatus for determining light-emitting source
JP2956657B2 (en) * 1997-06-17 1999-10-04 日本電気株式会社 Distance measuring device
JP3913878B2 (en) * 1998-01-14 2007-05-09 本田技研工業株式会社 Vehicle object detection device
JPH11211464A (en) * 1998-01-30 1999-08-06 Canon Inc Range finding device and computer readable storage medium

Also Published As

Publication number Publication date
JP2002188914A (en) 2002-07-05

Similar Documents

Publication Publication Date Title
US7283646B2 (en) Image processing system using rotatable surveillance camera
KR102693918B1 (en) Sensor-to-sensor calibration system and method
JPH03213498A (en) Optoelectronics system to support air attach and air navigation assignment
US10962631B2 (en) Method for operating a laser distance measuring device
US10564250B2 (en) Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same
US20220099442A1 (en) Surveying System
JP5858741B2 (en) Automatic tracking camera system
JP4056777B2 (en) Autonomous mobile object traveling system and autonomous mobile object position correction method
KR102193911B1 (en) Surveillance system for target detection, recognition and tracking and controlling method thereof
JP4168591B2 (en) Infrared imaging device
RU2381521C2 (en) Method of measuring object range and linear dimensions by television images
KR101118926B1 (en) System for observation moving objects
CN112764052A (en) Air defense missile flight monitoring system
KR101722993B1 (en) Electro optical tracking system
US10989914B2 (en) Hybrid lidar system
KR101649181B1 (en) Flight information estimator and estimation method of the flying objects
KR101279371B1 (en) Attack system and method for controlling thereof
JP2021103410A (en) Mobile body and imaging system
US12069373B2 (en) Apparatus and method for detecting target by interlocking target in monitoring system
JP3409455B2 (en) Infrared imaging device
JPH0326180A (en) Moving target body automatic tracking device
JPH1185284A (en) Monitoring device
RU2653158C1 (en) Location optical-electronic module
KR102050898B1 (en) Method and apparatus for tracking multiple curling stones using two cameras
JP4292796B2 (en) Monitoring device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080728

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4168591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees