JP5984437B2 - 画像誘導装置及び画像誘導方法 - Google Patents

画像誘導装置及び画像誘導方法 Download PDF

Info

Publication number
JP5984437B2
JP5984437B2 JP2012051346A JP2012051346A JP5984437B2 JP 5984437 B2 JP5984437 B2 JP 5984437B2 JP 2012051346 A JP2012051346 A JP 2012051346A JP 2012051346 A JP2012051346 A JP 2012051346A JP 5984437 B2 JP5984437 B2 JP 5984437B2
Authority
JP
Japan
Prior art keywords
image
information
determination
infrared
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012051346A
Other languages
English (en)
Other versions
JP2013185961A (ja
Inventor
佳洋 市村
佳洋 市村
貴史 石渡
貴史 石渡
玄 又江
玄 又江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2012051346A priority Critical patent/JP5984437B2/ja
Publication of JP2013185961A publication Critical patent/JP2013185961A/ja
Application granted granted Critical
Publication of JP5984437B2 publication Critical patent/JP5984437B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は画像誘導装置及び画像誘導方法に関し、特に、飛行物体の画像誘導装置及び画像誘導方法に関する。
ミサイルのような飛しょう体を誘導する誘導方法として、目標から発せられる赤外光に基づいて飛しょう体を誘導する赤外線画像誘導方法が知られている。赤外線画像誘導方法では、目標と背景との温度差を利用して、目標及び背景の赤外線画像から輝度が所定値以上の部分(すなわち温度が所定値以上の部分)を目標の画像として抽出することが行われてきた。しかし、背景中に太陽光で熱せられた部分があると、誤ってその部分を目標の画像として選択するという問題点があった。
特許文献1は、上記問題点に関連して、目標と背景の温度差が微小である場合や目標に温度分布がある場合でも正しく目標を判別できる赤外線目標選択装置を開示している。赤外線目標選択装置は、偏光画像撮像装置と、閾値データベースと、二値化回路と、目標回路抽出部とを備える。偏光画像撮像装置は、偏光差分画像信号と輝度画像信号とを出力する。具体的には、目標及びその背景から入射する赤外線が互いに直交する平面偏光に分離される。分離した赤外線は、それぞれ、2次元座標に配列された受光素子を備えた画像センサによって受光される。受光素子が赤外線を電気信号に変換することで、画像センサがそれぞれ画像信号を出力する。その2次元座標の同一の座標位置に対応する電気信号量の差分をとることで、これらの画像信号から偏光差分画像信号が生成される。その2次元座標の同一の座標位置に対応する電気信号量を加算することで、これらの画像信号から輝度画像信号が生成される。閾値データベースは、目標と背景とを組にした組み合わせと、目標と背景とが分離可能な偏光差分画像信号の閾値とを予め対応させて記憶する。二値化回路は、その組み合わせにより閾値データベースから選択したその閾値との比較に基づいて、偏光差分画像信号を二値化した二値化画像信号を出力する。目標候補抽出部は、その2次元座標の同一の座標位置にそれぞれ対応する二値化画像信号の二値化後の値と輝度画像信号の電気信号量とを乗算して得られる画像に基づいて、目標の候補を抽出する。
特開2007−322374号公報
本発明の目的は、温度情報だけでなく色情報を利用することで正しく目標画像を判定することができる画像誘導装置、その画像誘導装置を備えた飛行物体、及び、画像誘導方法を提供することである。
以下に、(発明を実施するための形態)で使用される番号を用いて、課題を解決するための手段を説明する。これらの番号は、(特許請求の範囲)の記載と(発明を実施するための形態)との対応関係を明らかにするために付加されたものである。ただし、それらの番号を、(特許請求の範囲)に記載されている発明の技術的範囲の解釈に用いてはならない。
本発明の第1の観点による画像誘導装置(10)は、撮影により赤外線画像(40)を生成する赤外線画像センサ(11)と、撮影により可視画像(50)を生成する可視画像センサ(12)と、前記赤外線画像及び前記可視画像に基づいて飛行物体(1)を目標(32)に誘導するオートパイロット(15)とを具備する。
上記画像誘導装置は、画像処理装置(13)と、判定用輪郭形状情報(21)、判定用温度情報(22)、及び判定用色情報(23)を格納した記憶装置(14)とを更に具備する。前記画像処理装置は、前記赤外線画像から複数の赤外線画像領域(41〜45)を抽出する。前記画像処理装置は、前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報(41A〜45A)と、赤外線画像領域輪郭形状情報(41B〜45B)と、赤外線画像領域温度情報(41C〜45C)とを抽出する。前記画像処理装置は、前記可視画像から複数の可視画像領域(51〜55)を抽出する。前記画像処理装置は、前記複数の可視画像領域の各々について、可視画像領域位置情報(51A〜55A)と、可視画像領域輪郭形状情報(51B〜55B)と、可視画像領域色情報(51C〜55C)とを抽出する。前記画像処理装置は、前記赤外線画像領域位置情報及び前記可視画像領域位置情報に基づいて、前記複数の赤外線画像領域と前記複数の可視画像領域とを一対一で対応付ける。前記画像処理装置は、前記赤外線画像領域輪郭形状情報及び前記可視画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記可視画像領域色情報と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色情報とに基づいて、前記複数の赤外線画像領域の一つ(42)を前記目標の画像としての目標画像であると判定する。前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する。
上記画像誘導装置は、画像処理装置(13)と、判定用輪郭形状情報(21)、判定用温度情報(22)、及び判定用色情報(23)を格納した記憶装置(14)とを更に具備する。前記画像処理装置は、前記赤外線画像から複数の赤外線画像領域(41〜44)を抽出する。前記画像処理装置は、前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報(41A〜44A)と、赤外線画像領域輪郭形状情報(41B〜44B)と、赤外線画像領域温度情報(41C〜44C)とを抽出する。前記画像処理装置は、前記赤外線画像領域位置情報に基づいて、前記複数の赤外線画像領域にそれぞれ対応する複数の画像処理対象領域(61〜64)を前記可視画像上に設定する。前記画像処理装置は、前記複数の画像処理対象領域に対して画像処理を行って複数の可視画像領域(51〜54)を抽出する。前記画像処理装置は、前記複数の可視画像領域の各々について、可視画像領域輪郭形状情報(51B〜54B)と、可視画像領域色情報(51C〜54C)とを抽出する。前記画像処理装置は、前記赤外線画像領域輪郭形状情報及び前記可視画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記可視画像領域色情報と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色情報とに基づいて、前記複数の赤外線画像領域の一つ(42)を前記目標の画像としての目標画像であると判定する。前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する。
前記記憶装置は、除外用色情報(26)を格納する。前記画像処理装置は、前記可視画像領域色情報と、前記除外用色情報とに基づいて、前記複数の赤外線画像領域の一部(44)を前記目標画像であると判定する対象から除外する。
上記画像誘導装置は、画像処理装置(13)と、判定用輪郭形状情報(21)と、判定用温度情報(22)と、判定用色相情報(24)及び判定用彩度情報(25)の少なくとも一方とを格納した記憶装置(14)とを更に具備する。前記画像処理装置は、前記赤外線画像から複数の赤外線画像領域(41〜44)を抽出する。前記画像処理装置は、前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報(41A〜44A)と、赤外線画像領域輪郭形状情報(41B〜44B)と、赤外線画像領域温度情報(41C〜44C)とを抽出する。前記画像処理装置は、前記可視画像についてRGB値からHSV値への変換を行ってHSV画像(70)を生成する。前記画像処理装置は、前記HSV画像から複数のHSV画像領域(71〜74)を抽出する。前記画像処理装置は、前記複数のHSV画像領域の各々について、HSV画像領域位置情報(71A〜74A)と、HSV画像領域輪郭形状情報(71B〜74B)と、HSV画像領域色相情報(71C〜74C)及びHSV画像領域彩度情報(71D〜74D)の少なくとも一方とを抽出する。前記画像処理装置は、前記赤外線画像領域位置情報及び前記HSV画像領域位置情報に基づいて、前記複数の赤外線画像領域と前記複数のHSV画像領域とを一対一で対応付ける。前記画像処理装置は、前記赤外線画像領域輪郭形状情報及び前記HSV画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記HSV画像領域色相情報及び前記HSV画像領域彩度情報の前記少なくとも一方と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色相情報及び前記判定用彩度情報の前記少なくとも一方とに基づいて、前記複数の赤外線画像領域の一つ(42)を前記目標の画像としての目標画像であると判定する。前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する。
上記画像誘導装置は、画像処理装置(13)と、判定用輪郭形状情報(21)と、判定用温度情報(22)と、判定用色相情報(24)及び判定用彩度情報(25)の少なくとも一方とを格納した記憶装置(14)とを更に具備する。前記画像処理装置は、前記赤外線画像から複数の赤外線画像領域(41〜44)を抽出する。前記画像処理装置は、前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報(41A〜44A)と、赤外線画像領域輪郭形状情報(41B〜44B)と、赤外線画像領域温度情報(41C〜44C)とを抽出する。前記画像処理装置は、前記赤外線画像領域位置情報に基づいて、前記複数の赤外線画像領域にそれぞれ対応する複数の画像処理対象領域(61〜64)を前記可視画像上に設定する。前記画像処理装置は、前記複数の画像処理対象領域についてRGB値からHSV値への変換を行って複数の画像処理対象HSV画像(81〜84)を生成する。前記画像処理装置は、前記複数の画像処理対象HSV画像に対して画像処理を行って複数のHSV画像領域(71〜74)を抽出する。前記画像処理装置は、前記複数のHSV画像領域の各々について、HSV画像領域輪郭形状情報(71B〜74B)と、HSV画像領域色相情報(71C〜74C)及びHSV画像領域彩度情報(71D〜74D)の少なくとも一方とを抽出する。前記画像処理装置は、前記赤外線画像領域輪郭形状情報及び前記HSV画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記HSV画像領域色相情報及び前記HSV画像領域彩度情報の前記少なくとも一方と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色相情報及び前記判定用彩度情報の前記少なくとも一方とに基づいて、前記複数の赤外線画像領域の一つ(42)を前記目標の画像としての目標画像であると判定する。前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する。
前記記憶装置は、除外用色相情報(27)及び除外用彩度情報(28)の少なくとも一方を格納する。前記画像処理装置は、前記HSV画像領域色相情報及び前記HSV画像領域彩度情報の前記少なくとも一方と、前記除外用色相情報及び前記除外用彩度情報の前記少なくとも一方とに基づいて、前記複数の赤外線画像領域の一部(44)を前記目標画像であると判定する対象から除外する。
前記記憶装置は、判定用位置情報(29)を格納する。
前記画像処理装置は、前記赤外線画像領域位置情報と、前記判定用位置情報とに更に基づいて、前記複数の赤外線画像領域の前記一つを前記目標画像であると判定する。
本発明の第2の観点による飛行物体(1)は、上記画像誘導装置と、操舵翼(3)と、前記画像誘導装置からの指令に基づいて前記操舵翼を駆動する操舵装置(5)とを具備する。
本発明の第3の観点による画像誘導方法は、飛行物体(1)に搭載された赤外線画像センサ(11)が撮影により赤外線画像(40)を生成することと、前記飛行物体に搭載された可視画像センサ(12)が撮影により可視画像(50)を生成することと、前記赤外線画像及び前記可視画像に基づいて前記飛行物体を目標(32)に誘導することとを具備する。
本発明によれば、温度情報だけでなく色情報を利用することで正しく目標画像を判定することができる画像誘導装置、その画像誘導装置を備えた飛行物体、及び、画像誘導方法が提供される。
図1は、本発明の第1の実施形態に係る飛行物体の斜視図である。 図2は、飛行物体の制御システムのブロック図である。 図3は、飛行物体の視野の概念図である。 図4は、第1の実施形態に係る飛行物体の画像誘導方法の概念図である。 図5は、第1の実施形態に係る飛行物体の画像誘導方法の他の概念図である。 図6は、本発明の第2の実施形態に係る飛行物体の画像誘導方法の概念図である。 図7は、第2の実施形態に係る飛行物体の画像誘導方法の他の概念図である。 図8は、本発明の第3の実施形態に係る飛行物体の画像誘導方法の概念図である。 図9は、第3の実施形態に係る飛行物体の画像誘導方法の他の概念図である。 図10は、本発明の第4の実施形態に係る飛行物体の画像誘導方法の概念図である。 図11は、第4の実施形態に係る飛行物体の画像誘導方法の他の概念図である。 図12は、本発明の第5の実施形態に係る飛行物体の画像誘導方法の概念図である。 図13は、本発明の第6の実施形態に係る飛行物体の画像誘導方法の他の概念図である。 図14は、飛行物体の視野の他の概念図である。 図15は、本発明の第7の実施形態に係る飛行物体の画像誘導方法の概念図である。
添付図面を参照して、本発明による飛行物体、画像誘導装置、及び画像誘導方法を実施するための形態を以下に説明する。
(第1の実施形態)
図1を参照して、本発明の第1の実施形態に係る飛行物体1は、例えば、取得した画像データに基づき、目標への自律誘導を行う飛しょう体である。飛行物体1は、「撃ちっぱなし(fire and forget)」で目標に自律誘導される。飛行物体1は、胴体2と、操舵翼3とを備える。操舵翼3は胴体2に取り付けられている。操舵翼3により飛行物体1の飛行方向が制御される。また、飛行物体1の飛行を安定化させるために、翼4が設けられてもよい。翼4は固定翼でもよいが、翼4が操舵翼であると飛行方向の制御が容易化される。
図2を参照して、飛行物体1は、画像誘導装置10と、操舵装置5とを備える。例えば、画像誘導装置10及び操舵装置5は、胴体2内に収容される。画像誘導装置10は、赤外線画像センサ11と、可視画像センサ12と、画像処理装置13と、記憶装置14と、オートパイロット15とを備える。記憶装置14は、目標の画像としての目標画像を判定するための基準データ20を格納する。基準データ20は、飛行物体1が発射される前に外部から与えられる。赤外線画像センサ11は、撮影により赤外線画像を生成する。可視画像センサ12は、撮影により可視画像を生成する。画像処理装置13は、赤外線画像及び可視画像に基づいて目標画像を判定し、目標画像の位置情報を出力する。オートパイロット15は、目標画像の位置情報に基づいて、飛行物体1を目標に誘導する。すなわち、オートパイロット15は、目標画像の位置情報に基づいて、操舵指令を生成する。操舵装置5は、操舵指令に基づいて操舵翼3を駆動する。尚、飛行物体1が推進装置(不図示)を備える場合、オートパイロット15は目標画像の位置情報に基づいて推進装置(不図示)を制御してもよい。
画像誘導装置10が赤外線画像及び可視画像に基づいて飛行物体1を誘導するため、目標及び背景についての温度情報だけでなく色情報を利用することができる。そのため、正しく目標画像を判定することができる。したがって、誤ロックオンが防がれる。
以下、飛行物体1の画像誘導方法を詳細に説明する。
図3を参照して、車両32が目標として選択された場合、車両32の画像としての目標画像を判定するための基準データ20が外部から与えられて記憶装置14に格納される。その後、飛行物体1が概ね車両32の方向に発射される。飛行物体1は、推進装置(不図示)が発生する推力により飛行してもよく、発射時に与えられた初速度により飛行してもよい。飛行中の飛行物体1の視野30内には、木31と、車両32と、木33と、岩34とが存在する。木31、木33、及び岩34は、背景の一部である。車両32は、エンジンの熱による赤外線を放出している。木31及び33は、太陽からの赤外線を反射している。岩34は、太陽により高温に熱せられているために赤外線を放出している。尚、木31及び33と車両32とは、緑色をしている。岩34は茶灰色をしている。
図4を参照して、赤外線画像センサ11は、視野30を撮影して赤外線画像40を生成し、可視画像センサ12は、視野30を撮影して可視画像50を生成する。画像処理装置13は、画像処理により赤外線画像40から複数の領域41〜44を抽出する。例えば、複数の領域41〜44は、赤外線画像40上のホットポイントである。領域41は木31に対応し、領域42は車両32に対応し、領域43は木33に対応し、領域44は岩34に対応している。画像処理装置13は、領域41について位置情報41A、輪郭形状情報41B、及び温度情報41Cを抽出し、領域42について位置情報42A、輪郭形状情報42B、及び温度情報42Cを抽出し、領域43について位置情報43A、輪郭形状情報43B、及び温度情報43Cを抽出し、領域44について位置情報44A、輪郭形状情報44B、及び温度情報44Cを抽出する。画像処理装置13は、画像処理により可視画像50から複数の領域51〜54を抽出する。領域51は木31に対応し、領域52は車両32に対応し、領域53は木33に対応し、領域54は岩34に対応している。画像処理装置13は、領域51について位置情報51A、輪郭形状情報51B、及び色情報51Cを抽出し、領域52について位置情報52A、輪郭形状情報52B、及び色情報52Cを抽出し、領域53について位置情報53A、輪郭形状情報53B、及び色情報53Cを抽出し、領域54について位置情報54A、輪郭形状情報54B、及び色情報54Cを抽出する。画像処理装置13は、位置情報41A〜44A及び51A〜54Aに基づいて、領域41〜44と領域51〜54との間で対応付けを実行する。例えば、位置情報41Aと位置情報51Aとの間の一致度に基づいて、領域41と領域51とが対応付けられる。同様に、領域42〜44と領域52〜54とがそれぞれ対応付けられる。ここでは、領域41〜44のどれについても対応付けが行われているため、領域41〜44と領域51〜54とが一対一で対応付けられている。しかし、領域41〜44の中に対応付けができないものが存在してもよい。
図5を参照して、基準データ20は、判定用輪郭形状情報21、判定用温度情報22、及び判定用色情報23を含んでいる。画像処理装置13は、輪郭形状情報41B〜44Bと、温度情報41C〜44Cと、輪郭形状情報51B〜54Bと、色情報51C〜54Cと、判定用輪郭形状情報21と、判定用温度情報22と、判定用色情報23とに基づいて、領域42を目標である車両32の画像としての目標画像であると判定する。例えば、画像処理装置13は、輪郭形状情報41Bと判定用輪郭形状情報21とに基づいて第1輪郭形状スコアを計算し、温度情報41Cと判定用温度情報22とに基づいて温度スコアを計算し、輪郭形状情報51Bと判定用輪郭形状情報21とに基づいて第2輪郭形状スコアを計算し、色情報51Cと判定用色情報23とに基づいて色スコアを計算し、これらのスコアを合計して領域41の合計スコアを計算する。同様に、画像処理装置13は、領域42〜44の合計スコアをそれぞれ計算する。画像処理装置13は、領域41〜44の中から合計スコアが最大のものを目標画像であると判定する。オートパイロット15は、目標画像としての領域42に基づいて飛行物体1を誘導する。尚、輪郭形状情報41B〜44Bのグループと輪郭形状情報51B〜54Bのグループとの両方のグループが判定に用いられてもよく、いずれか一方のグループのみが判定に用いられてもよい。
(第2の実施形態)
次に、本発明の第2の実施形態に係る飛行物体1の画像誘導方法を説明する。以下、第1の実施形態と異なる部分を説明し、共通部分の説明を省略する。
図6を参照して、画像処理装置13は、画像処理により赤外線画像40から複数の領域41〜44を抽出する。画像処理装置13は、領域41について位置情報41A、輪郭形状情報41B、及び温度情報41Cを抽出し、領域42について位置情報42A、輪郭形状情報42B、及び温度情報42Cを抽出し、領域43について位置情報43A、輪郭形状情報43B、及び温度情報43Cを抽出し、領域44について位置情報44A、輪郭形状情報44B、及び温度情報44Cを抽出する。画像処理装置13は、位置情報41A〜44Aに基づいて、領域41〜44にそれぞれ対応する画像処理対象領域61〜64を可視画像50上に設定する。画像処理装置13は、画像処理対象領域61〜64に対して画像処理を行って領域51〜54を抽出する。画像処理装置13は、領域51について輪郭形状情報51B及び色情報51Cを抽出し、領域52について輪郭形状情報52B及び色情報52Cを抽出し、領域53について輪郭形状情報53B及び色情報53Cを抽出し、領域54について輪郭形状情報54B及び色情報54Cを抽出する。
図7を参照して、画像処理装置13は、輪郭形状情報41B〜44Bと、温度情報41C〜44Cと、輪郭形状情報51B〜54Bと、色情報51C〜54Cと、判定用輪郭形状情報21と、判定用温度情報22と、判定用色情報23とに基づいて、領域42を目標画像であると判定する。オートパイロット15は、目標画像としての領域42に基づいて飛行物体1を誘導する。尚、輪郭形状情報41B〜44Bのグループと輪郭形状情報51B〜54Bのグループとの両方のグループが判定に用いられてもよく、いずれか一方のグループのみが判定に用いられてもよい。
一般的に可視画像は赤外線画像に比べて情報量が多いため、可視画像の画像処理は赤外線画像の画像処理に比べて時間がかかる。本実施形態によれば、可視画像50上の画像処理対象領域61〜64に限定して領域51〜54の抽出のための画像処理を行っているため、可視画像50からの領域51〜54の抽出が高速化される。
(第3の実施形態)
次に、本発明の第3の実施形態に係る飛行物体1の画像誘導方法を説明する。以下、第1の実施形態と異なる部分を説明し、共通部分の説明を省略する。
図8を参照して、画像処理装置13は、画像処理により赤外線画像40から複数の領域41〜44を抽出する。画像処理装置13は、領域41について位置情報41A、輪郭形状情報41B、及び温度情報41Cを抽出し、領域42について位置情報42A、輪郭形状情報42B、及び温度情報42Cを抽出し、領域43について位置情報43A、輪郭形状情報43B、及び温度情報43Cを抽出し、領域44について位置情報44A、輪郭形状情報44B、及び温度情報44Cを抽出する。
ここで、可視画像50は、RGB値(R:赤、G:緑、B:青)により表現されている。しかし、RGB値は明るさの影響を受けやすく、同一の物体であっても、明るい場所に置かれたときと暗い場所に置かれたときとでRGB値が大きく異なる。そこで、本実施形態においては、画像処理装置13が可視画像50についてRGB値からHSV値(H:色相、S:彩度、V:明度)への変換を行ってHSV画像70を生成する。HSV画像70では、明るさの影響が明度Vという一つのパラメータに分離されている。そのため、太陽光などの光の物体への当たり加減が変化した場合であっても、色相H及び彩度Sは影響を受けない。
画像処理装置13は、画像処理によりHSV画像70から複数の領域71〜74を抽出する。領域71は木31に対応し、領域72は車両32に対応し、領域73は木33に対応し、領域74は岩34に対応している。画像処理装置13は、領域71について位置情報71A、輪郭形状情報71B、色相情報71C及び彩度情報71Dを抽出し、領域72について位置情報72A、輪郭形状情報72B、色相情報72C及び彩度情報72Dを抽出し、領域73について位置情報73A、輪郭形状情報73B、色相情報73C及び彩度情報73Dを抽出し、領域74について位置情報74A、輪郭形状情報74B、色相情報74C及び彩度情報74Dを抽出する。画像処理装置13は、位置情報41A〜44A及び71A〜74Aに基づいて、領域41〜44と領域71〜74との間で対応付けを実行する。例えば、位置情報41Aと位置情報71Aとの間の一致度に基づいて、領域41と領域71とが対応付けられる。同様に、領域42〜44と領域72〜74とがそれぞれ対応付けられる。ここでは、領域41〜44のどれについても対応付けが行われているため、領域41〜44と領域71〜74とが一対一で対応付けられている。しかし、領域41〜44の中に対応付けができないものが存在してもよい。
図9を参照して、基準データ20は、判定用輪郭形状情報21、判定用温度情報22、判定用色相情報24、及び判定用彩度情報25を含んでいる。画像処理装置13は、輪郭形状情報41B〜44Bと、温度情報41C〜44Cと、輪郭形状情報71B〜74Bと、色相情報71C〜74Cと、彩度情報71D〜74Dと、判定用輪郭形状情報21と、判定用温度情報22と、判定用色相情報24と、判定用彩度情報25とに基づいて、領域42を目標画像であると判定する。例えば、画像処理装置13は、輪郭形状情報41Bと判定用輪郭形状情報21とに基づいて第1輪郭形状スコアを計算し、温度情報41Cと判定用温度情報22とに基づいて温度スコアを計算し、輪郭形状情報71Bと判定用輪郭形状情報21とに基づいて第2輪郭形状スコアを計算し、色相情報71Cと判定用色相情報24とに基づいて色相スコアを計算し、彩度情報71Dと判定用彩度情報25とに基づいて彩度スコアを計算する。画像処理装置13は、これらのスコアを合計して領域41の合計スコアを計算する。同様に、画像処理装置13は、領域42〜44の合計スコアをそれぞれ計算する。画像処理装置13は、領域41〜44の中から合計スコアが最大のものを目標画像であると判定する。オートパイロット15は、目標画像としての領域42に基づいて飛行物体1を誘導する。尚、輪郭形状情報41B〜44Bのグループと輪郭形状情報71B〜74Bのグループとの両方のグループが判定に用いられてもよく、いずれか一方のグループのみが判定に用いられてもよい。色相情報71C〜74C及び判定用色相情報24の組と彩度情報71D〜74D及び判定用彩度情報の組との両方の組が判定に用いられてもよく、いずれか一方の組のみが判定に用いられてもよい。
本実施形態によれば、明るさの影響を受けない色相情報71C〜74C又は彩度情報71D〜74Dに基づいて判定を行っているため、木31、車両32、木33、及び岩34における光の当たり加減が変化しても、目標画像を正確に判定することができる。
(第4の実施形態)
次に、本発明の第4の実施形態に係る飛行物体1の画像誘導方法を説明する。以下、第2の実施形態と異なる部分を説明し、共通部分の説明を省略する。
図10を参照して、画像処理装置13は、画像処理により赤外線画像40から複数の領域41〜44を抽出する。画像処理装置13は、領域41について位置情報41A、輪郭形状情報41B、及び温度情報41Cを抽出し、領域42について位置情報42A、輪郭形状情報42B、及び温度情報42Cを抽出し、領域43について位置情報43A、輪郭形状情報43B、及び温度情報43Cを抽出し、領域44について位置情報44A、輪郭形状情報44B、及び温度情報44Cを抽出する。画像処理装置13は、位置情報41A〜44Aに基づいて、領域41〜44にそれぞれ対応する画像処理対象領域61〜64を可視画像50上に設定する。
ここで、可視画像50は、RGB値(R:赤、G:緑、B:青)により表現されている。すなわち、可視画像50上に設定された画像処理対象領域61〜64は、RGB値により表現されている。しかし、RGB値は明るさの影響を受けやすく、同一の物体であっても、明るい場所に置かれたときと暗い場所に置かれたときとでRGB値が大きく異なる。そこで、本実施形態においては、画像処理装置13が画像処理対象領域61〜64についてRGB値からHSV値(H:色相、S:彩度、V:明度)への変換を行って画像処理対象HSV画像81〜84を生成する。画像処理対象HSV画像81〜84では、明るさの影響が明度Vという一つのパラメータに分離されている。そのため、太陽光などの光の物体への当たり加減が変化した場合であっても、色相H及び彩度Sは影響を受けない。
画像処理装置13は、画像処理対象HSV画像81〜84に対して画像処理を行って領域71〜74を抽出する。画像処理装置13は、領域71について輪郭形状情報71B、色相情報71C及び彩度情報71Dを抽出し、領域72について輪郭形状情報72B、色相情報72C及び彩度情報72Dを抽出し、領域73について輪郭形状情報73B、色相情報73C及び彩度情報73Dを抽出し、領域74について輪郭形状情報74B、色相情報74C及び彩度情報74Dを抽出する。
図11を参照して、基準データ20は、判定用輪郭形状情報21、判定用温度情報22、判定用色相情報24、及び判定用彩度情報25を含んでいる。画像処理装置13は、輪郭形状情報41B〜44Bと、温度情報41C〜44Cと、輪郭形状情報71B〜74Bと、色相情報71C〜74Cと、彩度情報71D〜74Dと、判定用輪郭形状情報21と、判定用温度情報22と、判定用色相情報24と、判定用彩度情報25とに基づいて、領域42を目標画像であると判定する。例えば、画像処理装置13は、輪郭形状情報41Bと判定用輪郭形状情報21とに基づいて第1輪郭形状スコアを計算し、温度情報41Cと判定用温度情報22とに基づいて温度スコアを計算し、輪郭形状情報71Bと判定用輪郭形状情報21とに基づいて第2輪郭形状スコアを計算し、色相情報71Cと判定用色相情報24とに基づいて色相スコアを計算し、彩度情報71Dと判定用彩度情報25とに基づいて彩度スコアを計算する。画像処理装置13は、これらのスコアを合計して領域41の合計スコアを計算する。同様に、画像処理装置13は、領域42〜44の合計スコアをそれぞれ計算する。画像処理装置13は、領域41〜44の中から合計スコアが最大のものを目標画像であると判定する。オートパイロット15は、目標画像としての領域42に基づいて飛行物体1を誘導する。尚、輪郭形状情報41B〜44Bのグループと輪郭形状情報71B〜74Bのグループとの両方のグループが判定に用いられてもよく、いずれか一方のグループのみが判定に用いられてもよい。色相情報71C〜74C及び判定用色相情報24の組と彩度情報71D〜74D及び判定用彩度情報の組との両方の組が判定に用いられてもよく、いずれか一方の組のみが判定に用いられてもよい。
本実施形態によれば、明るさの影響を受けない色相情報71C〜74C又は彩度情報71D〜74Dに基づいて判定を行っているため、木31、車両32、木33、及び岩34における光の当たり加減が変化しても、目標画像を正確に判定することができる。
(第5の実施形態)
次に、本発明の第5の実施形態に係る飛行物体1の画像誘導方法を説明する。以下、第1の実施形態と異なる部分を説明し、共通部分の説明を省略する。
図12を参照して、基準データ20は、判定用輪郭形状情報21、判定用温度情報22、判定用色情報23、及び除外用色情報26を含んでいる。画像処理装置13は、色情報51C〜54Cと除外用色情報26とに基づいて、領域44を目標画像であると判定する対象から除外する。画像処理装置13は、輪郭形状情報41B〜43Bと、温度情報41C〜43Cと、輪郭形状情報51B〜53Bと、色情報51C〜53Cと、判定用輪郭形状情報21と、判定用温度情報22と、判定用色情報23とに基づいて、領域42を目標画像であると判定する。オートパイロット15は、目標画像としての領域42に基づいて飛行物体1を誘導する。尚、輪郭形状情報41B〜43Bのグループと輪郭形状情報51B〜53Bのグループとの両方のグループが判定に用いられてもよく、いずれか一方のグループのみが判定に用いられてもよい。本実施形態によれば、目標画像であると判定する対象が限定されるため、処理速度が向上する。
尚、本実施形態と第2の実施形態とを組み合わせることが可能である。
(第6の実施形態)
次に、本発明の第6の実施形態に係る飛行物体1の画像誘導方法を説明する。以下、第3の実施形態と異なる部分を説明し、共通部分の説明を省略する。
図13を参照して、基準データ20は、判定用輪郭形状情報21、判定用温度情報22、判定用色相情報24、判定用彩度情報25、除外用色相情報27、及び除外用彩度情報28を含んでいる。画像処理装置13は、色相情報71C〜74Cと、彩度情報71D〜74Dと、除外用色相情報27と、除外用彩度情報28とに基づいて、領域44を目標画像であると判定する対象から除外する。画像処理装置13は、輪郭形状情報41B〜43Bと、温度情報41C〜43Cと、輪郭形状情報71B〜73Bと、色相情報71C〜73Cと、彩度情報71D〜73Dと、判定用輪郭形状情報21と、判定用温度情報22と、判定用色相情報24と、判定用彩度情報25とに基づいて、領域42を目標画像であると判定する。オートパイロット15は、目標画像としての領域42に基づいて飛行物体1を誘導する。尚、輪郭形状情報41B〜43Bのグループと輪郭形状情報71B〜73Bのグループとの両方が判定に用いられてもよく、いずれか一方のグループのみが判定に用いられてもよい。色相情報71C〜73C及び判定用色相情報24の組と彩度情報71D〜73D及び判定用彩度情報の組との両方の組が判定に用いられてもよく、いずれか一方の組のみが判定に用いられてもよい。本実施形態によれば、目標画像であると判定する対象が限定されるため、処理速度が向上する。
尚、本実施形態と第4の実施形態とを組み合わせることが可能である。
(第7の実施形態)
次に、本発明の第7の実施形態に係る飛行物体1の画像誘導方法を説明する。本実施形態においては、目標画像の判定に位置情報を用いる。以下、位置情報を用いた目標画像の判定を第1の実施形態に適用した場合を説明するが、位置情報を用いた目標画像の判定を第2乃至第6の実施形態に適用してもよい。
図14を参照して、飛行物体1の視野30内に車両32の他にも車両35が存在する。この場合、車両32を車両35から区別するために、基準データ20は判定用位置情報を含む。その判定用位置情報は、車両32の相対位置を記述している。車両32が車両35の左側に位置しているため、その判定用位置情報は情報「左」を含む。
図15を参照して、画像処理装置13は、赤外線画像40から、領域41〜44に加えて領域45を抽出する。領域45は車両35に対応している。画像処理装置13は、領域45について位置情報45A、輪郭形状情報45B、及び温度情報45Cを抽出する。画像処理装置13は、可視画像50から、領域51〜54に加えて領域55を抽出する。領域55は車両35に対応している。画像処理装置13は、領域55について位置情報55A、輪郭形状情報55B、及び色情報55Cを抽出する。画像処理装置13は、位置情報41A〜45A及び51A〜55Aに基づいて、領域41〜45と領域51〜55との間で対応付けを実行する。ここでは、領域41〜45と領域51〜55とが一対一で対応付けられている。
基準データ20は、判定用輪郭形状情報21、判定用温度情報22、及び判定用色情報23に加えて、判定用位置情報29を含んでいる。画像処理装置13は、輪郭形状情報41B〜45Bと、温度情報41C〜45Cと、輪郭形状情報51B〜55Bと、色情報51C〜55Cと、判定用輪郭形状情報21と、判定用温度情報22と、判定用色情報23とに基づいて、領域42及び45を選択する。例えば、画像処理装置13は、輪郭形状情報41Bと判定用輪郭形状情報21とに基づいて第1輪郭形状スコアを計算し、温度情報41Cと判定用温度情報22とに基づいて温度スコアを計算し、輪郭形状情報51Bと判定用輪郭形状情報21とに基づいて第2輪郭形状スコアを計算し、色情報51Cと判定用色情報23とに基づいて色スコアを計算し、これらのスコアを合計して領域41の合計スコアを計算する。同様に、画像処理装置13は、領域42〜45の合計スコアをそれぞれ計算する。画像処理装置13は、領域41〜45の中から合計スコアが閾値より大きい領域42及び45を選択する。画像処理装置13は、位置情報42A及び45Aと、判定用位置情報29とに基づいて、領域42を目標画像であると判定する。オートパイロット15は、目標画像としての領域42に基づいて飛行物体1を誘導する。尚、輪郭形状情報41B〜45Bのグループと輪郭形状情報51B〜55Bのグループとの両方のグループが判定に用いられてもよく、いずれか一方のグループのみが判定に用いられてもよい。
本実施形態によれば、目標である車両32と同種の物体である車両35が視野30内に存在する場合であっても、正しく目標画像を判定することができる。
以上、実施の形態を参照して本発明による飛行物体、画像誘導装置、及び画像誘導方法を説明したが、本発明による飛行物体、画像誘導装置、及び画像誘導方法は上記実施形態に限定されない。上記実施形態に変更を加えたり上記実施形態どうしを組み合わせたりすることが可能である。
1…飛行物体
2…胴体
3…操舵翼
4…翼(操舵翼)
5…操舵装置
10…画像誘導装置
11…赤外線画像センサ
12…可視画像センサ
13…画像処理装置
14…記憶装置
15…オートパイロット
20…基準データ
21…判定用輪郭形状情報
22…判定用温度情報
23…判定用色情報
24…判定用色相情報
25…判定用彩度情報
26…除外用色情報
27…除外用色相情報
28…除外用彩度情報
29…判定用位置情報
30…視野
31…木
32…車両
33…木
34…岩
35…車両
40…赤外線画像
41〜45…領域
41A〜45A…位置情報
41B〜45B…輪郭形状情報
41C〜45C…温度情報
50…可視画像
51〜55…領域
51A〜55A…位置情報
51B〜55B…輪郭形状情報
51C〜55C…色情報
61〜64…画像処理対象領域
70…HSV画像
71〜74…領域
71A〜74A…位置情報
71B〜74B…輪郭形状情報
71C〜74C…色相情報
71D〜74D…彩度情報
81〜84…画像処理対象HSV画像

Claims (12)

  1. 撮影により赤外線画像を生成する赤外線画像センサと、
    撮影により可視画像を生成する可視画像センサと、
    前記赤外線画像及び前記可視画像に基づいて飛行物体を目標に誘導するオートパイロットと、
    画像処理装置と、
    判定用輪郭形状情報、判定用温度情報、及び判定用色情報を格納した記憶装置と
    を具備し、
    前記画像処理装置は、
    前記赤外線画像から複数の赤外線画像領域を抽出し、
    前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報と、赤外線画像領域輪郭形状情報と、赤外線画像領域温度情報とを抽出し、
    前記可視画像から複数の可視画像領域を抽出し、
    前記複数の可視画像領域の各々について、可視画像領域位置情報と、可視画像領域輪郭形状情報と、可視画像領域色情報とを抽出し、
    前記赤外線画像領域位置情報及び前記可視画像領域位置情報に基づいて、前記複数の赤外線画像領域と前記複数の可視画像領域とを一対一で対応付け、
    前記赤外線画像領域輪郭形状情報及び前記可視画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記可視画像領域色情報と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色情報とに基づいて、前記複数の赤外線画像領域の一つを前記目標の画像としての目標画像であると判定し、
    前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する
    画像誘導装置。
  2. 撮影により赤外線画像を生成する赤外線画像センサと、
    撮影により可視画像を生成する可視画像センサと、
    前記赤外線画像及び前記可視画像に基づいて飛行物体を目標に誘導するオートパイロットと、
    画像処理装置と、
    判定用輪郭形状情報、判定用温度情報、及び判定用色情報を格納した記憶装置と
    を具備し、
    前記画像処理装置は、
    前記赤外線画像から複数の赤外線画像領域を抽出し、
    前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報と、赤外線画像領域輪郭形状情報と、赤外線画像領域温度情報とを抽出し、
    前記赤外線画像領域位置情報に基づいて、前記複数の赤外線画像領域にそれぞれ対応する複数の画像処理対象領域を前記可視画像上に設定し、
    前記複数の画像処理対象領域に対して画像処理を行って複数の可視画像領域を抽出し、
    前記複数の可視画像領域の各々について、可視画像領域輪郭形状情報と、可視画像領域色情報とを抽出し、
    前記赤外線画像領域輪郭形状情報及び前記可視画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記可視画像領域色情報と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色情報とに基づいて、前記複数の赤外線画像領域の一つを前記目標の画像としての目標画像であると判定し、
    前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する
    画像誘導装置。
  3. 請求項1又は2に記載の画像誘導装置であって、
    前記記憶装置は、除外用色情報を格納し、
    前記画像処理装置は、前記可視画像領域色情報と、前記除外用色情報とに基づいて、前記複数の赤外線画像領域の一部を前記目標画像であると判定する対象から除外する
    画像誘導装置。
  4. 撮影により赤外線画像を生成する赤外線画像センサと、
    撮影により可視画像を生成する可視画像センサと、
    前記赤外線画像及び前記可視画像に基づいて飛行物体を目標に誘導するオートパイロットと、
    画像処理装置と、
    判定用輪郭形状情報と、判定用温度情報と、判定用色相情報及び判定用彩度情報の少なくとも一方とを格納した記憶装置と
    を具備し、
    前記画像処理装置は、
    前記赤外線画像から複数の赤外線画像領域を抽出し、
    前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報と、赤外線画像領域輪郭形状情報と、赤外線画像領域温度情報とを抽出し、
    前記可視画像についてRGB値からHSV値への変換を行ってHSV画像を生成し、
    前記HSV画像から複数のHSV画像領域を抽出し、
    前記複数のHSV画像領域の各々について、HSV画像領域位置情報と、HSV画像領域輪郭形状情報と、HSV画像領域色相情報及びHSV画像領域彩度情報の少なくとも一方とを抽出し、
    前記赤外線画像領域位置情報及び前記HSV画像領域位置情報に基づいて、前記複数の赤外線画像領域と前記複数のHSV画像領域とを一対一で対応付け、
    前記赤外線画像領域輪郭形状情報及び前記HSV画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記HSV画像領域色相情報及び前記HSV画像領域彩度情報の前記少なくとも一方と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色相情報及び前記判定用彩度情報の前記少なくとも一方とに基づいて、前記複数の赤外線画像領域の一つを前記目標の画像としての目標画像であると判定し、
    前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する
    画像誘導装置。
  5. 撮影により赤外線画像を生成する赤外線画像センサと、
    撮影により可視画像を生成する可視画像センサと、
    前記赤外線画像及び前記可視画像に基づいて飛行物体を目標に誘導するオートパイロットと、
    画像処理装置と、
    判定用輪郭形状情報と、判定用温度情報と、判定用色相情報及び判定用彩度情報の少なくとも一方とを格納した記憶装置と
    を具備し、
    前記画像処理装置は、
    前記赤外線画像から複数の赤外線画像領域を抽出し、
    前記複数の赤外線画像領域の各々について、赤外線画像領域位置情報と、赤外線画像領域輪郭形状情報と、赤外線画像領域温度情報とを抽出し、
    前記赤外線画像領域位置情報に基づいて、前記複数の赤外線画像領域にそれぞれ対応する複数の画像処理対象領域を前記可視画像上に設定し、
    前記複数の画像処理対象領域についてRGB値からHSV値への変換を行って複数の画像処理対象HSV画像を生成し、
    前記複数の画像処理対象HSV画像に対して画像処理を行って複数のHSV画像領域を抽出し、
    前記複数のHSV画像領域の各々について、HSV画像領域輪郭形状情報と、HSV画像領域色相情報及びHSV画像領域彩度情報の少なくとも一方とを抽出し、
    前記赤外線画像領域輪郭形状情報及び前記HSV画像領域輪郭形状情報の少なくとも一方と、前記赤外線画像領域温度情報と、前記HSV画像領域色相情報及び前記HSV画像領域彩度情報の前記少なくとも一方と、前記判定用輪郭形状情報と、前記判定用温度情報と、前記判定用色相情報及び前記判定用彩度情報の前記少なくとも一方とに基づいて、前記複数の赤外線画像領域の一つを前記目標の画像としての目標画像であると判定し、
    前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導する
    画像誘導装置。
  6. 請求項4又は5に記載の画像誘導装置であって、
    前記記憶装置は、除外用色相情報及び除外用彩度情報の少なくとも一方を格納し、
    前記画像処理装置は、前記HSV画像領域色相情報及び前記HSV画像領域彩度情報の前記少なくとも一方と、前記除外用色相情報及び前記除外用彩度情報の前記少なくとも一方とに基づいて、前記複数の赤外線画像領域の一部を前記目標画像であると判定する対象から除外する
    画像誘導装置。
  7. 請求項1乃至6のいずれかに記載の画像誘導装置であって、
    前記記憶装置は、判定用位置情報を格納し、
    前記画像処理装置は、前記赤外線画像領域位置情報と、前記判定用位置情報とに更に基づいて、前記複数の赤外線画像領域の前記一つを前記目標画像であると判定する
    画像誘導装置。
  8. 請求項1乃至7のいずれかに記載の画像誘導装置と、
    操舵翼と、
    前記画像誘導装置からの指令に基づいて前記操舵翼を駆動する操舵装置と
    を具備する
    飛行物体。
  9. 撮影により赤外線画像を生成する赤外線画像センサと、
    撮影により可視画像を生成する可視画像センサと、
    前記赤外線画像及び前記可視画像に基づいて飛行物体を目標に誘導するオートパイロットと、
    画像処理装置と、
    目標画像であるか否かを判定するための基準データを格納した記憶装置と
    を具備し、
    前記画像処理装置は、
    複数の赤外線画像領域を抽出し、
    前記赤外線画像から抽出される温度情報及び前記可視画像から抽出される色情報と、
    前記基準データとに基づいて、前記複数の赤外線画像領域の一つを前記目標の画像としての目標画像であると判定し、
    前記オートパイロットは、前記目標画像に基づいて前記飛行物体を誘導し、
    前記基準データは、判定用位置情報を含む
    画像誘導装置。
  10. 請求項9に記載の画像誘導装置であって、
    前記基準データは、
    判定用輪郭形状情報と、判定用温度情報と、判定用色情報とを含むか、あるいは、
    判定用輪郭形状情報と、判定用温度情報と、判定用色相情報及び判定用彩度情報の少なくとも一方とを含む
    画像誘導装置。
  11. 請求項9に記載の画像誘導装置であって、
    前記画像処理装置は、前記温度情報と前記基準データに含まれる判定用温度情報とに基づいて、温度スコアを計算し、
    前記画像処理装置は、前記色情報と前記基準データに含まれる判定用色情報とに基づいて、色スコアを計算し、
    前記画像処理装置は、前記温度スコアと、前記色スコアとに基づいて、前記複数の赤外線画像領域の一つを前記目標の画像としての前記目標画像であると判定する
    画像誘導装置。
  12. 請求項9に記載の画像誘導装置であって、
    前記基準データは、前記飛行物体が発射される前に前記飛行物体の外部から与えられるデータである
    画像誘導装置。


JP2012051346A 2012-03-08 2012-03-08 画像誘導装置及び画像誘導方法 Active JP5984437B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012051346A JP5984437B2 (ja) 2012-03-08 2012-03-08 画像誘導装置及び画像誘導方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012051346A JP5984437B2 (ja) 2012-03-08 2012-03-08 画像誘導装置及び画像誘導方法

Publications (2)

Publication Number Publication Date
JP2013185961A JP2013185961A (ja) 2013-09-19
JP5984437B2 true JP5984437B2 (ja) 2016-09-06

Family

ID=49387513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012051346A Active JP5984437B2 (ja) 2012-03-08 2012-03-08 画像誘導装置及び画像誘導方法

Country Status (1)

Country Link
JP (1) JP5984437B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110360899A (zh) * 2018-04-11 2019-10-22 西安理工大学 一种双旋制导炮弹寻地检测系统及其检测方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766049B2 (ja) * 1986-09-29 1995-07-19 株式会社東芝 飛翔体用光学系装置
JPS63298081A (ja) * 1987-05-29 1988-12-05 Mitsubishi Electric Corp 赤外線・tv複合追尾装置
JPH06325180A (ja) * 1993-05-14 1994-11-25 Matsushita Electric Ind Co Ltd 移動体自動追跡装置
JPH07140222A (ja) * 1993-11-15 1995-06-02 Hitachi Ltd 目標捕捉方式
JPH09170898A (ja) * 1995-12-20 1997-06-30 Mitsubishi Electric Corp 誘導装置
US5686889A (en) * 1996-05-20 1997-11-11 The United States Of America As Represented By The Secretary Of The Army Infrared sniper detection enhancement
JP2960366B2 (ja) * 1997-03-18 1999-10-06 防衛庁技術研究本部長 目標抽出方法
JP2002122678A (ja) * 2001-01-30 2002-04-26 Masanobu Kujirada カメラ等検知装置
JP2002298144A (ja) * 2001-03-30 2002-10-11 Mitsubishi Heavy Ind Ltd 自動目標検知識別処理方法、装置、プログラム、記録媒体、および、可視カメラ装置
JP3502933B2 (ja) * 2002-01-18 2004-03-02 防衛庁技術研究本部長 赤外線画像からの目標抽出のための画像処理方法、目標抽出方法、抽出目標を追尾する地上観測方法、飛しょう体の誘導方法及びそれらの装置
JP5135882B2 (ja) * 2007-05-22 2013-02-06 株式会社豊田中央研究所 物体識別装置及びプログラム

Also Published As

Publication number Publication date
JP2013185961A (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
JP7051740B2 (ja) 画像処理装置、測距装置、方法及びプログラム
US9100595B2 (en) Image processing method and thermal imaging camera
US9727785B2 (en) Method and apparatus for tracking targets
WO2016181476A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5984437B2 (ja) 画像誘導装置及び画像誘導方法
CN107323677B (zh) 无人机辅助降落方法、装置、设备及存储介质
KR20150132968A (ko) 다중 목표 추적 시스템 및 방법
JP2009069019A (ja) 目標検出装置および目標検出方法
JP2014059710A (ja) 対象物検出装置および対象物検出方法
US10240900B2 (en) Systems and methods for acquiring and launching and guiding missiles to multiple targets
CN104166853B (zh) 从高分辨率遥感图像中快速提取规则化舰船切片的方法
KR101040306B1 (ko) 영상 추적 장치 및 이를 이용한 표적 탐지 방법
KR101188296B1 (ko) 스트랩다운 이중 모드 영상탐색기의 가중치 기반 표적 결정 방법 및 이를 이용한 가중치 기반 표적 결정 시스템
JP4963492B2 (ja) 画像セグメンテーション方法、プログラムおよび装置
CN112847349A (zh) 机器人行走控制方法及装置
KR101202215B1 (ko) 위치가중 또는 영역확장 2차원 모멘트 모델링을 이용한 스트랩다운 이중 모드 영상탐색기의 가중치 기반 표적 결정 시스템
Burenin Search for distant galaxy clusters from the 400d X-ray survey in the WISE infrared survey
JP6441379B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2017172877A (ja) 偵察位置算出装置、偵察位置算出方法及び偵察位置算出プログラム
JP2013114381A (ja) 対象物識別装置および対象物識別方法
KR102183559B1 (ko) 피해목 검출 장치 및 방법
CN114979418A (zh) 图像处理装置
KR20130126300A (ko) 산불감시시스템 및 이를 이용한 산불감시방법, 그리고 산불감시를 위한 비행체
US20160300098A1 (en) Data processing method and system
JP2001305203A (ja) 画像目標検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160802

R151 Written notification of patent or utility model registration

Ref document number: 5984437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151