JP2023042205A - 対象物検出装置 - Google Patents

対象物検出装置 Download PDF

Info

Publication number
JP2023042205A
JP2023042205A JP2021149390A JP2021149390A JP2023042205A JP 2023042205 A JP2023042205 A JP 2023042205A JP 2021149390 A JP2021149390 A JP 2021149390A JP 2021149390 A JP2021149390 A JP 2021149390A JP 2023042205 A JP2023042205 A JP 2023042205A
Authority
JP
Japan
Prior art keywords
image
images
aerial image
object detection
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021149390A
Other languages
English (en)
Inventor
真人 田中
Masato Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2021149390A priority Critical patent/JP2023042205A/ja
Priority to US17/898,078 priority patent/US20230079528A1/en
Priority to EP22194568.6A priority patent/EP4148687A1/en
Publication of JP2023042205A publication Critical patent/JP2023042205A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】空撮画像から対象物を発見するために有用な画像を提供可能な対象物検出装置を提供する。【解決手段】空撮画像から対象物を検出する対象物検出装置(1)は、第1空撮画像を撮像する撮像装置(10、20)と、制御装置(40)と、表示装置(30)とを備える。制御装置は、第1空撮画像を複数の第1画像に分割し、複数の第1画像毎に対象物が含まれる確度を算出し、確度の程度と確度に対応する第1空撮画像の部分とを判別可能な第1判別用画像を表示装置に表示させる。【選択図】図1

Description

本開示は、空撮画像から対象物を検出する対象物検出装置に関する。
ヘリコプターおよびドローンなどの飛行体から撮像された空撮画像を用いて、遭難者などの対象物を自動的に検索する技術が知られている。特許文献1では、空撮画像から標的物体を迅速かつ精密に検出するためのシステムが提案されている。
特開2020-144922号公報
空撮画像を用いる場合、地上で撮像された画像を用いる場合と比べて、広い領域から対象物を検索することできる。このため、対象物を検出するために撮影方向を変更した上で画像を撮像する回数を減らすことができる。その結果、対象物を検出する効率を上げることできる。
しかしながら、空撮画像を撮像したときの飛行体の高度が高くなるに連れて、空撮画像に含まれる対象物の大きさが小さくなる。このため、空撮画像をそのまま用いて対象物を検出する場合、対象物の検出精度が悪くなり、誤った検出結果がシステムから出力される可能性がある。
本開示の目的は、空撮画像から対象物を発見するために有用な画像を提供可能な対象物検出装置を提供することである。
本開示に関わる対象物検出装置は、空撮画像から対象物を検出する対象物検出装置であって、第1空撮画像を撮像する撮像装置と、制御装置と、表示装置とを備える。制御装置は、第1空撮画像を複数の第1画像に分割し、複数の第1画像毎に対象物が含まれる確度を算出し、確度の程度と確度に対応する第1空撮画像の部分とを判別可能な第1判別用画像を表示装置に表示させる。
本開示によれば、空撮画像から対象物を発見するために有用な画像を提供可能となる。
対象物検出装置の概略構成を示すブロック図である。 対象物検出装置の処理の概要を示す図である。 対象物検出装置が実行する設定処理の内容を示すフローチャートである。 対象物検出装置が実行する対象物検出処理の内容を示すフローチャートである。 撮像距離に応じて空撮画像の分割数を設定する例を示す図である。 対象物検出装置によって撮像される空撮画像の一例を示す図である。 対象物検出装置が表示する判別用画像の一例を示す図である。 判別用画像の様々な例を示す図である。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
図1は、対象物検出装置1の概略構成を示すブロック図である。対象物検出装置1は、ヘリコプター200などの飛行体に搭載される。ドローンに対象物検出装置1を搭載してもよい。対象物検出装置1は、第1カメラ10と、第2カメラ20と、表示装置30と、制御装置40とを備える。
第1カメラ10は広角カメラにより構成されており、第2カメラ20は望遠カメラにより構成されている。第1カメラ10および第2カメラ20は、ヘリコプター200の前方において空撮画像を撮像する。第1カメラ10および第2カメラ20をサーマルカメラにより構成してもよい。
表示装置30は、たとえば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro Luminescence)ディスプレイなどにより構成されている。表示装置30は、操作部31として機能するタッチパネルを備える。表示装置30は、第1カメラ10または第2カメラ20が撮像した空撮画像を表示する。さらに、表示装置30は、空撮画像に基づいて制御装置40が生成した判別用画像を表示する。判別用画像は空撮画像から遭難者などの対象物を発見するために用いられる。
制御装置40は、第1カメラ10、第2カメラ20、および表示装置30と接続されている。制御装置40は、第1カメラ10および第2カメラ20から空撮画像を取得する。制御装置40は、第1カメラ10および第2カメラ20に対して撮像方向および撮像倍率を指示する。制御装置40は、表示装置30に映像信号を出力する。制御装置40には、表示装置30の操作部31が出力した操作信号が入力される。
制御装置40は、プロセッサ50とメモリ60とを備える。プロセッサ50は、典型的には、CPU(Central Processing Unit)またはMPU(Multi-Processing Unit)などの演算処理部である。プロセッサ50は、演算回路(Processing Circuitry)で構成されてもよい。プロセッサ50は、メモリ60に格納されたプログラムを読み出して実行することで、各種の処理を実現する。
メモリ60は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびフラッシュメモリなどの不揮発性メモリによって実現される。メモリ60には、空撮画像から遭難者などの対象物を検出するために用いられる推定モデル61が格納されている。さらに、メモリ60には、プロセッサ60が実行するプログラムの他、制御装置40が第1カメラ10、第2カメラ20、および表示装置30を制御するために必要な様々なデータが格納されている。
なお、メモリ60は、プロセッサ50が可読可能な形式で非一時的にプログラムを記録することができれば、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリーカード、FD(Flexible Disk)、ハードディスク、SSD(Solid State Drive)、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリーカードを除く)、光カード、マスクROM、またはEPROMであってもよい。
プロセッサ50は、入出力部51、受付部52、分割部53、判定部54、および出力部55として機能する。入出力部51は、第1カメラ10および第2カメラ20と接続される。この接続は、有線または無線により実現される。入出力部51には、第1カメラ10および第2カメラ20で撮像された空撮画像が入力される。受付部52は、操作部31の操作に基づいた指令を受け付ける。受付部52は、操作部31の操作に基づいた指令を、入出力部51を介して第1カメラ10または第2カメラ20に出力する。
メモリ60に格納された推定モデル61は、学習装置100によって学習される。制御装置40は、学習装置100によって学習された推定モデル61をメモリ60に格納する。
ここで、推定モデル61を学習する学習フェーズについて説明する。推定モデル61は、学習装置100によって学習される。学習装置100は、入力部101と、判定部102と、学習部103とを備える。学習装置100は、典型的には、プロセッサおよびメモリを備えるコンピュータである。
推定モデル61は、学習装置100によって、空撮画像111から対象物を検出するように学習されている。
推定モデル61を学習させるため、たとえば、教師あり学習のアルゴリズムが用いられる。学習装置100は、多数の学習用データを用いた教師あり学習によって、推定モデル61を学習させる。学習用データは、空撮画像111と、空撮画像111に対応する正解データ112とから構成される。
空撮画像111は、推定モデル61の学習のために予め準備されている。空撮画像111には、たとえば、人などの捜索すべき対象物が含まれている。正解データ112は、空撮画像111に対応する判定結果を含む。正解データ112は、たとえば、空撮画像111に含まれる対象物の位置を示すデータである。
学習装置100の入力部101には、空撮画像111が入力される、設計者は、このような空撮画像111を予め複数用意する。設計者は、学習用データを学習装置100に入力することで、推定モデル61を学習させる。
推定モデル61は、ニューラルネットワーク62と、ニューラルネットワーク62によって用いられるパラメータ63とを含む。ニューラルネットワーク62は、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)、リカレントニューラルネットワーク(再帰型ニューラルネットワーク)(RNN:Recurrent Neural Network)、またはLSTMネットワーク(Long Short Term Memory Network)など、ディープラーニングによる画像認識処理で用いられる公知のニューラルネットワークが適用される。推定モデル61は、ニューラルネットワーク62を用いることで、ディープラーニングを行う。パラメータ63は、ニューラルネットワーク62による計算に用いられる重み付け係数などを含む。
入力部101には、1つの空撮画像111がそのまま入力されるのではなく、予め複数の画像に分割された空撮画像111が入力される。入力部101には、たとえば、5行8列のマトリックス状に分割された空撮画像111が入力される。判定部102は、入力部101から入力される画像と、ニューラルネットワーク62を含む推定モデル61とに基づき、空撮画像111に対象物が含まれるか否かを分割された画像毎に判定する。
判定部102は、空撮画像111に対して事前にコントラストあるいはエッジを強調するなどの各種の画像処理を施してもよい。判定部102は、推定モデル61によって得られた判定結果を判定結果の確度と共に取得する。
学習部103は、判定部102によって得られた判定結果と、判定対象の空撮画像111に対応する正解データとに基づき、推定モデル61を学習させる。具体的には、学習部103は、推定モデル61によって得られた判定結果が、正解データに近づくように、パラメータ63(たとえば、重み付け係数)を調整することで、推定モデル61を学習させる。
このように、推定モデル61は、空撮画像111を分割した画像と分割した画像に対象物が存在する結果とを含む学習用データに基づき、分割した画像毎に対象物が含まれる確度を算出するように学習されている。
空撮画像111を分割するときの分割数は様々に設定することができる。空撮画像111を分割するときの画像のサイズおよび形状も様々に設定することができる。様々な態様で分割した空撮画像111を入力部101に入力することにより、様々な態様で分割された画像に基づいて推定モデル61を学習させることができる。また、様々な態様で画像を分割すると、画像を切り取る部分が様々にシフトする。このため、画像の学習結果を記憶するデータベースの量を増加させることができる。その結果、推定モデル61に基づいて得られる判定結果の正解率を高めることができる。
たとえば、2行8列のマトリックス状に分割された空撮画像111、5行8列のマトリックス状に分割された空撮画像111、および5行16列のマトリックス状に分割された空撮画像111などを用いて、推定モデル61を学習させてもよい。
対象物検出装置1は、学習装置100によって学習された推定モデル61をメモリ60に格納する。対象物検出装置1は、学習装置100から推定モデル61をダウンロードし、取得した推定モデル61をメモリ60に格納してもよい。
図2は、対象物検出装置1の処理の概要を示す図である。図2を参照して、運用フェーズにおける対象物検出装置1の制御装置40の処理の概要を説明する。
ヘリコプター200などに搭載された対象物検出装置1は、第1カメラ10と第2カメラ20とによって空撮画像151を撮像する。第1カメラ10および第2カメラ20は、制御装置40から指示を受けたタイミングで撮像した空撮画像151を制御装置40に出力してもよい。
たとえば、広角カメラである第1カメラ10によって空撮画像151が撮像されたものとする。この場合、分割部53は、空撮画像151を複数の画像152に分割する。判定部54は、推定モデル61を用いて、対象物が含まれるか否かを分割された画像152毎に判定する。この判定結果には判定の確度が含まれる。
出力部55は、判定部54の判定結果を含む判別用画像153を生成し、表示装置30に判別用画像153を出力する。判別用画像153には、分割された複数の画像152と、複数の画像152のそれぞれを仕切る枠とが含まれている、判別用画像153に含まれる複数の画像152のそれぞれには、対象物が存在する確度が表示されている。さらに、判別用画像153では、確度が閾値を超える画像152を囲む枠が太枠で描かれている。これにより、確度が閾値を超える画像152の部分が強調して表示される。
対象物を捜索する捜索者は、判別用画像153に含まれる確度を見ることによって、対象物が存在する可能性が高い部分を特定することができる。捜索者は、判別用画像153のうち、対象物が存在する可能性が高い領域をさらに詳細に確認したい場合、その領域に対応するディスプレイの部分に指で触れる。タッチパネルにより構成される操作部31がその操作を検出する。操作部31は、操作信号を受付部52に出力する。
受付部52は、操作信号によって指定される空撮画像151の領域が拡大して撮像されるよう、撮像方向およびレンズ倍率を指定する信号を第1カメラ10または第2カメラ20に出力する。
たとえば、受付部52は、判別用画像153が第1カメラ10によって撮像された画像である場合、第2カメラ20に対して撮像方向およびレンズ倍率を指定する信号を出力してもよい。
第1カメラ10または第2カメラ20は、受付部52の指示に従い、新たな空撮画像151を撮像する。分割部53は、新たに撮像された空撮画像151を複数の画像に分割する。以降、判定部54、出力部55、および受付部52は、上述した処理を繰り返す。
これにより、表示装置30には、対象物の存在する可能性の高い領域を拡大した判別用画像153が表示される。その結果、捜索者は、対象物をより発見し易くなる。
図3は、対象物検出装置1が実行する設定処理の内容を示すフローチャートである。このフローチャートに基づく設定処理は、対象物検出装置1が備える制御装置40により実行される。
はじめに、制御装置40は、分割数の設定を選択する操作を検出したか否かを判定する(ステップS1)。本実施の形態に関わる対象物検出装置1は、空撮画像を分割部53によって分割するときの数の設定をマニュアル設定とするか、オート設定とするかを選択可能に構成されている。
分割数の設定を選択する操作が検出されない場合、制御装置40は、ステップS6に処理を進める。分割数の設定を選択する操作が検出された場合、制御装置40は、マニュアル設定が選択されたか否かを判定する(ステップS2)。マニュアル設定が選択された場合、制御装置40は、分割数が入力されるまで待機する(ステップS3)。分割数が入力された場合、制御装置40は、入力に従う分割数をメモリ60に格納する(ステップS4)。
制御装置40は、ステップS2においてマニュアル設定が選択されず、オート設定が選択された場合(ステップS2にてNO)、オート設定フラグをメモリ60に格納する(ステップS5)。この場合、制御装置40は、撮像距離に応じて分割数を自動的に決定する。
ここで、図5を用いて、オート設定フラグが設定された場合に制御装置40が分割数を決定する手順を説明する。
図5は、撮像距離に応じて空撮画像の分割数を設定する例を示す図である。図5に示されるように、制御装置40は、分割数の設定がオート設定の場合、空撮画像151を撮像したときの撮像距離に応じて空撮画像151の分割数を決定する。制御装置40のメモリ60には、分割数の決定に関わる閾値L1およびL2が予め格納されている(L1<L2)。
空撮画像151を撮像したときの飛行高度を撮像距離として採用してもよく、空撮画像151を撮像したときの第1カメラ10または第2カメラ20のレンズ中心軸を地表に伸ばしたときのレンズから地表までの距離を撮像距離として採用してもよい。たとえば、対象物検出装置1を搭載する飛行体が備える高度計のデータに基づいて飛行高度を特定してもよい。
制御装置40は、撮像距離HがL1≦H≦L2を満たす場合、空撮画像151を5行8列のマトリックス状に分割する。制御装置40は、撮像距離HがH<L1を満たす場合、空撮画像を2行8列のマトリックス状に分割する。制御装置40は、撮像距離HがL2<Hを満たす場合、空撮画像151を5行16列のマトリックス状に分割する。
このように、撮像距離が長い場合、撮像距離が短い場合に比べて分割数が多くなるように設定されるため、空撮画像151に映り込む対象物が小さくなる場合には、より細かい分割領域で対象物を検索することができる。
図3に戻り、設定処理のフローチャートの説明を続ける。制御装置40は、ステップS6において、強調表示をする確度の閾値Pを設定する操作が検出されたか否かを判定する(ステップS6)。強調表示とは、図2に示す判別用画像153において、確度が閾値Pよりも高い画像の部分を太枠で囲む表示のことである。制御装置40は、閾値Pを設定する操作が検出されない場合、処理を終える。この場合、閾値Pとして、過去に入力済みの値が用いられる。
制御装置40は、閾値Pを設定する操作が検出された場合、閾値Pの入力があるまで待機する(ステップS7)。制御装置40は、閾値Pを設定する操作が検出された場合、入力に従う閾値Pをメモリ60に格納し(ステップS8)、処理を終える。
以上、説明したフローチャートにおける各種の操作は、たとえば、表示装置30の操作部31によって受け付けられる。
本フローチャートに基づく設定処理によれば、分割数の設定をマニュアル設定とオート設定との間で変更できる。マニュアル設定によれば、捜索者は、希望に応じた分割数で分割された判別用画像を用いて対象物を捜索できる。オート設定によれば、捜索者は、撮像距離に応じて適切に分割された判別用画像を用いて対象物を捜索できる。
また、本フローチャートに基づく設定処理によれば、強調表示をする確度の閾値Pを捜索者の任意の値に設定することができる。このため、捜索者は捜索状況に応じて適切な閾値Pを設定することができる。
図4は、対象物検出装置1の対象物検出処理の内容を示すフローチャートである。図6は、対象物検出装置1によって撮像される空撮画像の一例を示す図である。図7は、対象物検出装置1が表示する判別用画像の一例を示す図である。ここでは、図6および図7に示す画像を適宜参照しつつ、図4に示すフローチャートを説明する。なお、このフローチャートに基づく処理は、対象物検出装置1が備える制御装置40により実行される。
はじめに、制御装置40は、第1カメラ10から空撮画像を取得する(ステップS21)。図6には、第1カメラ10によって撮像された空撮画像151の一例が示されている。空撮画像151は上空から撮像された画像であるため、遭難者のような対象物が画像内に小さく表示される。
次に、制御装置40は、分割数の設定がオート設定であるか否かを判定する(ステップS22)。より具体的には、メモリ60にオート設定フラグが格納されているか否かを判定する。
制御装置40は、分割数の設定がオート設定になっている場合、撮像距離Hに基づいて分割数を決定する(ステップS23)。この決定手法は、すでに図5を用いて説明したとおりである。制御装置40は、決定した分割数に基づいて空撮画像を分割する(ステップS25)。
制御装置40は、分割数の設定がオート設定になっていない場合、メモリ60から分割数を読み出す(ステップS24)。制御装置40は、読出した分割数に基づいて空撮画像を分割する(ステップS25)。
次に、制御装置40は、分割された画像を順次、推定モデル61に基づいて判定し、確度を算出する(ステップS26)。次に、制御装置40は、判定した画像のうち、確度が閾値Pよりも大きい画像を特定する(ステップS27)。閾値Pは、メモリ60に格納されている。ここでは、たとえば、閾値Pが80%に設定されているものとする。
次に、制御装置40は、判定結果に基づいて、判別用画像を生成する(ステップS28。次に、制御装置40は、生成された判別用画像を表示装置30に出力する(ステップS29)。図7には、判別用画像153の一例が示されている。
図7を参照して、判別用画像153は、枠によって複数の画像に仕切られている。枠によって仕切られた画像は、それぞれ、ステップS25の処理によって分割された画像に対応する。判別用画像153には、対象物が存在する確度(%)が枠で仕切られた画像毎に表示されている。確度が閾値P(80%)を超える画像は、太枠161で囲まれている。このため、捜索者は、確度が閾値Pを超える部分を容易に特定することができる。なお、図7において、80%以下の確度については、一律にx%と表記しているが、実際には、画像の部分に応じた確度が表示される。
捜索者は、表示装置30の画面に指で触れることによって、判別用画像153のうちから、さらに詳細に確認したい部分を選択することができる。
再び、図4に戻り、フローチャートの説明を続ける。制御装置40は、判別用画像のいずれかの部分を選択する操作が検出されたか否かを判定する(ステップS30)。制御装置40は、待機時間Tが経過するまでにそのような操作が検出された場合、選択された画像に対応する地上の位置を特定する(ステップS31)。
制御装置40は、ステップS31に対応する位置が撮像されるよう、望遠カメラである第2カメラ20に対して、撮像方向およびレンズ倍率を指定する指令を出力する(ステップS32)。第2カメラ20は、この指令に応じた新たな空撮画像を撮像する。
制御装置40は、第2カメラ20から空撮画像を取得する(ステップS33)。次に、制御装置40は、ステップS22に戻る。以降、制御装置40は、空撮画像の分割、画像の判定、判別用画像の生成、および判別用画像の出力に関わる処理を繰り返す(ステップS22~ステップS29)。その結果、表示装置30には、第2カメラ20で撮像された空撮画像に基づいた判定用画像が表示される。
ここで、先に第1カメラ10で撮像された空撮画像を第1空撮画像と称する場合、第2カメラ20で撮像された空撮画像を第2空撮画像と称することができる。また、第1空撮画像に基づいて生成された判定用画像を第1判定用画像と称する場合、第2空撮画像に基づいて生成された判定用画像を第2判定用画像と称することができる。
捜索者は、必要に応じて、第2判定用画像の中から拡大して確認したい部分を指定することも可能である。この場合、捜索者の操作がステップS30で検出される。
このように、捜索者は、第1判定用画像、第2判定用画像、および必要に応じて第3判定用画像を確認することによって、対象物を容易に発見することができる。
制御装置40は、待機時間Tが経過するまでの間に判別用画像のいずれかの部分を選択する操作が検出されなかったと判定したとき(ステップS34にてYES)、処理を終了させるための操作が検出されたか否かを判定する(ステップS35)。処理を終了させるための操作が検出されない場合、制御装置40は、処理をステップS21に戻す。これにより、新たに第1カメラ10で撮像された空撮画像に基づいた処理が実行される。
このため、1回目に第1カメラ10で撮像された空撮画像では対象物を発見できない場合、第1カメラ10で撮像し直した新たな空撮画像に基づいて、繰り返し本フローチャートに基づくステップS21~ステップS33の処理が実行される。
図8は、判別用画像153の様々な例を示す図である。これまでに説明したように、判別用画像153において、確度が閾値を超える画像を太枠161で囲んでもよい。このとき、枠で囲まれる画像のうち、確度が閾値を超える画像のみを対象として、確度を表示してもよい((A))。このようにすれば、確度の表示が空撮画像の視認性を阻害することを防止できる。
確度が閾値を超える画像の部分のみを太枠161で囲み、その他の画像については枠で囲まないようにしてもよい((B))。このとき、判別用画像153に確度を表示しないように構成してもよい。
閾値を超える確度の大きさに応じて、その確度に対応する画像を囲む枠の色を異ならせてもよい((C))。たとえば、(C)に示されるように、閾値が80%以上~90%未満の場合には青枠171を採用し、閾値が90%以上~95%未満の場合には青枠171を採用し、閾値が95%以上~100%未満の場合には青枠171を採用してもよい。
〈変形例〉
以下、本実施の形態の変形例を説明する。
本実施の形態においては、判定部54は、教師あり学習によって学習された推定モデル61を用いて対象物の存在を判定する。しかし、分割された画像からパターンマッチングの技術を用いて対象物を特定するようにしてもよい。
第1カメラ10および第2カメラ20として、赤外線を利用したサーマルカメラなどを採用してもよい。サーマルカメラを用いた場合、温度を画面上で可視化することができる。このため、たとえば、夜間の海上に漂流する遭難者を水温と体温との温度差を利用して識別することができる。この場合、学習用データとしても、サーマルカメラで撮像された空撮画像を用いるとよい。また、静止画を撮影するカメラと、赤外線を利用したカメラとを組み合わせてもよい。この場合、学習用データは、両方のカメラで撮像された空撮画像を用いたものとなる。また、拡大して撮像したい場所が存在する場合、静止画を撮像するカメラと赤外線を利用したカメラとで共にその場所を拡大して撮像してもよく、両カメラの一方でその場所を拡大して撮像してもよい。
空撮画像の撮像距離が短い場合、遭難者などの対象物が空撮画像に大きく表示される。このときに判別用画像で分割して表示される画像の数が多いと見づらいおそれがある。このため、対象物検出装置1は、撮像距離が長い場合に空撮画像の分割数を増やし、撮像距離が短い場合に空撮画像の分割数を減らす。また、表示装置30は、その分割数に応じた判別用画像を表示装置30に表示する。しかし、逆に、対象物検出装置1は、撮像距離が短い場合に空撮画像の分割数を増やし、撮像距離が長い場合に空撮画像の分割数を減らすようにしてもよい。撮像距離が短くなると、対象物に近づくことになり、このとき、対象物が存在する場所をより詳細に確認するためには、分割数を増やすことが有効となる場合がある。
制御装置40は、判別用画像153を捜索者が装着したヘッドマウントディスプレイに表示してもよい。
第1カメラ10および第2カメラ20は、動画像を撮像するカメラであってもよい。第1カメラ10および第2カメラ20が撮像している動画像を表示装置30に表示し続けてもよい。この場合、表示装置30は、制御装置40から判別用画像を受信したときに画面の表示を判別用画像に切り替えてもよい。
以上、説明したように、対象物検出装置1は、空撮画像の全体を用いて対象物を検出するのでなく、空撮画像を複数に分割し、分割された画像のそれぞれを用いて対象物を検出する。さらに、対象物検出装置1は、分割された画像毎に確度を算出し、その確度を含む判別用画像を表示装置30に表示する。このため、対象物検出装置1によれば、空撮画像から対象物を発見するために有用な画像を提供可能となる。
なお、判別用画像には確度の程度を判別できる情報を表示することで十分である。たとえば、図8を用いて説明したとおり、判別用画像に確度を表示してもよく、判別用画像に確度を表示せずに確度の大小を判別できる情報(たとえば、太枠161、青枠171、黄枠172、赤枠173)を表示してもよい。
[態様]
上記した実施の形態およびその変形例は、以下の態様の具体例であることが当業者により理解される。
(第1項)一態様に係る対象物検出装置は、空撮画像から対象物を検出する対象物検出装置であって、第1空撮画像を撮像する撮像装置と、制御装置と、表示装置とを備え、制御装置は、第1空撮画像を複数の第1画像に分割し、複数の第1画像毎に、対象物が含まれる確度を算出し、確度の程度と確度に対応する第1空撮画像の部分とを判別可能な第1判別用画像を表示装置に表示させる。
第1項に記載の対象物検出装置によれば、空撮画像から対象物を発見するために有用な画像を提供可能となる。
(第2項)第1項に記載の対象物検出装置において、第1判別用画像は、複数の第1画像と、複数の第1画像の各々に対応する確度の表示とを含む。
第2項に記載の対象物検出装置によれば、捜索者は、複数の第1画像のそれぞれに対応する確度を確認することができる。
(第3項)第1項または第2項に記載の対象物検出装置において、第1判別用画像は、確度が閾値を超える第1空撮画像の部分を強調して表示するための画像を含む。
第3項に記載の対象物検出装置によれば、捜索者は、第1空撮画像のうち、確度が閾値を超える部分を容易に特定できる。
(第4項)第3項に記載の対象物検出装置において、制御装置は、所定操作に応じて閾値を変更する。
第4項に記載の対象物検出装置によれば、捜索者が希望する閾値に基づいて第1空撮画像の部分を強調して表示させることが可能になる。
(第5項)第1項~第4項のいずれか1項に記載の対象物検出装置において、制御装置は、第1判別用画像のうちのいずれかの部分を指定する操作を受付けた場合、指定された部分に対応する場所を撮像する指示を、撮像装置に出力する。
第5項に記載の対象物検出装置によれば、捜索者は、対象物が存在すると思われる場所に対応する空撮画像を確認することができる。
(第6項)第5項に記載の対象物検出装置において、撮像装置は、第1撮像装置と、第1撮像装置よりも高倍率で被写体を撮像可能な第2撮像装置とを含み、制御装置は、指定された部分に対応する場所を撮像する指示を、第2撮像装置に出力する。
第6項に記載の対象物検出装置によれば、対象物が存在すると思われる場所を拡大した詳細な空撮画像を確認することができる。
(第7項)第6項に記載の対象物検出装置において、制御装置は、撮像する指示に応じて撮像された第2空撮画像を複数の第2画像に分割し、第2画像毎に対象物が含まれる確度を算出し、確度の程度と確度の程度に対応する第2空撮画像の部分とを判別可能な第2判別用画像を表示装置に表示させる。
第7項に記載の対象物検出装置によれば、対象物が存在すると思われる場所を対象とした空撮画像から対象物を発見するために有用な画像を提供可能となる。
(第8項)第1項~第7項のいずれか1項に記載の対象物検出装置において、制御装置は、第1空撮画像を複数の第1画像に分割するときの分割数を指定する操作を受け付ける。
第8項に記載の対象物検出装置によれば、捜索者が希望する分割数に基づいて第1空撮画像を分割することが可能になる。
(第9項)第1項~第8項のいずれか1項に記載の対象物検出装置において、制御装置は、複数の第1画像毎に対象物の存在を推論するための学習済みモデルを用いて、複数の第1画像毎に対象物が含まれる確度を算出する。
第9項に記載の対象物検出装置によれば、精度の高い学習済みモデルを使用することによって、対象物を検出する精度を高めることができる。
(第10項)第9項に記載の対象物検出装置において、学習済みモデルは、空撮画像を分割した画像と分割した画像に対象物が存在する結果とを含む学習用データに基づき、分割した画像毎に対象物が含まれる確度を算出するように学習されている。
第10項に記載の対象物検出装置によれば、分割した画像に基づいて対象物の存在を判定する精度を高めることができる。
今回開示された実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
1 対象物検出装置、10 第1カメラ、20 第2カメラ、30 表示装置、31 操作部、40 制御装置、50 プロセッサ、51 入出力部、52 受付部、53 分割部、54,102 判定部、55 出力部、60 メモリ、61 推定モデル、62 ニューラルネットワーク、63 パラメータ、100 学習装置、101 入力部、103 学習部、111,151 空撮画像、112 正解データ、152 画像、153 判別用画像、161 太枠、171 青枠、172 黄枠、173 赤枠、200 ヘリコプター。

Claims (10)

  1. 空撮画像から対象物を検出する対象物検出装置であって、
    第1空撮画像を撮像する撮像装置と、
    制御装置と、
    表示装置とを備え、
    前記制御装置は、
    前記第1空撮画像を複数の第1画像に分割し、
    前記複数の第1画像毎に、前記対象物が含まれる確度を算出し、
    確度の程度と確度に対応する前記第1空撮画像の部分とを判別可能な第1判別用画像を前記表示装置に表示させる、対象物検出装置。
  2. 前記第1判別用画像は、前記複数の第1画像と、前記複数の第1画像の各々に対応する確度の表示とを含む、請求項1に記載の対象物検出装置。
  3. 前記第1判別用画像は、確度が閾値を超える前記第1空撮画像の部分を強調して表示するための画像を含む、請求項1または請求項2に記載の対象物検出装置。
  4. 前記制御装置は、所定操作に応じて前記閾値を変更する、請求項3に記載の対象物検出装置。
  5. 前記制御装置は、前記第1判別用画像のうちのいずれかの部分を指定する操作を受付けた場合、指定された部分に対応する場所を撮像する指示を、前記撮像装置に出力する、請求項1~請求項4のいずれか1項に記載の対象物検出装置。
  6. 前記撮像装置は、第1撮像装置と、前記第1撮像装置よりも高倍率で被写体を撮像可能な第2撮像装置とを含み、
    前記制御装置は、前記指定された部分に対応する場所を撮像する指示を、前記第2撮像装置に出力する、請求項5に記載の対象物検出装置。
  7. 前記制御装置は、
    前記撮像する指示に応じて撮像された第2空撮画像を複数の第2画像に分割し、
    前記第2画像毎に、前記対象物が含まれる確度を算出し、
    確度の程度と確度の程度に対応する前記第2空撮画像の部分とを判別可能な第2判別用画像を前記表示装置に表示させる、請求項6に記載の対象物検出装置。
  8. 前記制御装置は、前記第1空撮画像を前記複数の第1画像に分割するときの分割数を指定する操作を受け付ける、請求項1~請求項7のいずれか1項に記載の対象物検出装置。
  9. 前記制御装置は、前記複数の第1画像毎に前記対象物の存在を推論するための学習済みモデルを用いて、前記複数の第1画像毎に前記対象物が含まれる確度を算出する、請求項1~請求項8のいずれか1項に記載の対象物検出装置。
  10. 前記学習済みモデルは、前記空撮画像を分割した画像と前記分割した画像に前記対象物が存在する結果とを含む学習用データに基づき、前記分割した画像毎に前記対象物が含まれる確度を算出するように学習されている、請求項9に記載の対象物検出装置。
JP2021149390A 2021-09-14 2021-09-14 対象物検出装置 Pending JP2023042205A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021149390A JP2023042205A (ja) 2021-09-14 2021-09-14 対象物検出装置
US17/898,078 US20230079528A1 (en) 2021-09-14 2022-08-29 Target object detection device
EP22194568.6A EP4148687A1 (en) 2021-09-14 2022-09-08 Target object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021149390A JP2023042205A (ja) 2021-09-14 2021-09-14 対象物検出装置

Publications (1)

Publication Number Publication Date
JP2023042205A true JP2023042205A (ja) 2023-03-27

Family

ID=83271505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021149390A Pending JP2023042205A (ja) 2021-09-14 2021-09-14 対象物検出装置

Country Status (3)

Country Link
US (1) US20230079528A1 (ja)
EP (1) EP4148687A1 (ja)
JP (1) JP2023042205A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10546195B2 (en) 2016-12-02 2020-01-28 Geostat Aerospace & Technology Inc. Methods and systems for automatic object detection from aerial imagery
US11270423B2 (en) * 2018-07-12 2022-03-08 TerraClear Inc. Object collection system and method
US11100667B2 (en) * 2019-10-30 2021-08-24 Wing Aviation Llc Systems and methods for generating annotations of structured, static objects in aerial imagery using geometric transfer learning and probabilistic localization

Also Published As

Publication number Publication date
EP4148687A1 (en) 2023-03-15
US20230079528A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
KR101533686B1 (ko) 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
US8538075B2 (en) Classifying pixels for target tracking, apparatus and method
CN107710280B (zh) 对象可视化方法
JP6407225B2 (ja) 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
JP7093427B2 (ja) オブジェクト追跡方法および装置、電子設備並びに記憶媒体
EP3376470B1 (en) Moving body tracking method, moving body tracking device, and program
EP3438875A1 (en) Image processing apparatus and control method therefor
JP2016224919A (ja) データ閲覧装置、データ閲覧方法、及びプログラム
US11087159B2 (en) Object detection device, object detection method and non-transitory computer readable medium
JP2021176243A (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP2017215666A (ja) 制御装置、制御方法およびプログラム
JP4578864B2 (ja) 自動追尾装置及び自動追尾方法
JP5024116B2 (ja) 被写体追跡プログラム、および被写体追跡装置
JP7001150B2 (ja) 識別システム、モデル再学習方法およびプログラム
JP2002366958A (ja) 画像認識方法および画像認識装置
US9709874B2 (en) Device and method for image processing used for tracking pursued subject
US20230131717A1 (en) Search processing device, search processing method, and computer program product
KR20060121503A (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
JP2018029270A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP2023042205A (ja) 対象物検出装置
EP3557386B1 (en) Information processing device and information processing method
JP6698058B2 (ja) 画像処理装置
US10740623B2 (en) Representative image generation device and representative image generation method
JP2019021333A (ja) 画像処理装置及び画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231221