JP2021110962A - 捜索支援システムにおける探索方法および装置 - Google Patents

捜索支援システムにおける探索方法および装置 Download PDF

Info

Publication number
JP2021110962A
JP2021110962A JP2019240092A JP2019240092A JP2021110962A JP 2021110962 A JP2021110962 A JP 2021110962A JP 2019240092 A JP2019240092 A JP 2019240092A JP 2019240092 A JP2019240092 A JP 2019240092A JP 2021110962 A JP2021110962 A JP 2021110962A
Authority
JP
Japan
Prior art keywords
search
image
area
search target
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019240092A
Other languages
English (en)
Inventor
基鎬 金
Kiho Kim
基鎬 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECHNOSQUARE CO Ltd
Original Assignee
TECHNOSQUARE CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECHNOSQUARE CO Ltd filed Critical TECHNOSQUARE CO Ltd
Priority to JP2019240092A priority Critical patent/JP2021110962A/ja
Publication of JP2021110962A publication Critical patent/JP2021110962A/ja
Priority to JP2022068558A priority patent/JP2022100358A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】山岳地帯や海上など広範囲での行方不明者の捜索を容易かつ迅速に行いながらも行方不明者の発見の確率を向上させることができる探索方法および装置を提供する。【解決手段】探索装置(10)は、予め撮影された捜索対象者又は捜索対象物の画像(20)から捜索対象となる目標カラー情報を所定カラー空間の数値として抽出する分析手段(101,102)と、捜索場所を空撮により撮影した撮像画像(30)と数値化された目標カラー情報とを照合することで撮像画像から目標カラー情報を示すカラー領域を識別する照合手段(104)と、カラー領域と所定しきい値とを比較することで前記カラー領域の適否を判定する判定手段(104)と、適合と判定されたカラー領域を検知領域として記録する記録手段(105)と、を有する。【選択図】図2

Description

本発明は、遭難者、行方不明者や行方不明物などの捜索を支援するシステムに係り、特に画像を用いた探索方法および装置に関する。
日本では、近年の登山ブームなどによって登山者は増加傾向にあり、年間750万人の登山者がいるが、2017年度には3,111名が遭難し、その捜索に約40億円の捜索費用がかかったという統計がある。また、遭難者のうち死者・行方不明者は350名にものぼる。そして、遭難事故の件数は年々増加の一途をたどっている。
また、大地震による津波や台風による河川の氾濫、火山の噴火などの自然災害が発生すると、それにより多くの行方不明者が出る可能性があり、これらの行方不明者は、災害の発生後、出来るだけ早期に発見する必要がある。しかしながら、特に自然災害での捜索範囲は海上や河川の周囲など広範囲にわたるために、行方不明者の早期発見には大きな困難がある。
また、通常、遭難や海難事故などによる行方不明者は、行方不明後7年が経過しないと死亡認定がされない。そのため、警察、消防等の捜索が打ち切られた後にも、近親者が早期の発見を願って独自に捜索を続ける場合も多い。しかしながら、そのような独自の捜索には多額の費用がかかる上に、効果的な捜索を行うことは極めて難しいのが現状である。
このような現状に鑑み、効率的に行方不明者の捜索を行う技術が種々提案されている。たとえば、特許文献1に開示された山岳救助支援システムは、携帯端末のGPS機能を利用し遭難者および救助隊の位置情報を管理することで、救助の効率化を図っている。また、特許文献2に開示された救援システムでは、移動体に搭載されたカメラの映像を解析して映像に含まれる人物の顔、衣服や所持品の特徴を検出し、これらの特徴と捜索対象者の顔、衣服や所持品の特徴とを比較することで、映像の人物が捜索対象者であるか否かの判定を行っている。
一方、近年、ドローンと呼ばれる小型の無人航空機の開発及び実用化が進んでおり、ドローンによる空撮は、従来のヘリコプターや小型飛行機などによる空撮と比較して遙かに安価かつ簡易であり、また低空飛行により高精細な写真や動画の撮影が可能になる、という利点がある。このために、ドローンを災害調査や災害救助に利用する技術が近年いくつか提案されている。たとえば、特許文献3には、ドローンに生体情報を検出するセンサを取り付け、瓦礫等に埋まって視認できない遭難者の捜索を可能にする生体探索システムが開示されている。
特開2018−206229号公報 特開2019−091160号公報 特開2019−059452号公報
しかしながら、特許文献1に記載のシステムでは、遭難者がGPS機能を備えた携帯電話を所持し、かつGPS機能により位置の特定ができる必要がある。したがって、GPSによる追跡が不能となった場合には行方不明者の捜索を行うことができない。
特許文献2に記載の救援システムでは、カメラの映像から人物の顔、衣服や所持品の特徴あるいは行動パターンの特徴を抽出して捜索対象者の特徴と比較する必要がある。このために、高解像度の映像を用いるとサーバ負荷の増大により判定処理が遅延し、迅速な捜索ができなくなる。
また、特許文献3に記載されたドローンを利用したシステムでは、ドローンに生体検出センサをカメラとは別個に搭載する必要があり、生体検出センサの管理が必要となるだけでなくドローン自体の重量を増加させる。さらに、視認できない状況を前提としており、そもそもドローンに搭載したカメラの映像を生体検出に活用しようとする問題意識がない。
そこで、本発明は上記の点に鑑みてなされたものであり、その目的は、山岳地帯や海上など広範囲での行方不明者の捜索を容易かつ迅速に行いながらも行方不明者の発見の確率を向上させることができる探索方法および装置を提供することにある。
上記目的を達成するために、本発明の第1態様による探索装置は、画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索装置であって、予め撮影された捜索対象者又は捜索対象物の画像から、捜索対象となる目標カラー情報を所定カラー空間の数値として抽出する分析手段と、捜索場所を空撮により撮影した撮像画像と数値化された目標カラー情報とを照合し、前記撮像画像から前記目標カラー情報を示すカラー領域を識別する照合手段と、前記カラー領域と所定しきい値とを比較することで前記カラー領域の適否を判定する判定手段と、前記判定手段により適合と判定されたカラー領域を検知領域として記録する記録手段と、を有することを特徴とする。これにより、目標カラー情報を数値化して撮像画像と照合することで、捜索対象の手がかりとなる検知領域を高速で探索可能となる。
前記分析手段は、前記所定カラー空間において前記目標カラー情報と同じ色とみなす所定の数値範囲を前記数値化された目標カラー情報として設定することができる。これにより、目標カラー情報をある程度の範囲広げることができ、自然条件を考慮した色彩判定を行うことができる。
前記判定手段は、前記カラー領域の面積あるいは面積の割合と前記所定しきい値とを比較し、前記カラー領域の面積あるいは面積の割合が前記所定しきい値以上である場合に前記カラー領域を適合と判定することができ、更に、前記適合と判定されたカラー領域が前記捜索対象者又は捜索対象物を示していない場合、前記所定しきい値を大きく調整することができる。これにより、捜査対象以外の検知を抑制でき、色彩判定の精度を向上させることができる。
本発明の第2態様による探索装置は、画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索装置であって、予め撮影された捜索地域の特徴的画像を機械学習させることで、前記捜索地域の特徴的画像とは異なる人工物を識別するように構築された機械学習モデルと、捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記人工物を識別し、前記人工物を含む画像領域を検知領域として記録手段に記録する処理手段と、を有する。
また、画像を用いて捜索対象者又は捜索対象動物の捜索を支援するシステムにおける探索装置であって、予め撮影された人あるいは大型動物の身体的特徴を示す特徴的画像を機械学習させることで捜索対象者又は捜索対象動物を識別するように構築された機械学習モデルと、捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記捜索対象者又は捜索対象動物を識別し、前記捜索対象者又は捜索対象動物を含む画像領域を検知領域として記録手段に記録する処理手段と、を有することを特徴とする。
機械学習モデルを利用することで、より簡単な構成で、より高精度の探索が可能となる。
上述したように、本発明によれば、山岳地帯や海上など広範囲での行方不明者の捜索を容易かつ迅速に行いながらも高精度な捜索で行方不明者の発見の確率を向上させることができる。
図1は本発明の第1実施形態による捜索支援システム全体の概略的構成を示す図である。 図2は第1実施形態による捜索支援システムの機能構成を示すブロック図である。 図3は第1実施形態で用いられるHSV分析および設定動作を示すフローチャートである。 図4は第1実施形態による捜索支援システムの全体的動作を示すフローチャートである。 図5は第1実施形態で論理区域分割された撮像画像の一例を示す図である。 図6は第1実施形態による捜索支援システムのカラー照合動作を示すフローチャートである。 図7(A)は第1実施形態による捜索支援システムの識別カラー領域の適否判定動作の一例を示すフローチャート、図7(B)はしきい値調整動作を示すフローチャートである。 図8は本発明の第2実施形態による捜索支援システム全体の概略的構成を示す図である。 図9は第2実施形態による捜索支援システムの機能構成を示すブロック図である。 図10は第2実施形態で用いられる機械学習モデルの構成動作を示すフローチャートである。 図11は第2実施形態による捜索支援システムの全体的動作を示すフローチャートである。 図12は第2実施形態による捜索支援システムにより出力される検知画面および検知領域の一例を示す図である。 図13は本発明の第3実施形態による捜索支援システム全体の概略的構成を示す図である。 図14は第3実施形態による捜索支援システムの機能構成を示すブロック図である。 図15は第3実施形態で用いられる機械学習モデルの構成動作を示すフローチャートである。 図16は第3実施形態による捜索支援システムの全体的動作を示すフローチャートである。 図17は第3実施形態による捜索支援システムにより出力される検知画面および検知領域の一例を示す図である。
以下、添付図面を参照して本発明の実施の形態を詳細に説明する。
1.第1実施形態
1.1)概要
本発明の第1実施形態によれば、捜索対象者発見の手がかりとして色彩に着目し、遭難したと思われる地域の空撮画像から目標とする色彩を検索する。これにより、検索を実行するコンピュータの負荷が大幅に軽減し、高速サーチにより捜索対象者の早期発見が可能となる。
図1に例示するように、本発明の第1実施形態による探索装置10は、捜索対象者の手がかりとなる色彩を含む示す照合用データ20を用いて撮像データ30の各画像データを検索する。探索装置10は撮像データ30を飛行体40から受信する。撮像データ30には複数の画像データI1〜Inと撮像位置データL1〜Lnとが含まれる。飛行体40には通信機能の他に、高解像度撮影が可能なカメラ(画像撮影装置)41および撮影位置を検出するGPS等の位置検出器42が搭載されている。位置検出器42はカメラ41に内蔵されていてもよい。
以下、一例として、撮像データ30はカメラ41で空撮した山岳地帯のカラー画像であるとする。空撮画像の撮影においては、遭難者が携帯電話又は発振器などを所持していて、GPS軌跡などにより登山ルートの途中まで追跡できる場合には、GPS軌跡の途切れた地点から飛行体40の空撮を開始することもできる。空撮画像は、予め定めた領域内の全範囲を撮影することで通常、数千枚程度となる。
照合用データ20は過去に捜索対象者を撮影したカラー写真のデジタルデータであり、そこから抽出したカラー情報を探索キーとして使用する。照合用のカラー情報は、捜索の手がかりになる色彩、たとえば遭難者の所持品、バッグあるいは服装のカラー情報であることが望ましい。遭難者が遭難当日に所持していたと思われる所持品や着用していたと思われる衣服などが写っている写真をできるだけ多く用いることで、発見の可能性を高めることができる。
探索装置10は、飛行体40から受信した撮像データ30の画像を順次読み出し、その画像に照合用データ20が含まれているか否かを照合判定する。以下、本実施形態による探索装置10の構成および動作について詳細に説明する。
1.2)探索装置
図2に例示するように、探索装置10は汎用サーバあるいはパーソナルコンピュータに構築可能である。探索装置10は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)等のプロセッサ11、画像表示可能な表示部12、キーボードやポインティングデバイス等の入力部13、ネットワークNWを通して飛行体40からデータを受信するための通信部14、探索プログラムを保持する記憶部15、プロセッサ11が使用する記憶装置その他(図示せず)を有する。
ネットワークNWは移動体通信網であってもよいし、インターネットであってもよい。通信部14はネットワークNWを通して飛行体40から撮像データ30を受信することができる。また、写真等の照合用データ20もネットワークNWを通して取得することができる。
記憶部15は、たとえばRAM(Random Access Memory)、ROM(Read Only Memory)等、あるいは、ハードディスクドライブもしくは半導体記憶装置等の記録媒体である。記憶部15には探索プログラムが予めインストールされている。探索プログラムは記録媒体に格納されて提供されても良いし、ネットワークを通して提供されても良い。
探索プログラムにはカラー分析アプリが含まれる。本実施形態では、人の色知覚に類似していると言われるHSV(Hue(色相),Saturation(彩度),Value(明度))色空間の分析を採用するが、他の色空間(RGB、CMY、YUV、HLS)での分析であってもよい。
探索プログラムが実行されることで、プロセッサ11上にHSV分析部101およびHSV設定部102の機能と、論理区域分割部103およびカラー照合部104の機能とが構成される。
HSV分析部101およびHSV設定部102は、HSVアプリにより実現される機能であり、捜索対象者の過去の写真データ(照合用データ20)における服装や所持品の色を目標カラーとして抽出し、その目標カラーを所定のカラー空間(ここではHSV空間)で数値化する。さらに、多数の写真から自然条件を考慮して、目標カラーのHSV空間での範囲を設定する。詳しくは後述する。
論理区域分割部103は、撮像データ30の画像(1フレーム)を所定サイズの区域(矩形)に論理的に分割し、各区域の画像データをカラー照合部104へ順次出力する。
カラー照合部104は、論理区域分割部103から入力した区域のカラー画像データと目標カラーのHSV設定範囲とをHSV空間で照合し、画像データ内に目標カラーとマッチしたカラー領域が存在すれば、その検知領域の情報を検知領域記録部105に保持する。こうして検知領域を含む画像およびその位置情報がリストアップされることで、捜索の手がかりを含む画像を表示部12に表示することができる。詳しくは後述する。
1.3)HSV分析
図3に例示するように、HSV分析部101は、捜索対象者の写真等の照合用データ20から目標カラーを抽出し、色相(H値)0°〜365°、彩度(S値)0〜255、明度(V値)0〜255の範囲の数値で特定する(動作201)。すなわち、分析可能な全ての色はこれらの範囲内のHSV値として数値化できる。続いて、HSV設定部102は、このHSVの各値の範囲を自然条件を考慮して設定する(動作202)。たとえば、写真の目標カラーがHSV=(322,158,208)であれば、H値を318〜327;S値を130〜255;V値を190〜255というように範囲を決定する。このようなHSV値の範囲はHSV色編集アプリケーションにより容易に設定可能である。HSV値の範囲は、目標HSV範囲としてカラー照合部104へ出力される。
1.4)探索動作
図4に例示するように、まず、論理区域分割部103は、飛行体40から受信した撮像データ30の画像を所定サイズの区域画像に分割し、画像データを区域毎に順次カラー照合部104へ出力する(動作301)。論理区域分割の一例を図5に示す。撮像データ30の1フレーム相当する画像Iiは、区域画像S(1,1)、S(1,2)・・・S(1,m)、S(2,1)、S(2,2)・・・というように論理的に分割され、それらが順に読み出されカラー照合部104へ出力される。
続いて、図4において、カラー照合部104によりカラー照合(動作302)および識別カラー領域の適否判定を行われる(動作303)。動作301〜303の処理が全画像について完了するまで繰り返され(動作304のNO)、全画像の処理が終了すると(動作304のYES)、後述するように検知されたカラー領域を含む画像が表示部12に表示される(動作305)。以下、カラー照合部104の動作302および303について、図6〜図7を参照しながら説明する。
<カラー照合動作302>
図6に示すように、カラー照合部104は、まず論理区域分割部103から論理区域を一つずつ入力し(動作401)、その論理区域内のカラー情報とHSV設定部102から入力した目標HSV範囲とをHSV空間で比較する(動作402)。目標HSV範囲内のカラー情報がなければ(動作403のNO)、動作401へ戻り、次の論理区域を選択して同様の比較を行う。その論理区域内に目標HSV範囲のカラー情報があれば(動作403のYES)、その識別されたカラー領域(一定区角)の位置を記録し(動作404)、全論理区域の照合が終了するまで動作401〜404を繰り返す(動作405のNO)。
こうして、一つの画像について、目標HSV範囲内にある目標カラーと同様の色彩を有する領域(以下、識別カラー領域という。)がリストアップされる。全論理区域のカラー照合が終了すると(動作405のYES)、リストアップされた識別カラー領域に対して適否判定(動作303)が行われる。
<識別カラー領域の適否判定動作303>
カラー照合によりリストアップされた一画像における識別カラー領域は、捜索対象者の手がかりとなる目標カラーを示しているが、空撮された山岳写真には山の草木や山肌などがほとんどであり、その中に目標カラーに近い色彩の自然物(草木、花など)が含まれる可能性が高い。そこで、リストアップされた識別カラー領域から自然物の領域を除外するために、適否判定を行うことが望ましい。
図7(A)に例示するように、カラー照合部104は、リストアップされた識別カラー領域を順次読み出し(動作501)、識別カラー領域の面積を算出する。面積は、識別カラー領域におけるドット数あるいは微少区域の数をカウントして求めることができる。また、一定の矩形画像領域における識別カラー領域の割合で表すこともできる。一般に、捜索対象者が身につけている衣服、リュック、バッグ、ベルト等の空撮写真上の面積は1つの草花よりも大きいことが多い。したがって、空撮写真において捜索対象者が横たわっている場合、識別カラー領域の面積は、ほぼ同色の草花の面積より大きいと考えられる。この性質を利用して、面積比較により適否判定を行うことができる。
カラー照合部104は、自然物か否かを判定するためのしきい値Sthを用意し、識別カラー領域の面積(あるいは面積の割合)がしきい値Sthより小さいか否かを判断する(動作502)。識別カラー領域の面積(あるいは面積の割合)がしきい値Sth以上である場合(動作502のNO)、当該識別カラー領域を検知領域として、その位置を権利領域記録部105に記録する(動作503)。識別カラー領域の面積(あるいは面積の割合)がしきい値Sthより小さい場合(動作502のYES)、自然物と判断され、検知領域記録部への記録されない。こうして全ての識別カラー領域について適否判定が終了する(動作306のYES)まで、動作501〜503が繰り返される。
図7(B)に例示するように、しきい値Sthは自然物か否かを適切に判定するために調整される。まず、識別カラー領域を含む画像を表示部12に表示し(動作510)、当該識別カラー領域が自然物かどうかを確認することが望ましい。当該識別カラー領域が自然物であれば(動作511のYES)、しきい値Sthによる面積判定結果は適切ではないと判断され、しきい値Sthを上げて、当該識別カラー領域を除外するように調整する(動作512)。当該識別カラー領域が自然物でないと確認されれば(動作511のNO)、しきい値Sthは適切であるから、そのまましきい値調整を終了する。
なお、自然物かどうかの確認(動作511)は、ユーザが視認により直接確認することができる。あるいは、後述する機械学習モデルにより形状も考慮して自然物か否かを判定してもよい。この場合、機械学習モデルは、自然物の形状(例えば花の形状)を教師データとしてディープラーニングを実行することで構築できる。
以上述べたカラー照合動作302および適否判定動作303が全ての画像に対して実行されることで、捜索対象者の手がかりが高い確度で含まれる検知領域を検知領域記録部105に記録することができる。
1.5)効果
上述したように、本実施形態によれば、目標カラー情報は、照合用データ20に含まれる捜索対象者自身又は捜索対象者が身に着けている所持品、あるいは捜索対象物が有する色彩を数値化したデータである。したがって、自然条件等を考慮して、目標カラー情報からカラー空間の値(ここではHSV値)の範囲を適切に設定することで、撮像データ30である空撮写真に当該目標カラー情報が含まれているか否かを迅速にかつ高い精度で判定することができる。撮像データ30には画像データと撮像した時点の位置データとが保存されているので、捜索対象者の手がかりが存在する可能性の高い検知領域をモニタ上に表示でき、捜索すべき場所を特定できる。
また、カラー情報に基づく判定処理であるために、処理負荷が軽減され、パーソナルコンピュータ程度の処理能力であっても高速探索が可能となる。パーソナルコンピュータの能力により異なるが、概算として、画素数2000万のカメラ41を上空100mで空撮した場合、写真一枚の画像データは約10MBであり、これを上記探索処理した場合、検索時間は約1.3〜1.4秒、1000枚の写真を検索しても所要時間は22〜23分程度である。
2.第2実施形態
2.1)概要
山岳地帯等の自然環境の中で遭難した人を画像を用いて探索する上で最も困難なことは、山や登山道等の自然環境の画像から遭難者を高い確率でかつ高速で識別することである。そこで、本発明の第2実施形態では、ディープラーニングにより構築された学習モデルの画像認識能力に着目した。
ディープラーニング技術は、自然環境の中に特定の対象物あるいは対象者が不完全に写っている画像であっても、適切な教師データを与えてニューロンパラメータを調整することで、誤差の十分小さい学習モデルを構築できる。したがって、このような学習モデルを用いることで、自然環境からそれ以外のもの(捜索対象者の手がかりとなる人工物)を効率的に且つ高速で識別することが可能となる。
図8に例示するように、本発明の第2実施形態によるAI探索装置60は、捜索地域の特徴的画像データ21を教師データとしてAI探索装置60に学習させ、それにより得られた学習モデルを用いて、撮像データ30の各画像データから自然環境以外の人工物あるいは捜索対象者を検索する。撮像データ30、飛行体40およびカメラ41や位置検出器42については、上記第1実施形態で説明した通りであるから詳細は省略する。また、第1実施形態と同様の構成および機能については、同じ参照番号を付して説明は適宜簡略化する。
捜索地域の特徴的画像データ21は、山の特徴的な写真(草木、沢、野花、人工の階段や登山道)のデジタルデータである。このような写真を用いて当該地域の特徴的な画像を学習したモデルは、そのような特徴的な画像とは異なるもの(捜索対象者やその手がかりとなる人工物など)を識別することができる。したがって、AI探索装置60は、飛行体40から受信した撮像データ30の画像を順次読み出し、その画像に人工物等が含まれているか否かを判定することができる。以下、本実施形態によるAI探索装置60の構成および動作について詳細に説明する。
2.2)AI探索装置
図9に例示するように、AI探索装置60は汎用サーバあるいはパーソナルコンピュータに構築可能であるが、ディープラーニングの演算を行うにはGPU(Graphics Processing Unit)を搭載したものが望ましい。ただし、CPUだけのコンピュータであっても、クラウドコンピューティング環境を利用してディープラーニングの演算を行うこともできる。
AI探索装置60は、CPUおよびGPU等のプロセッサ61、画像表示可能な表示部12、キーボードやポインティングデバイス等の入力部13、ネットワークNWを通して飛行体40からデータを受信するための通信部14、探索プログラムおよび機械学習済みのモデルを保持する記憶部62、プロセッサ61が使用する記憶装置その他(図示せず)を有する。
ネットワークNWは移動体通信網であってもよいし、インターネットであってもよい。通信部14はネットワークNWを通して飛行体40から撮像データ30を受信することができる。また教師データとしての捜索地域の特徴的画像データ21もネットワークNWを通して取得することができる。また、クラウドコンピューティング環境でディープラーニングのトレーニングを実行する場合にも通信部14およびネットワークNWを通した通信が必要である。
記憶部62には探索プログラムが予めインストールされ、学習済みの人工物探知モデル601も格納される。探索プログラムは記録媒体に格納されて提供されても良いし、ネットワークを通して提供されても良い。探索プログラムが実行されると、ディープラーニングにより学習済みの人工物探知モデル601を利用して探索が実行され、検知された画像領域を含む画像およびその位置情報が検知領域記録部602にリストアップされる。これにより、捜索の手がかりを含む画像を表示部12に表示することができる。詳しくは後述する。
2.3)ディープラーニング実行
図10に例示するように、まず、プロセッサ61は、草木、沢、野花、人工の階段や登山道など山岳地帯に特徴的な画像データ21を入力する(動作701)。それを教師データとしてディープラーニングを実行し、山岳地域の特徴的画像を学習した人工物探知モデルを構築し、記憶部62に格納する(動作702)。この人工物探知モデルは、学習した特徴的な画像とは異なるもの、たとえば直線や直角など自然界では極めて希な辺を有する人工物などを識別することができる。
2.4)探索動作
図11に例示するように、撮像データ30を入力すると、プロセッサ61は、フレーム毎の画像データを順次読み出し(動作801)、人工物探知モデル601を用いて当該画像内に人工物があるかどうか探索する(動作802)。人工物がなければ(動作803のNO)、次の画像を読み出し、人工物があれば(動作803のYES)、当該人工物を含む箇所を検知領域として検知領域記録部602に保持する(動作804)。以下、動作801〜805を全画像について完了するまで繰り返し(動作805のNO)、全画像の処理が終了すると(動作805のYES)、検知領域を含む画像を表示部12に表示する(動作806)。
図12に例示するように、ある画像に人工物が検知されると、表示部12には当該画像に重ねて検知領域807等がマーキング表示される。撮像データ30は位置情報も含まれているので、表示された画像がどの場所であるか特定でき、捜索範囲を効果的に絞ることができる。
上述したディープラーニングにより構築されたモデルは、上述した第1実施形態のカラー照合と組み合わせて用いることもできる。
3.第3実施形態
3.1)概要
津波による広範囲の被害現場や海難事故での遭難者の捜索では、瓦礫や海上の大量の流出物などで、遭難者を発見することが極めて困難である。そこで、本発明の第3実施形態によれば、ディープラーニングにより構築された学習モデルの画像認識能力に着目し、人の身体的な特徴を学習することで瓦礫の中の人を高い確率で識別することが可能になる。
図13に例示するように、本発明の第3実施形態によるAI探索装置90は、人あるいは大型動物等の身体的な特徴を示すサンプルデータ22を教師データとしてAI探索装置90に学習させ、それにより得られた学習モデルを用いて、撮像データ30の各画像データから捜索対象者あるいは大型動物を検索する。撮像データ30、飛行体40およびカメラ41や位置検出器42については、上記第1実施形態で説明した通りであるから詳細は省略する。また、第1実施形態と同様の構成および機能については、同じ参照番号を付して説明は適宜簡略化する。
身体的な特徴を示すサンプルデータ22は、人あるいは大型動物の頭、手/腕や脚/足の様々な形状、全身の形状、さらに必要に応じてそれらの色彩、を示すデジタルデータである。このようなサンプルあるいはそれがが写った写真等を用いて学習したモデルは、そのような特徴的な形状(腕/手、脚/足、頭など)および色彩を識別することができる。したがって、AI探索装置90は、飛行体40から受信した撮像データ30の画像を順次読み出し、その画像に人あるいは大型動物が含まれているか否かを判定することができる。以下、本実施形態によるAI探索装置90の構成および動作について詳細に説明する。
3.2)AI探索装置
図14に例示するように、AI探索装置90は汎用サーバあるいはパーソナルコンピュータに構築可能であるが、既に述べたように、ディープラーニングの演算にはGPU(Graphics Processing Unit)あるいはクラウドコンピューティング環境を利用することができる。
AI探索装置90は、CPUおよびGPU等のプロセッサ91、画像表示可能な表示部12、キーボードやポインティングデバイス等の入力部13、ネットワークNWを通して飛行体40からデータを受信するための通信部14、探索プログラムおよび機械学習済みのモデルを保持する記憶部92、プロセッサ91が使用する記憶装置その他(図示せず)を有する。教師データとしての身体的な特徴を示すサンプルデータ22は、ネットワークNWを通して取得することも可能である。
記憶部92には探索プログラムが予めインストールされ、学習済みの人/大型動物探知モデル901も格納される。探索プログラムは記録媒体に格納されて提供されても良いし、ネットワークを通して提供されても良い。探索プログラムが実行されると、ディープラーニングにより学習済みの人/大型動物探知モデル901を利用して探索が実行され、検知された画像領域を含む画像およびその位置情報が検知領域記録部902にリストアップされる。これにより、捜索の手がかりを含む画像を表示部12に表示することができる。詳しくは後述する。
3.3)ディープラーニング実行
図15に例示するように、まず、プロセッサ91は、人あるいは大型動物の頭、手/腕や脚/足の様々な形状、全身の形状、色彩等のサンプル画像データ22を入力する(動作1001)。それを教師データとしてディープラーニングを実行し、人あるいは大型動物の身体的特徴を学習した人/大型動物探知モデル901を構築し、記録部92に格納する(動作1002)。この人/大型動物探知モデル901は、学習した特徴的な画像と同じもの、すなわち人あるいは大型動物の頭、手/腕や脚/足、全身の形状などを(必要ならば色彩も含めて)識別することができ、それによって人/大型動物の存在を知ることができる。
3.4)探索動作
図16に例示するように、撮像データ30を入力すると、プロセッサ91は、フレーム毎の画像データを順次読み出し(動作1101)、人/大型動物探知モデル901を用いて当該画像内に人/大型動物が存在するかどうか探索する(動作1102)。人/大型動物がいなければ(動作1103のNO)、次の画像を読み出し、人/大型動物がいれば(動作1103のYES)、当該人/大型動物の画像箇所を検知領域として検知領域記録部902に保持する(動作1104)。以下、動作1101〜1105を全画像について完了するまで繰り返し(動作1105のNO)、全画像の処理が終了すると(動作1105のYES)、検知領域を含む画像を表示部12に表示する(動作1106)。
図17に例示するように、ある画像に人の身体の一部が検知されると、表示部12には当該画像に重ねて検知領域1107(足部分)、検知領域1108(手部分)がマーキング表示される。撮像データ30は位置情報も含まれているので、表示された画像がどの場所であるか特定でき、捜索範囲を効果的に絞ることができる。
本発明は、以上説明した実施の形態に適用が限定されるものではなく、特許請求の範囲および明細書と図面に記載された技術的思想の範囲内で種々の変形が可能である。例えば、上記実施形態では、本発明における捜索の対象となる場所及び捜索対象者として、山岳地帯で遭難した遭難者を例に説明をしたが、本発明は、これ以外にも、海上で遭難した遭難者や津波で行方不明となった者の捜索にも適用が可能であるし、また、河川の氾濫など自然災害で行方不明となった者の捜索など山岳地帯以外を操作対象となる場所とするものであってもよい。また、捜索の対象は人物には限定されず、人物以外の所持品など物品の捜索を行うことも含めてよい。
また、上記実施形態では、撮像データ30、照合用データ20、捜索地域の特徴的画像データ21および身体的な特徴を示すサンプルデータ22は、動画データであっても静止画データであってもよい。
10 探索装置
11 プロセッサ
12 表示部
13 入力部
14 通信部
15 記憶部
101 HSV分析部
102 HSV設定部
103 論理区域分割部
104 カラー照合部
105、602、902 検知領域記録部
20 照合用データ
21 捜索地域の特徴的画像データ
22 身体的な特徴を示すサンプルデータ
30 撮像データ
40 飛行体
41 カメラ
42 位置検出器
60 AI探索装置
61 プロセッサ
62 記憶部
601 人工物探知モデル
90 AI探索装置
901 人/大型動物探知モデル

Claims (13)

  1. 画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索装置であって、
    予め撮影された捜索対象者又は捜索対象物の画像から、捜索対象となる目標カラー情報を所定カラー空間の数値として抽出する分析手段と、
    捜索場所を空撮により撮影した撮像画像と数値化された目標カラー情報とを照合し、前記撮像画像から前記目標カラー情報を示すカラー領域を識別する照合手段と、
    前記カラー領域と所定しきい値とを比較することで前記カラー領域の適否を判定する判定手段と、
    前記判定手段により適合と判定されたカラー領域を検知領域として記録する記録手段と、
    を有することを特徴とする探索装置。
  2. 前記分析手段は、前記所定カラー空間において前記目標カラー情報と同じ色とみなす所定の数値範囲を前記数値化された目標カラー情報として設定する、ことを特徴とする請求項1に記載の探索装置。
  3. 前記判定手段は、前記カラー領域の面積あるいは面積の割合と前記所定しきい値とを比較し、前記カラー領域の面積あるいは面積の割合が前記所定しきい値以上である場合に前記カラー領域を適合と判定する、ことを特徴とする請求項1または2に記載の探索装置。
  4. 前記判定手段は、前記適合と判定されたカラー領域が前記捜索対象者又は捜索対象物を示していない場合、前記所定しきい値を大きくする、ことを特徴とする請求項1−3のいずれか1項に記載の探索装置。
  5. 画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索装置であって、
    予め撮影された捜索地域の特徴的画像を機械学習させることで、前記捜索地域の特徴的画像とは異なる人工物を識別するように構築された機械学習モデルと、
    捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記人工物を識別し、前記人工物を含む画像領域を検知領域として記録手段に記録する処理手段と、
    を有することを特徴とする探索装置。
  6. 画像を用いて捜索対象者又は捜索対象動物の捜索を支援するシステムにおける探索装置であって、
    予め撮影された人あるいは大型動物の身体的特徴を示す特徴的画像を機械学習させることで捜索対象者又は捜索対象動物を識別するように構築された機械学習モデルと、
    捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記捜索対象者又は捜索対象動物を識別し、前記捜索対象者又は捜索対象動物を含む画像領域を検知領域として記録手段に記録する処理手段と、
    を有することを特徴とする探索装置。
  7. 前記撮像画像は無人飛行体から撮影した撮像データおよびその撮像位置データを含むことを特徴とする請求項1−6のいずれか1項に記載の探索装置。
  8. 画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索方法であって、
    分析手段が、予め撮影された捜索対象者又は捜索対象物の画像から、捜索対象となる目標カラー情報を所定カラー空間の数値として抽出し、
    照合手段が、捜索場所を空撮により撮影した撮像画像と数値化された目標カラー情報とを照合し、前記撮像画像から前記目標カラー情報を示すカラー領域を識別し、
    判定手段が、前記カラー領域と所定しきい値とを比較することで前記カラー領域の適否を判定し、
    記録手段が、前記判定手段により適合と判定されたカラー領域を検知領域として記録する、
    ことを特徴とする探索方法。
  9. 画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索方法であって、
    予め撮影された捜索地域の特徴的画像の機械学習により前記捜索地域の特徴的画像とは異なる人工物を識別するように構築された機械学習モデルを記憶手段に格納し、
    処理手段が、捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記人工物を識別し、前記人工物を含む画像領域を検知領域として記録手段に記録する、
    ことを特徴とする探索方法。
  10. 画像を用いて捜索対象者又は捜索対象動物の捜索を支援するシステムにおける探索方法であって、
    予め撮影された人あるいは大型動物の身体的特徴を示す特徴的画像の機械学習により、捜索対象者又は捜索対象動物を識別するように構築された機械学習モデルを記憶手段に格納し、
    処理手段が、捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記捜索対象者又は捜索対象動物を識別し、前記捜索対象者又は捜索対象動物を含む画像領域を検知領域として記録手段に記録する、
    ことを特徴とする探索方法。
  11. 画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索装置としてコンピュータを機能させるプログラムであって、
    予め撮影された捜索対象者又は捜索対象物の画像から、捜索対象となる目標カラー情報を所定カラー空間の数値として抽出する分析手段と、
    捜索場所を空撮により撮影した撮像画像と数値化された目標カラー情報とを照合し、前記撮像画像から前記目標カラー情報を示すカラー領域を識別する照合手段と、
    前記カラー領域と所定しきい値とを比較することで前記カラー領域の適否を判定する判定手段と、
    前記判定手段により適合と判定されたカラー領域を検知領域として記録する記録手段と、
    を前記コンピュータに実現することを特徴とするプログラム。
  12. 画像を用いて捜索対象者又は捜索対象物の捜索を支援するシステムにおける探索装置としてコンピュータを機能させるプログラムであって、
    予め撮影された捜索地域の特徴的画像を機械学習させることで、前記捜索地域の特徴的画像とは異なる人工物を識別するように構築された機械学習モデルと、
    捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記人工物を識別し、前記人工物を含む画像領域を検知領域として記録手段に記録する処理手段と、
    を前記コンピュータに実現することを特徴とするプログラム。
  13. 画像を用いて捜索対象者又は捜索対象動物の捜索を支援するシステムにおける探索装置としてコンピュータを機能させるプログラムであって、
    予め撮影された人あるいは大型動物の身体的特徴を示す特徴的画像を機械学習させることで捜索対象者又は捜索対象動物を識別するように構築された機械学習モデルと、
    捜索場所を空撮により撮影した撮像画像を入力し、前記機械学習モデルを用いて前記撮像画像から前記捜索対象者又は捜索対象動物を識別し、前記捜索対象者又は捜索対象動物を含む画像領域を検知領域として記録手段に記録する処理手段と、
    を前記コンピュータに実現することを特徴とするプログラム。
JP2019240092A 2019-12-31 2019-12-31 捜索支援システムにおける探索方法および装置 Pending JP2021110962A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019240092A JP2021110962A (ja) 2019-12-31 2019-12-31 捜索支援システムにおける探索方法および装置
JP2022068558A JP2022100358A (ja) 2019-12-31 2022-04-18 捜索支援システムにおける探索方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019240092A JP2021110962A (ja) 2019-12-31 2019-12-31 捜索支援システムにおける探索方法および装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022068558A Division JP2022100358A (ja) 2019-12-31 2022-04-18 捜索支援システムにおける探索方法および装置

Publications (1)

Publication Number Publication Date
JP2021110962A true JP2021110962A (ja) 2021-08-02

Family

ID=77059830

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019240092A Pending JP2021110962A (ja) 2019-12-31 2019-12-31 捜索支援システムにおける探索方法および装置
JP2022068558A Pending JP2022100358A (ja) 2019-12-31 2022-04-18 捜索支援システムにおける探索方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022068558A Pending JP2022100358A (ja) 2019-12-31 2022-04-18 捜索支援システムにおける探索方法および装置

Country Status (1)

Country Link
JP (2) JP2021110962A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114040116A (zh) * 2021-11-30 2022-02-11 安徽精研塑胶制品有限公司 塑胶模材良品监测反馈系统
JP7280988B1 (ja) 2022-02-17 2023-05-24 楽天グループ株式会社 情報処理装置、視認困難箇所特定方法、及び無人飛行体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063575A (ja) * 2000-08-17 2002-02-28 Japan Computer Science Corp 画像処理を利用した海難捜索方法及び海難捜索プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2018169972A (ja) * 2017-03-30 2018-11-01 Kddi株式会社 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063575A (ja) * 2000-08-17 2002-02-28 Japan Computer Science Corp 画像処理を利用した海難捜索方法及び海難捜索プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2018169972A (ja) * 2017-03-30 2018-11-01 Kddi株式会社 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114040116A (zh) * 2021-11-30 2022-02-11 安徽精研塑胶制品有限公司 塑胶模材良品监测反馈系统
CN114040116B (zh) * 2021-11-30 2022-09-20 安徽精研塑胶制品有限公司 塑胶模材良品监测反馈系统
JP7280988B1 (ja) 2022-02-17 2023-05-24 楽天グループ株式会社 情報処理装置、視認困難箇所特定方法、及び無人飛行体
JP2023119865A (ja) * 2022-02-17 2023-08-29 楽天グループ株式会社 情報処理装置、視認困難箇所特定方法、及び無人飛行体

Also Published As

Publication number Publication date
JP2022100358A (ja) 2022-07-05

Similar Documents

Publication Publication Date Title
Sambolek et al. Automatic person detection in search and rescue operations using deep CNN detectors
CN109284733B (zh) 一种基于yolo和多任务卷积神经网络的导购消极行为监控方法
US8761446B1 (en) Object detection with false positive filtering
KR101781358B1 (ko) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
CN106577350B (zh) 宠物类型识别的方法及装置
US20200012923A1 (en) Computer device for training a deep neural network
US7340079B2 (en) Image recognition apparatus, image recognition processing method, and image recognition program
CN109815868A (zh) 一种图像目标检测方法、装置及存储介质
US20200394384A1 (en) Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas
JP2022100358A (ja) 捜索支援システムにおける探索方法および装置
WO2019157690A1 (zh) 自动抓拍方法及装置、无人机及存储介质
KR102053906B1 (ko) 지리공간정보를 이용하는 실시간 감독 학습 방법 및 시스템
CN111753594A (zh) 危险识别方法、装置及系统
US11462040B2 (en) Distractor classifier
CN109815813A (zh) 图像处理方法及相关产品
JP2015106197A (ja) 画像処理装置、画像処理方法
JP4975801B2 (ja) 階層的外観モデルを用いた監視方法及び監視装置
KR20220098030A (ko) 타깃 운동 궤적 구축 방법, 기기 및 컴퓨터 저장 매체
JP2010081453A (ja) 付帯情報付加装置及び方法
CN106529500A (zh) 一种信息处理方法和系统
KR102388454B1 (ko) 시맨틱 분할을 이용한 소나무 재선충 확산 방지 시스템 및 방법
KR20210143634A (ko) 골프 코스의 디봇 탐지 시스템 및 이를 이용한 탐지 방법
Kashihara et al. Supportive information to find victims from aerial video in search and rescue operation
Sethuraman et al. iDrone: IoT-Enabled unmanned aerial vehicles for detecting wildfires using convolutional neural networks
JP4427714B2 (ja) 画像認識装置、画像認識処理方法および画像認識プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220118