JP2022108823A - 捜索支援システムおよび救助支援プログラム - Google Patents

捜索支援システムおよび救助支援プログラム Download PDF

Info

Publication number
JP2022108823A
JP2022108823A JP2021003989A JP2021003989A JP2022108823A JP 2022108823 A JP2022108823 A JP 2022108823A JP 2021003989 A JP2021003989 A JP 2021003989A JP 2021003989 A JP2021003989 A JP 2021003989A JP 2022108823 A JP2022108823 A JP 2022108823A
Authority
JP
Japan
Prior art keywords
camera
drone
data
search target
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021003989A
Other languages
English (en)
Other versions
JP7040827B1 (ja
Inventor
大輔 岩倉
Daisuke Iwakura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rock Garage Co Ltd
Original Assignee
Rock Garage Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rock Garage Co Ltd filed Critical Rock Garage Co Ltd
Priority to JP2021003989A priority Critical patent/JP7040827B1/ja
Application granted granted Critical
Publication of JP7040827B1 publication Critical patent/JP7040827B1/ja
Publication of JP2022108823A publication Critical patent/JP2022108823A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】電波発生源だけに頼ることなく捜索対象の発見を支援する捜索支援システム及び救助支援プログラムを提供する。【解決手段】捜索支援システム1において、ドローン100に搭載されたドローンカメラ108によって撮影された画像、ドローン100の位置及びドローンカメラ108の姿勢のデータを取得して、画像のデータから捜索対象を検出するとともに、ドローン100の位置及びドローンカメラ108の姿勢のデータから、検出した捜索対象の位置を特定し、捜索対象の位置のデータを出力するサーバ200と、表示部を有し、捜索対象の位置のデータをサーバ200から取得して、捜索対象の位置情報を表示部に表示する端末装置とを有する。【選択図】図1

Description

特許法第30条第2項適用申請有り 第30条第2項適用、令和3年1月8日、株式会社ロックガレッジの代表者である岩倉大輔が、福島ロボットテストフィールドにて、災害現場の要救助者をドローンとAIによって、リアルタイムに特定し、複数人のAR/MRグラスに投影する実証実験を実施して、岩倉大輔が発明した捜索支援システムについて公開
特許法第30条第2項適用申請有り 第30条第2項適用、株式会社ロックガレッジの代表者である岩倉大輔が、令和3年1月8日、福島ロボットテストフィールドにて、災害現場の要救助者をドローンとAIによって、リアルタイムに特定し、複数人のAR/MRグラスに投影する実証実験を実施した際、公開者である福島民報社の取材を受け、当該実証実験の内容を開示した。福島民報社は、令和3年1月9日、岩倉大輔の開示内容に基づき実証実験の内容を福島民報社のウェブサイトhttps://www.minpo.jp/news/moredetail/2021010982504にて、「ドローンとAIで救助者捜索 ロックガレッジロボテスで試験」として公開し、岩倉大輔が発明した捜索支援システムについて公開
特許法第30条第2項適用申請有り 第30条第2項適用、株式会社ロックガレッジの代表者である岩倉大輔が、令和3年1月8日、福島ロボットテストフィールドにて、災害現場の要救助者をドローンとAIによって、リアルタイムに特定し、複数人のAR/MRグラスに投影する実証実験を実施した際、公開者である福島民友新聞社の取材を受け、当該実証実験の内容を開示した。福島民友新聞社は、令和3年1月9日、岩倉大輔の開示内容に基づき実証実験の内容を福島民友新聞社のウェブサイトhttps://www.minyu-net.com/news/news/FM20210109-574813.phpにて、「AIドローン+立体映像 災害救助迅速化へロボテスで実証実験」として公開し、岩倉大輔が発明した捜索支援システムについて公開
特許法第30条第2項適用申請有り 第30条第2項適用、令和3年1月12日、株式会社ロックガレッジが、同社のウェブサイトのアドレス1(https://www.rockgarage.tech/)において、ニュース・イベントの紹介として、「[リリース]AR/MRグラスを用いたドローンシステム」を掲載し、当該掲載されたリリース本文の掲載されているアドレス2(https://de4dc926-cd33-4153-a877-90ecf1ec1f66.filesusr.com/ugd/f433e5_dd83e756a236421d9284fe1a80ed100e.pdf)へのリンクを張った。株式会社ロックガレッジが、上記アドレス2のウェブサイトにおいて、「「あそこに人がいる!」株式会社ロックガレッジがAR/MRグラスを用いたレスキュードローンシステム実証実験を実施」として、ドローンの映像をAIによって自動解析し、捜索対象の人影や物の位置をリアルタイムに特定し、オンラインで共有するシステムの開発を行っていることを公開し、岩倉大輔が発明した捜索支援システムについて公開
本発明は、捜索支援システムおよび救助支援プログラムに関する。
従来、遭難者、災害被災者など(以下、要救助者と称する)の捜索には、たとえば、要救助者が持つビーコンや携帯電話などの電波発信源を探知する技術ある(たとえば、特許文献1)。
特開2004-317244号公報
しかしながら、従来の技術は、予期せぬ災害に遭ってしまった要救助者の捜索には、対応できないこともある。予期せぬ災害では、ビーコンのような特別な装置を携帯している人はほとんどいない。また、携帯電話は、要救助者が携帯していたとしても、電池切れや水難による故障などによって使えないこともある。
そこで、本発明の目的は、電波発生源だけに頼ることなく、捜索対象の発見を支援することのできる、捜索支援システムおよび救助支援プログラムを提供することである。
本発明の上記目的は、下記の手段によって達成される。
(1)ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置のデータを前記情報処理装置から取得して、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有する、捜索支援システム。
(2)前記端末装置は、
第2カメラと、
前記第2カメラの移動に伴う加速度を計測する加速度センサーと、
前記第2カメラが向いている方位を計測する方位センサーと、を有し、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出し、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する、上記(1)に記載の捜索支援システム。
(3)前記端末装置は、スマートフォン、タブレットコンピューター、ウェアラブルコンピューター、ノート型コンピューター、デスクトップ型コンピューターよりなる群から選択された少なくともいずれか一つである、上記(1)または(2)に記載の捜索支援システム。
(4)前記端末装置は、前記表示部に、前記第2カメラによって撮影された画像とともに、情報を表示する情報表示装置である、上記(2)または(3)に記載の捜索支援システム。
(5)前記端末装置は、レンズを有し、前記レンズを通して実体を目視できるともに、前記表示部に表示された情報を目視できる透過型情報表示装置であり、
前記透過型仮想現実装置は、方位センサーを有し、
前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出し、
前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する、上記(1)に記載の捜索支援システム。
(6)前記情報処理装置は、
前記捜索対象を検出するために、あらかじめ複数の訓練画像データを用いて機械学習された人工知能を有し、
前記人工知能は、前記第1カメラによって撮影された前記画像のデータから、前記捜索対象を検出する、上記(1)~(5)のいずれか一つに記載の捜索支援システム。
(7)前記人工知能は、人型または人影を検出するための前記訓練画像データによって機械学習されており、前記第1カメラによって撮影された前記画像のデータから、前記人型または人影を検出する、上記(6)に記載の捜索支援システム。
(8)前記捜索対象は、人である、上記(1)~(7)のいずれか一つに記載の捜索支援システム。
(9)ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラが撮影した画像のデータから捜索対象を検出するとともに、検出した前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有する、捜索支援システムにおいて、前記情報処理装置であるコンピューターに、前記画像のデータから前記捜索対象を検出させて、前記捜索対象の位置を特定させるための捜索支援プログラムであって、
前記ドローンから、前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得する段階(1a)と、
あらかじめ複数の訓練画像データを用いて機械学習された人工知能を用いて、前記画像のデータから前記捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定する段階(1b)と、
特定した前記捜索対象の位置を位置データとして前記端末装置へ出力する段階(1c)と、
を有する、捜索支援プログラム。
(10)ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部、第2カメラ、前記第2カメラの移動に伴う加速度を計測する加速度センサー、および前記第2カメラが向いている方位を計測する方位センサーを有する端末装置と、
を有する捜索支援システムにおいて、前記端末装置であるコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出する段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する段階(2c)と、
を有する、捜索支援プログラム。
(11)ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
レンズ、表示部、および方位センサーを有し、前記レンズを通して実体を目視できるともに、前記表示部に表示された情報を目視できる透過型情報表示装置と、を有する捜索支援システムにおいて、前記透過型情報表示装置を制御するコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出する段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する段階(2c)と、
を有する、捜索支援プログラム。
本発明は、情報処理装置がドローンに搭載されている第1カメラによって撮影された画像から捜索対象を検出して、その位置を特定し、端末装置に捜索対象の位置情報を表示させることとした。これにより、本発明は、捜索対象に電波発生源がなくとも、捜索対象の捜索効率を飛躍的に高められる。
本発明の一実施形態に係る捜索支援システム1の概略構成を示す図である。 ドローンのハードウェアの構成を示すブロック図である。 サーバーのハードウェア構成の一例を示すブロック図である。 端末装置のハードウェアの一例を示すブロック図である。 救助支援におけるサーバーの処理手順を示すフローチャートである。 救助支援における端末装置の処理手順を示すフローチャートである。 要救助者検出時の端末装置における画面表示例を説明するための説明図である。 要救助者の検出および位置の特定を説明するための説明図である。 確率セル集合の一例を説明する説明図である。 確率分布を例示した説明図である。 各セルへの参照を例示した説明図である。 図8に続いて、確率分布の変化を説明する説明図である。 図12に続いて、確率分布の変化を説明する説明図である。
以下、図面を参照して、本発明の実施形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
(捜索支援システム)
図1は、本発明の一実施形態に係る捜索支援システム1の概略構成を示す図である。
図1に示すように、一実施形態に係る捜索支援システム1は、ドローン100、サーバー200、端末装置300(300a、300b、300c)、および操縦装置800を有する。
(ドローン)
ドローン100は、無人移動体、無人航空機、および無人飛行体などとも称されている。ドローン100は、機体本体101、機体本体101から延びる4本のローターアーム102、それぞれのローターアーム102に取り付けられた4つのローター103(回転翼)、およびローター103を回転させる4つのモーター104を有する。ドローン100は、モーター104を駆動源としてローター103が回転し、ローター103の回転による揚力によって空中を飛行し、または、空中にホバリングする。モーター104は、各ローター103に個別に接続され、各モーター104によって各ローター103が回転する。なお、ローターアーム102の数は、4本に限定されず、ドローン100の構成によって4本以上の場合もある。なお、図示しないが、ドローン100は、モーター104の原動力となるバッテリーを有する。
また、ドローン100は、ドローンカメラ108(第1カメラ)を有する。ドローンカメラ108は、ドローン100の飛行中またはホバリング中に、画像を撮影する。ドローンカメラ108は可視光による画像を撮影する。撮影する画像は、静止画および/または動画である。
図2は、ドローン100のハードウェアの構成を示すブロック図である。ドローン100は、図2に示すように、飛行制御部110、衛星測位システム120(GNSS(Global Navigation Satellite System))、姿勢方位基準システム130(AHRS(Attitude Heading Reference System))、カメラ搭載用ジンバル140、および通信インターフェース150を有する。各構成は、バス190を介して相互に通信可能に接続されている。また、飛行制御部110には、バス190を介してドローンカメラ108も接続されている。
飛行制御部110は、コンピューターである。飛行制御部110には、モーター104が専用線によって接続されている。飛行制御部110は、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、RAM(Random Access Memory)113、およびストレージ114を有する。
CPU111は、ROM112やストレージ114に記録されているプログラムを実行することで、ドローン100の飛行を制御する。
ROM112は、各種プログラムや各種データを記憶する。
RAM113は、作業領域として一時的にプログラムやデータを記憶する。また、RAM113は、ストレージ114に記憶されている飛行ミッションのデータを読み出して記憶する。
ストレージ114は、たとえば、eMMC(embedded MultiMediaCard)やSSD(Solid State Drive)などの半導体メモリーが使用される。ストレージ114は、飛行ミッションのデータを記憶する。また、ストレージ114には、ドローンカメラ108によって撮影された画像データが記憶されてもよい。
飛行制御部110の構成は、たとえば、実行する処理内容を書き換え可能なFPGA(Field Programmable Gate Array)であってもよい。FPGAは、演算素子となるCPU、記憶素子となるROMおよびRAMなどの機能が1チップで形成されている半導体素子である。また、飛行制御部110は、CPU、ROM、およびRAMなどのチップが1つのチップに統合されたコンピューターなどあってもよい。また、FPGAや1チップコンピューターには、衛星測位システム120、通信インターフェース150などが統合されていてもよい。
飛行制御部110は、衛星測位システム120、姿勢方位基準システム130、およびカメラ搭載用ジンバル140から位置データおよび姿勢データを取得する。飛行制御部110は、位置データおよび姿勢データを用いて、ドローン100をあらかじめ設定された飛行ミッション(フライトプラン)によって自律して飛行(自律飛行)させる。本実施系来では、操縦装置800から飛行ミッションをドローンへ送信して自律飛行させている。
なお、ドローン100は、自律飛行に代えて、プロポ(操縦装置800)による遠隔操作による飛行(マニュアル飛行)を実行してもよい。
衛星測位システム120は、ドローン100の地球上での現在位置を計測して、ドローン100の位置データを出力する。衛星測位システム120は、たとえば、全地球測位システム(GPS(Global Positioning System))が使用される。
姿勢方位基準システム130およびカメラ搭載用ジンバル140は、ドローンカメラ108の姿勢を計測して、ドローンカメラ108の姿勢データを出力する。
ドローン100は、ドローンカメラ108によって撮影された画像データをサーバー200に送信する。また、ドローン100は、衛星測位システム120から出力されたドローン100の位置データをサーバー200に送信する。また、ドローン100は、姿勢方位基準システム130およびカメラ搭載用ジンバル140から出力されたドローンカメラ108の姿勢データをサーバー200に送信する。データの送信は、通信インターフェース150を介して実行される。
通信インターフェース150は、サーバー200との間でデータの送受信(通信)を実行する。ドローン100とサーバー200との間の通信には、たとえば、移動通信システムが用いられる。移動通信システムは、近年、第5世代移動通信システム(5G)のインフラが普及してきており、高速での通信が可能となることから、好適である。そのほか、ドローン100とサーバー200との通信には、既存の移動通信システム(4Gなど)が用いられてもよい。また、ドローン100とサーバー200との間の通信には、たとえば、IEEE802.11(いわゆるWiFi)などの無線通信システムが用いられてもよい。さらに、ドローン100とサーバー200との間の通信には、専用の無線通信システム(テレメトリデータ通信および映像伝送装置)が用いられてもよい。専用の無線通信システムは、たとえば、災害発生時に、既存の公衆移動通信システムが被災してしまった場合にも、使用可能である。
(サーバー)
サーバー200は、情報処理装置として機能するコンピューターである。サーバー200は、たとえば、災害現場とは異なる場所に設置されたクラウドサーバーである。また、サーバー200は、たとえば、災害が発生した現場に搬送されて、臨時に設置されてもよい。
図3は、サーバー200のハードウェア構成の一例を示すブロック図である。
サーバー200は、図3に示すように、CPU210、ROM220、RAM230、ストレージ240、通信インターフェース250および操作表示部260を有する。各構成は、バス290を介して相互に通信可能に接続されている。
CPU210は、ROM220やストレージ240に記録されているプログラムを実行する。CPU210は、特に、後述するサーバー200の処理手順に沿って作成された救助支援プログラムを実行することで、捜索対象を検出して、その位置を出力する情報処理装置(仮想マシンを含む)としての機能を実行する。
ROM220は、各種プログラムや各種データを記憶する。
RAM230は、作業領域として一時的にプログラムやデータを記憶する。
ストレージ240は、オペレーティングシステムを含む各種プログラムや、各種データを記憶する。ストレージ240は、特に、後述するサーバー200の処理手順に沿って作成された救助支援プログラムを記憶している。
ストレージ240としては、サーバー200の場合、主に、HDDなどの大容量の記憶媒体が使用される。また、ストレージ240として、eMMCやSSDなどの半導体メモリーが、HDDとともに、またはHDDに代えて用いられてもよい。
通信インターフェース250は、ドローン100および端末装置300との間のデータの送受信(通信)を実行する。したがって、通信インターフェース250としては、ドローン100および端末装置300のそれぞれに合わせた無線通信システムが使用される。ここでは、上述のように、たとえば、移動通信システム、WiFiなどが利用される。
操作表示部260は、たとえば、タッチパネル式のディスプレイであり、各種情報を表示するとともに、各種入力を受け付ける。また、操作表示部260としては、キーボードやマウスなどの入力機器とディスプレイなどが接続されていてもよい。
なお、サーバー200のハードウェアの構成は、このような形態に限定されない。サーバー200のハードウェアの構成は、たとえば、実行する処理内容を書き換え可能なFPGAなどであってもよい。また、サーバー200のハードウェアには、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)などのアクセラレータが搭載されていてもよい。
(端末装置)
端末装置300は、表示部が搭載または接続されたコンピューターである。端末装置300は、端末カメラ370によって撮影された画像とともに、位置情報を表示する情報表示装置である。端末装置300は、後述するように、端末カメラ370によって撮影された画像の中に、拡張現実(AR(Augmented Reality))技術、または、複合現実(MR(Mixed Reality))技術によって、様々な情報を表示する。
端末装置300は、たとえば、人が携帯するスマートフォン、タブレットコンピューター(以下、これらを携帯端末300aと称する)、人が装着するスマートグラス300b、可搬式または固定式のノート型コンピューターまたはデスクトップ型コンピューター(以下、これらをパソコン300cと称する)などである。
ここで、スマートグラス300bは、ウェアラブルコンピューターの一種である。スマートグラス300bは、レンズを通して実体を目視できるとともに、視野範囲内で情報を見ることができる透過型情報表示装置である。スマートグラス300bは、後述するように、端末カメラ370によって撮影された画像またはレンズを通して目視できる視野範囲の中に、AR技術、または、MR技術によって、様々な情報を表示する。拡張現実で使用されるスマートグラス300bは、特に、ARグラスと称されている。また、複合現実で使用されるスマートグラス300bは、特に、MRグラスと称されている。
装着者の視野範囲内への情報の表示は、たとえば、レンズまたは目視(視野)範囲にあるスクリーンへ画像(情報)を投影する投影表示部361(図1参照)によって行われる。
なお、スマートグラス300b以外のウェアラブルコンピューターとしては、たとえば、腕に装着するスマートウォッチなどが用いられてもよい。
また、本実施形態の説明において、携帯端末300a、スマートグラス300b、パソコン300cは、特に区別する必要がない場合、端末装置300と記載する。
これらの端末装置300は、捜索対象である要救助者を捜索する捜索者、要救助者を救助する救助者、または、捜索や救助を支援する支援者などが使用する。以下の説明では、これら捜索者、救助者、支援者などを特に区別することなく、捜索者と称する。端末装置300は、複数の捜索者がいる場合、それぞれの捜索者によって個別に使用されてもよいし、複数の捜索者がいくつかのグループ(捜索隊)となって、グループごとに使用されてもよい。また、端末装置300は、たとえば、要救助者を捜索するために捜索隊が結成されている警察署、消防署、捜索本部(または支部)、救助隊本部(または支部)、または指揮所などにおいて使用される。
図4は、端末装置300のハードウェアの一例を示すブロック図である。
端末装置300は、図4に示すように、CPU310、ROM320、RAM330、ストレージ340、通信インターフェース350、操作表示部360、端末カメラ370(第2カメラ)、加速度センサー371、および方位センサー372、および衛星測位システム(GSNN)373を有する。各構成は、バス390を介して相互に通信可能に接続されている。
CPU310は、ROM320やストレージ340に記録されているプログラムを実行することで、端末装置300を制御する。CPU310は、特に、後述する端末装置300の処理手順に沿って作成された救助支援プログラムを実行することで、要救助者の位置情報を操作表示部360に表示する端末装置300としての機能を実行する。
ROM320は、各種プログラムや各種データを記憶する。
RAM330は、作業領域として一時的にプログラムやデータを記憶する。
ストレージ340は、オペレーティングシステムを含む各種プログラムや、各種データを記憶する。ストレージ340は、eMMC(embedded MultiMediaCard)やSSD(Solid State Drive)、HDD(Hard Disk Drive)などの記憶媒体である。また、ストレージ340は、メモリーカードなどの可搬式記憶媒体であってもよい。ストレージ340は、特に、後述する端末装置300の処理手順に沿って作成された救助支援プログラムを記憶している。
通信インターフェース350は、サーバー200との通信を実行する。通信インターフェース350には、たとえば、移動通信システムが用いられる。特に、近年、インフラが普及してきている第5世代移動通信システム(5G)が好適である。もちろん、通信インターフェース350には、既存の移動通信システムが用いられてもよい。また、通信インターフェース350には、たとえば、IEEE802.11(WiFi)などの無線通信システムが用いられてもよい。また、通信インターフェース350には、サーバー200と間で構築される、専用の無線通信システムが用いられてもよい。
なお、スマートグラス300bは、単独でサーバー200と通信するための通信インターフェース350を有していてもよい。しかし、スマートグラス300bは、スマートフォンやタブレットコンピューターなどの携帯端末300aと近距離無線通信(たとえばBluetooth(登録商標))によって接続され、サーバー200との通信は携帯端末300aが実行することとしてもよい。この場合の携帯端末300aは、サーバー200との通信機能を有するだけでもよいし、サーバー200から受信した位置データをスマートグラス300bに表示させるために必要な処理を実行することとしてもよい。
操作表示部360は、たとえば、タッチパネル式のディスプレイ(表示部)であり、各種情報を表示するとともに、各種入力を受け付ける。また、操作表示部360としては、キーボードやマウスなどの入力機器とディスプレイなどが接続されていてもよい。なお、スマートグラス300bにおいて、操作表示部360の表示機能は、投影表示部361(図1参照)によって提供される。したがって、以下の説明において、操作表示部360による表示は、投影表示部361により同様に実行される。
端末カメラ370は、静止画および/または動画を撮影する。端末カメラ370によって撮影された画像は、操作表示部360にリアルタイムで表示される。端末カメラ370は、主に、捜索者の現在位置からの撮影に用いられる。
携帯端末300aの場合、端末カメラ370は、携帯端末本体に内蔵されている。
スマートグラス300bの場合、端末カメラ370は、スマートグラス300bの本体に内蔵または取り付けられている。また、端末カメラ370は、スマートグラス300bの装着者によって、スマートグラス300bとは別に装備されてもよい。
なお、スマートグラス300bの場合、端末カメラ370は、使用されなくてもよい。なぜなら、スマートグラス300bを装着した捜索者は、端末カメラ370がなくても、レンズを介して、肉眼で実体を見ることができるからである。
パソコン300cの場合、端末カメラ370は、捜索者によって携帯される。この場合、端末カメラ370は、無線通信機能を有し、パソコン300cへ画像データを送信する。無線通信機能としては、たとえば、移動通信システム(5G、4G)、WiFi、専用の無線通信システムなどが用いられる。
なお、パソコン300cの場合、端末カメラ370は、使用されなくてもよい。端末カメラ370が使用されない場合、パソコン300cは、他の端末装置300(携帯端末300a、スマートグラス300bなど)からの画像を受信してもよい。
加速度センサー371は、端末カメラ370の移動に伴う加速度を計測する。端末装置300は、計測された加速度から、端末カメラ370の撮影方向の上下角を算出する。
携帯端末300aの場合、加速度センサー371は、携帯端末300aに一体的に設けられている。携帯端末300aは、加速度センサー371によって計測される加速度から、自身の傾斜角度を算出する。算出された携帯端末300aの傾斜角度は、そのまま端末カメラ370の撮影方向の上下角となる。
スマートグラス300bに端末カメラ370が内蔵または取り付けられる場合、加速度センサー371は、スマートグラス300bに内蔵または取り付けられる。スマートグラス300bは、加速度センサー371によって計測される加速度から、端末カメラ370の撮影方向の上下角を算出する。
また、スマートグラス300bに端末カメラ370が内蔵または取り付けられていない場合も、加速度センサー371は、スマートグラス300bに内蔵または取り付けられることが好ましい。この場合、スマートグラス300bは、加速度センサー371によって計測される加速度から、レンズ面の傾き角度を計測する。レンズ面の傾き角度は、スマートグラス装着者が見ている方向の上下角となる。なお、スマートグラス装着者は、捜索時、多くの場合、レンズ面全体を通して外を見ている。このため、スマートグラス装着者が見ている方向の上下角の移動は、水平方向の移動と比較して少ない。このため、上下角の情報は計測されなくてもよい。したがって、スマートグラス300bに端末カメラ370が内蔵または取り付けられていない場合、加速度センサー371は設けられなくてもよい。
パソコン300cに端末カメラ370が接続されている場合、加速度センサー371は、端末カメラ370に設けられる。パソコン300cは、端末カメラ370に設けられた加速度センサー371から、画像データとともに、加速度データを受信して、端末カメラ370の撮影方向の上下角を計測する。一方、パソコン300cに端末カメラ370が接続されていない場合、加速度センサー371は、なくてもよい。
方位センサー372は、端末装置300に設けられている端末カメラ370の撮影方向の方位を計測する。方位センサー372は、たとえば、地磁気センサーである。また、方位センサー372は、たとえば、空間認識によって方位を判別するセンサーであってもよい。空間認識の場合、端末装置300は、端末カメラ370(第2カメラ)を方位センサー372として用いて、マーカーやランドマーク(ドローン含む)、天体などを検出することによって絶対方位をリセットする。
携帯端末300aの場合、方位センサー372は、一体的に設けられている。携帯端末300aは、方位センサー372によって自身の向いている方位を計測する。計測された携帯端末300aの方位は、そのまま端末カメラ370が撮影している方位となる。
スマートグラス300bに端末カメラ370が内蔵または取り付けられる場合、方位センサー372は、スマートグラス300bに内蔵または取り付けられる。スマートグラス300bは、方位センサー372によって端末カメラ370で撮影している方位を計測する。スマートグラス300bに端末カメラ370が内蔵または取り付けられていない場合、方位センサー372は、スマートグラス300bに内蔵または取り付けられる。スマートグラス300bは、方位センサー372によって、スマートグラス300bのレンズ面が向いている方位を計測する。
パソコン300cに端末カメラ370が接続されている場合、方位センサー372は、端末カメラ370に設けられる。パソコン300cは、端末カメラ370に設けられた方位センサー372から、画像データとともに、方位データを受信して、端末カメラ370が撮影している方位を計測する。一方、パソコン300cに端末カメラ370が接続されていない場合、方位センサー372は、なくてもよい。
端末装置300は、加速度センサー371によって計測された上下角(仰角および俯角)、および方位センサー372によって計測された方位から、端末カメラ370の撮影方向を算出する。
衛星測位システム173は、端末装置300の地球上での現在位置を計測する。衛星測位システム173は、たとえば、全地球測位システム(GPS)が使用される。
衛星測位システム173は、携帯端末300aの場合、一体的に設けられている。携帯端末300aは、衛星測位システム173から自身の地球上での現在位置を取得する。取得された携帯端末300aの位置は、そのまま端末カメラ370の位置となる。
なお、端末装置300の現在位置は、衛星測位システム173を用いずに計測することもできる。たとえば、端末装置300は、端末カメラ370(第2カメラ)によって撮影された画像から、マーカーやランドマーク(ドローン含む)、天体などを検出することによって絶対位置をリセットする。
なお、方位の計測や位置の計測に空間認識を利用する場合のカメラは、端末カメラ370(第2カメラ)以外に、空間認識(特徴点追跡)用のカメラを設けてもよい。また、空間認識(特徴点追跡)用のカメラは、たとえば、深度カメラを設けてもよい。
スマートグラス300bに端末カメラ370が内蔵または取り付けられる場合、および端末カメラ370が内蔵または取り付けられていない場合のいずれにおいても、衛星測位システム173は、スマートグラス300bに内蔵または取り付けられる。スマートグラス300bは、衛星測位システム173から地球上での位置を取得する。
パソコン300cに端末カメラ370が接続されている場合、衛星測位システム173は、端末カメラ370に設けられる。パソコン300cは、端末カメラ370に設けられた衛星測位システム173から、画像データとともに、端末カメラ370の地球上での位置データを受信する。一方、パソコン300cに端末カメラ370が接続されていない場合、衛星測位システム173は、なくてもよい。
なお、端末装置300のハードウェアの構成は、このような形態に限定されない。端末装置300のハードウェアの構成は、たとえば、実行する処理内容を書き換え可能なFPGAなどであってもよい。また、端末装置300のハードウェアには、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)などのアクセラレータが搭載されていてもよい。
このように構成された端末装置300は、サーバー200によって検出された要救助者の位置情報を、操作表示部360に表示する。
たとえば、携帯端末300aにおいては、携帯端末300aの端末カメラ370で撮影されている画像の中にAR技術によって要救助者の位置情報が表示される。
また、スマートグラス300bがカメラを有する場合、スマートグラス300bにおいては、スマートグラス300bを装着している捜索者の視界の中に、AR技術によって、カメラによって撮影された画像とともに、要救助者の位置情報が表示される。また、スマートグラス300bがカメラを有しない場合(透過型仮想実現表示装置)においては、スマートグラス300bのレンズを通して実体を見る捜索者の視界(視野範囲)の中に、AR技術によって、要救助者の位置情報が表示される。
また、パソコン300cにおいては、捜索者の持つ端末カメラ370で撮影されている画像の中にAR技術によって要救助者の位置情報が表示される。
AR技術は、周知のとおりであるが、本実施形態におけるAR技術を利用した要救助者の位置情報の表示は、概略以下のとおりである。
端末装置300は、端末カメラ370の撮影範囲とサーバー200から受信した要救助者の位置とを比較する。撮影範囲は、端末装置300の位置からの端末カメラ370の撮影方向と撮影時の画角によって決まった上下方向および水平方向の広がりの範囲である。端末装置300の位置および要救助者の位置は、いずれも、衛星測位システム120から得られた地球上での座標位置である。座標位置は、端末装置300で使用される空間座標系内の座標位置に変換されることもある。
端末装置300は、比較の結果、端末カメラ370の撮影範囲内に要救助者が存在する場合、撮影された画像内に要救助者の位置情報を表示する。要救助者の位置情報の表示は、たとえば、要救助者の位置を示すターゲットマーク、要救助者を検出したことを示すためのアイコン、端末装置300から要救助者までの距離情報などである。ターゲットマークは、たとえば、円、二重円、十字と円の組み合わせなど、アイコンは、たとえば、人型アイコン、ハートマークアイコンなど、任意に設定するとよい。距離情報は、端末装置300の座標位置と要救助者の座標位置から算出される。
また、端末装置300は、位置情報のほかに、たとえば、捜索対象(要救助者)の状態(姿勢、温度、服装等)を表示するようにしてもよい。要救助者の状態は、たとえば、ドローンカメラ108によって撮影された画像から、要救助者を含む部分画像を切り出して表示させてもよい。この場合、端末装置300は、サーバー200から位置データとともに、要救助者を含む部分画像データを受信する。また、要救助者の状態は、たとえば、サーバー200によって解析された要救助者の状態を図案化(シンボル化)して表示させてもよい。
なお、端末カメラ370の画像の中に、要救助者の位置情報を重ねて表示させるための技術は、上記概略説明とは異なる方法によって実現されてもよい。また、AR技術は、これらを利用するための様々なソフトウェアが市販されているので、それらを使用して実現され得る。また、画像または目視の中への位置情報の表示は、AR技術やMR技術を利用しない方法によって実現されてもよい。
(操縦装置)
操縦装置800は、ドローンに100を自律飛行させる飛行ミッションの作成、ドローンへの転送を実行する。また、操縦装置800は、必要な場合に、ドローンを直接操作する。
操縦装置800は、コンピューターであり、基本的なハードウェア構成はサーバー200と同様であるので説明は省略する。ただし、操縦装置800は、ドローン100と、直接、通信可能である。
(処理手順)
以下、救助支援の処理手順について説明する。
(サーバーの処理手順)
図5は、救助支援におけるサーバー200の処理手順を示すフローチャートである。サーバー200は、この処理手順に沿って作成された救助支援プログラムを実行する。
まず、サーバー200は、ドローン100からデータを受信する(S101)。ドローン100からのデータは、ドローンカメラ108により撮影された画像データ、ドローン100の位置データ、およびドローンカメラ108の姿勢データである。サーバー200は、受信した画像データをストレージ240に記憶する。記憶された画像データは、たとえば、後から読み出して画像を確認するために利用される。画像データは、通常、動画データである。画像データは、静止画データであってもよい。静止画データの場合は、ドローンカメラ108によって任意に設定された撮影間隔で撮影される。撮影間隔は、たとえば、ドローン100が一定距離移動するごととしてもよい。
続いて、サーバー200は、受信した画像データをフレームごとに解析して、フレーム内における要救助者の有無を判断する(S102)。サーバー200による画像データの解析は、すべてのフレームについて実行してもよいし、任意の間隔のフレームごとに実行してもよい。ただし、任意の間隔のフレームごとに解析する場合、任意の間隔は、少なくとも飛行中のドローン100によって撮影される範囲が重複する部分を有するフレームごととすることが好ましい。これにより、ドローン100の移動によって撮影される範囲が欠落することなく解析される。対称の有無の判断は、異なる位置から撮影した複数の画像フレームから(ベイズ推論、カルマンフィルタ等によって)確率論的に判断される。その際、人工知能による検知の尤もらしさ(尤度)が、検知/非検知の2値ではない中間を表すものとして利用される(詳細後述)。
S102のステップにおいて、サーバー200は、画像データから要救助者を検出した場合を要救助者有(S102:YES)、画像データから要救助者を検出しない場合を要救助者無(S102:NO)と判断する。要救助者の有無は、サーバー200にて実行されている人工知能(AI(Artificial Intelligence))によって判断される。人工知能は、あらかじめ、要救助者の有無を判断するために、機械学習(深層学習を含む)されている。機械学習は、たとえば、要救助者に相当する人影および人型が写っている数万枚の画像を訓練画像データとして、捜索対象である、人影または人型の検出能力を人工知能に獲得させる。
S102のステップにおいて、サーバー200は、要救助者無と判断した場合(S102:NO)、S101へ戻り処理を継続する。
S102のステップにおいて、サーバー200は、要救助者有と判断した場合(S102:YES)、検出した要救助者の位置データを端末装置300へ送信する(S103)。
続いて、サーバー200は、処理終了か否かを判断し(S104)、処理終了の指示が入力されなければ(S104:NO)、S101へ戻り処理を継続する。サーバー200は、処理終了の指示が入力されれば(S104:YES)、処理を終了する。
(端末装置の処理手順)
図6は、救助支援における端末装置300の処理手順を示すフローチャートである。端末装置300は、この処理手順に沿って作成された救助支援プログラムを実行する。
まず、端末装置300は、端末装置300に内蔵または取り付けられる端末カメラ370(捜索者が別途装備している場合を含む、以下同様)によって撮影を開始する(S201)。なお、カメラのないスマートグラス300bでは、S201のステップは省略される。
続いて、端末装置300は、サーバー200から要救助者の位置データを受信したか否かを判断する(S202)。端末装置300は、要救助者の位置データを受信していない場合(S202:NO)、S201のステップへ戻り、処理を継続する。
端末装置300は、要救助者の位置データを受信した場合(S202:YES)、すでに説明したように、AR技術によって、撮影されている画像の中に要救助者の位置情報を表示する(S203)。
続いて、端末装置300は、処理終了か否かを判断し(S204)、処理終了の指示が入力されなければ(S204:NO)、S201へ戻り処理を継続する。端末装置300は、処理終了の指示が入力されれば(S204:YES)、処理を終了する。
(要救助者検出事例)
図7は、要救助者検出時の端末装置300における画面表示例を説明するための説明図である。図7は、水害発生の現場を示している。
水害発生の現場において、捜索者は、たとえば、危険な場所を避けて、地上から要救助者を捜索している。また、捜索者は、地上からは見えない範囲を捜索するために、ドローン100を飛行させる。
図7に示した状況では、捜索者の視点502(後述図8参照)からは、要救助者518(図8参照)が、建物503の陰になっていて見えない。このような状況において、サーバー200は、ドローン100から受信した画像データから、要救助者518を検出したなら(上記S102:YES)、要救助者518の位置データを端末装置300へ送信する(上記S103)。端末装置300は、受信した要救助者518の位置データをもとに、要救助者518の位置情報をAR技術によって、図7に示すように、操作表示部360の画面に表示する。
要救助者518の位置情報としては、たとえば、要救助者518の位置を示すターゲットマーク401、要救助者518を検出したことを示すため人型アイコン402、および端末装置300から要救助者518まで距離情報403が表示されている。
図7において、ターゲットマーク401は、建物503と重なっている。しかし、画面に要救助者518の姿は、見えていない。このことから、捜索者は、捜索者自身の位置から見て、要救助者518が建物503の陰にいるとわかる。また、捜索者は、画面に表示されている距離情報403から、自身の現在位置から要救助者518までの距離を把握することができる。
また、図示はしないが、たとえば、山岳遭難現場においては、捜索者が、山岳部の上空から有人航空機(ドローン100ではない)などに乗って捜索する。そのような状況において、捜索者の視点からは、山岳部の木々などに隠れて要救助者の発見が難しいことがある。このような状況においては、別途、ドローン100を飛行させることで、捜索者とは異なる視点からの捜索が同時に可能となる。山岳遭難現場においても、すでに説明したように、サーバー200は、ドローンカメラ108によって撮影された画像から要救助者を検出し、その位置情報を端末装置300へ送信する。端末装置300では、操作表示部360に、AR技術によって、端末装置300の端末カメラ370によって撮影された画像の中に、要救助者の位置情報が表示される。
なお、要救助者518の位置情報は、MR(Mixed Reality)技術(複合現実)を利用して表示してもよい。MR技術は、周知のとおり、撮影された画像や視野範囲などの現実空間の中に、3Dモデル画像や情報を表示する。
本実施形態においては、MR技術を使用して、現実空間の中に、あらかじめ捜索現場を再現した3Dモデル画像(実像ではない)、または現場を撮影した画像そのものを3Dモデル画像(実像)化して表示する。そのうえで、端末装置300は、現実空間内に、3Dモデル画像とともに、要救助者518の位置情報を表示する。表示される要救助者は、その姿勢を含めて3Dモデル画像とされてもよい。
3Dモデル画像は、たとえば、端末装置300のストレージ340に記憶させておく。また、3Dモデル画像は、たとえば、サーバー200から端末装置300に提供されるようにしてもよい。3Dモデル画像は、たとえば、捜索現場を、あらかじめ決められた視点から見たモデルとして作成する。また、3Dモデル画像は、たとえば、端末装置300の端末カメラ370または端末カメラ370とは別に現場を撮影しているカメラによって撮影された画像から、リアルタイムで3Dモデル画像を作成することとしてもよい。
(要救助者の検出および位置の特定)
要救助者518の検出および位置の特定は、たとえば、特開2019-185689号公報に記載された技術を用いることができる。
図8は、要救助者518の検出および位置の特定を説明するための説明図である。図8は、水害発生の現場(以下、災害現場500と称する)を想定している。図8に示すように、捜索者の視点502から見ると、要救助者518は、建物503の陰にいるため発見できない。
サーバー200の人工知能には、あらかじめ捜索対象を検出するために、機械学習させる。捜索対象は、要救助者518、すなわち、人物である。
機械学習は、画像データに含まれる要救助者518の検出尤度を求めることができるように人工知能に学習させる。機械学習によって、サーバー200は、高い精度で人を認識できるようになる。
脳のニューロン(神経細胞)を模倣した人工知能(人工ニューラルネットワーク)は、正解の捜索対象である要救助者518を含む画像データとその画像データ上の位置および大きさが組になった大量の訓練画像データを用いて学習を重ねる。これにより、人工知能は、次第に正解の捜索対象である要救助者518とそれ以外(背景)を区別する方法を学び、画像データに含まれる要救助者518の検出尤度や画像データ上の位置、画像データ上の大きさを正確に求めることができるようになる。
大量の訓練画像データを入力して訓練した人工ニューラルネットワークは、要救助者518とそれ以外を正確に区別し、与えた画像データが訓練画像データ(人工ニューラルネットワークの学習に使用したサンプル画像データ)と異なっていたとしても要救助者518を認識することや、要救助者518の検出尤度、画像データ上の位置、画像データ上の大きさを求めることができるようになる。
要救助者518の認識や要救助者518の検出尤度、画像データ上の位置、画像データ上の大きさを求めるため、人工ニューラルネットワークの入力層では入力画像データ(2次元訓練画像データや3次元訓練画像データ)の個々の画像が解析され、次の層(隠れ層)ではある特定の要救助者518が有する特有の幾何学的な形状を抽出する。中間の層(隠れ層)では各要救助者518の特徴が検出され、さらに深い層(隠れ層)ではそれらを組み合わせた要救助者518全体を認識する。そして、人工ニューラルネットワークの出力層および、出力層側に存在する隠れ層では、その要救助者518が他の捜索対象ではなく、検出が必要な要救助者518であると推測するとともに、要救助者518の画像データ上の位置、画像データ上の大きさを推測し、その尤度を出力する。
ドローン100の飛行ミッション作成(フライトプラン作成)は、操縦装置800によって作成される。操縦装置800では、ドローン100を遠隔飛行させるソフトウェアが起動されると、図示はしていないが、飛行ミッション作成(フライトプラン作成)のための画面が表示される。飛行ミッション作成画面には、ドローン100の飛行地域(移動体の移動地域)を選択する飛行地域選択エリア、要救助者518を選択する捜索対象選択エリア、選択確認ボタンが表示される。飛行地域選択エリアには、複数の航空写真(飛行地域画像)または地図の画面(飛行地域画像)が表示される。
捜索者(そのほか、ドローン100の操縦者など)は、飛行ミッション作成画面から、飛行地域選択エリアに表示された複数の航空写真または複数の地図の画面からドローン100を飛行させる航空写真または地図の画面を選択(反転させ)し、捜索対象選択エリアに要救助者518(人物)を入力(たとえば、捜索対象選択エリアのプルダウンリストから要救助者518を選択)し、選択確認ボタンをクリックする。
選択確認ボタンはクリックされると、操縦装置800は、選択された航空写真または地図の画面を表す3次元コンピュータグラフィックスによる三次元航空写真画像または三次元地図画像を表示させるとともに、要救助者518の捜索対象表示エリアを表示する。
三次元航空写真画像または三次元地図画像には、ドローン100の飛行速度(離陸速度、移動速度、着陸速度)入力エリア、飛行高度入力エリア条件確定ボタンが表示される。
捜索者は、表示された画面から、三次元航空写真画像または三次元地図画像にドローン100の飛行経路(離陸地点および着陸地点を含む)を入力し、飛行速度入力エリアにドローン100の飛行速度(離陸速度、移動速度、着陸速度)を入力し、飛行高度入力エリアにドローン100の飛行高度を入力した後、条件確定ボタンをクリックする。なお、捜索者は、表示された三次元航空写真画像または三次元地図画像に、空中の各経由地点(第1~第n経由地点)を入力(各経由地点の位置座標および高度を入力、または、ポインターによって各経由地点を位置決め)することもできる。
条件確定ボタンがクリックされると、操縦装置800は、入力された飛行条件を有する飛行ミッション(フライトプラン)を作成する。飛行ミッションは、ドローン100へ転送される。また、飛行ミッションは、ドローン100の識別子(ドローン100の個体識別番号やユニークな識別番号)および飛行ミッション作成日時に関連付けられた状態でサーバー200のストレージ240に記憶される。
一方、サーバー200は、ドローン100が飛行(移動)する飛行地域(地域)を含む確率セル集合519(図9参照)を生成し、初期値を設定して初期化する。図9は、確率セル集合の一例を説明する説明図である。
続いて、サーバー200は、人工知能(人工ニューラルネットワーク)に学習済みの係数をロードする。生成された確率セル集合519は、所定容積の六面体の確率セル集合領域である。
操縦装置800は、飛行ミッション(フライトプラン)をドローン100の飛行制御部110(コントローラ)に送信する。ドローン100の飛行制御部110は、サーバー200から受信した飛行ミッションをドローン100の飛行制御部110が内蔵するストレージ114に格納(記憶)する。飛行ミッションをドローン100の飛行制御部110に送信した後、捜索者は、操縦装置800から、飛行開始を指示する。ドローン100は、操縦装置800から送信された飛行開始信号を受信すると、自律飛行を開始する。
自律飛行を開始したドローン100は、離陸地点から所定面積の飛行地域(所定面積の地域)に向かって飛行し、入力された飛行経路に従って飛行地域を飛行しつつ(所定面積の地域を移動しつつ)、ドローンカメラ108を利用して所定面積の撮影エリアSeを撮影し、ドローンカメラ108によって所定の画像データEiを取得する。ドローンカメラ108による撮影エリアSeの撮影は、動画として連続して行われる。
ドローン100は、常に移動しながら異なる位置において撮影エリアSeを撮影する。ドローン100の飛行制御部110は、ドローンカメラ108によって動画(画像データEi)を撮影する。飛行制御部110は、撮影時点の位置(ドローン100の現在位置)および姿勢データとともに、画像データEiをサーバー200に送信する。より具体的には、ドローン100の飛行制御部110は、衛星測位システム120を利用し、飛行経路の位置データ(座標情報)を割り出すとともに、画像データEiの撮影時のドローン100の3次元位置データを割り出す。ドローン100の飛行制御部110は、姿勢方位基準システム130およびカメラ搭載用ジンバル140から得られる姿勢データを利用し、画像データEiの撮影時のドローンカメラ108の姿勢を特定する。ドローン100の飛行制御部110は、飛行経路の位置データ(座標情報)をサーバー200に送信するとともに、画像データEiの撮影時のドローン100の3次元位置データと画像データEiの撮影時のドローンカメラ108の姿勢データとをサーバー200に送信する。ドローン100の3次元位置データは、画像データEiの撮影時におけるドローン100の経度、画像データEiの撮影時におけるドローン100の緯度、画像データEiの撮影時におけるドローン100の高度である。また、ドローンカメラ108の姿勢は、画像データEiの撮影時における四元数または四元数と同等の画像データEiの撮影時における姿勢を表すロール、ピッチ、ヨー角である。
なお、プロポによってドローン100を遠隔操作する場合、飛行経路は、飛行ミッションに指定された経路ではなく、操縦者自身がプロポの操作によって指定される。ドローンカメラ108による所定の画像データEiの取得は、自律飛行時と同様に動画として連続して行われる。プロポは、コンピューターを備えたコントロールシステム(図示せず)に接続されている。プロポによるドローン100の操縦時では、プロポのコントロールシステムのディスプレイにドローン100の飛行速度や高度、地図情報、撮影映像表示、バッテリー残量等が表示される。
プロポによるドローン100の遠隔操作においてドローン100の飛行制御部110は、画像データEiの撮影時のドローン100の3次元位置データ(ドローン100の経度、緯度、高度)、画像データEiの撮影時のドローンカメラ108の姿勢(四元数または四元数と同等の姿勢を表すロール、ピッチ、ヨー角)をサーバー200に送信する。
サーバー200は、ドローン100の飛行制御部110から受信した飛行経路の位置データ(座標情報)を、ドローン100の識別子および飛行日時に関連付けた状態でストレージ240に記憶する。サーバー200は、ドローン100の飛行制御部110から受信したドローンカメラ108によって撮影した複数の画像データEiをドローン100の識別子および撮影日時に関連付けた状態でストレージ240に記憶する。サーバー200は、画像データEiの撮影時のドローン100の3次元位置データ(ドローン100の経度、緯度、高度)、画像データEiの撮影時のドローン100の姿勢(四元数または四元数と同等の姿勢を表すロール、ピッチ、ヨー角)をドローン100の識別子および撮影日時に関連付けた状態でストレージ240に記憶する。
サーバー200は、人工知能を利用して画像データEiに含まれる所定の要救助者518の検出尤度を求め、人工知能を利用して要救助者518の画像データEi上の位置を求めるとともに、人工知能を利用して要救助者518の画像データEi上の大きさを求める。サーバー200は、検出した要救助者518の検出尤度および要救助者518の画像データEi上の位置、大きさをもとに画像データEiの各画素に検出尤度を対応付ける。サーバー200は、画像データEiの各画素に検出尤度を対応付ける際、複数の検出尤度が対応付く場合はそれら検出尤度のうちの最大の検出尤度をその画素に対応付け、何も検出尤度が対応付けられない場合はその画素に尤度0を対応付ける。
サーバー200は、画像データEiの各画素に対して要救助者518(人)が窺知(検知)となる窺知確率を算出する。
サーバー200は、窺知確率算出の際に、画像データEiの撮影時におけるドローン100の経度、緯度、および高度(3次元位置データ)と、画像データEiの撮影時におけるドローンカメラ108の姿勢(四元数または四元数と同等の姿勢を表すロール、ピッチ、ヨー角)と、ドローンカメラ108の定数パラメータ(画角、イメージサイズ)とから確率セル集合519における画像データEiの各画素に対応する観測方向(撮影方向)を算出する。
続いて、観測方向に存在する確率セルを参照し、以下[数1]に示す所定の窺知確率算出数式によって要救助者518が窺知(検知)となる窺知確率をP(X=1)算出する。
Figure 2022108823000002
窺知確率算出数式[数1]中、
P1:その方向に要救助者518が存在していた場合に窺知(検知)となる確率パラメータ(0<P1<1)、
P2:その方向に要救助者518が存在しないが、窺知(検知)となる確率パラメータ(0≦P2<P1)、
pk:確率分布のセル集合からサンプリングされたk番目の確率である。
図10は、確率分布を例示した説明図である。
図10を参照して、確率分布のセルへの参照を例示すると以下のようになる。
サンプリングは、等間隔とする。pkの値は、観測方向(撮影方向)のベクトルが通るセルのうち、最近傍点への参照や内挿等により妥当であるものが選択される。
サーバー200は、ドローン100から送信されたドローン100の位置データ、および姿勢データから算出された画像データEiの撮影方向をもとに確率セル集合519における更新対象範囲520を特定する。サーバー200は、更新対象範囲520に含まれる各セルの確率値を、ベイズの定理を応用した所定の更新数式(下記[数2])を使用して、検出した要救助者518の検出尤度および要救助者518の画像データEi上の位置、大きさをもとに更新する。更新数式には、算出した窺知確率が含まれる。
Figure 2022108823000003
更新数式中、L:尤度、左辺:更新後の確率である。
図11は、各セルへの参照を例示した説明図である。
図11に示すように、窺知確率P(X=1)およびLは、ドローンカメラ108の焦点と更新対象のセルを結ぶ直線が通る画素のうち、最近傍点への参照や内挿などにより妥当なものが選択される。確率分布値の更新は、確率セル集合519のセルの確率値を更新数式によって更新する場合、確率セル集合519のセルの3次元位置、ドローン100の3次元位置データ、ドローンカメラ108の姿勢データ、およびドローンカメラ108の定数パラメータから、画像データEi上の参照すべき画素を特定し、窺知確率および検出尤度を読み出して算出する。
捜索対象の検出、窺知確率の算出、および確率分布値の更新が1回実施されると、図9に示した確率セル集合519のうち、六面体の領域における更新対象範囲520が更新される。
サーバー200は、捜索対象の検出、窺知確率の算出、確率分布値の更新を1回以上(好ましくは、2回以上)繰り返し実施することで、要救助者518を、確率セル集合519におけるセルごとの確率値の高低として特定する。確率分布値の更新によって確率値が更新された更新対象範囲520は、所定容積の六面体の確率セル集合519の中に存在する所定容積の六面体の更新対象範囲520である。
なお、要救助者518を、確率セル集合519におけるセルごとの確率値の高低として確実に特定するためには、2回以上異なる位置、異なる方向から要救助者518を含む撮影エリアSeを撮影し、上述した捜索対象の検出、窺知確率の算出、確率分布値の更新を2回以上実施して更新対象範囲520の確率値を複数回更新する必要がある。図12は、図8に続いて、確率分布の変化を説明する説明図である。図13は、図12に続いて、確率分布の変化を説明する説明図である。図12および図13は、図8同様に、ドローンカメラ108を下向きに制御して移動しながら複数回撮影を行い、更新対象範囲520の確率値の処理を行った場合の確率分布の変化を示している。
先に示した図8は、1度だけの撮影で要救助者518が特定された画像データEiを含む確率セル集合519の各画素の確率値を更新(1回の更新対象範囲520の確率値の更新)した更新対象範囲520の確率分布を示している。図8を参照すると、要救助者518の窺知(検知)が行われた領域は確率が増加し、窺知(検知)が行われなかった領域は確率が減少している。1度だけの撮影(1回の更新対象範囲520の確率値の更新)では、ドローンカメラ108の奥行き方向に対する変化が一様であるため、確率が上昇する領域は柱状となり、要救助者518の位置がまだ曖昧にしか定まっていない。
図12は、2回の撮影によって要救助者518が特定された画像データEiを含む確率セル集合519の各画素の確率値を更新(2回の更新対象範囲520の確率値の更新)した更新対象範囲520の確率分布を示している。図12では、1度目の撮影(1回の更新対象範囲520の確率値の更新)、2度目の撮影(2回の更新対象範囲520の確率値の更新)ともに要救助者518が窺知(検知)となり、2回とも確率が増加した領域を「窺知(検知)が重複した領域」として図示している。1度目に比べ、確率分布がより集中し、要救助者518の位置が定まりつつあるのがわかる。
図13は、3回の撮影によって要救助者518が特定された画像データEiを含む確率セル集合519の各画素の確率値を更新(3回の更新対象範囲520の確率値の更新)した更新対象範囲520の確率分布を示している。図13では、1度目の撮影(1回の更新対象範囲520の確率値の更新)、2度目の撮影(2回の更新対象範囲520の確率値の更新)、3度目の撮影(3回の更新対象範囲520の確率値の更新)ともに要救助者518が窺知(検知)となる。そして、3回とも確率が増加した領域は、特に高い確率値を持つことを示している。図13に示すように、確率が増加した領域は、より集中しており、要救助者518の位置がより限定されている。
サーバー200は、特定された要救助者518の確率セル集合519におけるセルごとの確率値の最も高い位置を要救助者518の三次元位置(位置データ)として端末装置300へ送信する。
端末装置300では、すでに説明したように、AR技術によって、要救助者518の位置情報が、端末カメラ370によって撮影されている画像内に表示される。
以上説明した本実施形態によれば、以下の効果を奏する。
本実施形態においては、サーバー200(情報処理装置)が、ドローン100によって撮影された画像から要救助者518を検出して、その位置を特定する。サーバー200は、端末装置300に特定した要救助者518の位置データを送信する。そして、端末装置300は、サーバー200から、要救助者518の位置データを受信して、要救助者518の位置情報を表示部に表示する。これにより、本発明は、要救助者518が電波発生源を携帯していなくても、また電波発生源の電力が消失していても、要救助者518の捜索効率を飛躍的に高められる。
また、本実施形態では、複数の捜索者がいる場合に、それぞれの捜索者に個別に、またはグループ(捜索隊)単位で、端末装置300を使用させることで、複数の捜索者や捜索隊内で、要救助者518の位置情報を共有できる。このように本実施形態では、複数の捜索者が要救助者の正確な位置を即時かつ直感的に把握、共有することができる。
また、本実施形態では、使用されている端末装置300の位置からの画像(または目視範囲)内に、要救助者518の位置情報が表示される。このため、捜索者は、要救助者518を救助に行く際に、どちらの方向へ行けばよいか直観的にわかるようになる。
また、本実施形態では、ドローンカメラ108の画像データから要救助者518を検出することとしたので、捜索者の視点502から見えていない要救助者518を発見できる可能性が高くなる。
以上、本発明の実施形態を説明したが、様々な変形が可能である。
上述した実施形態は、情報処理装置として、ドローン100から、サーバー200へ画像データが直接送信されて、サーバー200によって要救助者518の検出、および位置の特定が実行されることとした。しかし、ドローン100からの画像データは、直接サーバーへではなく、端末装置300、操縦装置800、および、その他の無線中継局(無線装置)などを通してサーバー200へ送信されることとしてもよい。
また、実施形態は、情報処理装置として、ドローン100および端末装置300とは別に設置されたサーバー200を使用することとした。しかし、情報処理装置の機能である、要救助者518の検出、および位置の特定は、必ずしもサーバー200を使用しなくてもよい。要救助者518の検出、および位置の特定は、たとえば、端末装置300により実行させてもよい。この場合、ドローン100からの各種データは、端末装置300へ直接送信されるようにしてもよいし、無線中継局などを通して送信されるようにしてもよい。
また、情報処理装置の機能である、要救助者518の検出、および位置の特定は、ドローン100に搭載されたコンピューターに実行させてもよい。この場合、ドローン100からは、検出された要救助者518の位置データが端末装置300へ送信される。要救助者518の位置データは、ドローン100から端末装置300へ直接送信されるようにしてもよいし、無線中継局などを通して送信されるようにしてもよい。
また、要救助者518の検出は、要救助者518(人)の姿勢を含めて検出するようにしてもよい。人の姿勢は、たとえば立位、しゃがみ位、および臥位(仰臥位、側臥位、腹臥位など)などである。要救助者518(人)の姿勢を含めて検出する場合、たとえば、人工知能には、人の姿勢を区別できるように機械学習させる。このように人の姿勢を機械学習させた人工知能は、ドローンカメラ108の画像データから要救助者518の姿勢を区別して検出できるようになる。捜索者は、判明した要救助者518の姿勢から救助の緊急性を判断できる。たとえば、捜索者は、立位の要救助者518より、しゃがみ位や臥位の要救助者518の方が救助の緊急性が高いと判断する。なお、このような判断は、あくまでも一例であり、実施際の救助は、検出された要救助者518の姿勢から捜索者の経験や、救助マニュアルなどに従って実行される。
また、上述した実施形態は、ドローンカメラ108として可視光のカメラを使用することを前提に説明した。しかし、ドローンカメラ108は、可視光のカメラに限定されない。たとえば、ドローンカメラ108は、可視光のカメラに代えて、または、可視光のカメラとともに、近赤外線または遠赤外線を検知する赤外線カメラを使用してもよい。赤外線カメラを使用する場合、捜索者は、要救助者518の体温を知ることができる。
また、ドローン100には、ドローンカメラ108とともに音響センサーが搭載されてもよい。音響センサーは、たとえば、指向性マイクロフォンであり、ドローンカメラ108による撮影方向の音を集音させる。指向性マイクロフォンを合わせて使用する場合、捜索者は、要救助者518が発する声や音を知ることができる。
また、上述した実施形態では、図1において1台のドローン100を示したが、捜索支援システム1は、同時に、複数台のドローン100を使用してもよい。同時に、複数台のドローン100を使用する場合、たとえば、要救助者518の検出、位置の特定は、1台のサーバー200が実行してもよい。この場合、サーバー200は、複数台のドローン100からの画像データを解析して、いずれか一つのドローン100からの画像データから要救助者518を検出した場合、その位置データを各端末装置300へ送信する。また、同時に、複数台のドローン100を使用する場合、たとえば、要救助者518の検出、位置の特定は、各ドローン100に対応させた複数台のサーバー200が実行してもよい。この場合、各サーバー200は、対応するドローン100からの画像データを解析する。そして、要救助者518を検出したサーバー200は、位置データを各端末装置300へ送信する。なお、この場合、各端末装置300は、複数台のサーバー200とそれぞれ通信可能な状態とする。
また、上述した実施形態は、捜索対象として要救助者518(人)を例に説明したが、本発明は、人の捜索に限定されない。本発明は、たとえば、人以外の動植物や物体の捜索にも使用できる。たとえば、動物の捜索の場合は、人工知能の機械学習時に捜索対象となる動物と他の動物と区別できるように学習させる。また、物体の捜索における捜索対象としては、たとえば、車両、不法投棄物、構造物上のひび割れ等の損傷個所などが挙げられる。これらの物体の捜索の場合、人工知能には、機械学習時に捜索対象となる物体と、他の物体とを区別できるように学習させる。
さらに、動植物や物体の捜索においては、人の捜索同様に、その姿勢の違いを区別させてもよい。たとえば、捜索対象が動物の場合、人工知能には、物体の立体的な配置や向き(物体が正しく位置しているか転覆しているなど)などを区別できるように機械学習させてもよい。特に、捜索対象が車両の場合、人工知能には、正常な状態、転覆した状態などを区別できるように機械学習させる。
なお、本発明に係る救助支援プログラムは、専用のハードウェア回路によって実現することも可能である。また、このデータ入力制御プログラムは、USB(Universal Serial Bus)メモリーやDVD(Digital Versatile Disc)-ROM(Read Only Memory)などのコンピューター読み取り可能な記録媒体によって提供したり、記録媒体によらず、インターネットなどのネットワークを介してオンラインで提供したりすることも可能である。オンラインで提供される場合、救助支援プログラムは、ネットワークに接続されたコンピューター内の磁気ディスクなどの記録媒体(ストレージ)に記録される。
また、本発明は、特許請求の範囲に記載された構成に基づき様々な改変が可能であり、それらについても本発明の範疇である。
1 捜索支援システム、
100 ドローン、
101 機体本体、
102 ローターアーム、
103 ローター、
104 モーター、
108 ドローンカメラ、
110 飛行制御部、
120 衛星測位システム、
130 姿勢方位基準システム、
140 カメラ搭載用ジンバル、
150 通信インターフェース、
200 サーバー、
300 端末装置、
300a 携帯端末、
300b スマートグラス、
300c パソコン、
360 操作表示部、
361 投影表示部、
370 端末カメラ、
371 加速度センサー、
372 方位センサー、
401 ターゲットマーク、
402 人型アイコン、
403 距離情報、
500 災害現場、
502 視点、
503 建物、
518 要救助者、
800 操縦装置。
(1)ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置のデータを前記情報処理装置から取得して、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有し、
前記端末装置は、
第2カメラと、
前記第2カメラの移動に伴う加速度を計測する加速度センサーと、
前記第2カメラが向いている方位を計測する方位センサーと、を有し、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出し、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示し、
前記情報処理装置は、前記捜索対象を検出した場合に、前記端末装置に対して前記捜索対象の位置データを送信する、捜索支援システム。
(2)前記第1カメラは、前記第2カメラで撮影されない範囲を撮影する、上記(1)に記載の捜索支援システム。
)前記情報処理装置は、
前記捜索対象を検出するために、あらかじめ複数の訓練画像データを用いて機械学習された人工知能を有し、
前記人工知能は、前記第1カメラによって撮影された前記画像のデータから、前記捜索対象を検出する、上記(1)~()のいずれか一つに記載の捜索支援システム。
)前記人工知能は、人型または人影を検出するための前記訓練画像データによって機械学習されており、前記第1カメラによって撮影された前記画像のデータから、前記人型または人影を検出する、上記()に記載の捜索支援システム。
(6)前記人工知能は、人の姿勢を検出するための前記訓練画像データによって機械学習されており、前記第1カメラによって撮影された前記画像のデータから、前記人の姿勢を検出して、前記人の姿勢から、救助の緊急性を判断する、上記(5)に記載の捜索支援システム。
)前記捜索対象は、人である、上記(1)~()のいずれか一つに記載の捜索支援システム。
(8)前記第1カメラは、赤外線カメラである、上記(5)または(6)に記載の捜索支援システム。
(9)前記情報処理装置は、前記ドローンの飛行経路の位置データを記憶する、上記(1)~(8)のいずれか一つに記載の捜索支援システム。
(10)ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部、第2カメラ、前記第2カメラの移動に伴う加速度を計測する加速度センサー、および前記第2カメラが向いている方位を計測する方位センサーを有する端末装置と、
を有する捜索支援システムにおいて、前記捜索対象の位置情報を前記表示部に表示させる処理をコンピューターに実行させるための捜索支援プログラムであって、
前記情報処理装置であるコンピューターに、前記第1カメラによって撮影された画像のデータから前記捜索対象を検出したか否かを判断させる段階(1a)と、
前記捜索対象を検出した場合に、前記捜索対象の位置のデータを前記端末装置へ出力させる段階(1b)と、を実行させ、
前記端末装置であるコンピューターに、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出させる段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得させる段階(2b)と、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示させる段階(2c)と、を実行させるための、捜索支援プログラム。

Claims (11)

  1. ドローンと、
    前記ドローンに搭載された第1カメラと、
    前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
    表示部を有し、前記捜索対象の位置のデータを前記情報処理装置から取得して、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
    を有する、捜索支援システム。
  2. 前記端末装置は、
    第2カメラと、
    前記第2カメラの移動に伴う加速度を計測する加速度センサーと、
    前記第2カメラが向いている方位を計測する方位センサーと、を有し、
    前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出し、
    前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する、請求項1に記載の捜索支援システム。
  3. 前記端末装置は、スマートフォン、タブレットコンピューター、ウェアラブルコンピューター、ノート型コンピューター、デスクトップ型コンピューターよりなる群から選択された少なくともいずれか一つである、請求項1または2に記載の捜索支援システム。
  4. 前記端末装置は、前記表示部に、前記第2カメラによって撮影された画像とともに、情報を表示する情報表示装置である、請求項2または3に記載の捜索支援システム。
  5. 前記端末装置は、レンズを有し、前記レンズを通して実体を目視できるともに、前記表示部に表示された情報を目視できる透過型情報表示装置であり、
    前記透過型仮想現実装置は、方位センサーを有し、
    前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出し、
    前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する、請求項1に記載の捜索支援システム。
  6. 前記情報処理装置は、
    前記捜索対象を検出するために、あらかじめ複数の訓練画像データを用いて機械学習された人工知能を有し、
    前記人工知能は、前記第1カメラによって撮影された前記画像のデータから、前記捜索対象を検出する、請求項1~5のいずれか一つに記載の捜索支援システム。
  7. 前記人工知能は、人型または人影を検出するための前記訓練画像データによって機械学習されており、前記第1カメラによって撮影された前記画像のデータから、前記人型または人影を検出する、請求項6に記載の捜索支援システム。
  8. 前記捜索対象は、人である、請求項1~7のいずれか一つに記載の捜索支援システム。
  9. ドローンと、
    前記ドローンに搭載された第1カメラと、
    前記第1カメラが撮影した画像のデータから捜索対象を検出するとともに、検出した前記捜索対象の位置のデータを出力する情報処理装置と、
    表示部を有し、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
    を有する、捜索支援システムにおいて、前記情報処理装置であるコンピューターに、前記画像のデータから前記捜索対象を検出させて、前記捜索対象の位置を特定させるための捜索支援プログラムであって、
    前記ドローンから、前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得する段階(1a)と、
    あらかじめ複数の訓練画像データを用いて機械学習された人工知能を用いて、前記画像のデータから前記捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定する段階(1b)と、
    特定した前記捜索対象の位置を位置データとして前記端末装置へ出力する段階(1c)と、
    を有する、捜索支援プログラム。
  10. ドローンと、
    前記ドローンに搭載された第1カメラと、
    前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
    表示部、第2カメラ、前記第2カメラの移動に伴う加速度を計測する加速度センサー、および前記第2カメラが向いている方位を計測する方位センサーを有する端末装置と、
    を有する捜索支援システムにおいて、前記端末装置であるコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
    前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出する段階(2a)と、
    前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
    前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する段階(2c)と、
    を有する、捜索支援プログラム。
  11. ドローンと、
    前記ドローンに搭載された第1カメラと、
    前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
    レンズ、表示部、および方位センサーを有し、前記レンズを通して実体を目視できるともに、前記表示部に表示された情報を目視できる透過型情報表示装置と、を有する捜索支援システムにおいて、前記透過型情報表示装置を制御するコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
    前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出する段階(2a)と、
    前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
    前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する段階(2c)と、
    を有する、捜索支援プログラム。
JP2021003989A 2021-01-14 2021-01-14 捜索支援システムおよび救助支援プログラム Active JP7040827B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021003989A JP7040827B1 (ja) 2021-01-14 2021-01-14 捜索支援システムおよび救助支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021003989A JP7040827B1 (ja) 2021-01-14 2021-01-14 捜索支援システムおよび救助支援プログラム

Publications (2)

Publication Number Publication Date
JP7040827B1 JP7040827B1 (ja) 2022-03-23
JP2022108823A true JP2022108823A (ja) 2022-07-27

Family

ID=81214307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021003989A Active JP7040827B1 (ja) 2021-01-14 2021-01-14 捜索支援システムおよび救助支援プログラム

Country Status (1)

Country Link
JP (1) JP7040827B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115518316B (zh) * 2022-09-20 2024-02-20 珠海安擎科技有限公司 一种基于无人机、云平台与ar眼镜互联的智慧消防系统
CN117405563B (zh) * 2023-12-14 2024-03-19 河北师范大学 一种燃料燃烧温室效应污染物监测方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116023A (ja) * 1996-10-11 1998-05-06 Kawasaki Heavy Ind Ltd 災害対策評価装置
JP2004297131A (ja) * 2003-03-25 2004-10-21 Hitachi Ltd 安否確認システムとそのための装置
JP2010520559A (ja) * 2007-03-08 2010-06-10 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド 閉ざされた構造内の人員およびセンサの位置を示し、状況認識の増進を提供する、拡張現実ベース型システムおよび方法
JP2012203550A (ja) * 2011-03-24 2012-10-22 Nec Corp 情報処理装置、プログラムならびに方法
JP2016195323A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP2019185689A (ja) * 2018-04-17 2019-10-24 株式会社ロックガレッジ 検出対象位置特定システム
JP2020037353A (ja) * 2018-09-05 2020-03-12 潤一 石原 捜索システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116023A (ja) * 1996-10-11 1998-05-06 Kawasaki Heavy Ind Ltd 災害対策評価装置
JP2004297131A (ja) * 2003-03-25 2004-10-21 Hitachi Ltd 安否確認システムとそのための装置
JP2010520559A (ja) * 2007-03-08 2010-06-10 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド 閉ざされた構造内の人員およびセンサの位置を示し、状況認識の増進を提供する、拡張現実ベース型システムおよび方法
JP2012203550A (ja) * 2011-03-24 2012-10-22 Nec Corp 情報処理装置、プログラムならびに方法
JP2016195323A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP2019185689A (ja) * 2018-04-17 2019-10-24 株式会社ロックガレッジ 検出対象位置特定システム
JP2020037353A (ja) * 2018-09-05 2020-03-12 潤一 石原 捜索システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
宮里 太也 TAKAYA MIYAZATO: "多目的自律型ドローンのための俯瞰視点人物検知システムに関する研究 A Study on Overviewing Human Detec", 電気学会研究会資料 THE PAPERS OF TECHNICAL MEETING ON "INNOVATIVE INDUSTRIAL SYSTEM",IEE JAPAN, JPN6021027014, JP, ISSN: 0004550978 *
小枝 正直 MASANAO KOEDA: "拡張現実感による支援機能を有する搭乗型救助ビークル Mountable Rescue Vehicle with AR-based Assistanc", 第23回日本ロボット学会学術講演会予稿集CD−ROM 2005年 PROCEEDINGS OF THE 23RD ANNUAL CON, JPN6021027017, ISSN: 0004550980 *
細川 直史 MASAFUMI HOSOKAWA: "拡張現実感技術の最前線:第11回 Technology Frontier of Augmented Reality (11)", 映像情報メディア学会誌 第66巻 第11号 THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TE, vol. 第66巻, JPN6021027015, JP, ISSN: 0004550979 *

Also Published As

Publication number Publication date
JP7040827B1 (ja) 2022-03-23

Similar Documents

Publication Publication Date Title
US11794890B2 (en) Unmanned aerial vehicle inspection system
US11635775B2 (en) Systems and methods for UAV interactive instructions and control
CN109596118B (zh) 一种用于获取目标对象的空间位置信息的方法与设备
EP3971674B1 (en) Systems and methods for uav flight control
US20220221274A1 (en) Positioning systems and methods
JP6765512B2 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
WO2018209898A1 (zh) 信息处理装置、航拍路径生成方法、航拍路径生成系统、程序以及记录介质
JP7153306B2 (ja) 検出対象位置特定システム
JP7040827B1 (ja) 捜索支援システムおよび救助支援プログラム
US20220398775A1 (en) Localization processing service
CN115439531A (zh) 一种获取目标对象的目标空间位置信息的方法与设备
JP2021168005A (ja) 表示制御方法、表示制御装置、プログラム、及び記録媒体
CN115439528A (zh) 一种获取目标对象的图像位置信息的方法与设备
US20210185235A1 (en) Information processing device, imaging control method, program and recording medium
JP7004374B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
JP2019114036A (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
KR20180106178A (ko) 무인 비행체, 전자 장치 및 그에 대한 제어 방법
WO2020119572A1 (zh) 形状推断装置、形状推断方法、程序以及记录介质
CN112213753A (zh) 一种北斗导航定位功能与增强现实技术相结合规划跳伞训练路径的方法
CN112154389A (zh) 终端设备及其数据处理方法、无人机及其控制方法
Cai et al. Heads-up lidar imaging with sensor fusion
Gademer et al. Solutions for near real time cartography from a mini-quadrators UAV
WO2022202429A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
WO2024084925A1 (en) Information processing apparatus, program, and information processing method
WO2022113482A1 (ja) 情報処理装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210114

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210127

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

R150 Certificate of patent or registration of utility model

Ref document number: 7040827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150