JP2022108823A - 捜索支援システムおよび救助支援プログラム - Google Patents
捜索支援システムおよび救助支援プログラム Download PDFInfo
- Publication number
- JP2022108823A JP2022108823A JP2021003989A JP2021003989A JP2022108823A JP 2022108823 A JP2022108823 A JP 2022108823A JP 2021003989 A JP2021003989 A JP 2021003989A JP 2021003989 A JP2021003989 A JP 2021003989A JP 2022108823 A JP2022108823 A JP 2022108823A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- drone
- data
- search target
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001133 acceleration Effects 0.000 claims description 44
- 238000013473 artificial intelligence Methods 0.000 claims description 37
- 230000010365 information processing Effects 0.000 claims description 32
- 230000000007 visual effect Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 15
- 238000003384 imaging method Methods 0.000 claims description 11
- 239000004984 smart glass Substances 0.000 description 46
- 238000004891 communication Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 33
- 210000004027 cell Anatomy 0.000 description 31
- 238000000034 method Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 22
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 21
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 11
- 238000010295 mobile communication Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 239000011521 glass Substances 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 239000011435 rock Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000009429 distress Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- ADTDNFFHPRZSOT-PVFUSPOPSA-N ram-330 Chemical compound C([C@H]1N(CC2)C)C3=CC=C(OC)C(OC)=C3[C@]32[C@@]1(O)CC[C@@H](OC(=O)OCC)C3 ADTDNFFHPRZSOT-PVFUSPOPSA-N 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置のデータを前記情報処理装置から取得して、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有する、捜索支援システム。
第2カメラと、
前記第2カメラの移動に伴う加速度を計測する加速度センサーと、
前記第2カメラが向いている方位を計測する方位センサーと、を有し、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出し、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する、上記(1)に記載の捜索支援システム。
前記透過型仮想現実装置は、方位センサーを有し、
前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出し、
前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する、上記(1)に記載の捜索支援システム。
前記捜索対象を検出するために、あらかじめ複数の訓練画像データを用いて機械学習された人工知能を有し、
前記人工知能は、前記第1カメラによって撮影された前記画像のデータから、前記捜索対象を検出する、上記(1)~(5)のいずれか一つに記載の捜索支援システム。
前記ドローンに搭載された第1カメラと、
前記第1カメラが撮影した画像のデータから捜索対象を検出するとともに、検出した前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有する、捜索支援システムにおいて、前記情報処理装置であるコンピューターに、前記画像のデータから前記捜索対象を検出させて、前記捜索対象の位置を特定させるための捜索支援プログラムであって、
前記ドローンから、前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得する段階(1a)と、
あらかじめ複数の訓練画像データを用いて機械学習された人工知能を用いて、前記画像のデータから前記捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定する段階(1b)と、
特定した前記捜索対象の位置を位置データとして前記端末装置へ出力する段階(1c)と、
を有する、捜索支援プログラム。
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部、第2カメラ、前記第2カメラの移動に伴う加速度を計測する加速度センサー、および前記第2カメラが向いている方位を計測する方位センサーを有する端末装置と、
を有する捜索支援システムにおいて、前記端末装置であるコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出する段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する段階(2c)と、
を有する、捜索支援プログラム。
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
レンズ、表示部、および方位センサーを有し、前記レンズを通して実体を目視できるともに、前記表示部に表示された情報を目視できる透過型情報表示装置と、を有する捜索支援システムにおいて、前記透過型情報表示装置を制御するコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出する段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する段階(2c)と、
を有する、捜索支援プログラム。
図1は、本発明の一実施形態に係る捜索支援システム1の概略構成を示す図である。
ドローン100は、無人移動体、無人航空機、および無人飛行体などとも称されている。ドローン100は、機体本体101、機体本体101から延びる4本のローターアーム102、それぞれのローターアーム102に取り付けられた4つのローター103(回転翼)、およびローター103を回転させる4つのモーター104を有する。ドローン100は、モーター104を駆動源としてローター103が回転し、ローター103の回転による揚力によって空中を飛行し、または、空中にホバリングする。モーター104は、各ローター103に個別に接続され、各モーター104によって各ローター103が回転する。なお、ローターアーム102の数は、4本に限定されず、ドローン100の構成によって4本以上の場合もある。なお、図示しないが、ドローン100は、モーター104の原動力となるバッテリーを有する。
サーバー200は、情報処理装置として機能するコンピューターである。サーバー200は、たとえば、災害現場とは異なる場所に設置されたクラウドサーバーである。また、サーバー200は、たとえば、災害が発生した現場に搬送されて、臨時に設置されてもよい。
端末装置300は、表示部が搭載または接続されたコンピューターである。端末装置300は、端末カメラ370によって撮影された画像とともに、位置情報を表示する情報表示装置である。端末装置300は、後述するように、端末カメラ370によって撮影された画像の中に、拡張現実(AR(Augmented Reality))技術、または、複合現実(MR(Mixed Reality))技術によって、様々な情報を表示する。
操縦装置800は、ドローンに100を自律飛行させる飛行ミッションの作成、ドローンへの転送を実行する。また、操縦装置800は、必要な場合に、ドローンを直接操作する。
以下、救助支援の処理手順について説明する。
図5は、救助支援におけるサーバー200の処理手順を示すフローチャートである。サーバー200は、この処理手順に沿って作成された救助支援プログラムを実行する。
図6は、救助支援における端末装置300の処理手順を示すフローチャートである。端末装置300は、この処理手順に沿って作成された救助支援プログラムを実行する。
図7は、要救助者検出時の端末装置300における画面表示例を説明するための説明図である。図7は、水害発生の現場を示している。
要救助者518の検出および位置の特定は、たとえば、特開2019-185689号公報に記載された技術を用いることができる。
P1:その方向に要救助者518が存在していた場合に窺知(検知)となる確率パラメータ(0<P1<1)、
P2:その方向に要救助者518が存在しないが、窺知(検知)となる確率パラメータ(0≦P2<P1)、
pk:確率分布のセル集合からサンプリングされたk番目の確率である。
100 ドローン、
101 機体本体、
102 ローターアーム、
103 ローター、
104 モーター、
108 ドローンカメラ、
110 飛行制御部、
120 衛星測位システム、
130 姿勢方位基準システム、
140 カメラ搭載用ジンバル、
150 通信インターフェース、
200 サーバー、
300 端末装置、
300a 携帯端末、
300b スマートグラス、
300c パソコン、
360 操作表示部、
361 投影表示部、
370 端末カメラ、
371 加速度センサー、
372 方位センサー、
401 ターゲットマーク、
402 人型アイコン、
403 距離情報、
500 災害現場、
502 視点、
503 建物、
518 要救助者、
800 操縦装置。
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置のデータを前記情報処理装置から取得して、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有し、
前記端末装置は、
第2カメラと、
前記第2カメラの移動に伴う加速度を計測する加速度センサーと、
前記第2カメラが向いている方位を計測する方位センサーと、を有し、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出し、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示し、
前記情報処理装置は、前記捜索対象を検出した場合に、前記端末装置に対して前記捜索対象の位置データを送信する、捜索支援システム。
前記捜索対象を検出するために、あらかじめ複数の訓練画像データを用いて機械学習された人工知能を有し、
前記人工知能は、前記第1カメラによって撮影された前記画像のデータから、前記捜索対象を検出する、上記(1)~(3)のいずれか一つに記載の捜索支援システム。
(6)前記人工知能は、人の姿勢を検出するための前記訓練画像データによって機械学習されており、前記第1カメラによって撮影された前記画像のデータから、前記人の姿勢を検出して、前記人の姿勢から、救助の緊急性を判断する、上記(5)に記載の捜索支援システム。
(8)前記第1カメラは、赤外線カメラである、上記(5)または(6)に記載の捜索支援システム。
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部、第2カメラ、前記第2カメラの移動に伴う加速度を計測する加速度センサー、および前記第2カメラが向いている方位を計測する方位センサーを有する端末装置と、
を有する捜索支援システムにおいて、前記捜索対象の位置情報を前記表示部に表示させる処理をコンピューターに実行させるための捜索支援プログラムであって、
前記情報処理装置であるコンピューターに、前記第1カメラによって撮影された画像のデータから前記捜索対象を検出したか否かを判断させる段階(1a)と、
前記捜索対象を検出した場合に、前記捜索対象の位置のデータを前記端末装置へ出力させる段階(1b)と、を実行させ、
前記端末装置であるコンピューターに、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出させる段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得させる段階(2b)と、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示させる段階(2c)と、を実行させるための、捜索支援プログラム。
Claims (11)
- ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置のデータを前記情報処理装置から取得して、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有する、捜索支援システム。 - 前記端末装置は、
第2カメラと、
前記第2カメラの移動に伴う加速度を計測する加速度センサーと、
前記第2カメラが向いている方位を計測する方位センサーと、を有し、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出し、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する、請求項1に記載の捜索支援システム。 - 前記端末装置は、スマートフォン、タブレットコンピューター、ウェアラブルコンピューター、ノート型コンピューター、デスクトップ型コンピューターよりなる群から選択された少なくともいずれか一つである、請求項1または2に記載の捜索支援システム。
- 前記端末装置は、前記表示部に、前記第2カメラによって撮影された画像とともに、情報を表示する情報表示装置である、請求項2または3に記載の捜索支援システム。
- 前記端末装置は、レンズを有し、前記レンズを通して実体を目視できるともに、前記表示部に表示された情報を目視できる透過型情報表示装置であり、
前記透過型仮想現実装置は、方位センサーを有し、
前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出し、
前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する、請求項1に記載の捜索支援システム。 - 前記情報処理装置は、
前記捜索対象を検出するために、あらかじめ複数の訓練画像データを用いて機械学習された人工知能を有し、
前記人工知能は、前記第1カメラによって撮影された前記画像のデータから、前記捜索対象を検出する、請求項1~5のいずれか一つに記載の捜索支援システム。 - 前記人工知能は、人型または人影を検出するための前記訓練画像データによって機械学習されており、前記第1カメラによって撮影された前記画像のデータから、前記人型または人影を検出する、請求項6に記載の捜索支援システム。
- 前記捜索対象は、人である、請求項1~7のいずれか一つに記載の捜索支援システム。
- ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラが撮影した画像のデータから捜索対象を検出するとともに、検出した前記捜索対象の位置のデータを出力する情報処理装置と、
表示部を有し、前記捜索対象の位置情報を前記表示部に表示する端末装置と、
を有する、捜索支援システムにおいて、前記情報処理装置であるコンピューターに、前記画像のデータから前記捜索対象を検出させて、前記捜索対象の位置を特定させるための捜索支援プログラムであって、
前記ドローンから、前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得する段階(1a)と、
あらかじめ複数の訓練画像データを用いて機械学習された人工知能を用いて、前記画像のデータから前記捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定する段階(1b)と、
特定した前記捜索対象の位置を位置データとして前記端末装置へ出力する段階(1c)と、
を有する、捜索支援プログラム。 - ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
表示部、第2カメラ、前記第2カメラの移動に伴う加速度を計測する加速度センサー、および前記第2カメラが向いている方位を計測する方位センサーを有する端末装置と、
を有する捜索支援システムにおいて、前記端末装置であるコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
前記加速度センサーが計測した加速度および前記方位センサーが計測した方位から前記第2カメラの撮影方向を算出する段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
前記撮影方向および前記第2カメラの画角から、前記第2カメラの撮影範囲を特定して、前記第2カメラの撮影範囲と前記捜索対象の位置データとを比較して、前記第2カメラの撮影範囲内に前記捜索対象が存在する場合に、前記第2カメラによって撮影された画像の中に、前記捜索対象の位置情報を重ねて、前記表示部に表示する段階(2c)と、
を有する、捜索支援プログラム。 - ドローンと、
前記ドローンに搭載された第1カメラと、
前記第1カメラによって撮影された画像、前記ドローンの位置、および前記第1カメラの姿勢のデータを取得して、前記画像のデータから捜索対象を検出するとともに、前記ドローンの位置および前記第1カメラの姿勢のデータから、検出した前記捜索対象の位置を特定し、前記捜索対象の位置のデータを出力する情報処理装置と、
レンズ、表示部、および方位センサーを有し、前記レンズを通して実体を目視できるともに、前記表示部に表示された情報を目視できる透過型情報表示装置と、を有する捜索支援システムにおいて、前記透過型情報表示装置を制御するコンピューターに、前記捜索対象の位置情報を前記表示部に表示させるための捜索支援プログラムであって、
前記方位センサーが計測した方位から前記レンズを通して視認可能な視野範囲を算出する段階(2a)と、
前記情報処理装置から前記捜索対象の位置データを取得する段階(2b)と、
前記捜索対象の位置データと前記視野範囲とを比較して、前記視野範囲内に、前記捜索対象が存在する場合に、前記捜索対象の位置情報を、前記表示部に表示する段階(2c)と、
を有する、捜索支援プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021003989A JP7040827B1 (ja) | 2021-01-14 | 2021-01-14 | 捜索支援システムおよび救助支援プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021003989A JP7040827B1 (ja) | 2021-01-14 | 2021-01-14 | 捜索支援システムおよび救助支援プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7040827B1 JP7040827B1 (ja) | 2022-03-23 |
JP2022108823A true JP2022108823A (ja) | 2022-07-27 |
Family
ID=81214307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021003989A Active JP7040827B1 (ja) | 2021-01-14 | 2021-01-14 | 捜索支援システムおよび救助支援プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7040827B1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115518316B (zh) * | 2022-09-20 | 2024-02-20 | 珠海安擎科技有限公司 | 一种基于无人机、云平台与ar眼镜互联的智慧消防系统 |
CN117405563B (zh) * | 2023-12-14 | 2024-03-19 | 河北师范大学 | 一种燃料燃烧温室效应污染物监测方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10116023A (ja) * | 1996-10-11 | 1998-05-06 | Kawasaki Heavy Ind Ltd | 災害対策評価装置 |
JP2004297131A (ja) * | 2003-03-25 | 2004-10-21 | Hitachi Ltd | 安否確認システムとそのための装置 |
JP2010520559A (ja) * | 2007-03-08 | 2010-06-10 | アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド | 閉ざされた構造内の人員およびセンサの位置を示し、状況認識の増進を提供する、拡張現実ベース型システムおよび方法 |
JP2012203550A (ja) * | 2011-03-24 | 2012-10-22 | Nec Corp | 情報処理装置、プログラムならびに方法 |
JP2016195323A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019185689A (ja) * | 2018-04-17 | 2019-10-24 | 株式会社ロックガレッジ | 検出対象位置特定システム |
JP2020037353A (ja) * | 2018-09-05 | 2020-03-12 | 潤一 石原 | 捜索システム |
-
2021
- 2021-01-14 JP JP2021003989A patent/JP7040827B1/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10116023A (ja) * | 1996-10-11 | 1998-05-06 | Kawasaki Heavy Ind Ltd | 災害対策評価装置 |
JP2004297131A (ja) * | 2003-03-25 | 2004-10-21 | Hitachi Ltd | 安否確認システムとそのための装置 |
JP2010520559A (ja) * | 2007-03-08 | 2010-06-10 | アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド | 閉ざされた構造内の人員およびセンサの位置を示し、状況認識の増進を提供する、拡張現実ベース型システムおよび方法 |
JP2012203550A (ja) * | 2011-03-24 | 2012-10-22 | Nec Corp | 情報処理装置、プログラムならびに方法 |
JP2016195323A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019185689A (ja) * | 2018-04-17 | 2019-10-24 | 株式会社ロックガレッジ | 検出対象位置特定システム |
JP2020037353A (ja) * | 2018-09-05 | 2020-03-12 | 潤一 石原 | 捜索システム |
Non-Patent Citations (3)
Title |
---|
宮里 太也 TAKAYA MIYAZATO: "多目的自律型ドローンのための俯瞰視点人物検知システムに関する研究 A Study on Overviewing Human Detec", 電気学会研究会資料 THE PAPERS OF TECHNICAL MEETING ON "INNOVATIVE INDUSTRIAL SYSTEM",IEE JAPAN, JPN6021027014, JP, ISSN: 0004550978 * |
小枝 正直 MASANAO KOEDA: "拡張現実感による支援機能を有する搭乗型救助ビークル Mountable Rescue Vehicle with AR-based Assistanc", 第23回日本ロボット学会学術講演会予稿集CD−ROM 2005年 PROCEEDINGS OF THE 23RD ANNUAL CON, JPN6021027017, ISSN: 0004550980 * |
細川 直史 MASAFUMI HOSOKAWA: "拡張現実感技術の最前線:第11回 Technology Frontier of Augmented Reality (11)", 映像情報メディア学会誌 第66巻 第11号 THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TE, vol. 第66巻, JPN6021027015, JP, ISSN: 0004550979 * |
Also Published As
Publication number | Publication date |
---|---|
JP7040827B1 (ja) | 2022-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11794890B2 (en) | Unmanned aerial vehicle inspection system | |
US11635775B2 (en) | Systems and methods for UAV interactive instructions and control | |
CN109596118B (zh) | 一种用于获取目标对象的空间位置信息的方法与设备 | |
EP3971674B1 (en) | Systems and methods for uav flight control | |
US20220221274A1 (en) | Positioning systems and methods | |
JP6765512B2 (ja) | 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体 | |
WO2018209898A1 (zh) | 信息处理装置、航拍路径生成方法、航拍路径生成系统、程序以及记录介质 | |
JP7153306B2 (ja) | 検出対象位置特定システム | |
JP7040827B1 (ja) | 捜索支援システムおよび救助支援プログラム | |
US20220398775A1 (en) | Localization processing service | |
CN115439531A (zh) | 一种获取目标对象的目标空间位置信息的方法与设备 | |
JP2021168005A (ja) | 表示制御方法、表示制御装置、プログラム、及び記録媒体 | |
CN115439528A (zh) | 一种获取目标对象的图像位置信息的方法与设备 | |
US20210185235A1 (en) | Information processing device, imaging control method, program and recording medium | |
JP7004374B1 (ja) | 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム | |
JP2019114036A (ja) | 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体 | |
KR20180106178A (ko) | 무인 비행체, 전자 장치 및 그에 대한 제어 방법 | |
WO2020119572A1 (zh) | 形状推断装置、形状推断方法、程序以及记录介质 | |
CN112213753A (zh) | 一种北斗导航定位功能与增强现实技术相结合规划跳伞训练路径的方法 | |
CN112154389A (zh) | 终端设备及其数据处理方法、无人机及其控制方法 | |
Cai et al. | Heads-up lidar imaging with sensor fusion | |
Gademer et al. | Solutions for near real time cartography from a mini-quadrators UAV | |
WO2022202429A1 (ja) | 情報処理装置、情報処理方法、プログラム及び情報処理システム | |
WO2024084925A1 (en) | Information processing apparatus, program, and information processing method | |
WO2022113482A1 (ja) | 情報処理装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210114 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210127 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210218 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7040827 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |