JP2024016765A - 処理装置、処理プログラム及び処理方法 - Google Patents

処理装置、処理プログラム及び処理方法 Download PDF

Info

Publication number
JP2024016765A
JP2024016765A JP2022119118A JP2022119118A JP2024016765A JP 2024016765 A JP2024016765 A JP 2024016765A JP 2022119118 A JP2022119118 A JP 2022119118A JP 2022119118 A JP2022119118 A JP 2022119118A JP 2024016765 A JP2024016765 A JP 2024016765A
Authority
JP
Japan
Prior art keywords
information
video
time
flying object
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022119118A
Other languages
English (en)
Inventor
直哉 船坂
Naoya Funasaka
理司 大賀
Satoshi Oga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NAVICOM AVIATION CORP
Original Assignee
NAVICOM AVIATION CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NAVICOM AVIATION CORP filed Critical NAVICOM AVIATION CORP
Priority to JP2022119118A priority Critical patent/JP2024016765A/ja
Publication of JP2024016765A publication Critical patent/JP2024016765A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】飛翔体に備えられたカメラで撮影された動画をより利用しやすいものとする。【解決手段】少なくとも一つのプロセッサを具備する処理装置であって、前記少なくとも一つのプロセッサは、カメラを備え上空を飛翔する飛翔体から、前記カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、前記第1時間において前記飛翔体が飛翔した位置を示す位置情報と、前記カメラによって前記第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信し、前記静止画と前記動画に含まれる各フレーム画像とを比較し、前記比較の結果に基づいて、前記静止画が撮影された前記第1時間と前記飛翔体が飛翔した位置情報とを前記動画情報に対応付ける。【選択図】 図5

Description

本開示は、飛翔体に備えられたカメラによって撮影された動画を処理するための処理層、処理プログラム及び処理方法に関する。
従来より、カメラが供えられた飛翔体を用いて撮影された動画を処理するためのシステムが知られていた。例えば、特許文献1には、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成システムであって、それぞれ異なるアングルで被写体の動画を撮影する前記複数の撮影装置と、それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成する動画作成装置と、を有することを特徴とする動画作成システム、が記載されている。
特開2021-153218号公報
本開示は、上述した背景からなされたものであり、飛翔体に備えられたカメラで撮影された動画をより利用しやすいものとすることが可能な処理装置、処理プログラム及び処理方法を提供する。
本開示の一態様によれば、「少なくとも一つのプロセッサを具備する処理装置であって、前記少なくとも一つのプロセッサは、カメラを備え上空を飛翔する飛翔体から、前記カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、前記第1時間において前記飛翔体が飛翔した位置を示す位置情報と、前記カメラによって前記第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信し、前記静止画と前記動画に含まれる各フレーム画像とを比較し、前記比較の結果に基づいて、前記静止画が撮影された前記第1時間と前記飛翔体が飛翔した位置情報とを前記動画情報に対応付ける、ための処理を実行するように構成された処理装置」が提供される。
本開示の一態様によれば、「少なくとも一つのプロセッサを具備するコンピュータにおいて前記少なくとも一つのプロセッサを、カメラを備え上空を飛翔する飛翔体から、前記カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、前記第1時間において前記飛翔体が飛翔した位置を示す位置情報と、前記カメラによって前記第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信し、前記静止画と前記動画に含まれる各フレーム画像とを比較し、前記比較の結果に基づいて、前記静止画が撮影された前記第1時間と前記飛翔体が飛翔した位置情報とを前記動画情報に対応付ける、ように機能させる処理プログラム」が提供される。
本開示の一態様によれば、「少なくとも一つのプロセッサを具備するコンピュータにおいて前記少なくとも一つのプロセッサにより実行される処理方法であって、カメラを備え上空を飛翔する飛翔体から、前記カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、前記第1時間において前記飛翔体が飛翔した位置を示す位置情報と、前記カメラによって前記第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信する段階と、前記静止画と前記動画に含まれる各フレーム画像とを比較する段階と、前記比較の結果に基づいて、前記静止画が撮影された前記第1時間と前記飛翔体が飛翔した位置情報とを前記動画情報に対応付ける段階と、を含む処理方法」が提供される。
本開示によれば、飛翔体に備えられたカメラで撮影された動画をより利用しやすいものとすることが可能な処理装置、処理プログラム及び処理方法を提供することができる。
なお、上記効果は説明の便宜のための例示的なものにすぎず、限定的なものではない。上記効果に加えて、又は上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。
図1は、本開示の実施形態に係る飛翔体の飛翔ルートの例を概略的に示す図である。 図2は、本開示の実施形態に係る処理システム1の構成を概略的に示す概念図である。 図3は、本開示の実施形態に係る処理装置100の構成の例を示すブロック図である。 図4は、本開示の実施形態に係る飛翔体端末装置200の構成の例を示すブロック図である。 図5は、本開示の実施形態に係る動画情報、静止画情報、位置情報及び時間情報の関係を概略的に示す図である。 図6Aは、本開示の実施形態に係る処理装置100に記憶される動画情報テーブルを概念的に示す図である。 図6Bは、本開示の実施形態に係る処理装置100に記憶される静止画情報テーブルを概念的に示す図である。 図6Cは、本開示の実施形態に係る処理装置100に記憶される分割動画情報テーブルを概念的に示す図である。 図7は、本開示の実施形態に係る処理装置100において実行される処理フローを示す図である。 図8は、本開示の実施形態に係る動画情報に対する位置情報及び時間情報の対応付け処理を概略的に示す図である。 図9は、本開示の実施形態に係る処理装置100において実行される処理フローを示す図である。 図10は、配信要求と分割動画との関係を概略的に示す図である。
添付図面を参照して本開示の実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。
1.本開示に係る処理システム1の概要
本開示に係る処理システム1は、一例としては、上空を飛翔する飛翔体のカメラによって撮影された動画を配信するときに、当該動画に対して位置情報及び時間情報の少なくともいずれか一つを対応付けるために用いられる。例えば、ストリーミング配信される動画を構成する各フレームには通常位置情報や、撮影された時間の情報が対応付けられていない。そのため、ユーザが位置や時間を指定して所望の期間の動画のみを取得するのが困難である。そこで、上記のとおり、動画に対して位置情報及び時間情報の少なくともいずれか一つを対応付けることによって、所望の位置又は時間を指定して、指定された位置又は時間に関連する期間の動画のみを取得することが可能となる。
ここで、図1は、本開示の実施形態に係る飛翔体の飛翔ルートの例を概略的に示す図である。図1によれば、ある飛翔体が、地点1~地点5を通過する飛翔ルート50上を飛翔したことが示されている。すなわち、当該飛翔体は、第1時間において地点1から離陸し、第2時間において地点2を、第3時間において地点3を、第4時間において地点4を、第5時間において地点5を通過している。
なお、図1においては、地点1を離陸した時間を第1時間と称しているが、本開示において第1時間は離陸した時間のみならず、飛翔体が飛翔した期間における任意の時間のことを意味する。同様に、第2時間~第5時間も、飛翔体が飛翔した期間における任意の時間のことを意味する。また、離陸した地点を地点1と称しているが、本開示において地点1は離陸した地点のみにならず、飛翔体が飛翔した飛翔ルート上の任意の地点のことを意味する。同様に、地点2~地点5も、飛翔体が飛翔した飛翔ルート上の任意の地点のことを意味する。さらに、図1においては、地点1~地点5及び第1時間~第5時間のみが記載されているが、本開示においては1又は複数の地点及び時間が特定できればよく、その数はいずれでもよい。
また、本開示において、「飛翔体」は、少なくとも地上から一定の距離だけ浮上して上空を飛翔することが可能な物体であればいずれでもよく、有人又は無人を問わない。このような飛翔体の例としては、飛行機やグライダーなどの重航空機、気球や飛行船などの軽航空機、ヘリコプターやオートジャイロなどの回転翼機、ドローンなどの無人航空機、静止衛星や軌道衛星などの衛星、ロケット、バルーン等が挙げられる。
2.処理システム1の構成
図2は、本開示の実施形態に係る処理システム1の構成を概略的に示す概念図である。図2によると、処理装置100が設置された地上局10と、カメラを備え上空を飛翔する飛翔体20と、地上局10及び飛翔体20との間の通信を中継する一又は複数の衛星30とを含む。そして、地上局10と衛星30は無線通信ネットワーク40-1で、飛翔体20と衛星30は無線通信ネットワーク40-2で通信可能に接続されている。
無線通信ネットワーク40-1及び無線通信ネットワーク40-2は、それぞれ少なくとも一部に無線通信が用いられていればよく、有線通信と組み合わされた通信ネットワークであってもよい。このような無線通信ネットワーク40-2の一例としては、衛星通信、セルラー通信、近距離無線通信など種々の無線通信を利用したネットワークが利用できるが、好適には衛星通信を利用したネットワークが、特に好適には周回衛星であるイリジウム衛星通信を利用したネットワークが利用される。セルラー通信では基地局等の地上におけるインフラ設備が必須でありその通信範囲も制限されている。しかし、イリジウム衛星通信を利用することによって、セルラー通信ができないエリアでも飛翔体20からの情報を受信することが可能であり、とりわけ災害時や緊急時にも有効に利用することができる。さらに、静止衛星を利用した衛星電話の場合、衛星の方向が決められているため、飛翔体20のアンテナの向きによっては通信が制限されたり、アンテナの向きを追尾させ、アンテナからの出力も上げる必要がある。しかし、66個の周回衛星を利用したイリジウム衛星通信の場合、アンテナの向きの追尾等の必要がなく、より簡単な構成で搭載することが可能である。他方、イリジウム衛星通信などの衛星通信は、他の無線通信(例えば、セルラー通信)と比べ一度に送信できる情報の量や速度が制限される。そのため、動画などの情報量の多い情報を送信する場合には、位置情報や時間情報などを効率的に取得し対応付ける必要がある。
なお、図2においては、地上局10、飛翔体20及び衛星30はそれぞれ1体のみ記載されているが、当然複数の地上局10、複数の飛翔体20、及び複数の衛星30を適宜組み合わせてもよい。
3.処理装置100の構成
図3は、本開示の実施形態に係る処理装置100の構成の例を示すブロック図である。処理装置100は、図3に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能であるし、他の構成要素を加えることも可能である。また、一部の構成要素を他の処理装置やクラウドサーバ装置に分散して備えることも可能である。また、図3においては、処理装置100が地上局10に設置される場合について説明しているが、処理装置100はクラウドサーバ装置として地上局10以外の場所に設置されていてもよい。
処理装置100は、典型的には、ラップトップパソコンやデスクトップパソコンに代表される無線通信可能な処理装置が挙げられるが、当然これらのみには限られない。例えば、処理装置100としては、携帯情報端末、PDA、スマートフォン、タブレット端末など、本開示に係るプログラムを実行可能な装置であれば、いずれでも好適に適用することが可能である。
図3によると、処理装置100は、出力インターフェイス111、プロセッサ112、RAM、ROM、又は不揮発性メモリ(場合によっては、HDD)等を含むメモリ113、通信処理回路及びアンテナを含む通信インターフェイス114、タッチセンサ及びハードキーを含む入力インターフェイス116を含む。そして、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。
出力インターフェイス111は、プロセッサ112の指示に応じて本開示に係るプログラムを実行することによって出力される各種表示を、ディスプレイやプリンタ等の機器に出力する出力部として機能する。なお、このようなディスプレイは、例えば液晶ディスプレイ、有機ELディスプレイ又は電子ペーパー等から構成される。
プロセッサ112は、CPU(マイクロコンピュータ:マイコン)から構成され、メモリ113に記憶された各種プログラムに基づいて、接続された他の構成要素を制御する制御部として機能する。具体的には、プロセッサ112は、本開示に係るアプリケーションを実行するためのプログラムやOSを実行するためのプログラムをメモリ113から読み出して実行する。特に、本開示においては、プロセッサ112は、「カメラを備え上空を飛翔する飛翔体20から、カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、第1時間において飛翔体20が飛翔した位置を示す位置情報と、カメラによって第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信する処理」、「静止画と動画に含まれる各フレーム画像とを比較する処理」、「比較の結果に基づいて、静止画が撮影された第1時間と飛翔体20が飛翔した位置情報とを前記動画情報に対応付ける処理」、「ユーザから指定された位置を示す指定位置情報を受信すると、複数の位置情報のうち最も近い位置の位置情報を特定する処理」、「特定された最も近い位置の位置情報に対応付けられた分割動画情報を選択する処理」等を実行する。なお、プロセッサ112は、単一のCPUで構成されても良いが、複数のCPUやGPUを組み合わせて構成しても良い。
メモリ113は、ROM、RAM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。ROMは、本開示に係るアプリケーションやOSを実行するための指示命令をプログラムとして記憶する。RAMは、ROMに記憶されたプログラムがプロセッサ112により処理されている間、データの書き込み及び読み込みをするために用いられる。不揮発性メモリは、当該プログラムの実行によってデータの書き込み及び読み込みが実行されるメモリであって、ここに書き込まれたデータは、当該プログラムの実行が終了した後でも保存される。特に、本開示においては、メモリ113は、「カメラを備え上空を飛翔する飛翔体20から、カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、第1時間において飛翔体20が飛翔した位置を示す位置情報と、カメラによって第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信する処理」、「静止画と動画に含まれる各フレーム画像とを比較する処理」、「比較の結果に基づいて、静止画が撮影された第1時間と飛翔体20が飛翔した位置情報とを動画情報に対応付ける処理」、「ユーザから指定された位置を示す指定位置情報を受信すると、複数の位置情報のうち最も近い位置の位置情報を特定する処理」、「特定された最も近い位置の位置情報に対応付けられた分割動画情報を選択する処理」等を実行するためのプログラムを記憶する。
通信インターフェイス114は、通信処理回路及びアンテナを介して、飛翔体に設置された飛翔体端末装置200や他の処理装置との間で情報の送受信をする通信部として機能する。通信処理回路は、処理システム1において用いられるプログラムや各種情報等を処理の進行に応じて、飛翔体端末装置200や他の処理装置に情報を送受信するための処理をする。特に、本開示においては、飛翔体20から動画情報、静止画情報、時間情報、位置情報等が、ユーザのユーザ端末装置(図示しない)から指定位置情報が通信インターフェイス114を介して受信され、ユーザのユーザ端末装置(図示しない)に分割動画情報等が通信インターフェイス114を介して送信される。
通信処理回路は、上記のとおり、イリジウム無線通信方式に基づいて処理されるが、当然LTE方式に代表されるような広帯域の無線通信方式、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式や非接触無線通信に関する方式に基づいて処理することも可能である。また、無線通信に加えて有線通信を用いることも可能である。
入力インターフェイス116は、タッチパネルやハードキー等から構成され、本開示に係るプログラムの実行に係る指示入力や、様々な情報を登録するための操作入力等を受け付ける入力部として機能する。タッチパネルは、出力インターフェイス111を被覆するように配置され、出力インターフェイス111からディスプレイに出力される画像データに対応する位置座標の情報を、プロセッサ112に送信する。タッチパネル方式としては、抵抗膜方式、静電容量結合方式、超音波表面弾性波方式など、公知の方式を利用することができる。本開示においては、タッチパネルは、指示体により出力インターフェイス111に表示された各アイコン等に対するスワイプ操作やタップ操作を検出する。なお、本開示では処理装置100に備えられる入力インターフェイス116を用いたが、例えばマウスのような、プロセッサ112等を備える本体に無線又は有線で接続された入力インターフェイス116を用いることも可能である。
4.飛翔体端末装置200の構成
図4は、本開示の実施形態に係る飛翔体端末装置200の構成の例を示すブロック図である。飛翔体端末装置200は、図4に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能であるし、他の構成要素を加えることも可能である。また、飛翔体端末装置200は単一の筐体に図4に図示する全ての構成要素を備える必要はなく、飛翔体20の内部に分散して配置することも可能である。
図4によると、飛翔体端末装置200は、プロセッサ212、RAM、ROM、又は不揮発性メモリ(場合によっては、HDD)等を含むメモリ213、通信処理回路及びアンテナを含む通信インターフェイス214、位置センサ215及びカメラ216を含む。そして、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。
プロセッサ212は、CPU(マイクロコンピュータ:マイコン)から構成され、メモリ213に記憶された各種プログラムに基づいて、接続された他の構成要素を制御する制御部として機能する。具体的には、プロセッサ212は、本開示に係るアプリケーションを実行するためのプログラムやOSを実行するためのプログラムをメモリ213から読み出して実行する。特に、本開示においては、プロセッサ212は、「操作者からの操作入力を入力インターフェイス(図示しない)を介して受け付けてカメラ216による動画の撮影を開始及び終了する処理」、「操作者の操作入力に基づいて又はあらかじめ決められた間隔でカメラ216による静止画の撮影をする処理」、「操作者の操作入力に基づいて又はあらかじめ決められた間隔で位置センサ215による位置情報の取得をする処理」、「操作者の操作入力に基づいて又はあらかじめ決められた間隔でタイマー(図示しない)による時間の取得をする処理」、「撮影された動画を示す動画情報、撮影された静止画を示す静止画情報、飛翔体が飛翔した位置を示す位置情報、及び飛翔体が飛翔した時間を示す時間情報をそれぞれ通信インターフェイス214を介して処理装置100に送信する処理」等を実行する。なお、プロセッサ212は、単一のCPUで構成されても良いが、複数のCPUやGPUを組み合わせて構成しても良い。
メモリ213は、ROM、RAM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。ROMは、本開示に係るアプリケーションやOSを実行するための指示命令をプログラムとして記憶する。RAMは、ROMに記憶されたプログラムがプロセッサ212により処理されている間、データの書き込み及び読み込みをするために用いられる。不揮発性メモリは、当該プログラムの実行によってデータの書き込み及び読み込みが実行されるメモリであって、ここに書き込まれたデータは、当該プログラムの実行が終了した後でも保存される。特に、本開示においては、メモリ213は、「操作者からの操作入力を入力インターフェイス(図示しない)を介して受け付けてカメラ216による動画の撮影を開始及び終了する処理」、「操作者の操作入力に基づいて又はあらかじめ決められた間隔でカメラ216による静止画の撮影をする処理」、「操作者の操作入力に基づいて又はあらかじめ決められた間隔で位置センサ215による位置情報の取得をする処理」、「操作者の操作入力に基づいて又はあらかじめ決められた間隔でタイマー(図示しない)による時間の取得をする処理」、「撮影された動画を示す動画情報、撮影された静止画を示す静止画情報、飛翔体が飛翔した位置を示す位置情報、及び飛翔体が飛翔した時間を示す時間情報をそれぞれ通信インターフェイス214を介して処理装置100に送信する処理」等を実行するためのプログラムを記憶する。
通信インターフェイス214は、通信処理回路及びアンテナを介して、処理装置100や他の処理装置、他の飛翔体との間で情報の送受信をする通信部として機能する。通信処理回路は、処理システム1において用いられるプログラムや各種情報等を処理の進行に応じて、処理装置100や他の処理装置、他の飛翔体に情報を送受信するための処理をする。特に、本開示においては、処理装置100に動画情報、静止画情報、時間情報、位置情報等が通信インターフェイス114を介して送信される。
通信処理回路は、上記のとおり、イリジウム無線通信方式に基づいて処理されるが、当然LTE方式に代表されるような広帯域の無線通信方式、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式や非接触無線通信に関する方式に基づいて処理することも可能である。
位置センサ215は、飛翔体20の位置を検出するための位置検出部として機能する。このような位置センサ215としては、典型的にはGPSが用いられる。GPSは、複数の衛星との通信によって飛翔体20の位置情報を検出する。位置情報の検出は、飛翔体20において少なくともカメラ216による動画の撮影がされている期間において、所定間隔(例えば、30秒毎)で実行される。なお、当該位置情報は、30秒毎に限らず、より長い間隔であってもよいし、より短い間隔であってもよい。
カメラ216は、被写体である地上が少なくとも含まれた動画及び静止画を撮影する撮影部として機能する。カメラ216は、一例としてCMOSイメージセンサと、所望の機能を実現するためのレンズ系と駆動系を備える。イメージセンサは、CMOSイメージセンサに限らず、CCDイメージセンサ等の他のセンサを用いることも可能である。カメラ216は、特に図示はしないが、一体のカメラで動画及び静止画を同時に撮影してもよいし、複数のカメラで動画と静止画を別々に撮影してもよい。ただし、この場合、動画を撮影するカメラ及び静止画を撮影するカメラにおいて、画角及びズーム幅を揃えることが望ましい。
5.処理装置100のメモリ113に記憶される情報
図5は、本開示の実施形態に係る動画情報、静止画情報、位置情報及び時間情報の関係を概略的に示す図である。具体的には、図5は、情報の地図に記載された飛翔ルート50上を飛翔体が飛翔したときに飛翔体20において取得される動画情報、静止画情報、時間情報及び位置情報のタイミングを示す図である。図5の上部に記載された地図によると、飛翔体20は、飛翔ルート50上を、地点1から離陸し、地点2、地点3、地点4及び地点5を通過して飛翔している。そして、図5の下部に記載されているように、飛翔体20が飛翔しているときに、飛翔体端末装置200のプロセッサ212は、カメラ216を制御して飛翔体20の外部を画角に含む動画Vの撮影を開始する。当該動画Vは、撮影の開始から終了の期間(第1期間)に、フレーム画像V1、V2、V3・・・Vnとして取り込む。すなわち、第1期間にわたってカメラ216によって撮影された動画Vは、フレーム画像V1、V2、V3・・・Vnを含むように構成される。
また、動画が撮影される第1期間において、プロセッサ212は、カメラ216を制御して、動画Vのフレーム画像が取り込まれるタイミングに同期して、静止画Sを第1期間よりも短い所定の間隔(例えば、2分毎)で撮影する。すなわち、第1期間にわたって所定の間隔で撮影された静止画Sは、静止画S1、静止画S2、静止画S3、静止画S4、静止画S5を含む。これら静止画S1~静止画S5のそれぞれは、同期して取り込まれた動画Vのフレーム画像と同じ画角や被写体を含む。また、プロセッサ212は、カメラ216による静止画Sの撮影において、タイマーを参照して静止画S1~静止画S5のそれぞれが撮影された時間の情報を取得する。そして、時間情報として各静止画S1~静止画S5のメタデータとして、各静止画S1~静止画S5に対応付けて記憶する。なお、図5では地点1~地点5に対応して5枚の静止画を取得したが、当然この間隔や枚数のみには限らない。
また、動画が撮影される第1期間において、プロセッサ212は、位置センサ215を制御して、飛翔体20の位置情報L(例えば、緯度及び経度)を第1期間よりも短い所定の間隔(例えば、30秒毎)で検出する。すなわち、第1期間にわたって所定の間隔で検出された位置情報Lは、位置情報L1~位置情報Lnを含む。また、プロセッサ212は、位置センサ215の検出において、タイマーを参照して位置情報L1~位置情報Lnのそれぞれが検出された時間の情報を取得する。そして、時間情報として各位置情報L1~位置情報Lnに対応付けて記憶する。なお、図5では30秒毎のタイミングで位置情報L1~位置情報Lnを検出するようにしたが、当然この間隔のみには限らない。
図5によれば、以上の処理によって、フレーム画像V1~Vnを含む動画Vを示す動画情報、静止画S1~静止画S5を含み時間情報がそれぞれ対応付けられた静止画Sを示す静止画情報、位置情報L1~位置情報Lnを含む時間情報がそれぞれ対応付けられた位置情報Lが取得される。取得されたこれらの情報は、好ましくはリアルタイムで、飛翔体20を特定するための飛翔体ID情報に対応付けて、通信インターフェイス214を介して衛星30に送信され、さらに衛星30から地上局の処理装置100に送信される。
図6Aは、本開示の実施形態に係る処理装置100に記憶される動画情報テーブルを概念的に示す図である。当該動画情報テーブルには、飛翔体20から送信された動画情報が処理装置100において受信され記憶される。図6Aによると、動画情報テーブルは、動画ID情報に対応付けて飛翔体ID情報及び動画データを含む。「動画ID情報」は、処理装置100が動画情報を受信すると新たに生成される情報であって、各動画情報を識別するための各動画情報に固有の情報である。「飛翔体ID情報」は、飛翔体20に対してあらかじめ付与された情報であって、各飛翔体20を識別するための各飛翔体20に固有の情報である。「動画データ」は、飛翔体20において撮影されたフレーム画像V1~フレーム画像Vnを含む動画Vのデータそのもの、又は当該データの格納先を示す情報である。
ここで、例えば飛翔体20において撮影されリアルタイムで地上局10を介して配信されるストリーミング動画のような動画においては各フレーム画像に対して位置情報やその撮影された時間を示す時間情報が対応付けることが困難である。このように、図6Aによると、飛翔体20から送信された動画情報には、位置情報や時間情報が対応付けて記憶はされていない。
図6Bは、本開示の実施形態に係る処理装置100に記憶される静止画情報テーブルを概念的に示す図である。当該静止画情報テーブルには、飛翔体20から送信された静止画情報が処理装置100において受信され記憶される。図6Bによると、静止画情報テーブルは、静止画ID情報に対応付けて飛翔体ID情報、静止画情報及び時間情報を含む。「静止画ID情報」は、処理装置100が静止画情報を受信すると新たに生成される情報であって、各静止画情報を識別するための各静止画情報に固有の情報である。「飛翔体ID情報」は、飛翔体20に対してあらかじめ付与された情報であって、各飛翔体20を識別するための各飛翔体20に固有の情報である。「静止画データ」は、飛翔体20において撮影された静止画S1~S5を含む静止画Sのデータそのもの、又は当該データの格納先を示す情報である。「時間情報」は、各静止画S1~S5がそれぞれ撮影された時間を示す情報である。
なお、特に図示はしないが、処理装置100のメモリ113には、位置情報テーブルが記憶される。位置情報テーブルには、飛翔体20から受信した位置情報L1~位置情報Lnを含む位置情報Lがその検出された時間を示す時間情報と、位置情報が検出された飛翔体20を特定する飛翔体ID情報とに対応付けて記憶されている。また、当該位置情報Lは、位置情報テーブルにおいて静止画情報とは別に記憶するようにしたが、あらかじめ飛翔体20において静止画像情報に含まれる各静止画S1~静止画S5に対応付けて、各静止画S1~静止画S5のメタ情報として記憶するようにしてもよい。
図6Cは、本開示の実施形態に係る処理装置100に記憶される分割動画情報テーブルを概念的に示す図である。当該分割動画情報テーブルには、飛翔体20において取得された動画を分割して生成された分割動画が記憶される。図6Cによると、分割動画情報テーブルは、分割動画ID情報に対応付けて、分割動画データ、位置情報及び時間情報を含む。「分割動画ID情報」は、処理装置100において新たな分割動画が生成されると新たに生成される情報であって、各分割動画を識別するための各分割動画に固有の情報である。「分割動画データ」は、処理装置100において生成された分割動画のデータそのもの、又は当該データの格納先を示す情報である。「位置情報」は、各分割動画に対応付けられた位置情報であって、当該分割動画が飛翔体20において撮影されたときの位置情報を示す情報である。「時間情報」は、各分割動画に対応付けられた時間情報であって、当該分割動画が飛翔体20において撮影されたときの時間情報を示す情報である。
6.処理装置100において実行される処理フロー
図7は、本開示の実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図7は、飛翔体20から衛星30を介して動画情報を受信して分割動画情報を生成する場合に、処理装置100において行われる処理フローを示す図である。当該処理フローは、主に、処理装置100のプロセッサ112がメモリ113に記憶された処理プログラムを読みだして実行することにより行われる。
図7によると、プロセッサ112は、通信インターフェイス114を介して、飛翔体20から動画情報を受信すると、動画ID情報を新たに生成して、受信した動画情報を当該動画ID情報に対応付けてメモリ113の動画情報テーブルに記憶する(S111)。また、プロセッサ112は、通信インターフェイス114を介して、飛翔体20から静止画情報及び時間情報を受信すると、静止画ID情報を新たに生成して、受信した静止画情報及び時間情報を当該静止画ID情報に対応付けてメモリ113の静止画情報テーブルに記憶する(S112)。さらに、プロセッサ112は、通信インターフェイス114を介して、飛翔体20から位置情報及び時間情報を受信すると、受信した位置情報及び時間情報をメモリ113の位置情報テーブルに記憶する(S113)。なお、ここでは、動画情報、静止画情報及び位置情報の順で受信し、メモリ113に記憶することとしたが、当然これのみには限らない。例えば、リアルタイミングで受信した動画をストリーミング配信するような場合には、所定の期間ごとに随時のタイミングで動画情報が受信される場合もある。また、動画情報、静止画情報及び位置情報がそれぞれ異なるタイミングで受信されたり、いずれかの情報のみが受信される場合もある。
静止画情報テーブルに記憶された静止画情報に含まれる各静止画S1~静止画S5に対して、対応付けて記憶された時間情報に基づいて、位置情報テーブルに上記静止画情報の飛翔体ID情報と同じ飛翔体ID情報に対応付けて記憶された位置情報を対応付ける処理を行う(S114)。また、プロセッサ112は、静止画情報テーブルに記憶された静止画情報に含まれる各静止画S1~静止画S5と、動画情報テーブルに記憶された動画に含まれるフレーム画像とを比較する処理を行う(S115)。
次に、プロセッサ112は、比較の結果に基づいて、静止画S1~静止画S5のいずれかと一致度が所定の閾値を超えるフレーム画像がある場合には、当該フレーム画像に各静止画に対応付けられて位置情報及び時間情報を対応付ける(S116)。そして、プロセッサ112は、一部のフレーム画像に位置情報及び時間情報が対応付けられた動画を、位置情報を検出した間隔(例えば、30秒毎)と同期させて、所定の期間(第2期間:例えば、30秒毎)ごとに分割して分割動画データを生成する(S117)。プロセッサ112は、生成された分割動画データに対して新たに分割動画ID情報を生成し、位置情報と時間情報とを対応付けて分割動画情報テーブルに記憶する。以上により、当該処理フローを終了する。
図8は、本開示の実施形態に係る動画情報に対する位置情報及び時間情報の対応付け処理を概略的に示す図である。すなわち、図8は、図7のS111~S113において受信された動画情報、静止画情報及び位置情報に基づいて、動画情報(分割動画情報)に対して位置情報及び時間情報を対応付ける処理の詳細を示す図である。
図5に示されたように、飛翔体20は地点1~地点5を通過して飛翔し、その期間(第1期間)において静止画S1~S5等が取得されているが、図8は説明の便宜のために地点1~地点3を飛翔する期間において取得された静止画S1~S3等の処理について説明する。図8によると、第1期間において、静止画情報として静止画Sに含まれる静止画S1~静止画S3が取得されている。ここで、各静止画S1~静止画S3には、図6Bに記載されたように、それぞれ撮影された時間を示す時間情報(第1時間~第3時間)が対応付けて記憶されている。他方、飛翔体20において第1期間に検出された各位置情報(位置情報L1a~L3a)には、それぞれ検出された時間を示す時間情報が対応付けて記憶されている。したがって、プロセッサ112は、まず各静止画S1~静止画S3に対応付けられた時間情報と、各位置情報に対応付けられた時間情報とを比較する。プロセッサ112は、各静止画S1~静止画S3に対して、一致するか最も近い時間情報を有する位置情報を対応付ける。例えば、静止画S1に対しては時間情報が一致する位置情報L1aが、静止画S2に対しては時間情報が一致する位置情報L2aが、静止画S3に対しては時間情報が一致する位置情報L3aがそれぞれ対応付けられる。
また、図8によると、第1期間において、動画情報として動画Vに含まれるフレーム画像V1、Vs及びVt等の複数のフレーム画像が取得されている。そこで、プロセッサ112は、静止画S1~静止画S3の各静止画に対して、動画Vに含まれる各フレーム画像を比較し、一致度が所定の閾値を超えるフレーム画像を特定する。図8では、静止画S1に対して一致度が所定の閾値を超えるフレーム画像としてフレーム画像V1が、静止画S2に対して一致度が所定の閾値を超えるフレーム画像としてフレーム画像Vsが、静止画S3に対して一致度が所定の閾値を超えるフレーム画像としてフレーム画像Vtが特定されたことが示されている。これによって、プロセッサ112は、フレーム画像V1に対して静止画S1に対応付けられた位置情報L1aと時間情報を対応付け、フレーム画像Vsに対して静止画S2に対応付けられた位置情報L2aと時間情報を対応付け、フレーム画像Vtに対して静止画S3に対応付けられた位置情報L3aと時間情報を対応付ける。
なお、各静止画と各フレーム画像との一致度は、一例としては、各静止画及び各フレーム画像の局所的な特徴量を用いた方法(Bag-of-Keypoints法)、EMD(Earth Mover’s Distance)を用いた方法、SVM(サポートベクタマシン)を用いた方法、ハミング距離を用いた方法、コサイン類似度を用いた方法などによって算出される。ただし、いずれの方法であっても好適によりすることが可能である。
次に、プロセッサ112は、静止画S1~静止画S3に対応付けられた位置情報L1a~位置情報L3aと時間情報とが、フレーム画像V1、フレーム画像Vs及びフレーム画像Vtに対応付けられると、V1とVs、VsとVtの間に存在するフレーム画像に対して位置情報L1a~位置情報L3a及び時間情報を対応付ける処理を行う。具体的には、各位置情報が間隔M(例えば30秒毎)で取得されていた場合、プロセッサ112は、静止画S1~静止画S3に対応付けられた時間情報が対応付けられたフレーム画像V1、フレーム画像Vs及びフレーム画像Vtを起点として、間隔Mごとに動画を分割する。そして、プロセッサ112は、フレーム画像V1から間隔Mが経過するまでに含まれる各フレーム画像から構成される分割動画F1-1を、分割動画F1-1の次のフレーム画像から間隔Mが経過するまでに含まれる各フレーム画像から構成される分割動画F1-2を、分割動画F1-2の次のフレーム画像から間隔Mが経過するまでに含まれる各フレーム画像から構成される分割動画F1-3をそれぞれ生成する。また、同様に、プロセッサ112は、フレーム画像Vsを起点として分割動画Fs-1、分割動画Fs-2及び分割動画Fs-3を、フレーム画像Vtを起点として分割動画Ft-1をそれぞれ生成する。
各分割動画が生成されると、プロセッサ112は、各分割動画に対して位置情報及び時間情報を対応付ける。具体的には、プロセッサ112は、位置情報L1aと時間情報とが対応付けられたフレーム画像V1が含まれる分割動画F1-1にはフレーム画像V1の位置情報L1a及び時間情報を、分割動画F1-1の次のフレーム画像が含まれる分割動画F1-2には間隔Mが経過した後の位置情報L1bと当該位置情報L1bに対応付けられた時間情報を、分割動画F1-2の次のフレーム画像が含まれる分割動画F1-3にはさらに間隔Mが経過した後の位置情報L1cと当該位置情報L1cに対応付けられた時間情報を、それぞれ対応付ける。また、同様に、プロセッサ112は、分割動画Fs-1に対して位置情報L2aと時間情報を、分割動画Fs-2に対して位置情報L2bと時間情報を、分割動画Fs-3に対して位置情報L2cと時間情報を、分割動画Ft-1に対して位置情報L3aと時間情報を、それぞれ対応付ける。そして、プロセッサ112は、位置情報と時間情報とがそれぞれ対応付けられた各分割動画を分割動画ID情報に対応付けて、分割動画情報テーブルに記憶する。
このように生成された分割動画は、第1期間において撮影された動画Vを、位置情報を取得した間隔Mごとに分割することによって生成される。つまり、分割動画は、間隔Mに相当する期間である第2期間の長さを有する動画である。なお、動画Vが分割され得る間隔である間隔Mは、位置情報が検出された間隔Mに同期するように設定した。しかし、これに限らず複数の位置情報をまとめた間隔で設定してもよい。
以上により、例えば図6Cの分割動画情報テーブルに示されているように、位置情報と時間情報とが対応付けられていなかった動画から、位置情報と時間情報とが対応付けられた分割動画が取得される。
図9は、本開示の実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図9は、生成された分割動画をユーザに対して配信する場合に処理装置100において行われる処理フローを示す図である。主に、処理装置100のプロセッサ112がメモリ113に記憶された処理プログラムを読みだして実行することにより行われる。
なお、特に図示していないが、ユーザは自身が所持するユーザ端末装置を用いて、処理装置100に対して分割動画の配信要求をすることが可能である。分割動画は、例えば飛翔体20のカメラ216で撮影された飛翔体20からの画像であるため、例えば災害時や緊急時に地上の状況を確認するために用いられたり、上空を飛翔する様子のシミュレーションに用いられたり、他の用途のために地上のリアルタイムの状況を把握するために用いられる。
処理装置100は、通信インターフェイス114を介して、ユーザ端末装置と通信可能に接続されている。したがって、図9によると、処理装置100のプロセッサ112は、ユーザ端末装置におけるユーザの操作入力に基づいて、ユーザ端末装置から動画の配信要求を受信する(S211)。当該配信要求には、例えば、ユーザが所望する任意の地点の位置情報が含まれる。
プロセッサ112は、動画の配信要求を受信すると、当該配信要求に基づいて配信すべき分割動画を特定する(S212)。ここで、図10は、配信要求と分割動画との関係を概略的に示す図である。具体的には、図10は、配信要求に含まれるユーザが所望する任意の地点の位置情報から、配信すべき分割動画を特定する仕組みを示す図を示す。図10によると、ユーザ端末装置から受信した配信要求には、ユーザが所望する任意の地点として地点Pの位置情報が含まれている。この場合、プロセッサ112は、分割動画情報テーブルにおいて各分割動画ID情報に対応付けられた位置情報を参照する。そして、プロセッサ112は、分割動画情報テーブルの位置情報の中から地点Pの位置情報に最も近接する位置情報を有る分割動画ID情報を特定する。図10では、最も近接する位置情報として、地点3の位置情報L3aが対応付けられた分割動画Ft-1(図8参照)が特定された例を示す。
次に、プロセッサ112は、このようにして特定された分割動画をメモリ113から読みだして通信インターフェイス114を介してユーザ端末装置に送信する。これにより、ユーザ端末装置から要求された所望の区間の分割動画を提供することが可能になる。以上により、当該処理フローは終了する。
以上、本開示に係る実施形態においては、飛翔体20に備えられたカメラ216で撮影された動画をより利用しやすいものとすることが可能な処理装置、処理プログラム及び処理方法を提供することが可能となる。特に、飛翔体20で撮影された動画に対して、静止画や位置情報に基づいて、位置情報や時間情報を対応付けることが可能である。これによって、ユーザに対して所望の区間のみを特定した分割動画の提供が可能となる。
7.変形例
上記においては、単一の飛翔体20から取得された動画を配信する場合について説明した。しかし、例えば、動画情報テーブルや静止画情報テーブルにおいて飛翔体ID情報に対応付けて各情報を記憶していることからも明らかなとおり、単一の飛翔体20のみではなく、複数の飛翔体20で取得された動画を一括して管理し、分割動画を生成して配信するようにしてもよい。また、飛翔体20の飛翔ルートとして飛翔ルート50のみを示したが、当然、他の飛翔ルートを飛翔した場合に撮影された動画等を配信するようにしてもよい。
動画や静止画について、特にそのデータの種別については言及していない。しかし、動画は一定の期間において連続して取得されたデータであればいずれでもよく、同様に静止画はある時間において取得されたデータであればいずれでもよい。また、その取得の方法も、上記においてはカメラ216を用いているが他のセンサを用いることも当然可能である。このようなセンサの例としては赤外線センサや点群センサなど様々なセンサを用いることが可能である。また、動画や静止画の例としても、赤外線画像や点群画像など様々な画像を用いることが可能である。
上記においては、衛星30を介して衛星通信(特に好ましくはイリジウム衛星通信)を介して飛翔体20と地上局10との情報を送受信をする場合について説明した。しかし、これに限らずセルラー通信など他の無線通信を使用してもよい。
本明細書で説明される処理及び手順は、本開示において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、端末装置やサーバ装置を含む各種のコンピュータに実行させることが可能である。
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリや記憶部に格納される旨が説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェア及びハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
10 地上局
20 飛翔体
30 衛星
100 処理装置
200 飛翔体端末装置
40-1 無線通信ネットワーク
40-2 無線通信ネットワーク

Claims (9)

  1. 少なくとも一つのプロセッサを具備する処理装置であって、
    前記少なくとも一つのプロセッサは、
    カメラを備え上空を飛翔する飛翔体から、前記カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、前記第1時間において前記飛翔体が飛翔した位置を示す位置情報と、前記カメラによって前記第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信し、
    前記静止画と前記動画に含まれる各フレーム画像とを比較し、
    前記比較の結果に基づいて、前記静止画が撮影された前記第1時間と前記飛翔体が飛翔した位置情報とを前記動画情報に対応付ける、
    ための処理を実行するように構成された処理装置。
  2. 前記静止画は前記第1期間よりも短い間隔で撮影された複数の静止画を含み、
    前記複数の静止画のそれぞれと、各フレーム画像とが比較される、
    請求項1に記載の処理装置。
  3. 前記比較によって前記各フレーム画像のうち前記静止画と所定の一致度を有する一のフレーム画像を特定し、
    前記一のフレーム画像が特定された場合、前記動画情報に対して前記第1時間と前記位置情報が対応付けられる、
    請求項1に記載の処理装置。
  4. 前記比較によって前記各フレーム画像のうち前記静止画と所定の一致度を有する一のフレーム画像が特定され、
    前記動画のうち、前記一のフレーム画像が少なくとも含まれ、かつ前記第1期間よりも短い第2期間の分割動画を示す分割動画情報に対して前記第1時間と前記位置情報が対応付けられる、
    請求項1に記載の処理装置。
  5. 前記位置情報は前記第1期間よりも短い間隔で検出された複数の位置情報を含み、
    前記複数の位置情報が検出された前記間隔に基づいて前記動画を分割する間隔である前記第2期間が設定される、
    請求項4に記載の処理装置。
  6. 前記少なくとも一つのプロセッサは、
    ユーザから指定された位置を示す指定位置情報を受信すると、前記複数の位置情報のうち最も近い位置の位置情報を特定し、
    特定された前記最も近い位置の位置情報に対応付けられた分割動画情報を選択する、
    ための処理を実行するように構成された、請求項5に記載の処理装置。
  7. 前記動画は複数の周回衛星を介した衛星通信により前記飛翔体から送信される、請求項1に記載の処理装置。
  8. 少なくとも一つのプロセッサを具備するコンピュータにおいて前記少なくとも一つのプロセッサを、
    カメラを備え上空を飛翔する飛翔体から、前記カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、前記第1時間において前記飛翔体が飛翔した位置を示す位置情報と、前記カメラによって前記第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信し、
    前記静止画と前記動画に含まれる各フレーム画像とを比較し、
    前記比較の結果に基づいて、前記静止画が撮影された前記第1時間と前記飛翔体が飛翔した位置情報とを前記動画情報に対応付ける、
    ように機能させる処理プログラム。
  9. 少なくとも一つのプロセッサを具備するコンピュータにおいて前記少なくとも一つのプロセッサにより実行される処理方法であって、
    カメラを備え上空を飛翔する飛翔体から、前記カメラによって第1時間を含む第1期間において撮影された複数のフレーム画像を含む動画を示す動画情報と、前記第1時間において前記飛翔体が飛翔した位置を示す位置情報と、前記カメラによって前記第1時間において撮影された少なくとも一つの静止画を示す静止画情報とを受信する段階と、
    前記静止画と前記動画に含まれる各フレーム画像とを比較する段階と、
    前記比較の結果に基づいて、前記静止画が撮影された前記第1時間と前記飛翔体が飛翔した位置情報とを前記動画情報に対応付ける段階と、
    を含む処理方法。

JP2022119118A 2022-07-26 2022-07-26 処理装置、処理プログラム及び処理方法 Pending JP2024016765A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022119118A JP2024016765A (ja) 2022-07-26 2022-07-26 処理装置、処理プログラム及び処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022119118A JP2024016765A (ja) 2022-07-26 2022-07-26 処理装置、処理プログラム及び処理方法

Publications (1)

Publication Number Publication Date
JP2024016765A true JP2024016765A (ja) 2024-02-07

Family

ID=89806446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022119118A Pending JP2024016765A (ja) 2022-07-26 2022-07-26 処理装置、処理プログラム及び処理方法

Country Status (1)

Country Link
JP (1) JP2024016765A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032868A1 (ja) 2021-08-31 2023-03-09 富士フイルム株式会社 機上現像型平版印刷版原版、及び印刷版の作製方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032868A1 (ja) 2021-08-31 2023-03-09 富士フイルム株式会社 機上現像型平版印刷版原版、及び印刷版の作製方法

Similar Documents

Publication Publication Date Title
CN108702444B (zh) 一种图像处理方法、无人机及系统
JP6572618B2 (ja) 情報処理装置、情報処理プログラム、情報処理方法、端末装置、設定方法、設定プログラム
WO2018209898A1 (zh) 信息处理装置、航拍路径生成方法、航拍路径生成系统、程序以及记录介质
KR20170136750A (ko) 전자 장치 및 그의 동작 방법
KR20180064253A (ko) 비행 제어 방법 및 이를 지원하는 전자 장치
WO2018205104A1 (zh) 无人机拍摄控制方法、无人机拍摄方法、控制终端、无人机控制装置和无人机
US20200218289A1 (en) Information processing apparatus, aerial photography path generation method, program and recording medium
WO2018198281A1 (ja) 情報処理装置、空撮経路生成方法、空撮経路生成システム、プログラム、及び記録媒体
US9311341B2 (en) Collaborative capture of photographic images
JP2004056664A (ja) 共同撮影システム
WO2019230604A1 (ja) 検査システム
JP2018092237A (ja) 無人航空機制御システム、無人航空機制御システムの制御方法、およびプログラム
CN111344650B (zh) 信息处理装置、飞行路径生成方法、程序以及记录介质
JP2024016765A (ja) 処理装置、処理プログラム及び処理方法
JP2019028560A (ja) モバイルプラットフォーム、画像合成方法、プログラム、及び記録媒体
CN109891188B (zh) 移动平台、摄像路径生成方法、程序、以及记录介质
JP2018090012A (ja) 無人航空機制御システム、無人航空機制御システムの制御方法、およびプログラム
WO2020042980A1 (zh) 信息处理装置、拍摄控制方法、程序以及记录介质
JP2019211486A (ja) 検査システム
KR102402949B1 (ko) 정밀도가 향상된 영상 정보의 획득 방법
WO2021115192A1 (zh) 图像处理装置、图像处理方法、程序及记录介质
JP7469008B2 (ja) 経路案内のためのコンテンツ提供方法および装置
KR102387642B1 (ko) 드론 기반의 항공 사진 측량 장치 및 방법
JP7081198B2 (ja) 撮影システム及び撮影制御装置
WO2020119572A1 (zh) 形状推断装置、形状推断方法、程序以及记录介质

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20240319

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20240402