JP2024055925A - 画像処理装置、プログラム、及び画像処理方法 - Google Patents

画像処理装置、プログラム、及び画像処理方法 Download PDF

Info

Publication number
JP2024055925A
JP2024055925A JP2024027191A JP2024027191A JP2024055925A JP 2024055925 A JP2024055925 A JP 2024055925A JP 2024027191 A JP2024027191 A JP 2024027191A JP 2024027191 A JP2024027191 A JP 2024027191A JP 2024055925 A JP2024055925 A JP 2024055925A
Authority
JP
Japan
Prior art keywords
image
celestial body
data
sensor
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024027191A
Other languages
English (en)
Inventor
正義 朴
誠也 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BASCULE INC.
Original Assignee
BASCULE INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BASCULE INC. filed Critical BASCULE INC.
Priority to JP2024027191A priority Critical patent/JP2024055925A/ja
Publication of JP2024055925A publication Critical patent/JP2024055925A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】撮影映像を主としながらも、エンターテイメント性のある映像を生成すること。【解決手段】画像処理装置は、天体の上空を飛行する飛行体に搭載されたセンサにより得られた天体のデータを取得するデータ取得部と、天体に対する、飛行体の位置、センサの天体に対するデータの取得画角及び取得姿勢を取得するデータ情報取得部と、センサから取得した天体のデータを用いて天体画像を生成する画像生成部と、飛行体の位置、センサの取得画角及び取得姿勢に対応する仮想オブジェクトの仮想オブジェクト画像を生成する仮想オブジェクト生成部と、天体画像と仮想オブジェクト画像とを合成し、合成画像を生成する合成画像生成部と、を備える。【選択図】図2

Description

特許法第30条第2項適用申請有り (1)公開日: ・平成31年1月15日 ・平成31年4月16日 公開先: ・国立研究開発法人宇宙航空研究開発機構(東京都調布市深大寺東町7-44-1) ・宇宙技術開発株式会社(東京都中野区中野5-62-1) ・有人宇宙システム株式会社(東京都千代田区大手町1-6-1) (2)公開日: 令和1年7月17日 公開場所:株式会社電通本社(東京都港区東新橋1-8-1) (3)公開日: 令和1年7月23日 公開場所:株式会社バスキュール(東京都港区虎ノ門四丁目3番1号)
本発明は画像処理装置、プログラム、及び画像処理方法に関し、特に、天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像の処理に関する。
従来、空中より撮影された地球の地表面の撮影映像の位置を3次元的に特定し、撮影された地表面の撮影範囲を計算して求め、その撮影範囲に合わせて撮影映像を変形した後、2次元の地図上に重ねて表示する撮影映像表示方法が提案されている(例えば特許文献1)。
国際公開第2004/113836号
上述の特許文献1に記載の撮影映像表示方法は、映像情報と地図との整合性の確認を目的とし、撮影映像を2次元地図に貼り付けている方法である。従って、上空から撮影された撮影映像の鑑賞を主目的とするものではなく、特許文献1の撮影映像表示方法により生成された映像はエンターテイメント性に欠けるものであった。
そこで、本発明は、撮影映像を主としながらも、エンターテイメント性のある映像を生成することができる画像処理装置、プログラム、及び画像処理方法を提供することにある。
本発明の一態様は、天体の上空を飛行する飛行体に搭載されたセンサにより得られた天体のデータを取得するデータ取得部と、天体に対する、飛行体の位置、センサの天体に対するデータの取得画角及び取得姿勢を取得するデータ情報取得部と、センサから取得した天体のデータを用いて天体画像を生成する画像生成部と、飛行体の位置、センサの取得画角及び取得姿勢に対応する仮想オブジェクトの仮想オブジェクト画像を生成する仮想オブジェクト生成部と、天体画像と仮想オブジェクト画像とを合成し、合成画像を生成する合成画像生成部と、を備える画像処理装置である。
本発明の一態様は、コンピュータを、天体の上空を飛行する飛行体に搭載されたセンサにより得られた天体のデータを取得するデータ取得手段、天体に対する、飛行体の位置、センサの天体に対するデータの取得画角及び取得姿勢を取得するデータ情報取得手段、センサから取得した天体のデータを用いて天体画像を生成する画像生成手段、飛行体の位置、センサの取得画角及び取得姿勢に対応する仮想オブジェクトの仮想オブジェクト画像を生成する仮想オブジェクト生成手段、天体画像と仮想オブジェクト画像とを合成し、合成画像を生成する合成画像生成手段、として機能させるプログラムである。
本発明の一態様は、天体の上空を飛行する飛行体に搭載されたセンサにより得られた天体のデータを取得し、天体に対する、飛行体の位置、センサの天体に対するデータの取得画角及び取得姿勢を取得し、センサから取得した天体のデータを用いて天体画像を生成し、飛行体の位置、センサの取得画角及び取得姿勢に対応する仮想オブジェクトの仮想オブジェクト画像を生成し、天体画像と仮想オブジェクト画像とを合成し、合成画像を生成する、画像処理方法である。
本発明によれば、撮影映像を主としながらも、エンターテイメント性のある映像を生成することができる。
図1は第1の実施の形態における映像処理システムの概観図である。 図2は映像処理装置6のブロック図である。 図3は地球の3次元地球モデルの概念図である。 図4は地表レイヤーとオブジェクトレイヤーとを説明するための図である。 図5はオブジェクト画像をオブジェクトの地球上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に配置した一例を示した図である。 図6は宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲の一例を示した図である。 図7はコンピュータシステムによって構成された映像処理装置6のブロック図である。 図8は時刻tの宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像の一例である。 図9は時刻tの軌道データの条件において、3次元地球モデル上の撮影範囲のオブジェクトレイヤーの仮想映像の一例を示す図である。 図10は時刻tの地球の撮影映像(実映像)に時刻tの仮想映像を重畳した時刻tの重畳映像の一例を示す図である。 図11は端末8に表示された重畳映像の一例である。 図12はオブジェクト画像が、宇宙ステーション10の予想軌道と、予想軌道上に宇宙ステーション10の到達予定時刻とである例を示した図である。 図13はオブジェクト画像が、国旗である例を示した図である。 図14は第2の実施の形態における映像処理システムの概観図である。 図15はオブジェクト画像がSNSメッセージである例を示した図である。
以下、本発明の実施の形態を、図面を参照して説明する。
<第1の実施形態>
図1は第1の実施の形態における映像処理システムの概観図である。以下の説明では、天体の一例として、地球を例にして説明するが、地球に限ることなく、火星等の他の惑星や、月等の衛星、恒星等であっても良い。
図1中、1は地球、2は飛行体、3はパラボラアンテナ、4は軌道データサーバ、5はオブジェクトデータサーバ、6は映像処理装置、7はネットワーク、8は端末である。
飛行体2は、地球の上空を飛行する飛行体である。飛行体2の例は、衛星、宇宙船又は宇宙ステーション、飛行機、ヘリコプター、ドローン等の各種あるが、本実施の形態では、地球1を一定の軌道を保って周回する宇宙ステーション10を例にして説明する。宇宙ステーション10には、所定の画角のカメラ11が搭載されており、カメラ11は地球1の地表映像を撮影することができる。
パラボラアンテナ3は、宇宙ステーション10から、カメラ11が撮影した撮影映像を受信する。
軌道データサーバ4は、宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(宇宙ステーション10姿勢)を含む軌道データを、映像処理装置6に送信する。
オブジェクトデータサーバ5は、オブジェクトの画像と、オブジェクトの地球1上のオブジェクト位置とを含むオブジェクトデータを、映像処理装置6に送信する。ここで、オブジェクトは、種類は問わないが、例えば、地理的な位置を示す情報(国名、都市名等)のテキスト、国旗、ランドマーク、飛行体2の飛行経路(宇宙ステーション10の軌道)、更には、ある所定の地理的位置で発信した、若しくは、何らかの位置に関する情報を含むSNSのメッセージなどでも良い。そして、オブジェクト画像は、これらのオブジェクトの画像(テキストも含む)である。オブジェクト位置は、オブジェクトの地球上の位置を特定する情報であれば種類は問わないが、例えば、地球上の緯度経度、高度等がある。また、地球(天体)のある地点又は中心を原点とした3次元又は2次元の座標値でも良い。
映像処理装置6は、宇宙ステーション10からの撮影映像、軌道データサーバ4からの軌道データ及びオブジェクトデータサーバ5からのオブジェクトデータを受信し、撮影映像に、オブジェクト位置に対応する地球上の位置に配置されたオブジェクト画像が重畳された重畳映像を生成する装置である。映像処理装置6の構成の詳細は、後述する。
ネットワーク7は、データ通信が可能な通信路を意味する。すなわち、ネットワーク7は、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含み、通信方法については有線/無線を問わない。
端末8は、重畳映像を受信し、重畳映像を表示する端末である。そして、無線通信基地局等を介してネットワーク7に接続し、データ通信を行うことができる。端末8は、例えば、スマートフォンや、携帯電話機、パソコン、タブレット型コンピュータ等である。端末8は、基本的には、複数存在し、各ユーザにより操作される。
次に、映像処理装置6の構成の詳細を説明する。図2は映像処理装置6のブロック図である。
映像処理装置6は、映像取得部21と、撮影情報取得部22と、オブジェクトデータ取得部23と、3次元モデリングデータ記憶装置24と、3次元地球モデル生成部25と、オブジェクト配置部26と、仮想映像生成部27と、映像重畳部28と、映像配信部29とを備える。
映像取得部21は、地球1の上空を飛行する宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像を取得する。
撮影情報取得部22は、軌道データサーバ4から、宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(宇宙ステーション10姿勢)を含む軌道データを取得する。
オブジェクトデータ取得部23は、オブジェクトデータサーバ5から、オブジェクトの画像と、オブジェクトの地球上のオブジェクト位置とを含むオブジェクトデータとを、取得する。
3次元モデリングデータ記憶装置24は、地球1の地表形状の3次元データと、緯度経度データと、自転公転情報とを含む3次元モデリングデータが格納されている。尚、3次元データ又は緯度経度データの代わりに、地球(天体)のある地点を原点とした3次元又は2次元の座標値でも良い。
3次元地球モデル生成部25は、3次元モデリングデータ記憶装置24から、図3に示すような地球の3次元地球モデルを生成する。この3次元地球モデルは、図4に示すように、地球1の地表表面の地表レイヤーと、後述するオブジェクトを配置するオブジェクトレイヤーとを有する。
オブジェクト配置部26は、オブジェクトデータ取得部23が取得したオブジェクトデータを用いて、オブジェクト画像を、オブジェクトの地球1上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に配置する。図5は、オブジェクト画像を、オブジェクトの地球上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に配置した一例を示した図である。図5の例では、オブジェクトAAからオブジェクトFFを、3次元地球モデルのオブジェクトレイヤーに配置した例である。
仮想映像生成部27は、撮影情報取得部22が取得した軌道データの宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢の条件において、宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲を推定する。図6は宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲の一例を示した図である。そして、仮想映像生成部27は、その撮影範囲における3次元地球モデルのオブジェクトレイヤーの仮想映像を生成する。
映像重畳部28は、映像取得部21が取得した宇宙ステーション10のカメラ11が撮影した地球1の撮影映像(実映像)に、仮想映像生成部27が生成した仮想映像を重畳し、重畳映像を生成する。
映像配信部29は、映像重畳部28が生成した重畳映像を、ネットワーク7を介して、端末8に配信する。尚、映像配信部29は、かならずしも、映像処理装置6が備える必要はなく、他の配信装置が備えていても良い。
上述した映像処理装置6は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステムによって実現することができる。図7はコンピュータシステムによって構成された映像処理装置6のブロック図である。
映像処理装置6は、図7に示す如く、プロセッサ101、メモリ(ROMやRAM)102、入力装置(キーボード、マウス、タッチパネルなど)103、通信装置104、記憶装置(ハードディスク、半導体ディスクなど)105を有するコンピュータ100により構成することができる。
映像処理装置6は、記憶装置105に格納されたプログラムがメモリ102にロードされ、プロセッサ101により実行されることにより、映像取得処理111と、撮影情報取得処理112と、オブジェクトデータ取得処理113と、3次元地球モデル生成処理114と、オブジェクト配置処理115と、仮想映像生成処理116と、映像重畳処理117と、映像配信処理118とが実現されるものである。ここで、映像取得処理111は映像取得部21に対応し、撮影情報取得処理112は撮影情報取得部22に対応し、オブジェクトデータ取得処理113はオブジェクトデータ取得部23に対応し、3次元地球モデル生成処理114は3次元地球モデル生成部25に対応し、オブジェクト配置処理115はオブジェクト配置部26に対応し、仮想映像生成処理116は仮想映像生成部27に対応し、映像重畳処理117は映像重畳部28に対応し、映像配信処理118は映像配信部29に対応する。また、3次元モデリングデータ記憶装置24は、記憶装置105に対応する。尚、記憶装置105(3次元モデリングデータ記憶装置24)は、コンピュータ100と物理的に外部に設けられ、LAN等のネットワークを介してコンピュータ100と接続されていても良い。
次に、本実施の形態の動作を説明する。
まず、オブジェクトデータ取得部23は、オブジェクトデータサーバ5から、オブジェクトの画像と、オブジェクトの地球1上のオブジェクト位置とを含むオブジェクトデータを取得する。
オブジェクト配置部26は、オブジェクトデータ取得部23が取得したオブジェクトデータを用いて、オブジェクト画像を、図5に示す如く、オブジェクトの地球1上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に予め配置しておく。
映像取得部21は、ある時刻tの撮影位置(緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(カメラ11が固定されている場合は宇宙ステーション10の姿勢)のときの宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像を取得する。図8は、時刻tの宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像の一例である。
オブジェクトデータ取得部23は、時刻tの撮影位置(緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(カメラ11が固定されている場合は宇宙ステーション10の姿勢)の軌道データを取得し、仮想映像生成部27に出力する。
仮想映像生成部27は、撮影情報取得部22が取得した時刻tの軌道データの宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢の条件において、宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲を推定する。そして、仮想映像生成部27は、その撮影範囲における3次元地球モデルのオブジェクトレイヤーの仮想映像を生成する。図9は時刻tの軌道データの条件において、3次元地球モデル上の撮影範囲のオブジェクトレイヤーの仮想映像の一例を示す図である。
映像重畳部28は、映像取得部21が取得した宇宙ステーション10のカメラ11が撮影した時刻tの地球1の撮影映像(実映像)に、仮想映像生成部27が生成した時刻tの仮想映像を重畳し、重畳映像を生成する。図10は時刻tの地球の撮影映像(実映像)に時刻tの仮想映像を重畳した時刻tの重畳映像の一例を示す図である。
映像配信部29は、映像重畳部28が生成した重畳映像を、ネットワーク7を介して、端末8にストリーミング配信する。
端末8は、映像配信部29から配信された重畳映像を表示する。図11は、端末8に表示された重畳映像の一例である。
上述した説明では、概念的なオブジェクトの例を説明したが、具体的なオブジェクトの例を以下に示す。
図12は、オブジェクト画像が、宇宙ステーション10の予想軌道と、予想軌道上に宇宙ステーション10の到達予定時刻とである例を示した図である。図12では、宇宙ステーション10が撮影した撮影映像に、宇宙ステーション10の予想軌道及び到達予定時刻が重畳されている。
図13は、オブジェクト画像が、国旗である例を示した図である。図13では、宇宙ステーション10が撮影した撮影映像に、各国の地理的位置に配置された各国の国旗の画像が重畳されている。
本実施の形態は、宇宙ステーション(飛行体)が撮影した撮影映像の被写体に関係するオブジェクトがその被写体の位置に重畳されているので、撮影映像を主としながらも、エンターテイメント性のある映像を生成することができる。
<第2の実施形態>
図14は第2の実施の形態における映像処理システムの概観図である。
第2の実施の形態では、オブジェクトデータサーバ5に、ソーシャルネットワークサービス(SNS: Social Network Service)9から、オブジェクトとしてメッセージ及びメッセージに関するメッセージ位置情報を収集する機能を設ける。そして、オブジェクトデータサーバ5は、収集したメッセージをオブジェクト画像に変換し、メッセージ位置情報をオブジェクト位置に変換する。
メッセージは、宇宙ステーション10に関連する情報ばかりでなく、各々の地理的位置に関する情報でも良い。また、メッセージ位置情報は、メッセージを発信した位置のみならず、メッセージの内容に関係する地理的位置でも良い。
オブジェクト画像及びオブジェクト位置に変換された後の処理は、第1の実施の形態と同様であるので、説明は省略する。
図15は、オブジェクト画像がSNSメッセージである例を示した図である。図15では、宇宙ステーション10が撮影した撮影映像にSNSメッセージが重畳されており、そのSNSメッセージの位置はSNSメッセージを発信した地理的位置に対応している。
第2の実施の形態は、SNSメッセージを収集し、そのSNSメッセージを撮影映像の関連する位置(例えば、メッセージの発信位置)に重畳しているので、リアルタイム性のある映像表現を行うことができる。
以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 地球
2 飛行体
3 パラボラアンテナ
4 軌道データサーバ
5 オブジェクトデータサーバ
6 映像処理装置
7 ネットワーク
8 端末
9 SNS
21 映像取得部
22 撮影情報取得部
23 オブジェクトデータ取得部
24 3次元モデリングデータ記憶装置
25 3次元地球モデル生成部
26 オブジェクト配置部
27 仮想映像生成部
28 映像重畳部
29 映像配信部
100 コンピュータ
101 プロセッサ
102 メモリ
103 記憶装置
104 入力装置
105 通信装置

Claims (8)

  1. 天体の上空を飛行する飛行体に搭載されたセンサにより得られた前記天体のデータを取得するデータ取得部と、
    前記天体に対する、前記飛行体の位置、前記センサの前記天体に対するデータの取得画角及び取得姿勢を取得するデータ情報取得部と、
    前記センサから取得した前記天体のデータを用いて天体画像を生成する画像生成部と、
    前記飛行体の位置、前記センサの取得画角及び取得姿勢に対応する仮想オブジェクトの仮想オブジェクト画像を生成する仮想オブジェクト生成部と、
    前記天体画像と前記仮想オブジェクト画像とを合成し、合成画像を生成する合成画像生成部と、
    を備える画像処理装置。
  2. 前記仮想オブジェクトは、前記飛行体の位置、前記センサの取得画角及び取得姿勢に対応する天体のデータの取得範囲に位置するオブジェクトである、
    請求項1に記載の画像処理装置。
  3. 前記合成画像生成部は、時刻tに前記天体から取得したデータから生成された天体画像と、前記時刻tの前記データの取得範囲に対応する前記仮想オブジェクト画像と、を合成し、経時的な合成映像を生成する、
    請求項1又は請求項2に記載の画像処理装置。
  4. 前記合成画像生成部は、前記天体画像のレイヤーと、前記仮想オブジェクトが配置されたオブジェクトレイヤーと、含む3次元モデルを生成する、
    請求項1から請求項3のいずれかに記載の画像処理装置。
  5. 前記飛行体は、ドローン、宇宙船、衛星又は宇宙ステーションである、
    請求項1から請求項4のいずれかに記載の画像処理装置。
  6. 前記天体は、地球を含む惑星、衛星又は恒星である、
    請求項1から請求項5のいずれかに記載の画像処理装置。
  7. コンピュータを、
    天体の上空を飛行する飛行体に搭載されたセンサにより得られた前記天体のデータを取得するデータ取得手段、
    前記天体に対する、前記飛行体の位置、前記センサの前記天体に対するデータの取得画角及び取得姿勢を取得するデータ情報取得手段、
    前記センサから取得した前記天体のデータを用いて天体画像を生成する画像生成手段、
    前記飛行体の位置、前記センサの取得画角及び取得姿勢に対応する仮想オブジェクトの仮想オブジェクト画像を生成する仮想オブジェクト生成手段、
    前記天体画像と前記仮想オブジェクト画像とを合成し、合成画像を生成する合成画像生成手段、
    として機能させるプログラム。
  8. 天体の上空を飛行する飛行体に搭載されたセンサにより得られた前記天体のデータを取得し、
    前記天体に対する、前記飛行体の位置、前記センサの前記天体に対するデータの取得画角及び取得姿勢を取得し、
    前記センサから取得した前記天体のデータを用いて天体画像を生成し、
    前記飛行体の位置、前記センサの取得画角及び取得姿勢に対応する仮想オブジェクトの仮想オブジェクト画像を生成し、
    前記天体画像と前記仮想オブジェクト画像とを合成し、合成画像を生成する、
    画像処理方法。
JP2024027191A 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法 Pending JP2024055925A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024027191A JP2024055925A (ja) 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019155041A JP7454145B2 (ja) 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法
JP2024027191A JP2024055925A (ja) 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019155041A Division JP7454145B2 (ja) 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法

Publications (1)

Publication Number Publication Date
JP2024055925A true JP2024055925A (ja) 2024-04-19

Family

ID=74676608

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019155041A Active JP7454145B2 (ja) 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法
JP2024027191A Pending JP2024055925A (ja) 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019155041A Active JP7454145B2 (ja) 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法

Country Status (1)

Country Link
JP (2) JP7454145B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3252129B2 (ja) 1999-07-30 2002-01-28 川崎重工業株式会社 ヘリコプタの操縦支援装置
JP3945160B2 (ja) 2000-12-25 2007-07-18 日本電気株式会社 情報提供サーバ、クライアント、情報提供システムの処理方法、及びプログラムを記録した記録媒体

Also Published As

Publication number Publication date
JP7454145B2 (ja) 2024-03-22
JP2021033788A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
Davis History of the NOAA satellite program
US9706242B2 (en) System for caching and distribution of cloud based spatial imagery to multiple view ports
US10948603B2 (en) Real-time communication between satellites and mobile devices
US10178499B2 (en) Virtual stationary satellites over any area of the earth for a continuous or set amount of time
CN102831816B (zh) 一种提供实时场景地图的装置
KR20190075635A (ko) 위경 고도 좌표계를 기반으로 하는 비행 모델의 입체영상 생성 장치 및 그 방법
JP2019135605A (ja) 撮影映像表示装置及び撮影映像表示方法
CN103955140B (zh) 卫星地面遥操作演示验证系统及其实现方法
JP7454145B2 (ja) 映像処理システム、映像処理装置、プログラム及び映像処理方法
Bock et al. OpenSpace: Public dissemination of space mission profiles
Stefanov et al. Data collection for disaster response from the international space station
Leonard et al. Post-flight Evaluation of Lidar-based Digital Terrain Models for OSIRIS-REx Navigation at Bennu
KR102072550B1 (ko) 우주 사진관
CN112498745B (zh) 一种低轨光学卫星立体成像自主规划方法
CN113366827B (zh) 成像方法和系统
Shcherbinin Virtual reconstruction and 3d visualization of vostok spacecraft equipment
CN108931259B (zh) 一种月基对地观测图像模拟的方法
JP2004070475A (ja) 地形観察システムおよびその方法
Tobiska Space Weather Gets Real--on Smartphones
Nebiker et al. Integrating mobile geo sensors into collaborative virtual globes-design and implementation issues
JP6990458B2 (ja) 地球周回軌道上の人工衛星を利用して複数のユーザにサービスを提供するコンピュータシステム、そのコンピュータシステムにおいて実行される方法およびプログラム
JP2013010413A (ja) 航空機用情報端末および航空機用コンテンツ配信システム
Frapard et al. Vision navigation for European landers and the NPAL project
WO2023032292A1 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
Ilčev et al. Satellite Meteorological Networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240301