JP7454145B2 - 映像処理システム、映像処理装置、プログラム及び映像処理方法 - Google Patents

映像処理システム、映像処理装置、プログラム及び映像処理方法 Download PDF

Info

Publication number
JP7454145B2
JP7454145B2 JP2019155041A JP2019155041A JP7454145B2 JP 7454145 B2 JP7454145 B2 JP 7454145B2 JP 2019155041 A JP2019155041 A JP 2019155041A JP 2019155041 A JP2019155041 A JP 2019155041A JP 7454145 B2 JP7454145 B2 JP 7454145B2
Authority
JP
Japan
Prior art keywords
image
video
photographing
dimensional
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019155041A
Other languages
English (en)
Other versions
JP2021033788A (ja
Inventor
正義 朴
誠也 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BASCULE INC.
Original Assignee
BASCULE INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BASCULE INC. filed Critical BASCULE INC.
Priority to JP2019155041A priority Critical patent/JP7454145B2/ja
Publication of JP2021033788A publication Critical patent/JP2021033788A/ja
Priority to JP2024027191A priority patent/JP2024055925A/ja
Application granted granted Critical
Publication of JP7454145B2 publication Critical patent/JP7454145B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

特許法第30条第2項適用 (1)公開日: ・平成31年1月15日 ・平成31年4月16日 公開先: ・国立研究開発法人宇宙航空研究開発機構(東京都調布市深大寺東町7-44-1) ・宇宙技術開発株式会社(東京都中野区中野5-62-1) ・有人宇宙システム株式会社(東京都千代田区大手町1-6-1) (2)公開日: 令和1年7月17日 公開場所:株式会社電通本社(東京都港区東新橋1-8-1) (3)公開日: 令和1年7月23日 公開場所:株式会社バスキュール(東京都港区虎ノ門四丁目3番1号)
本発明は映像処理システム、映像処理装置、プログラム及び映像処理方法に関し、特に、天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像の処理に関する。
従来、空中より撮影された地球の地表面の撮影映像の位置を3次元的に特定し、撮影された地表面の撮影範囲を計算して求め、その撮影範囲に合わせて撮影映像を変形した後、2次元の地図上に重ねて表示する撮影映像表示方法が提案されている(例えば特許文献1)。
国際公開第2004/113836号
上述の特許文献1に記載の撮影映像表示方法は、映像情報と地図との整合性の確認を目的とし、撮影映像を2次元地図に貼り付けている方法である。従って、上空から撮影された撮影映像の鑑賞を主目的とするものではなく、特許文献1の撮影映像表示方法により生成された映像はエンターテイメント性に欠けるものであった。
そこで、本発明は、撮影映像を主としながらも、エンターテイメント性のある映像を生成することができる映像処理システム、映像処理装置、プログラム及び映像処理方法を提供することにある。
本発明の一態様は、天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得部と、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得部と、前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得部と、前記天体の形状と位置に関する3次元モデリングデータが記憶された記憶装置と、前記3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成する3次元天体モデル生成部と、前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置するオブジェクト配置部と、前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成する仮想映像生成部と、前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する映像重畳部と、を備える映像処理システムである。
本発明の一態様は、天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得部と、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得部と、前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得部と、前記天体の形状と位置に関する3次元モデリングデータが記憶された記憶装置と、前記3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成する3次元天体モデル生成部と、前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置するオブジェクト配置部と、前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成する仮想映像生成部と、前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する映像重畳部と、を備える映像処理装置である。
本発明の一態様は、天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得処理と、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得処理と、前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得処理と、前記天体の形状と位置に関する3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成する3次元天体モデル生成処理と、前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置するオブジェクト配置処理と、前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成する仮想映像生成処理と、前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する映像重畳処理と、をコンピュータに実行させるプログラムである。
本発明の一態様は、天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得し、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得し、前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得し、前記天体の形状と位置に関する3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成し、前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置し、前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成し、前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する映像処理方法である。
本発明によれば、撮影映像を主としながらも、エンターテイメント性のある映像を生成することができる。
図1は第1の実施の形態における映像処理システムの概観図である。 図2は映像処理装置6のブロック図である。 図3は地球の3次元地球モデルの概念図である。 図4は地表レイヤーとオブジェクトレイヤーとを説明するための図である。 図5はオブジェクト画像をオブジェクトの地球上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に配置した一例を示した図である。 図6は宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲の一例を示した図である。 図7はコンピュータシステムによって構成された映像処理装置6のブロック図である。 図8は時刻tの宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像の一例である。 図9は時刻tの軌道データの条件において、3次元地球モデル上の撮影範囲のオブジェクトレイヤーの仮想映像の一例を示す図である。 図10は時刻tの地球の撮影映像(実映像)に時刻tの仮想映像を重畳した時刻tの重畳映像の一例を示す図である。 図11は端末8に表示された重畳映像の一例である。 図12はオブジェクト画像が、宇宙ステーション10の予想軌道と、予想軌道上に宇宙ステーション10の到達予定時刻とである例を示した図である。 図13はオブジェクト画像が、国旗である例を示した図である。 図14は第2の実施の形態における映像処理システムの概観図である。 図15はオブジェクト画像がSNSメッセージである例を示した図である。
以下、本発明の実施の形態を、図面を参照して説明する。
<第1の実施形態>
図1は第1の実施の形態における映像処理システムの概観図である。以下の説明では、天体の一例として、地球を例にして説明するが、地球に限ることなく、火星等の他の惑星や、月等の衛星、恒星等であっても良い。
図1中、1は地球、2は飛行体、3はパラボラアンテナ、4は軌道データサーバ、5はオブジェクトデータサーバ、6は映像処理装置、7はネットワーク、8は端末である。
飛行体2は、地球の上空を飛行する飛行体である。飛行体2の例は、衛星、宇宙船又は宇宙ステーション、飛行機、ヘリコプター、ドローン等の各種あるが、本実施の形態では、地球1を一定の軌道を保って周回する宇宙ステーション10を例にして説明する。宇宙ステーション10には、所定の画角のカメラ11が搭載されており、カメラ11は地球1の地表映像を撮影することができる。
パラボラアンテナ3は、宇宙ステーション10から、カメラ11が撮影した撮影映像を受信する。
軌道データサーバ4は、宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(宇宙ステーション10姿勢)を含む軌道データを、映像処理装置6に送信する。
オブジェクトデータサーバ5は、オブジェクトの画像と、オブジェクトの地球1上のオブジェクト位置とを含むオブジェクトデータを、映像処理装置6に送信する。ここで、オブジェクトは、種類は問わないが、例えば、地理的な位置を示す情報(国名、都市名等)のテキスト、国旗、ランドマーク、飛行体2の飛行経路(宇宙ステーション10の軌道)、更には、ある所定の地理的位置で発信した、若しくは、何らかの位置に関する情報を含むSNSのメッセージなどでも良い。そして、オブジェクト画像は、これらのオブジェクトの画像(テキストも含む)である。オブジェクト位置は、オブジェクトの地球上の位置を特定する情報であれば種類は問わないが、例えば、地球上の緯度経度、高度等がある。また、地球(天体)のある地点又は中心を原点とした3次元又は2次元の座標値でも良い。
映像処理装置6は、宇宙ステーション10からの撮影映像、軌道データサーバ4からの軌道データ及びオブジェクトデータサーバ5からのオブジェクトデータを受信し、撮影映像に、オブジェクト位置に対応する地球上の位置に配置されたオブジェクト画像が重畳された重畳映像を生成する装置である。映像処理装置6の構成の詳細は、後述する。
ネットワーク7は、データ通信が可能な通信路を意味する。すなわち、ネットワーク7は、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含み、通信方法については有線/無線を問わない。
端末8は、重畳映像を受信し、重畳映像を表示する端末である。そして、無線通信基地局等を介してネットワーク7に接続し、データ通信を行うことができる。端末8は、例えば、スマートフォンや、携帯電話機、パソコン、タブレット型コンピュータ等である。端末8は、基本的には、複数存在し、各ユーザにより操作される。
次に、映像処理装置6の構成の詳細を説明する。図2は映像処理装置6のブロック図である。
映像処理装置6は、映像取得部21と、撮影情報取得部22と、オブジェクトデータ取得部23と、3次元モデリングデータ記憶装置24と、3次元地球モデル生成部25と、オブジェクト配置部26と、仮想映像生成部27と、映像重畳部28と、映像配信部29とを備える。
映像取得部21は、地球1の上空を飛行する宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像を取得する。
撮影情報取得部22は、軌道データサーバ4から、宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(宇宙ステーション10姿勢)を含む軌道データを取得する。
オブジェクトデータ取得部23は、オブジェクトデータサーバ5から、オブジェクトの画像と、オブジェクトの地球上のオブジェクト位置とを含むオブジェクトデータとを、取得する。
3次元モデリングデータ記憶装置24は、地球1の地表形状の3次元データと、緯度経度データと、自転公転情報とを含む3次元モデリングデータが格納されている。尚、3次元データ又は緯度経度データの代わりに、地球(天体)のある地点を原点とした3次元又は2次元の座標値でも良い。
3次元地球モデル生成部25は、3次元モデリングデータ記憶装置24から、図3に示すような地球の3次元地球モデルを生成する。この3次元地球モデルは、図4に示すように、地球1の地表表面の地表レイヤーと、後述するオブジェクトを配置するオブジェクトレイヤーとを有する。
オブジェクト配置部26は、オブジェクトデータ取得部23が取得したオブジェクトデータを用いて、オブジェクト画像を、オブジェクトの地球1上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に配置する。図5は、オブジェクト画像を、オブジェクトの地球上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に配置した一例を示した図である。図5の例では、オブジェクトAAからオブジェクトFFを、3次元地球モデルのオブジェクトレイヤーに配置した例である。
仮想映像生成部27は、撮影情報取得部22が取得した軌道データの宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢の条件において、宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲を推定する。図6は宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲の一例を示した図である。そして、仮想映像生成部27は、その撮影範囲における3次元地球モデルのオブジェクトレイヤーの仮想映像を生成する。
映像重畳部28は、映像取得部21が取得した宇宙ステーション10のカメラ11が撮影した地球1の撮影映像(実映像)に、仮想映像生成部27が生成した仮想映像を重畳し、重畳映像を生成する。
映像配信部29は、映像重畳部28が生成した重畳映像を、ネットワーク7を介して、端末8に配信する。尚、映像配信部29は、かならずしも、映像処理装置6が備える必要はなく、他の配信装置が備えていても良い。
上述した映像処理装置6は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステムによって実現することができる。図7はコンピュータシステムによって構成された映像処理装置6のブロック図である。
映像処理装置6は、図7に示す如く、プロセッサ101、メモリ(ROMやRAM)102、入力装置(キーボード、マウス、タッチパネルなど)103、通信装置104、記憶装置(ハードディスク、半導体ディスクなど)105を有するコンピュータ100により構成することができる。
映像処理装置6は、記憶装置105に格納されたプログラムがメモリ102にロードされ、プロセッサ101により実行されることにより、映像取得処理111と、撮影情報取得処理112と、オブジェクトデータ取得処理113と、3次元地球モデル生成処理114と、オブジェクト配置処理115と、仮想映像生成処理116と、映像重畳処理117と、映像配信処理118とが実現されるものである。ここで、映像取得処理111は映像取得部21に対応し、撮影情報取得処理112は撮影情報取得部22に対応し、オブジェクトデータ取得処理113はオブジェクトデータ取得部23に対応し、3次元地球モデル生成処理114は3次元地球モデル生成部25に対応し、オブジェクト配置処理115はオブジェクト配置部26に対応し、仮想映像生成処理116は仮想映像生成部27に対応し、映像重畳処理117は映像重畳部28に対応し、映像配信処理118は映像配信部29に対応する。また、3次元モデリングデータ記憶装置24は、記憶装置105に対応する。尚、記憶装置105(3次元モデリングデータ記憶装置24)は、コンピュータ100と物理的に外部に設けられ、LAN等のネットワークを介してコンピュータ100と接続されていても良い。
次に、本実施の形態の動作を説明する。
まず、オブジェクトデータ取得部23は、オブジェクトデータサーバ5から、オブジェクトの画像と、オブジェクトの地球1上のオブジェクト位置とを含むオブジェクトデータを取得する。
オブジェクト配置部26は、オブジェクトデータ取得部23が取得したオブジェクトデータを用いて、オブジェクト画像を、図5に示す如く、オブジェクトの地球1上のオブジェクト位置に対応する3次元地球モデルのオブジェクトレイヤーの位置に予め配置しておく。
映像取得部21は、ある時刻tの撮影位置(緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(カメラ11が固定されている場合は宇宙ステーション10の姿勢)のときの宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像を取得する。図8は、時刻tの宇宙ステーション10に搭載されたカメラ11から撮影された撮影映像の一例である。
オブジェクトデータ取得部23は、時刻tの撮影位置(緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢(カメラ11が固定されている場合は宇宙ステーション10の姿勢)の軌道データを取得し、仮想映像生成部27に出力する。
仮想映像生成部27は、撮影情報取得部22が取得した時刻tの軌道データの宇宙ステーション10の撮影位置(時刻、緯度経度、高度)、カメラ11の撮影画角及び撮影姿勢の条件において、宇宙ステーション10のカメラ11が撮影する3次元地球モデル上の撮影範囲を推定する。そして、仮想映像生成部27は、その撮影範囲における3次元地球モデルのオブジェクトレイヤーの仮想映像を生成する。図9は時刻tの軌道データの条件において、3次元地球モデル上の撮影範囲のオブジェクトレイヤーの仮想映像の一例を示す図である。
映像重畳部28は、映像取得部21が取得した宇宙ステーション10のカメラ11が撮影した時刻tの地球1の撮影映像(実映像)に、仮想映像生成部27が生成した時刻tの仮想映像を重畳し、重畳映像を生成する。図10は時刻tの地球の撮影映像(実映像)に時刻tの仮想映像を重畳した時刻tの重畳映像の一例を示す図である。
映像配信部29は、映像重畳部28が生成した重畳映像を、ネットワーク7を介して、端末8にストリーミング配信する。
端末8は、映像配信部29から配信された重畳映像を表示する。図11は、端末8に表示された重畳映像の一例である。
上述した説明では、概念的なオブジェクトの例を説明したが、具体的なオブジェクトの例を以下に示す。
図12は、オブジェクト画像が、宇宙ステーション10の予想軌道と、予想軌道上に宇宙ステーション10の到達予定時刻とである例を示した図である。図12では、宇宙ステーション10が撮影した撮影映像に、宇宙ステーション10の予想軌道及び到達予定時刻が重畳されている。
図13は、オブジェクト画像が、国旗である例を示した図である。図13では、宇宙ステーション10が撮影した撮影映像に、各国の地理的位置に配置された各国の国旗の画像が重畳されている。
本実施の形態は、宇宙ステーション(飛行体)が撮影した撮影映像の被写体に関係するオブジェクトがその被写体の位置に重畳されているので、撮影映像を主としながらも、エンターテイメント性のある映像を生成することができる。
<第2の実施形態>
図14は第2の実施の形態における映像処理システムの概観図である。
第2の実施の形態では、オブジェクトデータサーバ5に、ソーシャルネットワークサービス(SNS: Social Network Service)9から、オブジェクトとしてメッセージ及びメッセージに関するメッセージ位置情報を収集する機能を設ける。そして、オブジェクトデータサーバ5は、収集したメッセージをオブジェクト画像に変換し、メッセージ位置情報をオブジェクト位置に変換する。
メッセージは、宇宙ステーション10に関連する情報ばかりでなく、各々の地理的位置に関する情報でも良い。また、メッセージ位置情報は、メッセージを発信した位置のみならず、メッセージの内容に関係する地理的位置でも良い。
オブジェクト画像及びオブジェクト位置に変換された後の処理は、第1の実施の形態と同様であるので、説明は省略する。
図15は、オブジェクト画像がSNSメッセージである例を示した図である。図15では、宇宙ステーション10が撮影した撮影映像にSNSメッセージが重畳されており、そのSNSメッセージの位置はSNSメッセージを発信した地理的位置に対応している。
第2の実施の形態は、SNSメッセージを収集し、そのSNSメッセージを撮影映像の関連する位置(例えば、メッセージの発信位置)に重畳しているので、リアルタイム性のある映像表現を行うことができる。
以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 地球
2 飛行体
3 パラボラアンテナ
4 軌道データサーバ
5 オブジェクトデータサーバ
6 映像処理装置
7 ネットワーク
8 端末
9 SNS
21 映像取得部
22 撮影情報取得部
23 オブジェクトデータ取得部
24 3次元モデリングデータ記憶装置
25 3次元地球モデル生成部
26 オブジェクト配置部
27 仮想映像生成部
28 映像重畳部
29 映像配信部
100 コンピュータ
101 プロセッサ
102 メモリ
103 記憶装置
104 入力装置
105 通信装置

Claims (11)

  1. 天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得部と、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得部と、
    前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得部と、
    前記天体の形状と位置に関する3次元モデリングデータが記憶された記憶装置と、
    前記3次元モデリングデータを用いて、少なくとも天体表面の形状の地表レイヤーと前記オブジェクト画像が配置されるオブジェクトレイヤーとを含む、前記天体の3次元天体モデルを生成する3次元天体モデル生成部と、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの前記オブジェクトレイヤーの位置に配置するオブジェクト配置部と、
    前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された前記オブジェクトレイヤーを撮影した場合のオブジェクトレイヤー映像を生成する仮想映像生成部と、
    前記オブジェクトレイヤー映像を、前記撮影映像に重畳した重畳映像を生成する映像重畳部と、
    を備える映像処理システム。
  2. 天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得部と、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得部と、
    ソーシャルネットワークサービス(SNS: Social Network Service)からメッセージ及び前記メッセージに関するメッセージ位置情報を取得し、前記メッセージを前記撮影映像に重畳するオブジェクトのオブジェクト画像に変換し、前記メッセージ位置情報をオブジェクト位置に変換するメッセージ取得部と、
    前記オブジェクト画像と前記オブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得部と、
    前記天体の形状と位置に関する3次元モデリングデータが記憶された記憶装置と、
    前記3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成する3次元天体モデル生成部と、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置するオブジェクト配置部と、
    前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成する仮想映像生成部と、
    前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する映像重畳部と、
    を備える映像処理システム。
  3. 前記重畳映像を配信する配信部を備える
    請求項1又は請求項2に記載の映像処理システム。
  4. 前記飛行体は、天体を周回する衛星又は宇宙ステーションである
    請求項1から請求項3のいずれかに記載の映像処理システム。
  5. 前記天体は、地球を含む惑星、衛星又は恒星である
    請求項1から請求項4のいずれかに記載の映像処理システム。
  6. 天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得部と、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得部と、
    前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得部と、
    前記天体の形状と位置に関する3次元モデリングデータが記憶された記憶装置と、
    前記3次元モデリングデータを用いて、少なくとも天体表面の形状の地表レイヤーと前記オブジェクト画像が配置されるオブジェクトレイヤーとを含む、前記天体の3次元天体モデルを生成する3次元天体モデル生成部と、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの前記オブジェクトレイヤーの位置に配置するオブジェクト配置部と、
    前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された前記オブジェクトレイヤーを撮影した場合のオブジェクトレイヤー映像を生成する仮想映像生成部と、
    前記オブジェクトレイヤー映像を、前記撮影映像に重畳した重畳映像を生成する映像重畳部と、
    を備える映像処理装置。
  7. 天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得部と、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得部と、
    ソーシャルネットワークサービス(SNS: Social Network Service)からメッセージ及び前記メッセージに関するメッセージ位置情報を取得し、前記メッセージを前記撮影映像に重畳するオブジェクトのオブジェクト画像に変換し、前記メッセージ位置情報をオブジェクト位置に変換するメッセージ取得部と、
    前記オブジェクト画像と前記オブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得部と、
    前記天体の形状と位置に関する3次元モデリングデータが記憶された記憶装置と、
    前記3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成する3次元天体モデル生成部と、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置するオブジェクト配置部と、
    前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成する仮想映像生成部と、
    前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する映像重畳部と、
    を備える映像処理装置。
  8. 天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得処理と、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得処理と、
    前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得処理と、
    前記天体の形状と位置に関する3次元モデリングデータを用いて、少なくとも天体表面の形状の地表レイヤーと前記オブジェクト画像が配置されるオブジェクトレイヤーとを含む、前記天体の3次元天体モデルを生成する3次元天体モデル生成処理と、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの前記オブジェクトレイヤーの位置に配置するオブジェクト配置処理と、
    前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された前記オブジェクトレイヤーを撮影した場合のオブジェクトレイヤー映像を撮影した場合の仮想映像を生成する仮想映像生成処理と、
    前記オブジェクトレイヤー映像を、前記撮影映像に重畳した重畳映像を生成する映像重畳処理と、
    をコンピュータに実行させるプログラム。
  9. 天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得する映像取得処理と、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得する撮影情報取得処理と、
    ソーシャルネットワークサービス(SNS: Social Network Service)からメッセージ及び前記メッセージに関するメッセージ位置情報を取得し、前記メッセージを前記撮影映像に重畳するオブジェクトのオブジェクト画像に変換し、前記メッセージ位置情報をオブジェクト位置に変換するメッセージ取得処理と、
    前記オブジェクト画像と前記オブジェクト位置とを含むオブジェクトデータを取得するオブジェクトデータ取得処理と、
    前記天体の形状と位置に関する3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成する3次元天体モデル生成処理と、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置するオブジェクト配置処理と、
    前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成する仮想映像生成処理と、
    前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する映像重畳処理と、
    をコンピュータに実行させるプログラム。
  10. コンピュータが、
    天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得し、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得し、
    前記撮影映像に重畳するオブジェクトのオブジェクト画像と前記オブジェクトの天体上のオブジェクト位置とを含むオブジェクトデータを取得し、
    前記天体の形状と位置に関する3次元モデリングデータを用いて、少なくとも天体表面の形状の地表レイヤーと前記オブジェクト画像が配置されるオブジェクトレイヤーとを含む、前記天体の3次元天体モデルを生成し、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの前記オブジェクトレイヤーの位置に配置し、
    前記カメラが、前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記オブジェクト画像が配置された前記オブジェクトレイヤーを撮影した場合のオブジェクトレイヤー映像を生成し、
    前記オブジェクトレイヤー映像を、前記撮影映像に重畳した重畳映像を生成する、
    映像処理方法。
  11. コンピュータが、
    天体の上空を飛行する飛行体に搭載されたカメラから撮影された撮影映像を取得し、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢を取得し、
    ソーシャルネットワークサービス(SNS: Social Network Service)からメッセージ及び前記メッセージに関するメッセージ位置情報を取得し、
    前記メッセージを前記撮影映像に重畳するオブジェクトのオブジェクト画像に変換し、前記メッセージ位置情報をオブジェクト位置に変換し、
    前記オブジェクト画像と前記オブジェクト位置とを含むオブジェクトデータを取得し、
    前記天体の形状と位置に関する3次元モデリングデータを用いて、前記天体の3次元天体モデルを生成し、
    前記オブジェクト画像を、前記オブジェクト位置に対応する前記3次元天体モデルの位置に配置し、
    前記飛行体の撮影位置、前記カメラの撮影画角及び撮影姿勢により、前記カメラが前記オブジェクト画像が配置された3次元天体モデルを撮影した場合の仮想映像を生成し、
    前記仮想映像のうちのオブジェクト画像を、前記撮影映像に重畳した重畳映像を生成する、
    映像処理方法。
JP2019155041A 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法 Active JP7454145B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019155041A JP7454145B2 (ja) 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法
JP2024027191A JP2024055925A (ja) 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019155041A JP7454145B2 (ja) 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024027191A Division JP2024055925A (ja) 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2021033788A JP2021033788A (ja) 2021-03-01
JP7454145B2 true JP7454145B2 (ja) 2024-03-22

Family

ID=74676608

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019155041A Active JP7454145B2 (ja) 2019-08-27 2019-08-27 映像処理システム、映像処理装置、プログラム及び映像処理方法
JP2024027191A Pending JP2024055925A (ja) 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024027191A Pending JP2024055925A (ja) 2019-08-27 2024-02-27 画像処理装置、プログラム、及び画像処理方法

Country Status (1)

Country Link
JP (2) JP7454145B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (ja) 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd ヘリコプタの操縦支援装置
JP2002197009A (ja) 2000-12-25 2002-07-12 Nec Corp 情報提供サーバ、クライアント、情報提供システムの処理方法、プログラムを記録した記録媒体、広告提供方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (ja) 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd ヘリコプタの操縦支援装置
JP2002197009A (ja) 2000-12-25 2002-07-12 Nec Corp 情報提供サーバ、クライアント、情報提供システムの処理方法、プログラムを記録した記録媒体、広告提供方法

Also Published As

Publication number Publication date
JP2024055925A (ja) 2024-04-19
JP2021033788A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
Kopacz et al. Small satellites an overview and assessment
KR101850027B1 (ko) 실시간 3차원 실 환경 복원장치 및 그 방법
US10037611B2 (en) Method and apparatus for generating map data from images
US11403822B2 (en) System and methods for data transmission and rendering of virtual objects for display
Zuluaga et al. The orbit of the Chelyabinsk event impactor as reconstructed from amateur and public footage
US10948603B2 (en) Real-time communication between satellites and mobile devices
US20180310124A1 (en) Virtual Stationary Satellites Over Any Area of the Earth for a Continuous or Set Amount of Time
CN102831816B (zh) 一种提供实时场景地图的装置
JP7454145B2 (ja) 映像処理システム、映像処理装置、プログラム及び映像処理方法
CN112136322A (zh) 一种三维点云的实时显示方法、设备、系统及存储介质
CN103955140B (zh) 卫星地面遥操作演示验证系统及其实现方法
El Habchi et al. CGA: A new approach to estimate the geolocation of a ground target from drone aerial imagery
Stoll et al. The RapidEye constellation and its data products
Bock et al. OpenSpace: Public dissemination of space mission profiles
Stefanov et al. Data collection for disaster response from the international space station
CN112498745B (zh) 一种低轨光学卫星立体成像自主规划方法
KR102072550B1 (ko) 우주 사진관
Hardhienata et al. Technical Aspects and Attitude Control Strategy of LAPAN-TUBSAT Micro Satellite
CN108931259B (zh) 一种月基对地观测图像模拟的方法
JP2004070475A (ja) 地形観察システムおよびその方法
CN113610952A (zh) 一种三维场景重建方法、装置、电子设备和存储介质
Leonard et al. Post-flight Evaluation of Lidar-based Digital Terrain Models for OSIRIS-REx Navigation at Bennu
US11746554B2 (en) Computer system providing service to multiple users using satellites in earth orbit, and method and program executed by computer system
Tobiska Space Weather Gets Real--on Smartphones
Frapard et al. Vision navigation for European landers and the NPAL project

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7454145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150