JP7466213B2 - 撮像方法及びシステム - Google Patents

撮像方法及びシステム Download PDF

Info

Publication number
JP7466213B2
JP7466213B2 JP2021532912A JP2021532912A JP7466213B2 JP 7466213 B2 JP7466213 B2 JP 7466213B2 JP 2021532912 A JP2021532912 A JP 2021532912A JP 2021532912 A JP2021532912 A JP 2021532912A JP 7466213 B2 JP7466213 B2 JP 7466213B2
Authority
JP
Japan
Prior art keywords
image
user
remote sensing
computer
implemented method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021532912A
Other languages
English (en)
Other versions
JP2022513761A (ja
Inventor
ニューランズ クリス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spelfie Ltd
Original Assignee
Spelfie Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spelfie Ltd filed Critical Spelfie Ltd
Publication of JP2022513761A publication Critical patent/JP2022513761A/ja
Application granted granted Critical
Publication of JP7466213B2 publication Critical patent/JP7466213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • H04N1/00103Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3264Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of sound signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Studio Devices (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)

Description

本発明は、合成画像を生成する方法及びシステムに関するものである。
携帯電話の遍在(普及)及びこれらの接続性の高まりは、少なくとも部分的に、これらのユーザーによるソーシャルメディアサービスの大量採用に関係するものである。カメラ機能を内蔵する携帯電話は(特にスマートフォン)は、ほぼ瞬時的に共有する体験に向かう社会的傾向を可能にする。多くのソーシャルネットワーキングサービスは、モバイルのカメラを用いて捕捉(撮影)した写真画像(静止画及び動画(ビデオ))の共有を奨励するものである。
スマートフォンは、一般的に、前面側のカメラ(ユーザーがこのスマートフォンのスクリーンを見た際にこのユーザーに面する側のカメラ)と、後面側のカメラとを有している為、ユーザーがカメラ機能を操作して“自撮り”において自分自身の画像を捕捉することが極めて簡単となる。自撮りという用語は、一般的に、写真撮影者により撮影され且つこの写真撮影者を含む写真を言及するのに用いられており、写真撮影者は、しばしば、自分自身を他の人と一緒に、又は動物、風景、建造物、等と共に、或いはこの双方と撮影することを意図するものである。最近モバイル製造業者は、「ボシ―(bothie)」を撮る機能のような改良した自撮りのような機能を導入している(「ボシ―」は、これらのカメラの各々により捕捉した画像を1つの複合画像に合成するものである)。
自撮りによれば、個人的な、又はユーザーの友情グループに限定された、又はより一層グローバル的に共有されたものとしうるイベントの状況下にユーザーを置いて、他の一時的な実時間の体験をユーザーが記念するようにしうる。
ロックコンサート、スポーツイベント、国家的及び宗教的イベント、更に自然現象のような屋外(アウトドア)の体験は、しばしば、非常に多くの参加者及び地理的領域に及ぶ移動を伴うものである。このようなイベントの規模や、このようなイベントにおける個別の状況を描写するのは困難である場合がある。自撮りによれば、イベントにおける写真撮影者の個人的なスナップショットを可能にするが、個人がどこにいるか、又はその居場所がイベントを構成している瞬時に如何に関係しているかを適切に反映することができない可能性がある。イベントにおいて自撮りを行うことは完全に可能であるが、自撮りはこの瞬時にこのイベントに存在する興奮及び独自性を捕捉し始めないことに気づくことは完全に可能である。
本明細書において従来技術を参照することは、この従来技術が如何なる法域においても又はグローバル的にも通常の一般的な知識の一部を構成することを、或いはこの従来技術が当業者により他の従来技術の一部と関連させられる又は組み合わされるものとしてみなして合理的に理解されると予想しうることを了承又は提言するものではない。
本発明の目的は、少なくとも従来技術の上述した又はその他の欠点の1つ以上を改善することと、有用な代わりの手段を提供することとの一方又は双方を達成することにある。
本発明は、特許請求の範囲において規定した方法及び装置である。
本明細書に開示した種々の特徴及び態様は、本明細書に記載した特定の例示的な組み合わせにおけるだけでなく、必要に応じて本明細書に開示した他の種々の態様と組み合わせることができるものである。
本明細書に開示した主題は、対応する又は同様な数値又は文字が対応する又は同様な構成要素を表している図面と関連して行った以下の詳細な説明からより一層完全に理解され且つ認識されるであろう。特に指示しない限り、図面は本発明の模範的な実施例又は態様を提供するものであり、本発明の範囲を限定するものではない。
本発明の一態様による操作を概略的に示す流れ図である。 本発明の方法を実装しうるシナリオを示す説明図である。 本発明の方法を実装しうる他のシナリオを示す説明図である。 本発明の一態様によりユーザーが生成したコンテンツアイテムを得る際に当該又は各々のユーザー装置において実行するモバイルアプリケーションの操作を示す流れ図である。 本発明の一態様により実行する特定の操作を概略的に示す流れ図である。 本発明の特定の実装において使用可能なリモートセンシング(遠隔感知)画像に対するポーリング操作を概略的に示す流れ図である。 本発明の一態様によるリモートセンシング画像を用いてユーザーが生成するコンテンツアイテムを処理する際に実行する特定の操作を概略的に示す流れ図である。 本発明の一態様による、追加のコンテンツが、リモートセンシング画像と組み合わされるユーザー生成コンテンツアイテムから生成される複合画像と組み合わせる場合を概略的に示す流れ図である。 本発明の一態様により複合画像のコンテンツの普及を管理する機構を示す流れ図である。 本発明の一態様の実装におけるモバイルアプリケーションにより提示されるユーザーインターフェースのスクリーン表示を示す説明図である。 本発明の一態様の実装におけるモバイルアプリケーションにより提示されるユーザーインターフェースの他のスクリーン表示を示す説明図である。 本発明の一態様の実装におけるモバイルアプリケーションにより提示されるユーザーインターフェースの更なる他のスクリーン表示を示す説明図である。 本発明の他の態様によるインターフェースポータルのある機能要素を概略的に示す説明図である。
添付図面と関連させて以下に記載する詳細な説明は、本発明の種々の実施例の説明を意図するものであり、本発明を実施しうる形態だけを表すことを意図するものではない。以下に記載する詳細な説明におけるのと同じ又は等価な機能は本発明の範囲内に含まれることが意図される異なる実施例によって達成しうることを理解すべきである。更に、「具える」、「具えている」、「有する」、「含む」のような用語又はこれらの如何なる他の文法的変異も非排他的な包含を対象とすることを意図するものであり、従って、エレメント又はステップのリストを具えるモジュール、回路、装置部品、構造体及び方法のステップは、これらのエレメントのみを含むものではなく、このようなモジュール、回路、装置部品又はステップに明示的にリストされていない又は固有となっていない他のエレメント又はステップを含むものである。「~を具える」に由来するエレメント又はステップは、更なる制約無しに、このエレメント又はステップを具える追加の同一のエレメント又はステップの存在を排除するものではない。
本発明は、(自撮り又はボシ―等のような)ユーザーが生成するコンテンツにおいて捕捉されるイベント参加者の個人的状況を、これにかかわらず瞬時及び正確な位置におけるこのイベント参加者の共有体験に関連する適切な且つ包括的な全体画像と一体化させようとするものである。
インターネットのユーザーは、画像捕捉装置により得られる静止画及び動画のような媒体コンテンツに対するメタデータとして記憶された測位位置情報及びライブラリーマップデータ間の「マッシュアップ(複合)」の容易さにますます精通するようになっている。更に、スマートフォン及びウェアラブル装置(特にスマートウォッチ)のようなモバイル装置に対しては、この装置のための正確な測位位置を提供しうる(例えば、GPS、GLONASS及びBeiDouの何れか又はこれらの任意の組み合わせのような技術を用いる)衛星測位システムユニットを組み込むことが一般的となっている。従って、このような装置により生成される媒体コンテンツ(例えば、ユーザー生成コンテンツ(UGC))は、コンテンツが捕捉される時に装置の測位位置が得られる関連のメタデータを有するようにしうる。
従って、ユーザーが自撮りを行う場合、ユーザーの装置は、(タイムスタンプ及びカメラの設定の何れか又は双方のような他の情報と一緒に)自撮りのメタデータに地理的座標を追加するように構成することができる。このようにすると、自撮りを、関連の地理的座標を用いて、マッピングサービスにより提供される地図中の位置と関連させることができる。マッピングサービスによれば、予め決定した解像度で位置及びその周辺地域のライブラリー画像にアクセスすることができる。ライブラリー画像は、道路、川及び場所のような旅行者にとって関心がある特徴を示す概略図や、自然の特徴及び風景の(高度)等高線を示す地理学的図や、しばしば航空機、無人航空機(UAV)又は衛星のような撮像(イメージング)プラットフォームから捕捉される航空写真とすることができる。
航空写真のライブラリー画像は通常、履歴データから得られる。衛星画像は地球の表面の圧倒的に大きな部分から得られるが、これらは通常定期的に更新されない。すなわち、人口密集地域でさえ数年前に撮影された衛星画像で表されている可能性がある。位置に対する最近の更新では、例えば屋外の音楽祭の周囲の一時的なキャンプや、零度以下の温度をめったに経験しない地域での積雪のような短期間の現象の出現及び消滅を、このような画像ライブラリーにおいて捕捉することを回避するようにしうる。更に、このようなライブラリーにおける地域の画像は、種々の技術により補足された画像から、種々の撮像プラットフォームから、且つ種々の解像度/露光/照明角度で捕捉された画像から合成させることができるが、このことは、しばしば、特定の地理的地域のライブラリー撮像が矛盾する状態を引き起こすおそれがある。雲の形成のような天候現象は、ある地域の陸地表面が利用可能なライブラリー画像において見えなくなることを意味しうる。
多くのイベントでは、(「ドローン」とも称される)UAVの使用は、イベントに出かける人々に対する安全性の理由で抑止(又は完全に禁止)されている。同様に、ヘリコプターのような有人の撮像プラットフォームの使用は、不必要なリスクや嫌な騒音の原因をもたらすおそれがあり、これらの有人の撮像プラットフォームが十分に低空である場合には、下降気流の影響をもたらすおそれがある。
携帯電話のユーザーは自分のモバイル装置によりほぼ瞬時の画像を捕捉することに慣れてきたが、これらのユーザーは、しばしば自分のスナップショット画像(静止画であろうと動画であろうと)を自分の体験を表す有意義なリモート画像と合成することができない。
ユーザーが英国の田舎にあるぬかるんだ場所における屋外の音楽祭に出席する場合、数年前のある晴れた春の日に捕捉したこの場所の画像を提供するマッピングサービスの能力は、実体験の期待外れで不正確な表象をもたらす。
リモートセンシング及び撮像装置用の衛星プラットフォームは、しばしば、これらが地球の表面の異なる地域の真上を通過するように地球を周回する配置となっている(すなわち、これらプラットフォームは通常“静止状態”ではない)。衛星が備える撮像装置は特定の時間に地理的な細長い土地(strip)を目標とするように配置することができる(これによりこの細長い土地の1つ以上の画像を捕捉する)ものであり、この場合の地球の表面の細長い土地は、衛星の経路のほぼ下方の垂直線(法線)からの予め決定した鋭角の視野角内にある地球の地域である。目標とする衛星の活動を予定(スケジューリング)するための命令は、地上のシステムと、衛星を「タスキング」するものとして既知の衛星の操作機能と、の間の命令のより一層一般的なカテゴリーの例であるが、状況上他の意味に解すべき場合を除き、ここで用いる用語“タスキング”は画像捕捉を予定する命令を参照するものである。
イベントの主催者又はスポンサーが予定されたタイムスロットで予め決定した地域のリモートセンシング画像を捕捉するタスク付けを行いうる機能と、一人以上のユーザーがこの予め決定した地域内のある場所に位置している間にこのタイムスロット内の時点でそれぞれの自身のUGCを得るようにする機能と、を提供することにより、当該ユーザー(又はより一層可能性の高い複数のユーザー)には、(それぞれ)このUGCが捕捉された地理的地域であって、このUGCが捕捉された時点での地域の全体の航空写真を表す衛星のスナップショットを提供することができる。参加しているユーザーは、衛星自撮りサービスに対する登録と、この登録に基づく自身の装置に関する対応のサービスアプリケーション(例えば、「アプリ(app)」)の認証済み使用と、を介して識別することができる。
従って、ユーザーが、ぬかるみの影響がある英国音楽祭に参加している間に(自分のアプリにより、)予定されたタイムスロットにおいて、例えば、音楽祭の土曜日における12時30分と12時35分との間の5分の間に頭上の衛星により“衛星自撮り”画像を撮る準備をするように指示されるようにしうる。ユーザーは予定されたタイムスロット中にコンサートに行くこのユーザーの仲間のグループと一緒に自分の自撮りを撮ることを推奨されるものであり、この自撮りは、この自撮りを撮った時点でこのユーザーの携帯電話から読み取られるGPS位置を含むものである。この場合、このGPS位置は、自撮りが撮られた際のぬかるみのある祭りの場所の画像におけるユーザーの正確な位置を識別するのに用いることができる(すなわち、イベント/開催中に撮られた自撮り画像をイベント/開催地の衛星写真と同期させることができる)。
衛星のタスキングでは、通常、衛星システムの操作の複雑性及び所有権と、衛星装置の感度と、関連のメンテナンス、モニタリング及び予定しているタスクの金銭的コストとの為に過去において衛星所有者のみの責任が考えられてきた。その結果として、第三者の衛星のタスキングに対しては要件が存在していない。
ある実施例では、アプリにより適切な衛星が頭上にあることを(衛星自撮りサービスに登録されている)ユーザーに通知することができ、ユーザー自体は(自身の装置を介して)衛星画像を捕捉することを衛星にタスキングする命令、すなわち自撮りに相当することを衛星に有効に要求する指示を与えることができる。この場合、ユーザーの装置に対する位置情報と現在の時間とを用いて、衛星がユーザーの位置のリモート画像の捕捉が可能である位置にあるかどうかを計算することができる。上述したように、提供された又は申し込んだイベント中にユーザーの命令がサービスに送信された時点でユーザーの位置(すなわち、ユーザーの装置と関連する位置ユニットの位置)の衛星画像が捕捉される。
ユーザー又はイベントの主催者が衛星画像の捕捉をタスク付けしてもしなくても、サービスが利用可能である(すなわち、衛星が頭上にある)際のイベント中の時間においてウィンドウをユーザーに通知することができ、このユーザーはコンテンツ生成動作を実行することができる。(イベントの主催者が衛星をタスキングしている際に)衛星画像の捕捉の時間がイベントの主催者により設定された場合には、時間のウィンドウの間に自撮りを撮るとともに関連の測位位置を決定する動作をコンテンツ生成動作に含めることができる。
コンテンツ生成行動は、ユーザーにより予め設定された時点に生じる(従って、ユーザーは、衛星画像の捕捉がタスク付けされて生ぜしめられるのと同じ予め決定した時間に自撮りが撮られることを知る)ように装置におけるアプリにより、又はイベントシステムから信号を送信するイベントコントローラにより自動化しうる。或いは、ユーザーは例えばアプリを用いて従来の自撮りを行う要求を手動で送信でき、これは、衛星(又は擬似衛星)画像の捕捉に対するタスキングトリガとして作用する動作である。後者の場合、従来の自撮りの時間と、タスク付けされた衛星がタスク付けされた命令に応答しうる時間との間の時間差は、タスキングトリガの処理における待ち時間の為にかなり大きくなるおそれがある。
イベントコントローラがコンテンツ生成トリガ信号を出し、この信号がユーザー装置に指示(例えば、自撮りを行うこと)を行うのに且つ衛星にタスク付けをするのに用いられる場合、この信号が僅かに異なる時間に異なるユーザー装置に送信されるようにイベントコントローラを構成することができる。トリガの送信をずらすことにより、衛星のタスキングシステムが過負荷状態にならないことを確実にする。
この例における本発明の方法の1つの利点は、イベントのユーザーの体験をはるかに真に近い描写に容易にすることである。
図1は、本発明の一態様による操作の流れ図を概略的に示している。
機能ブロック102では、予め決定した地理的領域の少なくとも1つのリモートセンシング画像が衛星プラットフォームに設けられた画像捕捉装置から受信される。画像捕捉装置はこの少なくとも1つのリモートセンシング画像を予め決定したタイムスロット内で捕捉するようにタスク付けされている。
機能ブロック104では、ユーザー生成コンテンツ(UGC)アイテムが得られる。UGCアイテムは、地理的領域内で関連する位置を有し、タイムスロット内のユーザー決定時に捕捉されるであろう。ある場合には、UGCアイテムが更に自撮りのような静止画像を含むものである。
機能ブロック102及び104における操作は何れの順序でも行うことができ、或いは実際にほぼ同時に行うこともできる。
UGCアイテムとリモートセンシング画像との双方が利用可能となると、機能ブロック106の操作を実行し、UGCアイテムとリモートセンシング画像とを組み合わせて複合画像を形成する。
この場合、短期間のイベントと関連する複合画像はソーシャルネットワーキングサービス及びその他の通信サービスを介して共有でき、複合画像は社会的価値と証拠価値との双方を有する(例えば、関連の衛星画像に表示することができる参加者の群衆の中の自撮り又はその他のUGCアイテムに見られるように、ユーザーは所定のイベントで実際にそこに居たという明白な証拠を有する)。UGCアイテムの例には、ユーザーからの動画コンテンツ、録音、心拍数記録、生体認証読み取り値、等が含まれる。随意ではあるが、複合画像には他のコンテンツ及びメタデータを、例えば、(“公式の”動画映像、コンサートプログラムのリスト、追加の環境/気象の読み取り、商業的な提供、他のユーザーからの共有UGC、等のような)追加のマルチモーダル(多モードの)媒体コンテンツや、(拡大効果或いは複合画像へのフィルタ又は「スキン(skin)」の追加のような)処理効果を関連させることができる。
図2A及び2Bは、本発明の方法を実装しうる2つの異なるシナリオを示す。
図2Aは、(アンテナ206、地上局208及び通信ネットワーク210を介する)インターフェースポータル204への通信リンクを有する衛星202(すなわち、リモート撮像プラットフォーム)を示す。このインターフェースポータル204は、ユーザー装置220(この場合、媒体コンテンツユニット及び測位位置ユニットを組み込んだスマートフォン又はタブレットコンピュータ)とも通信を行う。ユーザー装置の媒体コンテンツユニットにより捕捉された画像は、画像の捕捉時に決定された位置情報と一緒に記憶される。画像の捕捉時間及び位置がイベントと関連する予め決定した値の範囲のそれぞれを有する場合には、ユーザー装置において実行しているアプリケーションは、捕捉された媒体コンテンツを、通信ネットワークを介してインターフェースポータルに送信しうる。捕捉された媒体コンテンツの送信は瞬時にする必要はない。すなわち、タブレットコンピュータの場合、例えば、コンテンツを捕捉しうるが、送信は、タブレットコンピュータが適切な通信接続の範囲内になるまで延期することができる(セルラー方式の通信機能のないタブレットコンピュータの場合、このことは、送信が可能となる前で、公的にアクセスしうるWi―Fi接続が利用可能となるまで待つことを意味する)。
図2Bも、(アンテナ206、地上局208及び通信ネットワーク210を介する)インターフェースポータル204への通信リンクを有する衛星202を示す。このインターフェースポータル204はユーザー装置224とも通信を行う。このユーザー装置224は外部の媒体コンテンツユニット222(この場合、イベントカメラ)と通信的な連絡状態にある。イベントカメラ又はユーザー装置のいずれかは、位置情報を得る測位位置ユニット(図示せず)に通信結合させることができる。
外部の媒体コンテンツユニット222は、携帯用とするか、或いは固定されていないプラットフォームに、例えば、レールマウント、又はケーブルマウント、又はUAV/ドローンに設けるようにするのが有利である。このような場合、外部の媒体コンテンツユニット222は、測位位置ユニットと並列させるのが便利である。
或いはまた、外部の媒体コンテンツユニット222は、(スポーツスタジアムに設置されているカメラの場合と同様に)既知の固定位置を有するようにしうる。媒体コンテンツユニット224(222)により捕捉された画像はこの画像捕捉時に決定された位置情報と一緒に記憶される。ユーザー装置224において実行するアプリケーションによれば、画像捕捉時及び画像捕捉位置がイベントと関連する予め決定した値の範囲の各々にある場合に、捕捉した媒体コンテンツを媒体コンテンツユニット222から通信ネットワーク210を介してインターフェースポータル204に送信することを指示することができる。
顔認識を実装することにより、外部の媒体コンテンツユニット222は群衆の中のユーザーの画像を捕捉し、このユーザーを識別し、個人的にされた画像を捕捉しうるようにすることができる。或いはまた、固定位置(例えば、集合場所又は興行領域の位置、或いは既定の座席の位置であって、それぞれ外部の媒体コンテンツユニット222に対する定位置であり、従って、唯一の画像角度を有する位置)の画像を捕捉することを外部の媒体コンテンツユニット222に指示することができる。各々の場合、ユーザー装置224は、外部の媒体コンテンツユニット222と通信的な連絡状態を介して画像の捕捉を開始(トリガー)させる。
本発明の第1の実施例では、本発明の方法を実装させるシステムに、媒体コンテンツを得るための媒体コンテンツユニットと、媒体コンテンツに関連付ける測位位置を提供するユニット(これは媒体コンテンツ装置において不可欠である場合がある)と、モバイルアプリケーションを実行するユーザー装置(一般的には携帯電話)と、リモート撮像プラットフォームと、当該又は各ユーザーや、このリモート撮像プラットフォーム及び少なくとも一人の管理者に対しインターフェース接続するためのポータルと、を含める。
媒体コンテンツユニットの例には、(静止画及び動画の双方を補足する)カメラと、音声記録(録音)装置と、心拍数モニタと、生体認証センサとを含める。
測位位置ユニットの例には、(例えば、GPS、GLONASS及びBeiDouの何れか又はこれらの任意の組み合わせのような技術を用いる)衛星測位システムユニットと、(通常のセルID技術を用いてセルラーネットワーク内の装置を位置決めしうる)セルラー通信ユニットとを含める。
ある実施例では、媒体コンテンツユニット及び測位位置ユニットの一方又は双方をユーザー装置内に設ける。モバイルアプリケーションはユーザーインターフェースをインターフェースポータルに提供する。
リモート撮像プラットフォームは衛星又は擬似衛星とするのが有利である。適切な擬似衛星の例は、長期間(例えば、数週間程度の期間)の間予め決定した地理的領域に亘って上方に留まることができる成層圏のUAVとして知られた装置である。このような擬似衛星プラットフォームは通常、民間航空輸送機よりも著しく高い高度で動作し、この高度での動作では、地上のユーザーに対するセキュリティーすなわち安全上のリスクは考慮されない。以下の説明では、リモート撮像プラットフォーム及び衛星に対する言及には、通常の静止軌道衛星や、高高度の擬似衛星を含める。
図1に示す操作はインターフェースポータルにより実行する。このインターフェースポータルは、本発明の方法を実装する命令を実行する少なくとも1つのプロセッサを含む。このインターフェースポータルは、1つ以上のネットワーク化されたサーバーにおいて実装するのが有利である。本発明の方法を実施する命令には、プラットフォームアプリケーションプログラミングインターフェース(API)、管理ポータル及び処理アプリケーションに対する命令を含めることができる。
プラットフォームAPIは多数のサービスを実行するように構成されている。データベースと、(管理ポータル、処理アプリケーション及び関連のアプリケーションキュー、製品出荷データベース、モバイルアプリケーション及び外部の衛星タスキングのようなその他の外部サービス、配送システム及び(アップロード及びアセットに対する)ファイル記憶装置、及びコンテンツデータベースを含む)種々のシステム/装置と、の間のデータの交換を容易にする必要がある。
プラットフォームAPIは、特に、システムの当該(又は各々の)ユーザーに対するユーザーアカウントを管理するように構成することができる。この場合、ユーザーは新たなアカウントを登録し、このアカウントに対し対応するユーザープロファイルを更新するとともに、このアカウントからログイン及びログアウトしてユーザーが出席しているイベントと関連する何れかの所定の衛星画像撮影機会(又は一群のこのような撮影機会)に参加することを契約するようにすることができる。
又、プラットフォームAPIは、イベントの場所及びタイミングを詳述しているイベントのデータベースに対するアクセスを提供するとともに、ユーザーがこの情報にアクセスすることが許されているかどうかを提供する。このイベントのデータベースにおけるイベントの記録は、例えば、「招待者限定」又は「要求に応じ」として構成し、イベント情報へのアクセスを管理者の要請で特定のユーザー(又はユーザーのグループ)に限定しうるようにすることができる。又、プラットフォームAPIは、これらのイベントの契約の対処と、一人以上のユーザーへの招待状の発行との双方又は何れか一方を容易にすることができる。
媒体コンテンツユニットにより得られた媒体コンテンツは、通信機能を介してインターフェースポータルにより受信することができる(この通信機能は、自撮り画像及び他のユーザー生成コンテンツを、例えば、ユーザー装置からインターフェースポータルへのアップロード及びダウンロードを処理することができる)。
プラットフォームAPIには、リモート撮像プラットフォームの操作と一体化するための機能も設けられている。リモート撮像プラットフォームにより捕捉されたリモートセンシング画像は通信機能を介してインターフェースポータルにより受信される。
ある実施形態では、プラットフォームAPIは、ソーシャルネットワーキングサービスと、ユーザー自身の履歴データと、このユーザーと共有している他のユーザーの履歴データとの何れか又はこれらの任意の組み合わせからの、ユーザー生成コンテンツの共有化及び検索を行うための動画埋め込みコードのような追加のコンテンツの検索を担うことができる。
媒体コンテンツは瞬時に共有するのに適した形式となっていない場合がある。プラットフォームAPIには、ユーザー装置から得られた媒体コンテンツを処理のために処理アプリケーションに供給するための機能が設けられている。又、プラットフォームAPIは、このコンテンツの処理の状態を監視して、ユーザー(及び管理者)がこの状態を検査しうるようにする。
処理アプリケーションによれば、スケジューラサービス、キューイング及び処理サービス、データ記憶装置の一体化、(モバイル及びウエブベースのプッシュ通知を含む)メッセージ送信、画像処理/生成、及び動画処理を含むサービスを提供しうる。処理アプリケーションは、インターフェースポータル内の複数のサーバーに対しスタンドアローン(独立状態)及びスケーラブル(拡張可能性)とすることができる。又、処理アプリケーションは、アップロードポーラー(poller)を含む複数のスケジューラ(スケジュール管理ソフト)を有することができ、しかも関連のアプリケーションキューから命令を読み取り且つ画像及び動画処理タスクを実行するようにしうる。又、処理アプリケーションは、論理的に分離された専用の静止画処理アプリケーション及び動画処理アプリケーションとして実装するのが有利である。
ある実施形態では、ユーザーの体験はインターフェースポータルにおいて実行する管理ポータルを介して実現されるようにする。管理者は、管理ポータルを介することにより、プラットフォームAPIを通して供給されるメタデータ、テキスト、動画、画像を含むイベントに関連するコンテンツを管理することができるとともに、広告主やイベント主催者がユーザーに広めるためのイベントスケジューリング及び商業上の提供を含む更新情報を提供しうるようにすることができる。管理ポータルは、管理者、イベント主催者及び広告主(これらを総称してパートナーとする)からのログインを管理するとともに、イベントデータベースにおける記録を管理する(これらの創設、更新及び招待状の送信を可能にする)機能を有している。管理者には「スーパーユーザー」の権利を与えて、新たなパートナーをプラットフォームに加えることができるとともに、これらパートナーのアカウントを管理しうるようにすることができる。
ある実施例では、管理ポータルが衛星サービスとのインターフェースとして機能し、衛星の追跡、可用性検査の実行を可能にする。このインターフェースには、イベントのリモート撮像と、このイベントに参加している1人以上のユーザーの行動とを調整するのに必要とする衛星タスク用の機能を設けるようにする。
ユーザーの装置においては、モバイルアプリケーションがユーザーの登録及びログインに対する特性と、改良した自撮りの体験が得られるようにするための過去及び今後のイベントに関する情報を表示するための特性とを有するようにする。
モバイルアプリケーションは、今後のイベントのリストと、これらイベントの対応する詳細とを維持する。
ユーザーはこのアプリケーションを通じて、ポータルAPIからのイベント招待に応答するか又はユーザーからの発信に際して、1つ以上のこのようなイベントに加入(すなわち、参加)することを登録しうる。
ユーザーが以前のイベントに参加していた場合には、アプリケーションがこれらのイベントの詳細及び関連の複合画像を記憶することができる。
ある実施形態では、アプリケーションがアクティブイベントの更新をもたらすようにするとともに、このアプリケーションがカウントダウンを提示して、ユーザーのコンテンツ生成が適切にタスク付けされたリモートセンシングプラットフォーム(すなわち、衛星)による通過と合致しうる次の時間枠が切迫していることにユーザーが気付くようにすることができる。
ある実施形態では、アプリケーションにより、外部の媒体コンテンツユニット(すなわち、画像捕捉装置、例えば、公式の写真家又はイベントフォトブースのカメラ)との通信を容易にする。この場合、外部の画像捕捉装置において画像捕捉を引き起こすのと、このような装置により得られた画像を要求するのとの双方又は何れか一方をユーザーが許可するようにするユーザーインターフェースを、アプリケーションに設けることができる。他の実施例では、アプリケーションをユーザー装置の内臓カメラ機能に論理的に結合して、このアプリケーションが自撮り能力を容易に達成するようにする。
ある実施形態では、測位位置ユニットがユーザー装置の外部にあるようにする。他の実施形態では、ユーザー装置が測位位置ユニットを組み込んでいるようにする。これらの各々の場合、モバイルアプリケーションは、測位位置ユニットにより発生された位置情報をアクセスするとともに、イベントマッピング、位置メタ(meta)タグ付け及び「ジオフェンシング」のような位置ベースの特性を提供するのにこの情報を用いるように構成する。
モバイルアプリケーションは、イベントと、インターフェースポータルにおける複合画像の処理状態と、に関連するプッシュ通知を受信するように構成することができる。
モバイルアプリケーションにはソーシャルネットワーキングサービスのインターフェースを設けて、複合画像をアップロードしうるとともに、Facebook(フェイスブック:登録商標)、Instagram(インスタグラム:登録商標)、Twitter(ツイッター:登録商標)等のような第三者のサービスに対し共有(及びダウンロード)しうるようにすることができる。
ある実施形態では、少なくとも1つの追加のリモートセンシング画像からデータを含めることにより複合画像を拡張することができる。このようにすることにより、ユーザーがイベントの2つ以上の画像における自分の位置を正確に指摘しうるようにするとともに、(雲又は凧がリモートセンシング画像の1つに対する視界を妨げた場合にユーザーが望む可能性のあるような)好ましい画像を選択しうるようにもすることができる。追加のリモートセンシング画像は、同じ衛星プラットフォームから、又同じ画像捕捉装置からも捕捉しうる一方、ある実施形態では、同じ衛星プラットフォームにおける他の画像捕捉装置からリモートセンシング画像(例えば、通常の可視光画像と一緒に捕捉された赤外線画像)を捕捉するようにし、他の実施例では、完全に異なるプラットフォームにおける画像捕捉装置からリモートセンシング画像を捕捉するようにする。この異なるプラットフォームは第2の衛星プラットフォーム、又はUAVプラットフォーム、又は有人航空機のプラットフォームにすることができ、又は構台上のイベントカメラとすることもできる。
ある実施形態では、過去の情報源からのデータを含めることにより複合画像が拡張されるようにすることができる。従って、地理的領域の過去の空撮画像及び衛星画像を過去のリモートセンシング画像として得ることができる。過去のリモートセンシング画像をほぼリアルタイムの複合画像と一緒に含めることは、その結果の合成複合媒体アイテムがイベントにおける体験のみならずイベントの一時的な性質をも描写することができることを意味する。
イベントが組織化されたビーチ清掃イベントに関連する場合には、例えば、その結果の合成複合媒体アイテムにより、ユーザーがこのイベント内に位置している間でも一連のイベント前‐イベント中‐イベント後の画像を介してイベント参加者の活動の結果を示すことができる。
図1に示す方法における種々のステップは、以下に記載する図3~8においてより一層詳細に説明する。
図3においては、当該又は各々のユーザー装置において実行するモバイルアプリケーションの操作を示す。ステップ302においては、ユーザー装置が、ユーザーが生成したコンテンツアイテムを捕捉する(又はユーザーからの命令で外部の媒体コンテンツユニットにより捕捉されたコンテンツアイテムを得る)。ユーザー装置の位置(又は媒体コンテンツユニット)はステップ304で決定される。ある実施形態では、位置を外部の測位位置ユニットにより決定し、他の場合には測位位置ユニットをユーザー装置に対し一体化する。
次にユーザー装置はアプリケーションキューにおいてインターフェースポータルにアップロードするためにUGCアイテム(このアイテムはこれに関連する位置情報を有している)をキューに入れる。或いは、UGCアイテムは媒体コンテンツユニットから直接アップロードするためにキューに入れることができる。ある実施形態では、ユーザー装置又は媒体コンテンツユニットが、インターフェースポータル自体において又はこのインターフェースポータルに通信可能に結合された専用のキュープロキシにおいて、UGCアイテムをキューにアップロードする処理を行うことができる。
図4は、リモート撮像プラットフォーム及びインターフェースポータルにおける操作をより一層詳細に説明している。
イベントと一致する時点で地球表面の予め決定した地域の1つ以上のリモートセンシング画像を(衛星が備える撮像装置により)捕捉する(ステップ402)。
当該又は各リモートセンシング画像は衛星から(中間の地上局及びネットワークノードを介して)インターフェースに送信し、このインターフェースで受信されるようにする(ステップ404)。
次に、この画像をUGCアイテムの改良において用いるために処理する(ステップ406)。画像は、特定の地理的領域を覆うようにクロップすることができ、(衛星が目標とする領域の真上にある際の垂直と比較した)衛星が目標とする領域を見た角度に応じて、リモートセンシング画像をオルソ補正する(すなわち、地図投影法に処理されて、空間座標が通常の二次元マップにおける座標を正確に覆うようにする)こともできる。
任意的ではあるが、(処理アプリケーションを介する)インターフェースポータルにより、結果の画像を検査するとともに、衛星画像が有用性の条件を満足していることを確認する手順(ルーチン)を適用しうる(ステップ408)(このステップには、同じイベント/時間の一連の類似画像の各画像にスコアを適用することを含めることができる)。複数の画像が利用可能であり、雲量が画像の第1の地域におけるある画像及び第1の地域とは異なる第2の地域における他の画像に影響を及ぼすことが決定される場合には、このことは、(ユーザーの報告位置のような)予め決定した位置を含む地域において雲量により影響されない画像のみが使用のために確認されることを意味する。
処理が完了すると、この結果の画像(又は複数の画像)が準備完了としてマークされる(ステップ410)。マークされた画像は、将来の使用のためにインターフェースポータル内に記憶される。
ある実施形態では、図5に示すように、インターフェースポータルが予定した間隔で処理アプリケーションの「生成ポーラー」手順を実行する(ステップ502)。このポーラー手順は、1つ以上のリモートセンシング(例えば、衛星)画像が準備完了としてマークされているか(YES)否か(NO)を周期的に決定する(ステップ504)。衛星画像が準備完了としてマークされていない場合には、処理アプリケーションは、次のポーリングが生じるまでモニタリング状態に戻る。リモートセンシング画像が準備完了である場合には、次に処理アプリケーション内の又はその外部のスケジューリング処理によりUGCアイテムのアプリケーションキューにアクセスし且つそれぞれのキューに保持されている当該又は各々のUGCアイテムを受信する(ステップ506)。次に、各UGCアイテムを(準備完了の)リモートセンシング画像と一緒に処理する(ステップ508)。
図1の処理のより詳細な説明を図6に示す。この図6は、図5のステップ508においてインターフェースポータル内で実行される操作をも詳述している。
画像の処理はインターフェースポータルにおいて実施する処理アプリケーションにより実行される。ステップ604では、処理アプリケーションにより(ステップ504で準備完了としてマークされており見つけられた衛星画像としうる)イベントに対するリモートセンシング画像を得る。UGCアイテムもステップ606で得る(このUGCアイテムは、例えば、メタデータにおける対応する位置情報を有している)。図6においては、UGCアイテムがリモートセンシング画像において示されるイベントと関連しているものと仮定しており、このことは、UGCアイテムが、イベントに対する時間範囲と、リモート画像化された領域と、登録との何れか又はこれらの任意の組み合わせに対応するタイムスタンプと、位置情報と、ユーザー登録との何れか又はこれらの任意の組み合わせを有する為に可能である。
UGCアイテムと関連する位置はリモートセンシング画像内でピクセル位置に変換する(ステップ608)。従って、インターフェースポータルは、UGCアイテムが捕捉された測位位置に対応するリモート画像化された領域内の地点に対する座標を計算する。例えば、UGCアイテムが自撮りである場合には、自撮りを行う際に自撮りを行う装置のGPS位置が、このGPS位置が含まれている地域の衛星画像上に正確に定められる。
次に、フラグ、又はピン、又は対象アイコンのような指標をリモートセンシング画像上に付加し(ステップ610)、リモートセンシング画像が、目に見えるようにマークされたUGCアイテムからの位置をもって表示される。
次に、リモートセンシング画像からの画像データをUGCアイテムのデータと合成し、複合画像を生成する(ステップ612)。表示に際しては、UGCアイテムの少なくとも一部分と、このUGCアイテムからの位置を示すようにマークされたリモートセンシング画像の少なくとも一部分と、を示すように複合画像を配列させる。
任意的ではあるが、複合画像を有する追加のコンテンツを構成することにより、処理アプリケーションが合成複合媒体アイテムを構成するようにしうる(ステップ614)。
合成複合媒体アイテムの構成には、イベント主催者と(チャリティー、又はスポンサー、又は発券サービスのような)第三者との双方又は何れか一方からのメタデータの挿入を含めることができる。ある種の例では、追加のコンテンツを(複合画像の時点でのステージ上のバンドのライブ上演を専門的に録画するような)追加のビデオシーケンスとする。ある種の例では、追加のコンテンツに、(例えば、複合画像をイベント参加に関する個人向けの公式記録に変換する)合成複合媒体アイテムに対するテンプレートにおいて用いることができる準備済み文書と(アートワークのような)準備済みグラフィックコンテンツとの双方又は何れか一方を含めることができる。
図7は、ステップ614の任意的な追加のコンテンツが静的な動画(例えば、イベントスポンサー又は主催者からの特定のイベント又は宣伝用のコンテンツアイテムに対する全ての複合画像に適用される動画の「スティング(sting)」)を含むとともにダイナミックズーム効果を提供する場合を示している。静的な動画コンテンツは、(インターフェースポータルに対しローカル、または外部にあるものとしうる)静的コンテンツ記憶装置から受信される(ステップ702)。追加のコンテンツの他の例には、個人向けのメッセージや、音楽や、他のコンテンツに対するハイパーリンクや、サービスや、テーマ(すなわち、背景、フィルタ、等)が含まれる。
リモートセンシング画像は種々の倍率の範囲で表示することができる。ダイナミックズーム効果は、順次に大きくした倍率でリモートセンシング画像に描かれる複数の位置表示を生成するとともに、表示を倍率が増大する順序で動画シーケンスのフレームとして連結することにより生ぜしめることができる(ステップ704)。最終のフレームは、現在複合画像の一部を形成しているマークされた位置を含むリモート画像の部分に対応するように形成しうる。UGCアイテムの位置は、ダイナミックズームシーケンスにおける先行フレームの幾つか又は全てにおいてマークするようにしうる。例えば、比較的小さな倍率での衛星画像の表示から、予め決定した大きな倍率でのマークされた位置を囲む衛星画像の部分の表示への「ズーム」を描写する動画効果が、イベントの衛星及び自撮りの複合画像に付加され、自撮りの位置に低倍率の(すなわち、地理的に広い)イベントの衛星表示における状況が与えられるようにすることができる。
この場合、静的な動画コンテンツと、ダイナミックズーム効果“動画”と、複合画像とを、合成複合媒体アイテムにおいて集合させることができる(ステップ706)。次に、この合成複合媒体を記憶させるとともに(ステップ708)、必要に応じサーバー、例えば、動画共有サービスサーバーにアップロードさせ(ステップ710)、このサーバーから登録されたユーザーがイベントに対する自分の動画画像を共有しうるようにする。
何れかの1つのイベント中に、リモートセンシング画像が1つ以上のリモートセンシング画像を捕捉するタスク付けを行いうる1つ以上のタイムスロットが存在しうることが想定される。更に、音楽祭、又はスポーツイベント、又は国家的イベントのような大量参加のイベントの場合、同様な数の異なる登録ユーザーにより捕捉される多数のUGCアイテムが存在する。アイテムの数が増大するにつれ、複合画像内にこれらのUGCアイテム(又は合成複合媒体アイテム)の各々を処理するのに要する時間が増大することが想定される。この処理及び記憶装置の施設が無限でないことを仮定すると、UGCの捕捉と共有の準備済みの複合画像の配信との間のこの潜在的な遅れを管理する必要がある。
図8は、複合画像のコンテンツの普及を管理する1つの機構を示す。スケジューリングアプリケーションにより予定した間隔(例えば、nを整数としたn分毎)で処理アプリケーションをポーリングして、何らかの所定のUGCアイテム(または、バッチのようなアイテム)が1つ以上の複合アイテムに処理されたか否かを決定する(ステップ802)。(ステップ804で)1つ以上の複合画像が共有の準備完了であると決定された場合、メッセージ(例えば、複合画像に割り当てられた固有の参照符号を含むことによって、複合画像を識別しうるプッシュ通知)がユーザー装置におけるモバイルアプリケーションに送信される(ステップ806)。モバイルアプリケーションがメッセージを受信すると(ステップ808)、ユーザーはインターフェースポータルから複合画像をダウンロードし、この複合画像をモバイルアプリケーション及び関連のウェブサイトの双方又は何れか一方を介して表示及び共有の双方又は何れか一方を行うようにすることができる。
ユーザー装置のディスプレイ内のモバイルアプリケーションにより表示されているユーザーインターフェースを図9に示す。第1のスクリーン表示920aでは、アプリケーションが捕捉されたUGCアイテム902の一例(例えば、自撮り画像)と、(UGCアイテムが捕捉された時点でのユーザー装置の地理的位置を表す)関連の位置情報906とを示している。
第2のスクリーン表示920bでは、リモートセンシング画像904の一部が表示されている。位置情報906はリモートセンシング画像904における対応地点でピン910として表されている。
図10は、UGCアイテム902が、捕捉された位置906に対応する位置においてピン910でマークされたリモートセンシング画像904から生成され、且つUGCアイテム902に対応する挿入縮小画像1002が重ねられた複合画像の例示的スクリーン表示1020を示す。この図示の例では、画像をダウンロード又は電子メールのようなメッセージに添付する可能性のような、モバイルアプリケーションにより提供しうる(アイコンとして表わしている)種々の追加の機能を示す重ね合わせのユーザーインタラクションボックス1006が表示さる。このモバイルアプリケーションは複合画像共有サービスと一体化することができ、この場合この共有サービス全体に亘る共有を容易にするための共有オプション1008を設けることができる。
ユーザーがイベントを呼び出すことを望む場合には、このイベントからの複合画像の記録が、ユーザー装置に記憶され且つモバイルアプリケーションを介してアクセスしうる合成複合媒体アイテムの一部を構成するようにしうる。図11は、(あなたの集まり(YourFest)と称されるイベントに関連する)アイテム1106と、(同じ又は異なるイベントに関連する他の複合画像に関連する)他のアイテム1108と、を表示するスクリーン表示1120を示す。この場合、表示アイテムは、構成するUGCアイテム及びリモートセンシング画像の縮小バージョンすなわち「サムネイル」を示すように表示するようにすることができる。この表示アイテムには、ユーザーがモバイルアプリケーションにおいて合成複合媒体アイテムを開くことなく動作しうる(アイコンとして表される)種々の追加の機能を提示する重ね合わせのユーザーインタラクションボックス1102を含めることができる。
図2A及び2Bのインターフェースポータル204は図12に示すようにサーバー1200として実装することができる。このインターフェースポータルはこのようなサーバーの分散ネットワークとして実装することができる。
インターフェースポータル1200は、少なくとも1つのプロセッサ(この場合、複数のプロセッサ1212、1214)を含むプロセスユニット1210と、記憶部ユニット1230と、入力/出力コンポーネント1250と、インターフェースポータルの構成要素の各々を通信的に接続するバス1202とを有している。
記憶部ユニット1230は少なくとも1つの記憶部装置を有している。図12は、主記憶装置1232と記憶装置ユニット1236との双方を有する記憶部ユニット1230を示している。主記憶装置の例には揮発性RAM(ランダムアクセスメモリ)が含まれるものであり、一方、記憶装置ユニットの例には不揮発性ハードディスク及びソリッドステート記憶装置が含まれる。処理ユニットを操作する命令1216は、記憶部ユニットの揮発性記憶装置及び不揮発性記憶装置の少なくとも1つに記憶されている。
入力/出力コンポーネント1250には、少なくとも1つの通信ユニットが含まれている。この通信ユニットの例には、有線イーサネット接続用のネットワークインターフェースカード(NIC)のような有線通信ユニット1262と、2G/3G/4G/5Gセルラー及びWi―Fiモジュールの双方又は何れか一方のような無線通信要素1264とが含まれる。
インターフェースポータル1200は、直接通信リンク1272を介して又はインターネットのようなネットワーク1260を介して間接的1282に1つ以上のユーザー装置1270と通信することができる。又、インターフェースポータル1200は、(ネットワーク1260及び通信リンク1274を介して)管理サーバー1280と通信することもできる。衛星運営会社の地上局サーバー、ソーシャルネットワーク及び共有サービスサーバー、広告サーバー、プレゼンスサーバー、静的動画サーバー等を含む他の外部システム1290との通信は、ネットワーク1260を介するそれぞれの通信リンク1276により提供される。
本発明の種々の実施形態の説明は、図解例及び例示の目的で行ったものであり、これは完全なものではない、すなわち本発明を説明した形態に限定するものではない。当業者によって、上述した実施形態にはその広い発明の概念から逸脱することなく変更を行うことができるものであることを理解されたい。
本発明の更なる特定の及び好適な態様は、添付する特許請求の範囲の独立項及び従属項に提示されているものである。独立項の特徴事項は、特許請求の範囲に明示されているもの以外の組み合わせにおいて従属項の特徴事項と組み合わせることができることが認識されるであろう。

Claims (23)

  1. 衛星プラットフォームに設けられた画像捕捉装置から、予め決定された地理的領域の少なくとも1つのリモートセンシング画像を受信することであって、前記画像捕捉装置は予め決定されたタイムスロット内で前記少なくとも1つのリモートセンシング画像を捕捉するようにタスク付けされている、ことと、
    ユーザー生成コンテンツ(UGC)アイテムを得ることであって、前記UGCアイテムは前記地理的領域内の関連位置を有するとともに、前記タイムスロット内のユーザー決定時に捕捉される、ことと、
    前記UGCアイテムと前記リモートセンシング画像とを組み合わせて複合画像を形成することと、
    を有する、コンピューター実装方法。
  2. 請求項1に記載のコンピューター実装方法において、前記UGCアイテムがユーザー生成位置情報と、ユーザー生成静止画と、ユーザー生成動画と、ユーザー生成音声と、ウェアラブルセンサデータとのうちの少なくとも1つを含む、コンピューター実装方法。
  3. 請求項2に記載のコンピューター実装方法において、前記UGCアイテムは自撮り画像とする、コンピューター実装方法。
  4. 請求項1~3のうちの何れか1項に記載のコンピューター実装方法において、前記方法が更に周囲の音声データを得ることを有し、前記UGCアイテムが更に前記周囲の音声データを含む、コンピューター実装方法。
  5. 請求項1~4のうちの何れか1項に記載のコンピューター実装方法において、前記方法が更に少なくとも1つの追加のリモートセンシング画像を得ることを有する、コンピューター実装方法。
  6. 請求項5に記載のコンピューター実装方法において、前記少なくとも1つの追加のリモートセンシング画像は他の画像捕捉装置から得られる、コンピューター実装方法。
  7. 請求項6に記載のコンピューター実装方法において、前記他の画像捕捉装置は、前記衛星プラットフォームとは異なる第2のプラットフォームにより提供される、コンピューター実装方法。
  8. 請求項7に記載のコンピューター実装方法において、前記第2のプラットフォームは第2の衛星プラットフォームと、UAVプラットフォームと、有人航空機のプラットフォームとのうちの1つとする、コンピューター実装方法。
  9. 請求項1~8のうちの何れか1項に記載のコンピューター実装方法において、組み合わせることが、
    前記リモートセンシング画像を地図投影法に処理して衛星の視野角度を補うようにすることと、
    前記UGCアイテムと関連する前記位置を前記処理されたリモートセンシング画像内のピクセル位置に変換することと、
    前記ピクセル位置における前記処理されたリモートセンシング画像上に可視的指標を付加することと、
    を有する、コンピューター実装方法。
  10. 請求項1~9のうちの何れか1項に記載のコンピューター実装方法において、前記方法が、前記複合画像を有する追加のコンテンツを構成することにより合成複合媒体アイテムを構成することを更に有する、コンピューター実装方法。
  11. 請求項10に記載のコンピューター実装方法において、前記方法は、前記地理的領域の過去のリモートセンシング画像を得ることを含み、
    前記追加のコンテンツが前記過去のリモートセンシング画像を含む、
    コンピューター実装方法。
  12. 請求項10又は請求項11に記載のコンピューター実装方法において、前記追加のコンテンツが、
    メタデータと、
    追加の事前生成動画コンテンツと、
    追加の事前生成音声コンテンツと、
    準備済み文書コンテンツと、
    準備済みグラフィックコンテンツと、
    視覚効果と、
    他のユーザーにより共有されるユーザー生成コンテンツと、
    のうちの少なくとも1つを含む、コンピューター実装方法。
  13. 少なくとも1つのプロセッサと少なくとも1つの通信ユニットとを有するポータル装置であって、
    前記少なくとも1つの通信ユニットは、予め決定された地理的領域の少なくとも1つのリモートセンシング画像を衛星プラットフォームに設けられた画像捕捉装置から受信するように構成され、前記画像捕捉装置は、予め決定されたタイムスロット内で前記少なくとも1つのリモートセンシング画像を捕捉するとともに、ユーザー生成コンテンツ(UGC)アイテムを得るようにタスク付けされており、前記UGCアイテムは、前記地理的領域内の関連位置を有するとともに、前記タイムスロット内のユーザー決定時に捕捉され、
    前記少なくとも1つのプロセッサは、前記UGCアイテムと前記リモートセンシング画像とを組み合わせて複合画像を形成するように構成される、
    ポータル装置。
  14. 機械可読媒体は一組の命令を有しており、前記命令は、少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~12の何れか1項のコンピューター実装方法を遂行させる、機械可読媒体。
  15. モバイル装置におけるコンピューター実装方法であって、
    コンテンツ捕捉装置に、ユーザー決定時にユーザー生成コンテンツ(UGC)アイテムを捕捉させることと、
    位置ユニットに前記モバイル装置を位置付けさせるとともに、前記位置を前記捕捉されたUGCアイテムと関連付けさせることと、
    前記ユーザー決定時が予め決定されたタイムスロット内であるか否かを決定するとともに、前記モバイル装置の前記位置が予め決定された地理的領域内にあるか否かを決定することと、
    前記ユーザー決定時が前記予め決定されたタイムスロット内にあるとともに、前記モバイル装置の前記位置が前記予め決定された地理的領域内にある場合には、組み合わせるサービスと通信することにより、ユーザー画像とリモートセンシング画像とを組み合わせる複合画像の生成を動作させることであって、前記リモートセンシング画像は、前記予め決定されたタイムスロット内で、前記予め決定された地理的領域にある衛星プラットフォームに設けられた画像捕捉装置により捕捉される、ことと、
    を有する、コンピューター実装方法。
  16. 請求項15に記載のコンピューター実装方法において、前記位置はグローバル衛星測位技術を用いて得られる、コンピューター実装方法。
  17. 請求項15又は請求項16に記載のコンピューター実装方法において、前記位置はセルIDを用いて得られる、コンピューター実装方法。
  18. コンテンツ捕捉装置と、
    位置ユニットと、
    記憶部と、
    少なくとも1つのプロセッサと、
    を有するモバイル装置であって、
    前記記憶部が命令を記憶しており、前記命令は、前記プロセッサにおいて実行されると、
    前記コンテンツ捕捉装置に、ユーザー決定時にユーザー生成コンテンツ(UGC)アイテムを捕捉させ、
    前記位置ユニットに前記モバイル装置を位置付けさせるとともに、前記位置を前記捕捉されたUGCアイテムと関連付けさせ、
    前記ユーザー決定時が予め決定されたタイムスロット内にあるか否かを決定するとともに、前記モバイル装置の前記位置が予め決定された地理的領域内にあるか否かを決定して、
    前記ユーザー決定時が前記予め決定されたタイムスロット内にあるとともに、前記モバイル装置の前記位置が前記予め決定された地理的領域内にある場合、組み合わせるサービスと通信することにより、ユーザー画像とリモートセンシング画像とを組み合わせる複合画像の生成を動作させ、前記リモートセンシング画像は、前記予め決定されたタイムスロット内で、前記予め決定された地理的領域にある衛星プラットフォームに設けられた画像捕捉装置により捕捉される、
    モバイル装置。
  19. 機械可読媒体は一組の命令を有し、前記命令は、少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項15~17の何れか1項のコンピューター実装方法を遂行させる、機械可読媒体。
  20. 請求項1に記載のコンピューター実装方法において、前記少なくとも1つのリモートセンシング画像は、動画である、コンピューター実装方法。
  21. 請求項13に記載のポータル装置において、前記少なくとも1つのリモートセンシング画像は、動画である、ポータル装置。
  22. 請求項15に記載のコンピューター実装方法において、前記リモートセンシング画像は、動画である、コンピューター実装方法。
  23. 請求項18に記載のモバイル装置において、前記リモートセンシング画像は、動画である、モバイル装置。
JP2021532912A 2018-12-17 2019-12-16 撮像方法及びシステム Active JP7466213B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB1820541.9 2018-12-17
GBGB1820541.9A GB201820541D0 (en) 2018-12-17 2018-12-17 Imaging method and system
US16/230,645 US10951814B2 (en) 2018-12-17 2018-12-21 Merging satellite imagery with user-generated content
US16/230,645 2018-12-21
PCT/GB2019/053560 WO2020128440A1 (en) 2018-12-17 2019-12-16 Imaging method and system

Publications (2)

Publication Number Publication Date
JP2022513761A JP2022513761A (ja) 2022-02-09
JP7466213B2 true JP7466213B2 (ja) 2024-04-12

Family

ID=65147202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021532912A Active JP7466213B2 (ja) 2018-12-17 2019-12-16 撮像方法及びシステム

Country Status (8)

Country Link
US (2) US10951814B2 (ja)
EP (1) EP3900321A1 (ja)
JP (1) JP7466213B2 (ja)
KR (1) KR102698369B1 (ja)
CN (1) CN113366827B (ja)
CA (1) CA3122197A1 (ja)
GB (1) GB201820541D0 (ja)
WO (1) WO2020128440A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201820541D0 (en) * 2018-12-17 2019-01-30 Spelfie Ltd Imaging method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090011A (ja) 2006-10-02 2008-04-17 Ntt Data Corp 画像補正装置、画像補正方法及びプログラム
JP2010130513A (ja) 2008-11-28 2010-06-10 Hitachi Ltd 衛星画像配信システム、衛星画像配信サーバ装置および衛星画像配信方法
JP2012083912A (ja) 2010-10-08 2012-04-26 Chino Shoko Kaigisho 踏破証明書発行システム
JP2017078862A (ja) 2009-11-26 2017-04-27 株式会社Jvcケンウッド 情報表示装置、情報表示方法、および情報表示プログラム
US20170150060A1 (en) 2014-03-04 2017-05-25 Orbit Logic, Inc. Method for Providing Imaging Satellite Information on a Mobile Device

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0693768B2 (ja) * 1988-12-27 1994-11-16 日本電気株式会社 撮像信号処理装置
KR100563667B1 (ko) 2001-12-24 2006-03-28 엘지전자 주식회사 재기록 가능 기록매체에의 정지영상 기록방법
CN2687613Y (zh) * 2002-08-09 2005-03-23 爱信艾达株式会社 地图显示装置
US20060197781A1 (en) * 2005-03-03 2006-09-07 Arutunian Ethan B System and method utilizing enhanced imagery and associated overlays
US8756501B1 (en) * 2005-12-30 2014-06-17 Google Inc. Method, system, and graphical user interface for meeting-spot-related introductions
US7529794B2 (en) * 2006-02-21 2009-05-05 International Business Machines Corporation Method and system for mediating published message streams for selective distribution
US20070226314A1 (en) * 2006-03-22 2007-09-27 Sss Research Inc. Server-based systems and methods for enabling interactive, collabortive thin- and no-client image-based applications
US20080043020A1 (en) * 2006-08-18 2008-02-21 Microsoft Corporation User interface for viewing street side imagery
KR100971417B1 (ko) * 2006-10-17 2010-07-21 주식회사 메디슨 초음파 영상과 외부 의료영상의 합성 영상 상에 의료용바늘을 디스플레이하기 위한 초음파 시스템
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
KR101497994B1 (ko) * 2008-10-27 2015-03-03 에스케이플래닛 주식회사 멀티미디어 지도서비스 시스템 및 이의 제공방법
FR2950438B1 (fr) * 2009-09-18 2011-10-14 Eads Defence & Security Sys Localisation tridimensionnelle de zone cible terrestre par fusion d'images prises par deux capteurs satellitaires
US8260775B2 (en) * 2010-01-12 2012-09-04 Microsoft Corporation Geotemporal search
US20120029812A1 (en) * 2010-07-29 2012-02-02 King Abdul Aziz City For Science And Technology Method and system for automatically planning and scheduling a remote sensing satellite mission
KR20120086088A (ko) * 2011-01-25 2012-08-02 삼성전자주식회사 이미지 처리 방법 및 장치
CN104765801A (zh) * 2011-03-07 2015-07-08 科宝2股份有限公司 用于从事件或地理位置处的图像提供者进行分析数据采集的系统及方法
US8755559B1 (en) * 2011-08-10 2014-06-17 Google Inc. Determining GPS coordinates for images
JP2015505384A (ja) * 2011-11-08 2015-02-19 ヴィディノティ エスアーVidinoti Sa 画像アノテーション方法およびシステム
US9977978B2 (en) * 2011-11-14 2018-05-22 San Diego State University Research Foundation Image station matching, preprocessing, spatial registration and change detection with multi-temporal remotely-sensed imagery
US9602738B2 (en) * 2011-11-23 2017-03-21 Avigilon Fortress Corporation Automatic event detection, text generation, and use thereof
JP5817664B2 (ja) * 2012-03-19 2015-11-18 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
US9367959B2 (en) * 2012-06-05 2016-06-14 Apple Inc. Mapping application with 3D presentation
US9165217B2 (en) * 2013-01-18 2015-10-20 International Business Machines Corporation Techniques for ground-level photo geolocation using digital elevation
US9947128B2 (en) * 2013-01-29 2018-04-17 Andrew Robert Korb Methods for improving accuracy, analyzing change detection, and performing data compression for multiple images
KR102047703B1 (ko) * 2013-08-09 2019-11-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US20180227504A1 (en) * 2013-11-05 2018-08-09 Livestage Inc. Switchable multiple video track platform
BR112016006091B1 (pt) * 2013-11-21 2022-09-06 Huawei Device (Shenzhen) Co., Ltd Método de exibição de imagem, meio de armazenamento de computador, aparelho de exibição de imagem e dispositivo de terminal
WO2015112263A2 (en) * 2013-12-04 2015-07-30 Urthecast Corp. Systems and methods for processing distributing earth observation images
US9619927B2 (en) * 2014-02-21 2017-04-11 International Business Machines Corporation Visualization of objects along a street
US9344994B2 (en) * 2014-03-04 2016-05-17 Orbit Logic, Inc. Method for providing imaging satellite opportunity notifications on a mobile device
US9881590B2 (en) * 2014-03-12 2018-01-30 HERE Global, B.V. Method and apparatus for multi-resolution point of interest boundary identification in digital map rendering
US20160093020A1 (en) 2014-09-30 2016-03-31 Umm Al-Qura University Method of procuring integrating and sharing self portraits for a social network
US9830724B2 (en) * 2014-11-21 2017-11-28 Mastercard International Incorporated Detecting real estate vacancies using satellite imagery
JP6271047B2 (ja) * 2015-02-13 2018-01-31 日本電信電話株式会社 衛星信号受信特性推定装置、その方法及びプログラム
WO2017003538A2 (en) * 2015-04-14 2017-01-05 Tobin Fisher System for authoring, executing, and distributing unmanned aerial vehicle flight-behavior profiles
US20160357370A1 (en) * 2015-06-04 2016-12-08 Napa Jet Center System and methods for organizing and mapping events and objects at a geographic area
US9591157B2 (en) * 2015-06-15 2017-03-07 Canon Information And Imaging Solutions, Inc. Apparatus, system and method for controlling an image processing device via a mobile device
US20170034470A1 (en) * 2015-08-02 2017-02-02 Cfkk, Llc Systems and methods and apparatuses for capturing concurrent multiple perspectives of a target by mobile devices
US20180231668A1 (en) * 2015-08-10 2018-08-16 Honeywell International Inc. Dynamic Anchor Network for a First Responder Situation
US10585210B2 (en) * 2015-10-06 2020-03-10 Arable Labs, Inc. Apparatus for radiometric correction and orthorectification of aerial imagery
US10026315B2 (en) * 2015-11-02 2018-07-17 Walmart Apollo, Llc Apparatus and method for monitoring parking area
US10606961B2 (en) * 2015-11-30 2020-03-31 Corning Optical Communications LLC Tools and methods for designing indoor and outdoor waveguide system networks
EP3182700A1 (en) * 2015-12-18 2017-06-21 Airbus Defence and Space Limited Continuous video from satellites
JP2019513315A (ja) * 2016-02-29 2019-05-23 ウルグス ソシエダード アノニマ 惑星規模解析のためのシステム
US10037611B2 (en) * 2016-06-16 2018-07-31 Andromeda Holding B.V. Method and apparatus for generating map data from images
US10123052B2 (en) * 2016-11-18 2018-11-06 Mapbox, Inc. Elimination of artifacts from lossy encoding of digital images by color channel expansion
CN107067003B (zh) * 2017-03-09 2021-09-21 百度在线网络技术(北京)有限公司 感兴趣区域边界的提取方法、装置、设备和计算机存储介质
CN106851164A (zh) * 2017-03-28 2017-06-13 戴金辰 记录图像、影像生成保留方法
US10178499B2 (en) * 2017-04-21 2019-01-08 The United States Of America As Represented By The Administrator Of Nasa Virtual stationary satellites over any area of the earth for a continuous or set amount of time
US10977871B2 (en) * 2018-04-25 2021-04-13 International Business Machines Corporation Delivery of a time-dependent virtual reality environment in a computing system
US11063658B2 (en) * 2018-06-28 2021-07-13 Amazon Technologies, Inc. Satellite antenna ground station service system
GB201820541D0 (en) * 2018-12-17 2019-01-30 Spelfie Ltd Imaging method and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090011A (ja) 2006-10-02 2008-04-17 Ntt Data Corp 画像補正装置、画像補正方法及びプログラム
JP2010130513A (ja) 2008-11-28 2010-06-10 Hitachi Ltd 衛星画像配信システム、衛星画像配信サーバ装置および衛星画像配信方法
JP2017078862A (ja) 2009-11-26 2017-04-27 株式会社Jvcケンウッド 情報表示装置、情報表示方法、および情報表示プログラム
JP2012083912A (ja) 2010-10-08 2012-04-26 Chino Shoko Kaigisho 踏破証明書発行システム
US20170150060A1 (en) 2014-03-04 2017-05-25 Orbit Logic, Inc. Method for Providing Imaging Satellite Information on a Mobile Device

Also Published As

Publication number Publication date
US20200195841A1 (en) 2020-06-18
KR102698369B1 (ko) 2024-08-23
CN113366827A (zh) 2021-09-07
EP3900321A1 (en) 2021-10-27
WO2020128440A1 (en) 2020-06-25
KR20210110821A (ko) 2021-09-09
CN113366827B (zh) 2024-05-28
GB201820541D0 (en) 2019-01-30
US20220070367A1 (en) 2022-03-03
CA3122197A1 (en) 2020-06-25
JP2022513761A (ja) 2022-02-09
US10951814B2 (en) 2021-03-16

Similar Documents

Publication Publication Date Title
US11113330B2 (en) System for providing imaging satellite opportunity notifications and low resolution preview images on a mobile device
KR101985283B1 (ko) 동적 홍보 배치 관리와 배포 규칙
US20140178029A1 (en) Novel Augmented Reality Kiosks
US9344994B2 (en) Method for providing imaging satellite opportunity notifications on a mobile device
KR102017754B1 (ko) 드론의 촬영 영상을 이용한 정사 영상 생성과 공간정보 활용 웹 서비스 방법
US11640169B2 (en) Systems and methods for determining preferences for control settings of unmanned aerial vehicles
US20150358390A1 (en) Method and system to share visual content across a plurality of mobile devices to generate interest, support and funding for philanthropic and for social causes
JP7515552B2 (ja) 人々のグループおよび画像ベースの作成物の自動生成
US10666664B2 (en) System and method of providing location-based privacy on social media
JP7466213B2 (ja) 撮像方法及びシステム
CN110750155B (zh) 一种与图像互动的方法、装置、介质和电子设备
US20240070189A1 (en) Device messages provided in displayed image compilations based on user content
JP2019114952A (ja) 画像処理システム、画像処理方法、画像処理装置、プログラム及び携帯端末
CN108696709A (zh) 用于交换视频内容的方法、设备和系统
WO2016152483A1 (ja) ユーザ関心推定システムおよび情報配信システム
Harada et al. Tuvalu Visualization Project-Net Art on Digital Globe: Telling the Realities of Remote Places
WO2021005593A1 (en) Panoramic imaging via networked devices
GB2529800A (en) System and method for storage and display of pictures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240326

R150 Certificate of patent or registration of utility model

Ref document number: 7466213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150