JP5053404B2 - 関連メタデータに基づくデジタル画像のキャプチャと表示 - Google Patents

関連メタデータに基づくデジタル画像のキャプチャと表示 Download PDF

Info

Publication number
JP5053404B2
JP5053404B2 JP2010073982A JP2010073982A JP5053404B2 JP 5053404 B2 JP5053404 B2 JP 5053404B2 JP 2010073982 A JP2010073982 A JP 2010073982A JP 2010073982 A JP2010073982 A JP 2010073982A JP 5053404 B2 JP5053404 B2 JP 5053404B2
Authority
JP
Japan
Prior art keywords
image
metadata
content
images
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010073982A
Other languages
English (en)
Other versions
JP2010244534A (ja
Inventor
ダブリュー. ハウセッカー ホルスト
ガット ヨラム
エム. エッティンガー スコット
ヴィ. コジンツェフ イーゴリ
ウー イー
ネスタレス オスカー
Original Assignee
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2010244534A publication Critical patent/JP2010244534A/ja
Application granted granted Critical
Publication of JP5053404B2 publication Critical patent/JP5053404B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明の実施形態は、デジタル画像に関し、より具体的には関連メタデータに基づくデジタル画像のキャプチャと表示とに関する。
デジタルカメラやデジタル写真が普及する前には、他人に写真を見せる場合、アルバムやスライドショーで見せたり、写真を束ねて渡して見せたりしていた。ユーザはデジタルカメラにより個人的に大量のデジタル写真を撮って保管できるようになった。さらに、デジタル写真を「デジタルスライドショー」としてコンピュータの画面やデジタルフレームに個別に表示することもできる。
ウェブサービス(例えば、Flickr(登録商標)など)に画像をアップロードしてそれを他人と共有することにより、デジタル写真を共有することもできる。しかし、ユーザには、こうした写真を個別に見なければならないという制約があり、またはディスプレイ装置に同時に複数の写真を表示する場合には、「サムネイル」(すなわち、写真を縮小したもの)のコレクションとして見なければならないという制約がある。
しかし、デジタル写真を個別に表示したり、サムネイルを表示したりしたのでは、撮影時に撮影者が体験した感覚を見る者に伝えきれない。
デジタルビデオデータも同様にアップロードして共有できる。また、デジタルビデオデータのコレクションも、コレクション中の各デジタルビデオのフレームを表すサムネイルのコレクションとしてまとめられることが多い。上記の制約に加え、サムネイルによる概観ではデジタルビデオのコンテンツに関する情報を見る者に十分伝えることはできない。
本開示の一態様による方法は、
第1の画像と前記第1の画像に関連する第1のメタデータとを受け取る段階であって、前記第1の画像は画像キャプチャデバイスでキャプチャされ、前記第1のメタデータは前記第1の画像のコンテンツの地理情報を含む、段階と、第2の画像と前記第2の画像に関連する第2のメタデータとを受け取る段階であって、前記第2のメタデータは前記第2の画像のコンテンツの地理情報を含む、段階と、前記第1の画像の視点を決定する段階であって、前記視点は前記第1の画像をキャプチャした時の前記画像キャプチャデバイスの位置と方向を表す、段階と、前記第1の画像と前記第2の画像とを含むビューを生成する段階とを含み、前記ビューにおける前記第1の画像の配置は前記第1のメタデータと前記第1の画像の視点とに基づき、前記第1の画像に対する前記第2の画像の配置は前記第2のメタデータと前記第1の画像の視点とに基づく、方法である。
本開示の他の一態様による装置は、第1の画像と前記第1の画像に関連する第1のメタデータであって、前記第1の画像は画像キャプチャデバイスでキャプチャされ、前記第1のメタデータは前記第1の画像のコンテンツの地理情報を含むものと、第2の画像と前記第2の画像に関連する第2のメタデータであって、前記第2のメタデータは前記第2の画像のコンテンツの地理情報を含むものと、を含むデータ記憶部と、前記第1の画像の視点を決定し、ここで前記視点は前記第1の画像をキャプチャした時の前記画像キャプチャデバイスの位置と方向を表し、前記第1の画像と前記第2の画像とを含むビューを生成し、ここで、前記ビューにおける前記第1の画像の配置は前記第1のメタデータと前記第1の画像の視点とに基づき、前記第2の画像の配置は前記第1と第2のメタデータと前記第1の画像の視点とに基づく、前記第1と第2の画像と、前記第1と第2のメタデータとにアクセスする、前記データ記憶部に動作可能に結合したレンダリングモジュールと、生成されたビューにアクセスし表示する、前記レンダリングモジュールに動作可能に結合したディスプレイと、を有する装置である。
本開示のさらに他の一態様によるコンピュータプログラムは、コンピュータに実行されると、前記コンピュータに、画像キャプチャデバイスによりキャプチャされた第1の画像の視点を決定する段階であって、前記視点は前記第1の画像をキャプチャした時の前記画像キャプチャデバイスの位置と方向を表す、段階と、前記第1の画像と第2の画像とを含むビューを生成する段階とを実行させ、前記ビューにおける前記第1の画像の配置は前記第1の画像に関連する第1のメタデータと前記第1の画像の視点とに基づき、前記第1のメタデータは前記第1の画像のコンテンツの地理情報を含み、前記第1の画像に対する前記第2の画像の配置は前記第1のメタデータと、前記第1の画像の視点と、前記第2の画像に関連する第2のメタデータとに基づき、前記第2のメタデータは前記第2の画像のコンテンツの地理情報を含む、コンピュータプログラムである。
以下の説明は、本発明の実施形態の実施例による例示を示す図面の説明を含んでいる。図面は限定としてではなく例示として理解すべきものである。ここでは、「実施形態」と言った場合、本発明の実施に含まれる具体的なフィーチャ(feature)、構成、または特徴の記載であると理解すべきである。よって、「一実施形態では」または「別の一実施形態では」と言った場合、本発明の様々な実施形態や実施を表し、必ずしも同一の実施形態を示すものではない。しかし、これらの実施形態は必ずしも互いに排他的である必要はない。
本発明の一実施形態による、画像データをレンダリング及び表示するシステムまたは装置を示すブロック図である。 レンダリングデバイスにより生成される画像コレクションの一ビューを示す図である。 受け取った画像とメタデータとに基づきビューを生成するプロセスの一実施形態を示すフロー図である。 画像コレクションの「動いている」非静的コンテンツを含むビューの一例を示す図である。 没入型3次元環境と、画像に対してレンダリングできる画像表示フィーチャとの実施形態を示す図である。 レンダリングした写真とビデオのコンテンツを表示するユーザインタフェースの一実施形態を示す図である。以下に詳細と実施形態とを説明する。これには、図面の説明も含む。図面は以下に説明する全てまたは一部の実施形態を示す。また、ここに説明する発明コンセプトのその他の潜在的な実施形態も説明する。以下に本発明の実施形態の概要を説明し、次に図面を参照してより詳細に説明する。
本発明の実施形態はデジタル写真及びビデオのデータのレンダリング及び表示に関する。本発明の実施形態はレンダリング及び表示のプロセスとして表すことができる。
一実施形態では、レンダリングデバイスが、複数の画像ファイルとそれに関連するメタデータとを受け取る。以下に説明する実施形態では、「画像」という用語は、デジタル写真とデジタルビデオのフレームとを両方とも指す。
レンダリングデバイスは、複数の画像ファイルの各々を含むビューを生成できる。各画像ファイルの配置は画像のコンテンツに基づく。ビュー中の各画像の配置は、さらに各画像に関連するメタデータに基づく。
マイクロソフトPhotosynth(商標)などの従来のレンダリング及び表示プロセスは、多くの写真コレクションを用いて、写真から各写真の画像コンテンツのみに基づき多次元情報を抽出する。これらのプロセスは各写真の画像コンテンツのみに基づくので、ビューに表示する写真のコンテンツはオーバーラップしなければならない。よって、写真コレクション中の他の画像とオーバーラップしない画像はこのビューには含まれない(ドロップされる)。コレクションから写真をドロップすることは、自分の個人的な写真コレクションを表示して共有しようとする人にとっては受け入れられない。しかし、見る者にとっては、写真コレクション中の冗長な情報を見ることは退屈なことである。例えば、背景が同じで各画像の変化が比較的少ない画像を複数見ても面白くない。
さらに、写真やビデオのデータは、異なるファイルフォーマットで格納されるため、格納して整理する(organize)する従来技術による方法には制約があった。そのため、写真やビデオのデータをそのコンテンツに応じて格納して整理することは厄介である。例えば、従来の格納及び整理方法を用いると、写真やビデオは通常、コンテンツが空間的及び/または時間的に近くても、この近さを反映して格納及び/または整理されることはない。
一実施形態では、レンダリングデバイスが複数の画像とそれに関連するメタデータとを受け取り、画像の没入ビューを生成する。画像を関連メタデータとともに受け取るので、前記レンダリングデバイスは大きな写真コレクションを受け取る必要はなく、受け取る写真のコンテンツがオーバーラップする必要はない。
画像メタデータは、環境検出機能及び方向検出機能を有するデバイスまたはデバイスコレクションから得ることができる。画像ファイルに関連するメタデータは、地理情報、磁場情報(例えば、磁極方向情報)、空間情報(加速及び各運動量などの運動に関する情報を含む)、及び時間情報を含み得る。かかる環境及び方向検出メタデータの組み合わせは、3次元方向メタデータと呼ぶこともある。関連する画像メタデータに替わりに他のラベルを適用してもよい。3次元方向メタデータは、例えば地理的センサ、加速度計、磁気計、及びジャイロスコープを組み合わせて求めてもよい。
地理的情報は写真や画像のコンテンツの情報を含んでいてもよい。地理的情報は、レンダリング及び表示する各写真やビデオをキャプチャした画像キャプチャデバイスの地理的情報(すなわち、写真やビデオをキャプチャした時の画像キャプチャデバイスの位置及び方向に関する情報)を追加的または代替的に含んでいてもよい。
一実施形態では、地理的情報はグローバルナビゲーションサテライトシステム(グローバルポジショニングシステムなど)から受け取り、磁場情報は磁気計から受け取り、空間及び時間情報は(加速度を測る)加速度計と(各運動量を測る)ジャイロスコープとから受け取る情報に基づく。他の一実施形態では、上記の全ての情報を単一のデバイスから受け取る。
レンダリングデバイスは、十分な関連メタデータとともに写真やビデオデータのコレクションを受け取り、そのコレクション全体または概要を表示するビューを生成する。写真やビデオのファイルフォーマットは異なっていてもよい。さらに、ビデオデータは関連データを含むものであってもよい(例えば、ビデオデータファイルはビデオの画像データとともに再生する、対応するサウンドデータを含んでいてもよい)。レンダリングデバイスは写真データとビデオデータとを一緒に処理して、写真データとビデオデータを含むビューを生成してもよい。例えば、ビデオデータを連続した画像(consecutive unique images)(すなわち、フレーム)のコレクションとして処理できる。この時、ビデオの各フレームは個別の写真と同様に処理される。
一実施形態では、没入ビュー(immersive view)として表示を生成する。例えば、3次元没入環境として没入ビューをレンダリングしてもよい。画像及び/またはビデオのコンテンツを、ビデオや写真を撮った時のカメラの位置と方向に対する正しいサイズに比例するように表示し、そのコンテンツの動きを空間的及び/または時間的に適切に表示する。
関連メタデータに基づき画像コンテンツをレンダリングすることにより、写真やビデオを様々な方法で表示できる。一実施形態では、コレクションの写真やビデオの1つを撮った時のカメラの位置と方向とに基づき、見る者の視点を決め、この視点に対してそのコレクションを表示する。他の一実施形態では、写真やビデオのコレクションのコンテンツを分析して、冗長なコンテンツを検出する。冗長なコンテンツを含む画像はつなぎ合わせて、冗長なコンテンツがすべてオーバーラップした1つの画像を表示してもよい。こうすることにより、個別の写真やビデオフレームよりも多くのコンテンツを含む画像を提供する。
一実施形態では、第1の画像の配置が、関連するメタデータに基づく、第1の画像のビューを生成する。第1と第2の画像のビューも生成する。ここで、第1の画像の配置はその第1の画像に関連するメタデータに基づく。第1の画像に対する第2の画像の配置はその第1の画像に関連するメタデータと、第2の画像に関連するメタデータと、第1の画像の配置とに基づく、このように、複数の画像の相対的な位置と方向のビューを生成し、オーバーラップがあれば、ビュー中の画像の位置をそのコンテンツに基づき調整する。
動きに関する画像メタデータを用いて、表示中を「動く」オブジェクトをレンダリングしてもよい。一実施形態では、(比較的)静的な背景コンテンツを含む写真のコレクションを背景としてレンダリングし、動くコンテンツをその背景中の「動き」をシミュレーションするように表示してもよい。
画像メタデータを用いて様々な方法で写真やビデオのコレクションを整理できる。一実施形態では、写真及び/またはビデオのコレクションをナビゲートするインタフェース(例えば、時間バーや位置経路など)としてメタデータをビュー内に表示する。メタデータをユーザインタフェースに組み込んで、コレクションのコンテンツの空間的及び/または時間的コンテキスト中で写真やビデオのコレクションを見る。
図1は、本発明の一実施形態による、画像データをレンダリング及び表示するシステムまたは装置を示すブロック図である。システムまたは装置100は、画像キャプチャデバイス102とデータ記憶部101とに動作可能に結合したレンダリングデバイス103を含む。写真及び/またはビデオに関連するメタデータを画像キャプチャデバイス102とデータベース101に含んでいてもよい。レンダリングデバイスはディスプレイ104に表示すべくレンダリングしたデータを送る。
一実施形態では、画像キャプチャデバイス102、データ記憶部101、レンダリングデバイス103、及びディスプレイ104は1つの装置に含まれる。例えば、デジタルカメラ(102)がセキュアデジタル(SD)カード(101)に動作可能に結合し、そのデジタルカメラの液晶ディスプレイ(LCD)ユニットのディスプレイにレンダリングするレンダリングモジュール(103)を含む。他の一実施形態では、画像キャプチャデバイス102とデータ記憶部101は別々のデバイスであり、レンダリングデバイス103によりレンダリングされる写真及び/またはビデオを含む。画像キャプチャデバイス102とデータ記憶部101とは、写真及び/またはビデオに関する3次元方向メタデータを含んでもよい。
例えば、画像キャプチャデバイス102は、写真、ビデオ、及び関連メタデータをキャプチャできる携帯電話カメラであってもよい。画像キャプチャデバイス102のローカルな記憶部がいっぱいになると、画像キャプチャデバイス102はそのローカルな記憶部のコンテンツを外部データ記憶部101に転送する。レンダリングデバイス103を呼び出し、画像キャプチャデバイス102とデータ記憶部101の両方のデータをレンダリングする。レンダリングされたビューは、その全体がディスプレイ104に送られ、またはセグメント単位でバッファされディスプレイ104に送られ、空間または時間に基づきバッファされる。
図2は、レンダリングデバイスにより生成される画像コレクションを含むビューを示す図である。画像201、202、及び203はオーバーラップしたコンテンツを含む。図2に示した実施例では、画像201のコンテンツは画像202のコンテンツとオーバーラップする。画像202のコンテンツと冗長である画像201のコンテンツ(参照要素201a)は、例えばビュー200中には表示されない。画像202と203のコンテンツは同様にオーバーラップし、画像202の冗長コンテンツ(参照要素202a)はビュー中に表示されない。このように、画像201−203のコンテンツを「つなぎ合わせて」(stitched together)、画像206として表示する。
図2に示した実施例では、画像204は画像201、202、及び203のコンテンツとオーバーラップするコンテンツは含んでいない。従来技術のメカニズムは、画像204のコンテンツを、画像201−203のコンテンツに対して適切な空間的コンテキストで表示できない。一実施形態では、マージされた画像206に対する204の配置(すなわち、画像204と206の間のスペーシング205の計算)を、各画像に関連する地理的配置(geo-locating)のメタデータから求める。ビューポイント210は、ビデオや写真を撮る時の画像キャプチャデバイスの位置と方向を表すメタデータに基づく。
一実施形態では、さらに視点210を画像201−204のコンテンツから求める。例えば、GPSユニットによりキャプチャした地理的配置のメタデータは、画像201−204をキャプチャした時に、画像キャプチャデバイスの10m以内の精度しかないことがある。さらに、GPSデータは、画像201−204をキャプチャした時の画像キャプチャデバイスの垂直方向(例えば、3次元のx、y、z軸250のy軸)の位置を正しくレポートできない可能性がある。それゆえ、地理的配置のメタデータ(及び付加的な3次元方向メタデータ)に加えて画像201−204のコンテンツを用いて視点210を決める(establish)。
図3は、受け取った画像とメタデータとに基づきビューを生成するプロセスの一実施形態を示すフロー図である。ここに示したフロー図はプロセス動作の順序の例を示している。動作を具体的な順序で示したが、特に断らなければ、これらの動作は変更可能である。このように、図示した実施形態は単なる例であり、これらの動作を異なる順序で実行してもよいし、一部の動作を並行して実行してもよい。また、実施形態によっては、一部の動作を省略してもよく、すべての実施形態で図示したすべての動作が必要でということではない。他のプロセスフローも可能である。
レンダリングデバイスが第1と第2の写真を受け取る(ステップ301)。前記の写真はオーバーラップしたコンテンツを含んでいても、含んでいなくてもよい。レンダリングデバイスはさらに、第1と第2の画像に関連するメタデータを受け取る(ステップ302)。一実施形態では、第1と第2の画像のメタデータは、各画像のコンテンツに関する地理的位置データ(geo-locating data)を含んでいる。受け取った画像のコンテンツとメタデータとに基づき、視点を決定する(ステップ303)。視点は、ビデオや写真を撮った時のカメラの位置と方向を推定してものである。(例えば、画像キャプチャデバイスが画像キャプチャ時にズームレンズを用いたなどの)画像のコンテンツに関する要因と、地理的位置メタデータに関する要因(すなわち、地理的位置情報の精度)により、決定される視点の精度は変化する。前記視点に基づいて第1の画像をビュー内に配置する(ステップ304)。第1の画像と視点に対して、第2の画像をビュー内に配置する(ステップ305)。ビューを生成し、ディスプレイデバイスに送信する(ステップ306)。
図4は、画像コレクションの「動いている」非静的コンテンツを含むビューの一例を示す図である。ビュー400は画像401−405のコレクションを含む。この例では、これらの画像はすべてオーバーラップしたコンテンツを含む。このように、これらの画像は、図2の参照要素206と同様に、ビュー400において連続して表示及びレンダリングされる。しかし、この図を参照して説明したフィーチャは、すべての画像がオーバーラップするコンテンツを含むコレクションに限定されない。
画像401−405は各々が少なくとも静的コンテンツ部分411(木)、412(木)、及び413(雲)を含む。画像401、402、405は、それぞれ動くオブジェクト410a、410b、及び410c(飛んでいる鳥)を含む。一実施形態では、ビュー400には、各画像に関連する3次元方向メタデータに基づき、ビュー400中を「動く」ようにレンダリングされた動くコンテンツが表示されている。例えば、画像401−405は、一定の焦点距離に固定したズームレンズを用いて、一定の位置で画像キャプチャデバイスからキャプチャしたものとする。この例では、オブジェクト410a−410cの動きのタイミングは、時間的メタデータのみに基づいて決める。しかし、画像キャプチャデバイスが(例えば、鳥が飛んでいるのとは反対の方向に)動いている時に画像401−405がキャプチャされ、各画像においてズームレンズの焦点距離を変えている場合、地理的情報、磁場情報(例えば磁極方向情報)、及び(動き、すなわち加速と角運動量に関する情報を含む)空間的情報などの付加的な3次元方向メタデータを用いてオブジェクト410a−410cの動きのタイミングを決定することができる。
一実施形態では、レンダリングデバイスは動くオブジェクトの「飛行経路」420を推定計算して、飛行経路420に合わせてオブジェクト410a−410cを予測する。他の一実施形態では、見る者がオブジェクト410aにフォーカスして、そのためビュー400内の静的コンテンツを飛行経路420に合わせて動かす。
図5は、画像コンテンツと各画像の関連メタデータとを用いて、没入型3次元環境と、画像に対してレンダリングできる画像表示フィーチャ(feature)との実施形態を示す図である。以下、具体的なフレーズやラベルによりフィーチャを参照する。その替わりに、以下に説明する表示フィーチャ例には各々に他のラベルを適用することもできる。
さらに、以下で「ビデオコンテンツ」を用いると説明するフィーチャは写真コンテンツにも用いることができる。ビデオコンテンツを用いてフィーチャを例示した場合、当業者には、ビデオコンテンツが複数のビデオフレームよりなり、各ビデオフレームは写真と同様であることは明らかである。このように、実施例においてビデオデータの表示を説明する下記のフィーチャにおいて、写真のコレクションを用いることができる。
フィーチャ501は、すべての画素を適切な空間位置にレンダリングする、画像をレンダリングするビデオ/写真パノラマ表示機能である。一実施形態では、視点から見えるすべての画素を表示して、冗長な情報を削除するように、「連続」するビデオフレームをつなげて、ビデオコンテンツをまとめて表示する。ビデオコンテンツに関して、一実施形態では、連続したビデオフレームをつなげて、ビデオ中に見えるすべての画素を適切な空間位置にレンダリングしたパノラマビューにする。ビデオキャプチャデバイスからの視点の動きがあると仮定して、前記パノラマビューは単一のビデオフレームより大きい。一実施形態では、連続した写真を「つなぎ合わせる」写真パノラマ表示フィーチャを同様にレンダリングする。連続していない写真を図2の参照要素204と206に示した実施形態と同様に表示してもよい。
ビデオフレームのコレクションとして処理したビデオコンテンツは、各フレーム間に大きな冗長コンテンツを含むことになる。画像のコレクションにおける冗長情報は、統計的手法によりフィルタできる。この統計的手法には、複数のフレームにわたり一定な静的な背景を計算した統計的尺度と、冗長情報を合成する画像キャプチャデバイス(例えば、カメラ)ノイズの低減と、ビデオ超解像による原解像度以上のパノラマ解像度を含むが、これらに限定されない。一実施形態では、レンダリングしたビデオや写真の画像のパノラマ501を、そのビデオや写真の画像コンテンツを含むフラットな壁紙状のパノラマとして表示する。他の実施形態では、すべてのビデオや写真の画像に対して3次元方向メタデータがあり、レンダリングしたコンテンツを用いて、パノラマを曲げて3次元空間中の面にマッピングした3次元表現を生成することができる。一実施形態では、パノラマの最初の視点は、ビデオや写真を撮った時のカメラの位置と方向を推定したものである。
一実施形態では、最低の画像解像度でキャプチャした写真やビデオにより、レンダリングされるパノラマの解像度が決まる。他の一実施形態では、写真やビデオの解像度を上げる既知の方法を用いて、できるだけ解像度を上げてパノラマをレンダリングする。
フィーチャ502は、画像コンテンツの別の側(例えば、反対側)のレンダリングである。一実施形態において、オブジェクトの反対側をレンダリングすることにより、見る者は表示の「視点」を、コンテンツ内のオブジェクトの反対側に移すことができる。例えば、画像コンテンツの別の側面をレンダリングすることにより、見る者は、ビルや構造物の複数の側面を実際のビルや構造物の空間的関係で見ることができる。前述の通り、かかる写真やビデオのコンテンツはオーバーラップした画像コンテンツを含まない。例えば、地理的位置メタデータを用いて適切な画像データを適切に配置できる。
フィーチャ503はレンダリングされたパノラマにおけるビデオすなわち「動く画像」のレンダリングを示し、「ビデオラマ(videorama)」の表示である。以下に説明する例ではこのフィーチャをビデオデータを用いて例示するが、このフィーチャによりいかなるタイプの「動く」画像レンダリング(例えば、図4の実施形態における表示400中を「飛んでいる」鳥410a−410c)を用いてもよい。
上記の通り、フィーチャ501はビデオコンテンツの静的な3次元空間表現をであってもよい。しかし、前記ビデオコンテンツをフレームのコレクションとして処理して「つなぎ合わせる」と、各フレームの時間的関係は失われてしまう。フィーチャ503はビデオコンテンツを「ビデオラマ」として表示する。ビデオラマは、ビデオのハイブリッド時空間表示であり、フィーチャ501によりレンダリングされたビデオパノラマ中に時間変化する情報をレンダリングするものである。このフィーチャにより、空間と時間にわたって表示される情報を同時にレンダリングできる。一実施形態では、ビデオ全体を再生(及びループ)するデフォルトモードでビデオデータを自動的に表示してもよい。他の一実施形態では、ユーザインタフェース(例えば、パノラマ中に表示した「時間スライダ」バー)によりビデオコンテンツを制御してもよい。
一実施形態では、「ビデオラマ」は、フィーチャ501で説明した静的パノラマディスプレイを生成することと、ビデオコンテンツのフレームレートで(地理的位置データにより決まる)パノラマ中の適切な空間的位置にビデオコンテンツを表示することとを含む。これにより、ビデオコンテンツの前空間的範囲をカバーするパノラマでビデオを見る効果が生じる。これにより、見る者は、「動く」動作にリアルタイムでフォーカスしつつ、ビデオ中の異なる時間に現れる「静的」コンテンツの人工的な「周辺視野」を体験できる。
他の一実施形態では、「ビデオラマ」はパノラマ内の異なる場所で生起するビデオコンテンツを、そのパノラマのそれぞれの場所で同時に表示することを含む。これにより、パノラマ全体にわたる同時動作の効果が生じ、「動く」画像の場所が異なれば、対応するビデオ内の時間ウィンドウも異なる。
他の一実施形態では、静的な背景画素を抽出して静的パノラマディスプレイを生成した場合、統計的手法により動くオブジェクトに対応する画素を識別できる。例えば、パノラマ中に全部のビデオフレームを表示するのではなく、適切な時間に(すなわち、ビデオの時間的に正確な表現)セグメント化した前景画素のみを表示する。こうして、全ビデオフレームの概要を表示せずに、個々のオブジェクトがパノラマ中を動く効果を生じる。
フィーチャ504により、パノラマ中の各領域の写真やビデオのコンテンツの位置決めや表示が可能となる。このフィーチャにより、見る者はパノラマの一部の領域にズームして、そこにある高解像度の写真やビデオのコンテンツを見ることができる。一実施形態では、ズームのレベルがパノラマの解像度を超えたら、ビデオと写真をスムースにブレンドすることによりズームを実行することができる。他の一実施形態では、事前にレンダリングしたパノラマ部分を置き換えて、パノラマに写真を位置決めして組み込むことができる。
フィーチャ505により、画像キャプチャデバイスの地理的位置と3次元的方向に基づき、写真とビデオのコンテンツを表示することができる。オーバーラップしている複数の写真をシームレスな写真パッチワークに地理的に位置決めして、その絶対的な位置と相対的な方向で表示することができる。これにより、異なる写真のコンテンツの互いに相対的な地理的位置を示す3次元パノラマを生成できる。図2を参照して説明したように、このような表示は、関連メタデータによってデータがオーバーラップしない比較的少数の写真において可能である。
フィーチャ506により、レンダリングしたビデオパノラマ中にすべてのビデオや写真のデータを同時に表示して、前記ビデオと写真のコンテンツによりカバーされた空間的情報のシームレスな3次元ビューを生成することができる。これにより、ある場所で撮ったすべての写真とビデオを便利に概観することができる。写真やビデオのデータは各アイテムが見えるフレームを含んでいてもよいし、またはレンダリングしたパノラマ中にその写真やビデオデータをシームレスにブレンドしてもよい。このようにして、前記のレンダリングしたパノラマ表示は静的及び動的なコンテンツを含み得る。
フィーチャ507は、写真やビデオの関連メタデータを利用して、前記写真やビデオをキャプチャした画像キャプチャデバイスのユーザが取った経路を表示する。一実施形態では、連続して記録したGPSデータに基づき、ユーザが取る経路全体を表示する。他の一実施形態では、推定した経路を表示して、アイコン507a−507cによりGPSイベントデータ(例えば、写真画像をキャプチャしたときにのみ記録したGPSメタデータ)をハイライトする。他の一実施形態では、関連する3次元方向メタデータと表示する写真やビデオのコンテンツとを利用して、表示した経路を、画像キャプチャデバイスが関連する写真やビデオのデータをキャプチャしたのと同じ速さと位置で通ってもよい。
表示した経路を用いて、レンダリングした写真やビデオのコレクションをブラウズしてもよい。一実施形態では、フィーチャ507により生成した表示経路により、見る者は、画像がキャプチャされた経路を通って、またはその経路に沿って配置されたアイコン507a−507cをクリックして、写真やビデオのコレクションをブラウズできる。一実施形態では、レンダリングした経路による表示を、ユーザインタフェースによりマニュアルで制御してもよい。他の一実施形態では、関連する3次元方向メタデータによりレンダリングされた経路を通り、時間的メタデータに基づく速さでコレクションを見る。
フィーチャ508により、フィーチャ503により生成される「ビデオラマ」を、利用可能な地理データ上に表示できる。一実施形態では、地理データを用いてコンテンツの3次元トポロジによりレンダリングした写真またはビデオのコレクションを表示する。画像コンテンツと関連する3次元方向メタデータとに基づいて、地理データを決定してもよい。関連する画像メタデータに加えて地理データを提供してもよい。
フィーチャ509により、レンダリングした画像とビデオパノラマを、場所及び/または時間によりグループ化して、大きなデータセットの管理と検索(exploration)を容易にすることができる。例えば、見る者は、長い間に同じ場所で撮ったすべての写真やビデオを見ることを欲するかも知れない。この場合、密度の高い空間的カバレッジを行う。他の一実施形態では、時間的データに応じて写真とビデオを表示する。よって、多数の場所のパノラマを、レンダリングする写真及び/またはビデオをキャプチャした時間に基づき、ユーザに表示する。
フィーチャ510により3次元セグメンテーションに応じてコンテンツを表示できる。画像と写真のデータを関連3次元方向メタデータを用いてレンダリングして、例えば3次元的に動く画素を表示して、動くコンテンツの空間的特性を正しく表示するように、表示する。
上記のフィーチャに加えて、画像とビデオのコレクションを、前記写真やビデオのコレクションには含まれないテキスト情報、オーディオ情報、及びビデオ情報で補強することができる。
図6は、本発明の一実施形態による、レンダリングした写真とビデオのコンテンツを表示するユーザインタフェースの一実施形態を示す図である。ユーザインタフェース600は11枚の写真のコレクションをレンダリングした写真表示の一例である。写真601−611は、関連3次元方向メタデータに基づき合成され、3次元で視覚化されている(3D visualization)。写真601−608はオーバーラップしたコンテンツを含み、写真609−611はオーバーラップしたコンテンツを含む。写真コレクションは、キャプチャされていないエリア(すなわち、画像611と画像601の間のすきま)があるという制約があり、表示は連続していない。しかし、写真611と写真601のコンテンツは互いに正しい空間的関係で配置されている。
図5のフィーチャ507で説明したように、3次元方向メタデータもレンダリングして、写真をいつどこで撮ったかを記述する経路を示す。このレンダリングにより、見る者は、画像キャプチャデバイスのユーザが取った経路に沿ってコレクションをブラウズでき、またはランダムに場所を切り替えることができ、さらに空間と時間の関数として写真コレクションをブラウズできる。
マップ620は、この画像のサブセットが地球上の空間的位置のひろがりを示す(図6では、画像601−611はスペインで撮影された。これは撮影位置690により示されている)。UI600中のレンダリングしたビューの視点の位置をデータ640として示した。時間的メタデータは時間バー680に示した。
他の写真コレクションはUI600のアイコン621−623中にまとめられている。写真コレクション601−611はアイコン630により表されており、アイコン630はアイコン621−623より大きく表示されている。さらに、写真コレクション601−611に関する情報を、ユーザインタフェース600中の情報631として表示してもよい。一実施形態では、画像関連のメタデータを用いて、コレクション中の写真の枚数、その写真を撮った期間(time span)、及び写真コレクションの中央位置を表示する。
すべての写真コレクションのメタデータを用いて、写真コレクションサマリー680を求めてもよい。見る者は、前記写真コレクションサマリーによりコレクション全体中の写真の枚数、写真を撮った期間、コレクションすなわち「クラスタ」の数を知ることができる。
見る者は、例えば、3次元空間を仮想的に飛んで、またはコレクションをクリックしてズームイン・ズームアウトして、「クラスタ」を移動することができる。一実施形態では、「クラスタ」のコンテンツに関係ないマップ620上のエリアを、写真コレクションには含まれていない画像データ(例えば、利用可能なマップデータや地理画像データ)を用いてレンダリングしてもよい。他の一実施形態では、見る者は、特定の期間を選択して、時間的に対応する画像クラスタをUI600が表示する。他の一実施形態では、空間的及び時間的オプションを組み合わせてもよい。例えば、特定の期間にフォーカスする(例えば時間バー上のアイコンを動かす)ことにより、空間的に適切な場所やエリアに自動的にナビゲーションされ、マップ620のエリアをクリックすることにより、時間的にソートされた適切なクラスタにナビゲーションされる。
個人的な写真コレクションをブラウズする直感的な方法を提供するのに加えて、UI600は、多数のサムネイルを個別に表示する替わりに、オーバーラップした写真の領域の冗長性を除去することにより、自動要約効果を発揮する。例えば、一実施形態では、写真601−611を同じ解像度でキャプチャする。しかし、写真601−611は各画像のオーバーラップしたコンテンツと関連3次元方向メタデータとに基づき、様々な形状と方向で表示される。画像と関連メタデータとのクラスタリングにより、空間と時間によるクラスタを自動的に生成することができる。
ここで説明した事項の他に、本発明の開示した実施形態に、その範囲から逸脱せずに様々な変更を加えることができる。それゆえ、ここで説明した実施例は例示として解釈すべきであり、限定する意図ではない。本発明の範囲は特許請求の範囲のみを参照して判断すべきである。
ここでプロセス、サーバ、またはツールとして説明した様々なコンポーネントは、記載した機能を実行する手段である。ここで説明した各コンポーネントは、ソフトウェア、ハードウェア、またはこれらの組み合わせを含む。コンポーネントは、ソフトウェアモジュール、ハードウェアモジュール、特定用途ハードウェア(例えば、特定用途ハードウェア、特定用途集積回路(ASIC)、デジタル信号プロセッサ(DSP)など)、組み込みコントローラ、ハードウェア回路などとして実施できる。ソフトウェアコンテンツ(例えば、データ、命令、設定)は、コンピュータ読み取り可能記憶媒体を含む製造物により提供できる。コンピュータ読み取り可能記憶媒体は実行可能な命令を表すコンテンツを提供するものである。このコンテンツによりコンピュータはここに説明した様々な機能や動作を実行する。コンピュータ読み取り可能記憶媒体には、コンピュータ(例えば、コンピューティングデバイス、電子システム)がアクセスできる形態の情報を提供(すなわち、記憶及び/または送信)する任意のメカニズムが含まれる。このメカニズムは、書き換え可能な媒体でも書き換え不能な媒体であってもよく、例えば、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイスなどが含まれる。コンテンツは直接実行可能(「オブジェクト」または「実行可能」な形態)なコード、ソースコード、または差分コード(「デルタ」または「パッチ」コード)であってもよい。コンピュータ読み取り可能記憶媒体は、コンテンツをダウンロードできる記憶装置やデータベースを含んでいてもよい。コンピュータ読み取り可能記憶媒体は、販売時または納入時にコンテンツを記憶したデバイスやプロダクトを含んでいてもよい。このように、コンテンツを記憶したデバイスの納入や、コンテンツの通信媒体を介したダウンロードのオファーは、ここで説明したコンテンツを有する製造物の提供となる。
100 システムまたは装置
101 データ記憶部
102 画像キャプチャデバイス
103 レンダリングデバイス
104 ディスプレイ
200 ビュー
210 視点
400 ビュー
600 ユーザインタフェース

Claims (20)

  1. コンピュータが実行する方法であって、
    第1の画像と前記第1の画像に関連する第1のメタデータとを受け取る段階であって、前記第1の画像は画像キャプチャデバイスでキャプチャされ、前記第1のメタデータは前記第1の画像のコンテンツの地理情報を含む、段階と、
    第2の画像と前記第2の画像に関連する第2のメタデータとを受け取る段階であって、前記第2のメタデータは前記第2の画像のコンテンツの地理情報を含む、段階と、
    前記第1の画像の視点を決定する段階であって、前記視点は前記第1の画像をキャプチャした時の前記画像キャプチャデバイスの位置を表す、段階と、
    前記第1の画像の視点に基づいて、前記第1の画像と前記第2の画像とを含むビューを生成する段階であって、
    前記ビューにおける前記第1の画像の配置は前記第1のメタデータに含まれた地理情報と前記第1の画像の視点とに基づき、
    前記第1の画像に対する前記第2の画像の配置は前記第1と第2のメタデータに含まれた地理情報と前記第1の画像の視点とに基づく段階と
    を含む、方法。
  2. 前記ビューは3次元ビューをさらに含む、請求項1に記載の方法。
  3. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの磁場情報を含む、請求項1に記載の方法。
  4. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの空間的情報を含む、請求項1に記載の方法。
  5. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの時間的情報を含む、請求項1に記載の方法。
  6. 前記第1と第2の画像の静止したコンテンツと動いているコンテンツとを決定する段階をさらに含む、請求項5に記載の方法。
  7. 前記第1と第2の画像の動くコンテンツを前記第1と第2の画像のそれぞれの時間的情報に基づいて前記ビュー中に表示する、請求項6に記載の方法。
  8. 第1の画像と前記第1の画像に関連する第1のメタデータであって、前記第1の画像は画像キャプチャデバイスでキャプチャされ、前記第1のメタデータは前記第1の画像のコンテンツの地理情報を含むものと、第2の画像と前記第2の画像に関連する第2のメタデータであって、前記第2のメタデータは前記第2の画像のコンテンツの地理情報を含むものと、を含むデータ記憶部と、
    前記データ記憶部に動作可能に結合し、前記第1と第2の画像と前記第1と第2のメタデータとにアクセスするレンダリングモジュールであって、前記第1の画像をキャプチャした時の前記画像キャプチャデバイスの位置を表す第1の画像の視点を決定し、前記第1の画像の視点に基づき、前記第1の画像と前記第2の画像とを含むビューを生成する、前記ビューにおける前記第1の画像の配置は前記第1のメタデータに含まれる地理情報と前記第1の画像の視点とに基づき、前記第1の画像に対する前記第2の画像の配置は前記第1と第2のメタデータに含まれる地理情報と前記第1の画像の視点とに基づく、レンダリングモジュールと、
    前記レンダリングモジュールに動作可能に結合し、生成されたビューにアクセスし表示するディスプレイと、を有する装置。
  9. 前記ビューは3次元ビューをさらに含む、請求項8に記載の装置。
  10. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの磁場情報を含む、請求項8に記載の装置。
  11. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの空間的情報を含む、請求項8に記載の装置。
  12. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの時間的情報を含む、請求項8に記載の装置。
  13. 前記第1と第2の画像をレンダリングして各画像の静止したコンテンツと動いているコンテンツとを決定する、請求項12に記載の装置。
  14. 各画像の動いているコンテンツを、前記第1と第2の画像それぞれの動いているコンテンツの時間的情報に応じて、前記ビュー中に表示する、請求項13に記載の装置。
  15. コンピュータに実行されると、前記コンピュータに、
    画像キャプチャデバイスによりキャプチャされた第1の画像の視点を決定する段階であって、前記視点は前記第1の画像をキャプチャした時の前記画像キャプチャデバイスの位置を表す、段階と、
    前記第1の画像の視点に基づいて、前記第1の画像と第2の画像とを含むビューを生成する段階であって、
    第1のメタデータが前記第1の画像に関連し、前記第1の画像のコンテンツの地理情報を含み、
    第2のメタデータが前記第2の画像に関連し、前記第2の画像のコンテンツの地理情報を含み、
    前記ビューにおける前記第1の画像の配置は前記第1のメタデータに含まれた地理情報と前記第1の画像の視点とに基づき
    前記第1の画像に対する前記第2の画像の配置は前記第1のメタデータに含まれた地理情報と、前記第1の画像の視点と、前記第2のメタデータに含まれた地理情報とに基づ段階とを実行させる、コンピュータプログラム。
  16. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの磁場情報を含む、請求項15に記載のコンピュータプログラム。
  17. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの空間的情報を含む、請求項15に記載のコンピュータプログラム。
  18. 前記第1と第2のメタデータは前記第1と第2の画像のコンテンツの時間的情報を含む、請求項15に記載のコンピュータプログラム。
  19. 前記第1と第2の画像をレンダリングして各画像の静止したコンテンツと動いているコンテンツとを決定する、請求項18に記載のコンピュータプログラム。
  20. 各画像の動いているコンテンツを、前記第1と第2の画像それぞれの動いているコンテンツの時間的情報に応じて、前記ビュー中に表示する、請求項19に記載のコンピュータプログラム。
JP2010073982A 2009-03-31 2010-03-29 関連メタデータに基づくデジタル画像のキャプチャと表示 Expired - Fee Related JP5053404B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/416,040 2009-03-31
US12/416,040 US8862987B2 (en) 2009-03-31 2009-03-31 Capture and display of digital images based on related metadata

Publications (2)

Publication Number Publication Date
JP2010244534A JP2010244534A (ja) 2010-10-28
JP5053404B2 true JP5053404B2 (ja) 2012-10-17

Family

ID=42785844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010073982A Expired - Fee Related JP5053404B2 (ja) 2009-03-31 2010-03-29 関連メタデータに基づくデジタル画像のキャプチャと表示

Country Status (4)

Country Link
US (1) US8862987B2 (ja)
JP (1) JP5053404B2 (ja)
CN (1) CN101854560B (ja)
TW (1) TWI457854B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431911B2 (en) 2017-10-19 2022-08-30 Sony Corporation Imaging device and signal processing device

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013030A1 (en) * 2009-07-27 2011-02-03 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
US8436891B2 (en) * 2009-09-16 2013-05-07 Disney Enterprises, Inc. Hyperlinked 3D video inserts for interactive television
US8531504B2 (en) 2010-06-11 2013-09-10 Intel Corporation System and method for 3D video stabilization by fusing orientation sensor readings and image alignment estimates
US20120002004A1 (en) * 2010-06-30 2012-01-05 Apple Inc. Immersive Navigation and Rendering of Dynamically Reassembled Panoramas
JP5672966B2 (ja) 2010-10-29 2015-02-18 株式会社デンソー 車両運動制御システム
US20120159326A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Rich interactive saga creation
US20130106990A1 (en) 2011-11-01 2013-05-02 Microsoft Corporation Planar panorama imagery generation
US8612442B2 (en) * 2011-11-16 2013-12-17 Google Inc. Displaying auto-generated facts about a music library
US9324184B2 (en) 2011-12-14 2016-04-26 Microsoft Technology Licensing, Llc Image three-dimensional (3D) modeling
US9406153B2 (en) 2011-12-14 2016-08-02 Microsoft Technology Licensing, Llc Point of interest (POI) data positioning in image
US10008021B2 (en) 2011-12-14 2018-06-26 Microsoft Technology Licensing, Llc Parallax compensation
SE1250048A1 (sv) * 2012-01-24 2013-07-25 Wesdyne Sweden Ab En bildförbättringsanordning för reduktion av brus i digitala bilder
US20130330019A1 (en) * 2012-06-08 2013-12-12 Samsung Electronics Co., Ltd. Arrangement of image thumbnails in social image gallery
US20150156247A1 (en) * 2012-09-13 2015-06-04 Google Inc. Client-Side Bulk Uploader
GB2506411B (en) * 2012-09-28 2020-03-11 2D3 Ltd Determination of position from images and associated camera positions
US9311310B2 (en) * 2012-10-26 2016-04-12 Google Inc. System and method for grouping related photographs
US9933921B2 (en) 2013-03-13 2018-04-03 Google Technology Holdings LLC System and method for navigating a field of view within an interactive media-content item
US9886173B2 (en) 2013-03-15 2018-02-06 Ambient Consulting, LLC Content presentation and augmentation system and method
US9460057B2 (en) 2013-03-15 2016-10-04 Filmstrip, Inc. Theme-based media content generation system and method
US9626365B2 (en) 2013-03-15 2017-04-18 Ambient Consulting, LLC Content clustering system and method
US10365797B2 (en) 2013-03-15 2019-07-30 Ambient Consulting, LLC Group membership content presentation and augmentation system and method
CN105144230A (zh) * 2013-04-30 2015-12-09 索尼公司 图像处理设备、图像处理方法和程序
US20140354768A1 (en) * 2013-05-30 2014-12-04 Microsoft Corporation Socialized Mobile Photography
US9686466B1 (en) * 2013-06-27 2017-06-20 Google Inc. Systems and methods for environment content sharing
US10186299B2 (en) 2013-07-10 2019-01-22 Htc Corporation Method and electronic device for generating multiple point of view video
TWI535282B (zh) * 2013-07-10 2016-05-21 宏達國際電子股份有限公司 用於產生多視點視訊的方法和電子裝置
EP3022944A2 (en) * 2013-07-19 2016-05-25 Google Technology Holdings LLC View-driven consumption of frameless media
WO2015010069A1 (en) 2013-07-19 2015-01-22 Google Inc. Small-screen movie-watching using a viewport
WO2015009865A1 (en) 2013-07-19 2015-01-22 Google Inc. Visual storytelling on a mobile media-consumption device
US10430015B2 (en) * 2013-08-09 2019-10-01 International Business Machines Corporation Image analysis
US20150106373A1 (en) * 2013-10-15 2015-04-16 Indooratlas Oy Generating search database based on earth's magnetic field measurements
US20150106403A1 (en) * 2013-10-15 2015-04-16 Indooratlas Oy Generating search database based on sensor measurements
US10242400B1 (en) 2013-10-25 2019-03-26 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours
US9691133B1 (en) * 2013-12-16 2017-06-27 Pixelworks, Inc. Noise reduction with multi-frame super resolution
US9851868B2 (en) 2014-07-23 2017-12-26 Google Llc Multi-story visual experience
US10341731B2 (en) 2014-08-21 2019-07-02 Google Llc View-selection feedback for a visual experience
US10582105B2 (en) 2014-12-30 2020-03-03 Qualcomm Incorporated Changing camera parameters based on wireless signal information
US9824481B2 (en) 2014-12-30 2017-11-21 Qualcomm Incorporated Maintaining heatmaps using tagged visual data
US10298827B2 (en) 2015-10-13 2019-05-21 Huawei Technologies Co., Ltd. Shooting method and mobile device
WO2017218834A1 (en) 2016-06-17 2017-12-21 Kerstein Dustin System and method for capturing and viewing panoramic images having motion parralax depth perception without images stitching
CN106210535A (zh) * 2016-07-29 2016-12-07 北京疯景科技有限公司 全景视频实时拼接方法及装置
KR102630681B1 (ko) 2016-10-11 2024-01-30 삼성전자주식회사 디스플레이 장치 및 캡처 이미지 생성 방법
US10332317B2 (en) 2016-10-25 2019-06-25 Microsoft Technology Licensing, Llc Virtual reality and cross-device experiences
US20180157717A1 (en) * 2016-12-02 2018-06-07 William James Yurt PhotoFracking - mining metadata from various / multiple sources to recreate an event, person, place or thing in time
TWI632812B (zh) * 2016-12-16 2018-08-11 財團法人工業技術研究院 視訊串流之接合與傳輸方法、視訊串流閘道裝置及視訊串流觀看裝置
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US10628959B2 (en) 2017-05-03 2020-04-21 International Business Machines Corporation Location determination using street view images
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
US20190130526A1 (en) * 2017-10-27 2019-05-02 Avago Technologies General Ip (Singapore) Pte. Ltd. Metadata based quality enhancement post-video warping
US10965928B2 (en) * 2018-07-31 2021-03-30 Lg Electronics Inc. Method for 360 video processing based on multiple viewpoints and apparatus therefor
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
EP3899865A1 (en) 2018-12-20 2021-10-27 Snap Inc. Virtual surface modification
US10949978B2 (en) * 2019-01-22 2021-03-16 Fyusion, Inc. Automatic background replacement for single-image and multi-view captures
US11783443B2 (en) 2019-01-22 2023-10-10 Fyusion, Inc. Extraction of standardized images from a single view or multi-view capture
US11176704B2 (en) 2019-01-22 2021-11-16 Fyusion, Inc. Object pose estimation in visual data
US10887582B2 (en) 2019-01-22 2021-01-05 Fyusion, Inc. Object damage aggregation
US10984575B2 (en) 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
US11763503B2 (en) * 2019-02-25 2023-09-19 Life Impact Solutions Media alteration based on variable geolocation metadata
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
US11232646B2 (en) 2019-09-06 2022-01-25 Snap Inc. Context-based virtual object rendering
US11263817B1 (en) 2019-12-19 2022-03-01 Snap Inc. 3D captions with face tracking
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
US11562474B2 (en) 2020-01-16 2023-01-24 Fyusion, Inc. Mobile multi-camera multi-view capture
US11776142B2 (en) 2020-01-16 2023-10-03 Fyusion, Inc. Structuring visual data
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11450051B2 (en) 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US11574639B2 (en) * 2020-12-18 2023-02-07 Microsoft Technology Licensing, Llc Hypothesis stitcher for speech recognition of long-form audio
US11605151B2 (en) 2021-03-02 2023-03-14 Fyusion, Inc. Vehicle undercarriage imaging
US11831988B2 (en) 2021-08-09 2023-11-28 Rockwell Collins, Inc. Synthetic georeferenced wide-field of view imaging system
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
US12080066B2 (en) * 2021-12-29 2024-09-03 Google Llc Arranging a set of images for presentation to a user

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999065224A2 (en) * 1998-06-11 1999-12-16 Presenter.Com Creating animation from a video
US6278466B1 (en) * 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
JP3605292B2 (ja) 1998-06-30 2004-12-22 株式会社兼古製作所 ビス,ネジ等の螺入部材を回動させる為の補助具
US7292261B1 (en) * 1999-08-20 2007-11-06 Patrick Teo Virtual reality camera
US6798897B1 (en) * 1999-09-05 2004-09-28 Protrack Ltd. Real time image registration, motion detection and background replacement using discrete local motion estimation
US7522186B2 (en) 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
JP2002209208A (ja) * 2001-01-11 2002-07-26 Mixed Reality Systems Laboratory Inc 画像処理装置及びその方法並びに記憶媒体
EP1359554B1 (en) * 2002-05-02 2008-04-09 Sony Corporation Monitoring system and method, and program and recording medium used therewith
JP3838150B2 (ja) * 2002-05-02 2006-10-25 ソニー株式会社 モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP4048907B2 (ja) * 2002-10-15 2008-02-20 セイコーエプソン株式会社 複数の画像データのパノラマ合成
JP4127178B2 (ja) * 2003-10-06 2008-07-30 セイコーエプソン株式会社 複数画像のレイアウト処理
JP2005277670A (ja) * 2004-03-24 2005-10-06 Hiroo Iwata 全方位映像作成装置、地図連動全方位映像記録・表示装置及び地図連動全方位映像利用装置
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
AU2006314066B2 (en) 2005-11-15 2012-11-08 Briefcam, Ltd. Method and system for producing a video synopsis
JP4332525B2 (ja) 2005-12-16 2009-09-16 ソフトバンクモバイル株式会社 移動体通信端末
JP4889351B2 (ja) * 2006-04-06 2012-03-07 株式会社トプコン 画像処理装置及びその処理方法
US9069957B2 (en) 2006-10-06 2015-06-30 Juniper Networks, Inc. System and method of reporting and visualizing malware on mobile networks
US8094182B2 (en) * 2006-11-16 2012-01-10 Imove, Inc. Distributed video sensor panoramic imaging system
WO2008073109A1 (en) * 2006-12-15 2008-06-19 Thomson Licensing System and method for interactive visual effects compositing
US20080278481A1 (en) * 2007-05-08 2008-11-13 Microsoft Corporation Photo generated 3-d navigable storefront
US7843451B2 (en) * 2007-05-25 2010-11-30 Google Inc. Efficient rendering of panoramic images, and applications thereof
JP2009015583A (ja) * 2007-07-04 2009-01-22 Nagasaki Univ 画像処理装置及び画像処理方法
JP5097480B2 (ja) * 2007-08-29 2012-12-12 株式会社トプコン 画像測定装置
EP2253131B1 (en) * 2008-02-08 2014-06-25 Google, Inc. Panoramic camera with multiple image sensors using timed shutters
US8103134B2 (en) * 2008-02-20 2012-01-24 Samsung Electronics Co., Ltd. Method and a handheld device for capturing motion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431911B2 (en) 2017-10-19 2022-08-30 Sony Corporation Imaging device and signal processing device

Also Published As

Publication number Publication date
CN101854560A (zh) 2010-10-06
CN101854560B (zh) 2012-12-05
US8862987B2 (en) 2014-10-14
US20100251101A1 (en) 2010-09-30
TWI457854B (zh) 2014-10-21
JP2010244534A (ja) 2010-10-28
TW201118792A (en) 2011-06-01

Similar Documents

Publication Publication Date Title
JP5053404B2 (ja) 関連メタデータに基づくデジタル画像のキャプチャと表示
US10473465B2 (en) System and method for creating, storing and utilizing images of a geographical location
AU2009257959B2 (en) 3D content aggregation built into devices
US5768447A (en) Method for indexing image information using a reference model
US8584015B2 (en) Presenting media content items using geographical data
KR0184245B1 (ko) 전자식 카메라와 그 재생장치
US8447136B2 (en) Viewing media in the context of street-level images
EP2073539A1 (en) Image processing device, dynamic image reproduction device, and processing method and program in them
TW201610816A (zh) 內容觀看之藝廊應用程式
US20170064289A1 (en) System and method for capturing and displaying images
KR101806957B1 (ko) 관심 지점의 자동 업데이트를 위한 방법 및 시스템
CN112740261A (zh) 全景光场捕获、处理和显示
Zhang et al. Annotating and navigating tourist videos
KR102204721B1 (ko) 증강현실 기록물 서비스 제공 방법 및 사용자 단말
KR101934799B1 (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
KR20170139202A (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
Fujita et al. Creating animation with personal photo collections and map for storytelling
Uusitalo et al. An extensible mirror world from user-generated content
JP2011041167A (ja) 撮像装置及び位置情報付加装置
JP2019121158A (ja) データ表示装置、方法、およびプログラム
Rambli et al. A step-wise zoom technique for exploring image-based virtual reality applications
JP2012181681A (ja) 情報表示装置、方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120725

R150 Certificate of patent or registration of utility model

Ref document number: 5053404

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531