JP2019194924A - 複数のモデルに基づくオブジェクトの表示 - Google Patents
複数のモデルに基づくオブジェクトの表示 Download PDFInfo
- Publication number
- JP2019194924A JP2019194924A JP2019143176A JP2019143176A JP2019194924A JP 2019194924 A JP2019194924 A JP 2019194924A JP 2019143176 A JP2019143176 A JP 2019143176A JP 2019143176 A JP2019143176 A JP 2019143176A JP 2019194924 A JP2019194924 A JP 2019194924A
- Authority
- JP
- Japan
- Prior art keywords
- point
- determining
- requested
- advantageous point
- advantageous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本願は、2015年10月7日に出願された米国特許出願第14/877,368号の継続出願であり、その開示は、参照によって本明細書に組み込まれる。
本技術は、オブジェクトのイメージがキャプチャされた有利な地点とは異なる有利な地点からオブジェクトを表示することに関する。たとえば、2つ以上のパノラマ画像が、2つの異なる有利な地点からオブジェクトをキャプチャしてよく、ユーザは、2つのキャプチャ地点間の場所からオブジェクトの画像を要求してよい。本システムは、オブジェクトの対応する表面の視覚的に正確な表現であるフラグメントの尤度に比例する画像の対応するフラグメントをともに混合することによって、ユーザによって要求された画像を生成してよい。例として、ユーザによって要求された画像を生成する場合、本システムは、表示されるべきオブジェクトの表面の方位に対するキャプチャ場所およびユーザによって要求された地点の関係に基づく品質値を計算してよい。フラグメントが混合された場合、他のフラグメントよりも良好な品質値を有するフラグメントへ重みがより適用されてよい。
図1は、本明細書で開示された態様が実施されてよい1つの可能なシステム100を例示する。この例では、システム100は、コンピューティングデバイス110および120を含んでよい。コンピューティングデバイス110は、1つまたは複数のプロセッサ112、メモリ114、および汎用コンピューティングデバイスに典型的に存在する他のコンポーネントを含んでよい。図1は、単一のブロックとしても表されるデバイス110内の単一のブロックとしてプロセッサ112およびメモリ114の各々を機能的に表すが、本明細書で説明されたシステムおよび方法は、同じ物理的なハウジングに格納されてよい、または格納されなくてよい多数のプロセッサ、メモリ、およびデバイスを含んでよい。たとえば、単一のコンポーネント(たとえば、プロセッサ112)を含むとして以下に説明される様々な方法は、複数のコンポーネント(たとえば、負荷平準サーバファームにおける多数のプロセッサ)を含んでよい。同様に、異なるコンポーネント(たとえば、デバイス110およびデバイス120)を含むとして以下に説明される様々な方法は、単一のコンポーネントを含んでよい(たとえば、デバイス120が、以下に説明される決定を実行するのではなく、デバイス120は、処理のために関連するデータをデバイス110へ送信し、さらなる処理または表示のための決定の結果を受信してよい)。
本発明の様々な態様に従う動作が説明されるであろう。以下の動作は、以下に説明される正確な順序で実行される必要はないことが理解されるべきである。むしろ、様々なステップは、異なる順序で、または同時に取り扱われることができる。
110 サーバ
112 プロセッサ
114 メモリ
116 命令
118 データ
120 クライアントデバイス
121 クライアントデバイス
122 ディスプレイ
130 地理的コンポーネント
131 GPSレシーバ
132 コンパス
133 加速度計
134 ジャイロスコープ
135 照準機
135 ユーザ
160 ネットワーク
162 ユーザ入力
163 カメラ
201 側面
202 正面
210 有利な地点
211 カメラ角度
212 カメラ角度
215 画像
216 モデル
220 有利な地点
221 視角
222 視角
225 画像
226 モデル
230 有利な地点
235 画像
240 車
310 楕円
320 有利な地点
330 交差地点
350 円錐
420 キャプチャ場所
425 テクセル楕円
430 有利な地点
435 ピクセル楕円
450 交差地点
501 表面
502 表面
503 表面
511 ポイント
512 ポイント
513 ポイント
520 画像
521 モデル
530 画像
531 モデル
540 有利な地点
550 光線
601 表面
602 表面
603 ギャップ
620 キャプチャ場所
621 モデル
630 キャプチャ場所
631 モデル
635 表面
640 有利な地点
641 光線
650 有利な地点
710 画像
Claims (20)
- システムであって、
1つまたは複数のプロセッサと、
有利な地点に対するオブジェクトの表面の方位および視覚的特性のモデルを記憶するメモリであって、前記視覚的特性は、第1の有利な地点からの前記表面の外観を表す第1の視覚的特性のセットと、第2の有利な地点からの前記表面の外観を表す第2の視覚的特性のセットとを備える、メモリと、
前記1つまたは複数のプロセッサによって実行可能な命令であって、
前記第1の有利な地点および前記第2の有利な地点とは異なる要求された有利な地点から前記オブジェクトの画像に対する要求を受信することと、
前記第1の視覚的特性のセットからの第1の視覚的特性と、前記第2の視覚的特性のセットからの第2の視覚的特性とを識別することと、
前記要求された有利な地点と前記第1の有利な地点とに対する前記表面の前記方位に基づいて、前記第1の視覚的特性のための第1の重み値を決定することと、
前記要求された有利な地点と前記第2の有利な地点とに対する前記表面の前記方位に基づいて、前記第2の視覚的特性のための第2の重み値を決定することと、
前記第1および第2の視覚的特性と、前記第1および第2の重み値とに基づいて、前記要求された画像の視覚的特性を決定することと、
前記要求された画像を提供することと
を備える命令と
を備える、システム。 - 前記要求はユーザから受信され、前記要求された画像を提供することは、前記要求された画像を前記ユーザへ表示することを備える、請求項1に記載のシステム。
- 前記要求された画像の視覚的特性を決定することは、前記第2の特性よりも前記第1の特性により類似した視覚的特性を決定することを備え、前記類似の程度は前記第2の重み値に対する前記第1の重み値に基づく、請求項1に記載のシステム。
- 前記メモリに記憶された前記モデルは、第1のモデルおよび第2のモデルを備え、
前記第1の視覚的特性のセットは、前記第1の有利な地点からキャプチャされた画像データを前記第1のモデルへ投影することによって生成されるテクセルであり、
前記第2の視覚的特性のセットは、前記第2の有利な地点からキャプチャされた画像データを前記第2のモデルへ投影することによって生成されるテクセルである、
請求項3に記載のシステム。 - 前記視覚的特性は色に関連付けられ、前記要求された画像の視覚的特性を決定することは、前記第1の視覚的特性に関連付けられた色と、前記第2の視覚的特性に関連付けられた色とを前記第2の重み値に対する前記第1の重み値に比例してアルファ混合することによって色を決定することを備える、請求項1に記載のシステム。
- 前記表面の前記方位は平面を定義し、
前記命令は、前記平面上の地点を選択することをさらに備え、
第1の重み値を決定することは、前記平面と前記第1の有利な地点から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された有利な地点から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定することを備え、
第2の重み値を決定することは、前記平面と前記第2の有利な地点から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された有利な地点から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定することを備える、
請求項1に記載のシステム。 - 前記命令は、前記要求された画像のピクセルを選択し、かつ前記選択されたピクセルに関連付けられた方向を決定することをさらに備え、
前記平面における地点を選択することは、前記ピクセルに関連付けられた前記方向が、前記平面と交差する前記地点を選択することを備え、
前記要求された画像の視覚的特性を決定することは、前記選択されたピクセルの視覚的特性を決定することを備える、
請求項6に記載のシステム。 - 第1の重み値を決定することは、第1の楕円の半径と、第2の楕円の対応する半径とに基づいて値を決定することを備え、前記第1の楕円は、前記平面と前記第1の有利な地点から前記選択された地点へ延びる線の周囲を中心とした円錐との交差によって定義され、前記第2の楕円は、前記平面と前記要求された有利な地点から前記選択された地点へ延びる線の周囲を中心とした円錐との交差によって定義される、請求項6に記載のシステム。
- 前記第1の重み値を決定することは、選択された角度で前記第2の楕円の前記半径の推定値に対する前記第1の楕円の前記半径の推定値に基づいて比を決定することをさらに備える、請求項8に記載のシステム。
- 表示のための画像を提供する方法であって、
要求された有利な地点からオブジェクトの画像に対する要求を受信するステップと、
有利な地点に対する前記オブジェクトの表面の方位および視覚的特性のモデルにアクセスするステップであって、前記視覚的特性は、第1の有利な地点からの前記表面の外観を表す第1の視覚的特性のセットと、第2の有利な地点からの前記表面の外観を表す第2の視覚的特性のセットとを備え、前記第1および第2の有利な地点は、前記要求された有利な地点とは異なる、ステップと、
前記第1の視覚的特性のセットからの第1の視覚的特性と、前記第2の視覚的特性のセットからの第2の視覚的特性とを識別するステップと、
前記要求された有利な地点と前記第1の有利な地点とに対する前記表面の前記方位に基づいて、前記第1の視覚的特性のための第1の重み値を決定するステップと、
前記要求された有利な地点と前記第2の有利な地点とに対する前記表面の前記方位に基づいて、前記第2の視覚的特性のための第2の重み値を決定するステップと、
前記第1および第2の視覚的特性と、前記第1および第2の重み値とに基づいて、前記要求された画像の視覚的特性を決定するステップと、
表示のために前記要求された画像を提供するステップと
を備える、方法。 - 前記要求はユーザから受信され、前記要求された画像を提供するステップは、前記要求された画像を前記ユーザへ表示するステップを備える、請求項10に記載の方法。
- 前記要求された画像の視覚的特性を決定するステップは、前記第2の特性よりも前記第1の特性により類似した視覚的特性を決定するステップを備え、前記類似の程度は前記第2の重み値に対する前記第1の重み値に基づく、請求項10に記載の方法。
- 前記モデルは、第1のモデルおよび第2のモデルを備え、
前記第1の視覚的特性のセットは、前記第1の有利な地点からキャプチャされた画像データを前記第1のモデルへ投影することによって生成されるテクセルであり、
前記第2の視覚的特性のセットは、前記第2の有利な地点からキャプチャされた画像データを前記第2のモデルへ投影することによって生成されるテクセルである、
請求項12に記載の方法。 - 前記視覚的特性は色に関連付けられ、前記要求された画像の視覚的特性を決定するステップは、前記第1の視覚的特性に関連付けられた色と、前記第2の視覚的特性に関連付けられた色とを前記第2の重み値に対する前記第1の重み値に比例してアルファ混合することによって色を決定するステップを備える、請求項10に記載の方法。
- 前記表面の前記方位は平面を定義し、
前記平面における地点を選択するステップをさらに備え、
第1の重み値を決定するステップは、前記平面と前記第1の有利な地点から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された有利な地点から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定するステップを備え、
第2の重み値を決定するステップは、前記平面と前記第2の有利な地点から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された有利な地点から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定するステップを備える、
請求項10に記載の方法。 - 前記要求された画像のピクセルを選択し、かつ前記選択されたピクセルに関連付けられた方向を決定するステップをさらに備え、
前記平面における地点を選択するステップは、前記ピクセルに関連付けられた前記方向が、前記平面と交差する前記地点を選択するステップを備え、
前記要求された画像の視覚的特性を決定するステップは、前記選択されたピクセルの視覚的特性を決定するステップを備える、
請求項15に記載の方法。 - プログラムのコンピューティングデバイス可読命令が記憶された非一時的コンピューティングデバイス可読記憶媒体であって、前記命令は、1つまたは複数のコンピューティングデバイスによって実行された場合、前記1つまたは複数のコンピューティングデバイスに対して、
要求された有利な地点からオブジェクトの画像に対する要求を受信するステップと、
有利な地点に対する前記オブジェクトの表面の方位および視覚的特性のモデルにアクセスするステップであって、前記視覚的特性は、第1の有利な地点からの前記表面の外観を表す第1の視覚的特性のセットと、第2の有利な地点からの前記表面の外観を表す第2の視覚的特性のセットとを備え、前記第1および第2の有利な地点は、前記要求された有利な地点とは異なる、ステップと、
前記第1の視覚的特性のセットからの第1の視覚的特性と、前記第2の視覚的特性のセットからの第2の視覚的特性とを識別するステップと、
前記要求された有利な地点と前記第1の有利な地点とに対する前記表面の前記方位に基づいて、前記第1の視覚的特性のための第1の重み値を決定するステップと、
前記要求された有利な地点と前記第2の有利な地点とに対する前記表面の前記方位に基づいて、前記第2の視覚的特性のための第2の重み値を決定するステップと、
前記第1および第2の視覚的特性と、前記第1および第2の重み値とに基づいて、前記要求された画像の視覚的特性を決定するステップと、
表示のために前記要求された画像を提供するステップと
を備える方法を実行させる、非一時的コンピューティングデバイス可読記憶媒体。 - 前記要求はユーザから受信され、前記要求された画像を提供するステップは、前記要求された画像を前記ユーザへ表示するステップを備える、請求項17に記載の記憶媒体。
- 前記要求された画像の視覚的特性を決定するステップは、前記第2の特性よりも前記第1の特性により類似した視覚的特性を決定するステップを備え、前記類似の程度は前記第2の重み値に対する前記第1の重み値に基づく、請求項17に記載の記憶媒体。
- 前記モデルは、第1のモデルおよび第2のモデルを備え、
前記第1の視覚的特性のセットは、前記第1の有利な地点からキャプチャされた画像データを前記第1のモデルへ投影することによって生成されるテクセルであり、
前記第2の視覚的特性のセットは、前記第2の有利な地点からキャプチャされた画像データを前記第2のモデルへ投影することによって生成されるテクセルである、
請求項19に記載の記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021115686A JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
JP2023041182A JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/877,368 US9773022B2 (en) | 2015-10-07 | 2015-10-07 | Displaying objects based on a plurality of models |
US14/877,368 | 2015-10-07 | ||
JP2018500421A JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Division JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021115686A Division JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019194924A true JP2019194924A (ja) | 2019-11-07 |
JP2019194924A5 JP2019194924A5 (ja) | 2021-03-11 |
JP6915001B2 JP6915001B2 (ja) | 2021-08-04 |
Family
ID=57218984
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Active JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
JP2019143176A Active JP6915001B2 (ja) | 2015-10-07 | 2019-08-02 | 複数のモデルに基づくオブジェクトの表示 |
JP2021115686A Active JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
JP2023041182A Pending JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Active JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021115686A Active JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
JP2023041182A Pending JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Country Status (8)
Country | Link |
---|---|
US (5) | US9773022B2 (ja) |
EP (1) | EP3304497A1 (ja) |
JP (4) | JP6571262B2 (ja) |
KR (3) | KR102340678B1 (ja) |
CN (2) | CN114898025A (ja) |
DE (1) | DE112016003134T5 (ja) |
GB (2) | GB2556511B (ja) |
WO (1) | WO2017062357A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9691241B1 (en) * | 2012-03-14 | 2017-06-27 | Google Inc. | Orientation of video based on the orientation of a display |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
CN108921191B (zh) * | 2018-05-25 | 2021-10-26 | 北方工业大学 | 基于图像质量评估的多生物特征融合识别方法 |
US11284054B1 (en) * | 2018-08-30 | 2022-03-22 | Largo Technology Group, Llc | Systems and method for capturing, processing and displaying a 360° video |
CN112583900B (zh) * | 2020-12-02 | 2023-04-07 | 深圳市互盟科技股份有限公司 | 云计算的数据处理方法及相关产品 |
US11756261B2 (en) * | 2021-11-10 | 2023-09-12 | Ford Global Technologies, Llc | Single-perspective image relighting |
US11776200B2 (en) | 2021-11-10 | 2023-10-03 | Ford Global Technologies, Llc | Image relighting |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697062B1 (en) | 1999-08-06 | 2004-02-24 | Microsoft Corporation | Reflection space image based rendering |
US7085409B2 (en) | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
AU2002303082A1 (en) | 2001-01-26 | 2002-09-12 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
GB2390792B (en) * | 2002-07-08 | 2005-08-31 | Vision Rt Ltd | Image processing system for use with a patient positioning device |
RU2358319C2 (ru) * | 2003-08-29 | 2009-06-10 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения |
JP4521568B2 (ja) * | 2005-06-14 | 2010-08-11 | 国立大学法人京都大学 | 対応点探索方法、相互標定方法、3次元画像計測方法、対応点探索装置、相互標定装置、3次元画像計測装置、対応点探索プログラム及び対応点探索プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US8244025B2 (en) * | 2006-03-20 | 2012-08-14 | Siemens Energy, Inc. | Method of coalescing information about inspected objects |
CN101321299B (zh) * | 2007-06-04 | 2011-06-01 | 华为技术有限公司 | 视差生成方法、生成单元以及三维视频生成方法及装置 |
JP5011224B2 (ja) * | 2008-07-09 | 2012-08-29 | 日本放送協会 | 任意視点映像生成装置及び任意視点映像生成プログラム |
US8525871B2 (en) * | 2008-08-08 | 2013-09-03 | Adobe Systems Incorporated | Content-aware wide-angle images |
CN101398936A (zh) * | 2008-11-07 | 2009-04-01 | 北京航空航天大学 | 一种双向纹理函数的压缩和合成方法 |
RU2524834C2 (ru) * | 2009-10-14 | 2014-08-10 | Нокиа Корпорейшн | Устройство для автостереоскопического рендеринга и отображения |
US9445072B2 (en) | 2009-11-11 | 2016-09-13 | Disney Enterprises, Inc. | Synthesizing views based on image domain warping |
WO2013032955A1 (en) * | 2011-08-26 | 2013-03-07 | Reincloud Corporation | Equipment, systems and methods for navigating through multiple reality models |
US20130127988A1 (en) | 2011-11-17 | 2013-05-23 | Sen Wang | Modifying the viewpoint of a digital image |
US9626798B2 (en) * | 2011-12-05 | 2017-04-18 | At&T Intellectual Property I, L.P. | System and method to digitally replace objects in images or video |
US9565450B2 (en) | 2012-03-07 | 2017-02-07 | Lg Electronics Inc. | Method and device for processing video signal |
US8842162B2 (en) * | 2012-08-16 | 2014-09-23 | Nice-Systems Ltd | Method and system for improving surveillance of PTZ cameras |
US9836875B2 (en) | 2013-04-26 | 2017-12-05 | Flipboard, Inc. | Viewing angle image manipulation based on device rotation |
US9269012B2 (en) * | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
US20150130800A1 (en) * | 2013-11-12 | 2015-05-14 | Fyusion, Inc. | Segmentation of surround view data |
US10073590B2 (en) * | 2014-09-02 | 2018-09-11 | Apple Inc. | Reduced size user interface |
JP2016162392A (ja) * | 2015-03-05 | 2016-09-05 | セイコーエプソン株式会社 | 3次元画像処理装置および3次元画像処理システム |
US11783864B2 (en) * | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
-
2015
- 2015-10-07 US US14/877,368 patent/US9773022B2/en active Active
-
2016
- 2016-10-04 EP EP16788840.3A patent/EP3304497A1/en active Pending
- 2016-10-04 JP JP2018500421A patent/JP6571262B2/ja active Active
- 2016-10-04 CN CN202210415621.0A patent/CN114898025A/zh active Pending
- 2016-10-04 DE DE112016003134.3T patent/DE112016003134T5/de active Pending
- 2016-10-04 KR KR1020217008457A patent/KR102340678B1/ko active IP Right Grant
- 2016-10-04 KR KR1020207013013A patent/KR102232724B1/ko active IP Right Grant
- 2016-10-04 KR KR1020187000631A patent/KR102111079B1/ko active IP Right Grant
- 2016-10-04 WO PCT/US2016/055323 patent/WO2017062357A1/en active Application Filing
- 2016-10-04 CN CN201680039889.1A patent/CN107851329B/zh active Active
- 2016-10-04 GB GB1800102.4A patent/GB2556511B/en active Active
- 2016-10-04 GB GB2112089.4A patent/GB2596662B/en active Active
-
2017
- 2017-08-31 US US15/692,548 patent/US10474712B2/en active Active
-
2019
- 2019-08-02 JP JP2019143176A patent/JP6915001B2/ja active Active
- 2019-09-19 US US16/575,941 patent/US11086927B2/en active Active
-
2021
- 2021-05-14 US US17/320,648 patent/US11809487B2/en active Active
- 2021-07-13 JP JP2021115686A patent/JP7247276B2/ja active Active
-
2023
- 2023-03-15 JP JP2023041182A patent/JP2023076498A/ja active Pending
- 2023-10-09 US US18/377,989 patent/US20240054155A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6571262B2 (ja) | 複数のモデルに基づくオブジェクトの表示 | |
JP2019194924A5 (ja) | ||
US9898857B2 (en) | Blending between street view and earth view | |
US10235800B2 (en) | Smoothing 3D models of objects to mitigate artifacts | |
US11086926B2 (en) | Thumbnail generation from panoramic images | |
US9551579B1 (en) | Automatic connection of images using visual features | |
CN112714266A (zh) | 标注信息展示方法、装置、电子设备及存储介质 | |
JP2023021469A (ja) | 測位方法、測位装置、ビジュアルマップの生成方法およびその装置 | |
US8982120B1 (en) | Blurring while loading map data | |
WO2023164084A1 (en) | Systems and methods for generating dimensionally coherent training data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190814 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190814 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201026 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20210125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6915001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |