JP2021185484A - 複数のモデルに基づくオブジェクトの表示 - Google Patents
複数のモデルに基づくオブジェクトの表示 Download PDFInfo
- Publication number
- JP2021185484A JP2021185484A JP2021115686A JP2021115686A JP2021185484A JP 2021185484 A JP2021185484 A JP 2021185484A JP 2021115686 A JP2021115686 A JP 2021115686A JP 2021115686 A JP2021115686 A JP 2021115686A JP 2021185484 A JP2021185484 A JP 2021185484A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- visual
- requested
- determining
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本願は、2015年10月7日に出願された米国特許出願第14/877,368号の継続出願であり、その開示は、参照によって本明細書に組み込まれる。
本技術は、オブジェクトのイメージがキャプチャされた視座とは異なる視座からオブジェクトを表示することに関する。たとえば、2つ以上のパノラマ画像が、2つの異なる視座からオブジェクトをキャプチャしてよく、ユーザは、2つのキャプチャ地点間の場所からオブジェクトの画像を要求してよい。本システムは、オブジェクトの対応する表面の視覚的に正確な表現であるフラグメントの尤度に比例する画像の対応するフラグメントをともに混合することによって、ユーザによって要求された画像を生成してよい。例として、ユーザによって要求された画像を生成する場合、本システムは、表示されるべきオブジェクトの表面の方位に対するキャプチャ場所およびユーザによって要求された地点の関係に基づく品質値を計算してよい。フラグメントが混合された場合、他のフラグメントよりも良好な品質値を有するフラグメントへ重みがより適用されてよい。
図1は、本明細書で開示された態様が実施されてよい1つの可能なシステム100を例示する。この例では、システム100は、コンピューティングデバイス110および120を含んでよい。コンピューティングデバイス110は、1つまたは複数のプロセッサ112、メモリ114、および汎用コンピューティングデバイスに典型的に存在する他のコンポーネントを含んでよい。図1は、単一のブロックとしても表されるデバイス110内の単一のブロックとしてプロセッサ112およびメモリ114の各々を機能的に表すが、本明細書で説明されたシステムおよび方法は、同じ物理的なハウジングに格納されてよい、または格納されなくてよい多数のプロセッサ、メモリ、およびデバイスを含んでよい。たとえば、単一のコンポーネント(たとえば、プロセッサ112)を含むとして以下に説明される様々な方法は、複数のコンポーネント(たとえば、負荷平準サーバファームにおける多数のプロセッサ)を含んでよい。同様に、異なるコンポーネント(たとえば、デバイス110およびデバイス120)を含むとして以下に説明される様々な方法は、単一のコンポーネントを含んでよい(たとえば、デバイス120が、以下に説明される決定を実行するのではなく、デバイス120は、処理のために関連するデータをデバイス110へ送信し、さらなる処理または表示のための決定の結果を受信してよい)。
本発明の様々な態様に従う動作が説明されるであろう。以下の動作は、以下に説明される正確な順序で実行される必要はないことが理解されるべきである。むしろ、様々なステップは、異なる順序で、または同時に取り扱われることができる。
110 サーバ
112 プロセッサ
114 メモリ
116 命令
118 データ
120 クライアントデバイス
121 クライアントデバイス
122 ディスプレイ
130 地理的コンポーネント
131 GPSレシーバ
132 コンパス
133 加速度計
134 ジャイロスコープ
135 照準機
135 ユーザ
160 ネットワーク
162 ユーザ入力
163 カメラ
201 側面
202 正面
210 視座
211 カメラ角度
212 カメラ角度
215 画像
216 モデル
220 視座
221 視角
222 視角
225 画像
226 モデル
230 視座
235 画像
240 車
310 楕円
320 視座
330 交差地点
350 円錐
420 キャプチャ場所
425 テクセル楕円
430 視座
435 ピクセル楕円
450 交差地点
501 表面
502 表面
503 表面
511 ポイント
512 ポイント
513 ポイント
520 画像
521 モデル
530 画像
531 モデル
540 視座
550 光線
601 表面
602 表面
603 ギャップ
620 キャプチャ場所
621 モデル
630 キャプチャ場所
631 モデル
635 表面
640 視座
641 光線
650 視座
710 画像
Claims (20)
- システムであって、
1つまたは複数のプロセッサと、
視座に対するオブジェクトの表面の方位および視覚的特性のモデルを記憶するメモリであって、前記視覚的特性は、第1の視座からの前記表面の外観を表す第1の視覚的特性のセットと、第2の視座からの前記表面の外観を表す第2の視覚的特性のセットとを備える、メモリと、
前記1つまたは複数のプロセッサによって実行可能な命令であって、
前記第1の視座および前記第2の視座とは異なる要求された視座から前記オブジェクトの画像に対する要求を受信することと、
前記第1の視覚的特性のセットからの第1の視覚的特性と、前記第2の視覚的特性のセットからの第2の視覚的特性とを識別することと、
前記要求された視座と前記第1の視座とに対する前記表面の前記方位に基づいて、前記第1の視覚的特性のための第1の重み値を決定することと、
前記要求された視座と前記第2の視座とに対する前記表面の前記方位に基づいて、前記第2の視覚的特性のための第2の重み値を決定することと、
前記第1および第2の視覚的特性と、前記第1および第2の重み値とに基づいて、前記要求された画像の視覚的特性を決定することと、
前記要求された画像を提供することと
を備える命令と
を備える、システム。 - 前記要求はユーザから受信され、前記要求された画像を提供することは、前記要求された画像を前記ユーザへ表示することを備える、請求項1に記載のシステム。
- 前記要求された画像の視覚的特性を決定することは、前記第2の特性よりも前記第1の特性により類似した視覚的特性を決定することを備え、前記類似の程度は前記第2の重み値に対する前記第1の重み値に基づく、請求項1に記載のシステム。
- 前記メモリに記憶された前記モデルは、第1のモデルおよび第2のモデルを備え、
前記第1の視覚的特性のセットは、前記第1の視座からキャプチャされた画像データを前記第1のモデルへ投影することによって生成されるテクセルであり、
前記第2の視覚的特性のセットは、前記第2の視座からキャプチャされた画像データを前記第2のモデルへ投影することによって生成されるテクセルである、
請求項3に記載のシステム。 - 前記視覚的特性は色に関連付けられ、前記要求された画像の視覚的特性を決定することは、前記第1の視覚的特性に関連付けられた色と、前記第2の視覚的特性に関連付けられた色とを前記第2の重み値に対する前記第1の重み値に比例してアルファ混合することによって色を決定することを備える、請求項1に記載のシステム。
- 前記表面の前記方位は平面を定義し、
前記命令は、前記平面上の地点を選択することをさらに備え、
第1の重み値を決定することは、前記平面と前記第1の視座から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された視座から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定することを備え、
第2の重み値を決定することは、前記平面と前記第2の視座から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された視座から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定することを備える、
請求項1に記載のシステム。 - 前記命令は、前記要求された画像のピクセルを選択し、かつ前記選択されたピクセルに関連付けられた方向を決定することをさらに備え、
前記平面における地点を選択することは、前記ピクセルに関連付けられた前記方向が、前記平面と交差する前記地点を選択することを備え、
前記要求された画像の視覚的特性を決定することは、前記選択されたピクセルの視覚的特性を決定することを備える、
請求項6に記載のシステム。 - 第1の重み値を決定することは、第1の楕円の半径と、第2の楕円の対応する半径とに基づいて値を決定することを備え、前記第1の楕円は、前記平面と前記第1の視座から前記選択された地点へ延びる線の周囲を中心とした円錐との交差によって定義され、前記第2の楕円は、前記平面と前記要求された視座から前記選択された地点へ延びる線の周囲を中心とした円錐との交差によって定義される、請求項6に記載のシステム。
- 前記第1の重み値を決定することは、選択された角度で前記第2の楕円の前記半径の推定値に対する前記第1の楕円の前記半径の推定値に基づいて比を決定することをさらに備える、請求項8に記載のシステム。
- 表示のための画像を提供する方法であって、
要求された視座からオブジェクトの画像に対する要求を受信するステップと、
視座に対する前記オブジェクトの表面の方位および視覚的特性のモデルにアクセスするステップであって、前記視覚的特性は、第1の視座からの前記表面の外観を表す第1の視覚的特性のセットと、第2の視座からの前記表面の外観を表す第2の視覚的特性のセットとを備え、前記第1および第2の視座は、前記要求された視座とは異なる、ステップと、
前記第1の視覚的特性のセットからの第1の視覚的特性と、前記第2の視覚的特性のセットからの第2の視覚的特性とを識別するステップと、
前記要求された視座と前記第1の視座とに対する前記表面の前記方位に基づいて、前記第1の視覚的特性のための第1の重み値を決定するステップと、
前記要求された視座と前記第2の視座とに対する前記表面の前記方位に基づいて、前記第2の視覚的特性のための第2の重み値を決定するステップと、
前記第1および第2の視覚的特性と、前記第1および第2の重み値とに基づいて、前記要求された画像の視覚的特性を決定するステップと、
表示のために前記要求された画像を提供するステップと
を備える、方法。 - 前記要求はユーザから受信され、前記要求された画像を提供するステップは、前記要求された画像を前記ユーザへ表示するステップを備える、請求項10に記載の方法。
- 前記要求された画像の視覚的特性を決定するステップは、前記第2の特性よりも前記第1の特性により類似した視覚的特性を決定するステップを備え、前記類似の程度は前記第2の重み値に対する前記第1の重み値に基づく、請求項10に記載の方法。
- 前記モデルは、第1のモデルおよび第2のモデルを備え、
前記第1の視覚的特性のセットは、前記第1の視座からキャプチャされた画像データを前記第1のモデルへ投影することによって生成されるテクセルであり、
前記第2の視覚的特性のセットは、前記第2の視座からキャプチャされた画像データを前記第2のモデルへ投影することによって生成されるテクセルである、
請求項12に記載の方法。 - 前記視覚的特性は色に関連付けられ、前記要求された画像の視覚的特性を決定するステップは、前記第1の視覚的特性に関連付けられた色と、前記第2の視覚的特性に関連付けられた色とを前記第2の重み値に対する前記第1の重み値に比例してアルファ混合することによって色を決定するステップを備える、請求項10に記載の方法。
- 前記表面の前記方位は平面を定義し、
前記平面における地点を選択するステップをさらに備え、
第1の重み値を決定するステップは、前記平面と前記第1の視座から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された視座から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定するステップを備え、
第2の重み値を決定するステップは、前記平面と前記第2の視座から前記選択された地点へ延びる線との間の立体角と、前記平面と前記要求された視座から前記選択された地点へ延びる線との間の立体角との関係に基づいて値を決定するステップを備える、
請求項10に記載の方法。 - 前記要求された画像のピクセルを選択し、かつ前記選択されたピクセルに関連付けられた方向を決定するステップをさらに備え、
前記平面における地点を選択するステップは、前記ピクセルに関連付けられた前記方向が、前記平面と交差する前記地点を選択するステップを備え、
前記要求された画像の視覚的特性を決定するステップは、前記選択されたピクセルの視覚的特性を決定するステップを備える、
請求項15に記載の方法。 - プログラムのコンピューティングデバイス可読命令が記憶された非一時的コンピューティングデバイス可読記憶媒体であって、前記命令は、1つまたは複数のコンピューティングデバイスによって実行された場合、前記1つまたは複数のコンピューティングデバイスに対して、
要求された視座からオブジェクトの画像に対する要求を受信するステップと、
視座に対する前記オブジェクトの表面の方位および視覚的特性のモデルにアクセスするステップであって、前記視覚的特性は、第1の視座からの前記表面の外観を表す第1の視覚的特性のセットと、第2の視座からの前記表面の外観を表す第2の視覚的特性のセットとを備え、前記第1および第2の視座は、前記要求された視座とは異なる、ステップと、
前記第1の視覚的特性のセットからの第1の視覚的特性と、前記第2の視覚的特性のセットからの第2の視覚的特性とを識別するステップと、
前記要求された視座と前記第1の視座とに対する前記表面の前記方位に基づいて、前記第1の視覚的特性のための第1の重み値を決定するステップと、
前記要求された視座と前記第2の視座とに対する前記表面の前記方位に基づいて、前記第2の視覚的特性のための第2の重み値を決定するステップと、
前記第1および第2の視覚的特性と、前記第1および第2の重み値とに基づいて、前記要求された画像の視覚的特性を決定するステップと、
表示のために前記要求された画像を提供するステップと
を備える方法を実行させる、非一時的コンピューティングデバイス可読記憶媒体。 - 前記要求はユーザから受信され、前記要求された画像を提供するステップは、前記要求された画像を前記ユーザへ表示するステップを備える、請求項17に記載の記憶媒体。
- 前記要求された画像の視覚的特性を決定するステップは、前記第2の特性よりも前記第1の特性により類似した視覚的特性を決定するステップを備え、前記類似の程度は前記第2の重み値に対する前記第1の重み値に基づく、請求項17に記載の記憶媒体。
- 前記モデルは、第1のモデルおよび第2のモデルを備え、
前記第1の視覚的特性のセットは、前記第1の視座からキャプチャされた画像データを前記第1のモデルへ投影することによって生成されるテクセルであり、
前記第2の視覚的特性のセットは、前記第2の視座からキャプチャされた画像データを前記第2のモデルへ投影することによって生成されるテクセルである、
請求項19に記載の記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023041182A JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/877,368 | 2015-10-07 | ||
US14/877,368 US9773022B2 (en) | 2015-10-07 | 2015-10-07 | Displaying objects based on a plurality of models |
JP2019143176A JP6915001B2 (ja) | 2015-10-07 | 2019-08-02 | 複数のモデルに基づくオブジェクトの表示 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019143176A Division JP6915001B2 (ja) | 2015-10-07 | 2019-08-02 | 複数のモデルに基づくオブジェクトの表示 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023041182A Division JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021185484A true JP2021185484A (ja) | 2021-12-09 |
JP7247276B2 JP7247276B2 (ja) | 2023-03-28 |
Family
ID=57218984
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Active JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
JP2019143176A Active JP6915001B2 (ja) | 2015-10-07 | 2019-08-02 | 複数のモデルに基づくオブジェクトの表示 |
JP2021115686A Active JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
JP2023041182A Pending JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Active JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
JP2019143176A Active JP6915001B2 (ja) | 2015-10-07 | 2019-08-02 | 複数のモデルに基づくオブジェクトの表示 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023041182A Pending JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Country Status (8)
Country | Link |
---|---|
US (5) | US9773022B2 (ja) |
EP (1) | EP3304497A1 (ja) |
JP (4) | JP6571262B2 (ja) |
KR (3) | KR102340678B1 (ja) |
CN (2) | CN114898025A (ja) |
DE (1) | DE112016003134T5 (ja) |
GB (2) | GB2556511B (ja) |
WO (1) | WO2017062357A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9691241B1 (en) * | 2012-03-14 | 2017-06-27 | Google Inc. | Orientation of video based on the orientation of a display |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
CN108921191B (zh) * | 2018-05-25 | 2021-10-26 | 北方工业大学 | 基于图像质量评估的多生物特征融合识别方法 |
US11284054B1 (en) * | 2018-08-30 | 2022-03-22 | Largo Technology Group, Llc | Systems and method for capturing, processing and displaying a 360° video |
CN112583900B (zh) * | 2020-12-02 | 2023-04-07 | 深圳市互盟科技股份有限公司 | 云计算的数据处理方法及相关产品 |
US11756261B2 (en) * | 2021-11-10 | 2023-09-12 | Ford Global Technologies, Llc | Single-perspective image relighting |
US11776200B2 (en) | 2021-11-10 | 2023-10-03 | Ford Global Technologies, Llc | Image relighting |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020487A (ja) * | 2008-07-09 | 2010-01-28 | Nippon Hoso Kyokai <Nhk> | 任意視点映像生成装置及び任意視点映像生成プログラム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697062B1 (en) | 1999-08-06 | 2004-02-24 | Microsoft Corporation | Reflection space image based rendering |
US7085409B2 (en) | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
EP1371019A2 (en) | 2001-01-26 | 2003-12-17 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
GB2390792B (en) * | 2002-07-08 | 2005-08-31 | Vision Rt Ltd | Image processing system for use with a patient positioning device |
RU2358319C2 (ru) * | 2003-08-29 | 2009-06-10 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения |
JP4521568B2 (ja) * | 2005-06-14 | 2010-08-11 | 国立大学法人京都大学 | 対応点探索方法、相互標定方法、3次元画像計測方法、対応点探索装置、相互標定装置、3次元画像計測装置、対応点探索プログラム及び対応点探索プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US8244025B2 (en) * | 2006-03-20 | 2012-08-14 | Siemens Energy, Inc. | Method of coalescing information about inspected objects |
CN101321299B (zh) * | 2007-06-04 | 2011-06-01 | 华为技术有限公司 | 视差生成方法、生成单元以及三维视频生成方法及装置 |
US8525871B2 (en) * | 2008-08-08 | 2013-09-03 | Adobe Systems Incorporated | Content-aware wide-angle images |
CN101398936A (zh) * | 2008-11-07 | 2009-04-01 | 北京航空航天大学 | 一种双向纹理函数的压缩和合成方法 |
WO2011044936A1 (en) * | 2009-10-14 | 2011-04-21 | Nokia Corporation | Autostereoscopic rendering and display apparatus |
US9445072B2 (en) | 2009-11-11 | 2016-09-13 | Disney Enterprises, Inc. | Synthesizing views based on image domain warping |
US9274595B2 (en) * | 2011-08-26 | 2016-03-01 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
US20130127988A1 (en) | 2011-11-17 | 2013-05-23 | Sen Wang | Modifying the viewpoint of a digital image |
US9626798B2 (en) * | 2011-12-05 | 2017-04-18 | At&T Intellectual Property I, L.P. | System and method to digitally replace objects in images or video |
US9565450B2 (en) | 2012-03-07 | 2017-02-07 | Lg Electronics Inc. | Method and device for processing video signal |
US8842162B2 (en) * | 2012-08-16 | 2014-09-23 | Nice-Systems Ltd | Method and system for improving surveillance of PTZ cameras |
US9836875B2 (en) | 2013-04-26 | 2017-12-05 | Flipboard, Inc. | Viewing angle image manipulation based on device rotation |
US9269012B2 (en) * | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
US20150134651A1 (en) * | 2013-11-12 | 2015-05-14 | Fyusion, Inc. | Multi-dimensional surround view based search |
US20160062571A1 (en) * | 2014-09-02 | 2016-03-03 | Apple Inc. | Reduced size user interface |
JP2016162392A (ja) * | 2015-03-05 | 2016-09-05 | セイコーエプソン株式会社 | 3次元画像処理装置および3次元画像処理システム |
US11783864B2 (en) * | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
-
2015
- 2015-10-07 US US14/877,368 patent/US9773022B2/en active Active
-
2016
- 2016-10-04 EP EP16788840.3A patent/EP3304497A1/en active Pending
- 2016-10-04 KR KR1020217008457A patent/KR102340678B1/ko active IP Right Grant
- 2016-10-04 CN CN202210415621.0A patent/CN114898025A/zh active Pending
- 2016-10-04 CN CN201680039889.1A patent/CN107851329B/zh active Active
- 2016-10-04 GB GB1800102.4A patent/GB2556511B/en active Active
- 2016-10-04 DE DE112016003134.3T patent/DE112016003134T5/de active Pending
- 2016-10-04 KR KR1020207013013A patent/KR102232724B1/ko active IP Right Grant
- 2016-10-04 JP JP2018500421A patent/JP6571262B2/ja active Active
- 2016-10-04 WO PCT/US2016/055323 patent/WO2017062357A1/en active Application Filing
- 2016-10-04 KR KR1020187000631A patent/KR102111079B1/ko active IP Right Grant
- 2016-10-04 GB GB2112089.4A patent/GB2596662B/en active Active
-
2017
- 2017-08-31 US US15/692,548 patent/US10474712B2/en active Active
-
2019
- 2019-08-02 JP JP2019143176A patent/JP6915001B2/ja active Active
- 2019-09-19 US US16/575,941 patent/US11086927B2/en active Active
-
2021
- 2021-05-14 US US17/320,648 patent/US11809487B2/en active Active
- 2021-07-13 JP JP2021115686A patent/JP7247276B2/ja active Active
-
2023
- 2023-03-15 JP JP2023041182A patent/JP2023076498A/ja active Pending
- 2023-10-09 US US18/377,989 patent/US20240054155A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020487A (ja) * | 2008-07-09 | 2010-01-28 | Nippon Hoso Kyokai <Nhk> | 任意視点映像生成装置及び任意視点映像生成プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6915001B2 (ja) | 複数のモデルに基づくオブジェクトの表示 | |
JP2019194924A5 (ja) | ||
US11860923B2 (en) | Providing a thumbnail image that follows a main image | |
US11086926B2 (en) | Thumbnail generation from panoramic images | |
US10235800B2 (en) | Smoothing 3D models of objects to mitigate artifacts | |
US9551579B1 (en) | Automatic connection of images using visual features | |
US20150109328A1 (en) | Techniques for navigation among multiple images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210806 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7247276 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |