JP6915001B2 - 複数のモデルに基づくオブジェクトの表示 - Google Patents
複数のモデルに基づくオブジェクトの表示 Download PDFInfo
- Publication number
- JP6915001B2 JP6915001B2 JP2019143176A JP2019143176A JP6915001B2 JP 6915001 B2 JP6915001 B2 JP 6915001B2 JP 2019143176 A JP2019143176 A JP 2019143176A JP 2019143176 A JP2019143176 A JP 2019143176A JP 6915001 B2 JP6915001 B2 JP 6915001B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- image
- visual
- model
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 claims description 96
- 238000000034 method Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 description 16
- 230000001154 acute effect Effects 0.000 description 6
- 239000012634 fragment Substances 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本願は、2015年10月7日に出願された米国特許出願第14/877,368号の継続出願であり、その開示は、参照によって本明細書に組み込まれる。
本技術は、オブジェクトのイメージがキャプチャされた視座とは異なる視座からオブジェクトを表示することに関する。たとえば、2つ以上のパノラマ画像が、2つの異なる視座からオブジェクトをキャプチャしてよく、ユーザは、2つのキャプチャ地点間の場所からオブジェクトの画像を要求してよい。本システムは、オブジェクトの対応する表面の視覚的に正確な表現であるフラグメントの尤度に比例する画像の対応するフラグメントをともに混合することによって、ユーザによって要求された画像を生成してよい。例として、ユーザによって要求された画像を生成する場合、本システムは、表示されるべきオブジェクトの表面の方位に対するキャプチャ場所およびユーザによって要求された地点の関係に基づく品質値を計算してよい。フラグメントが混合された場合、他のフラグメントよりも良好な品質値を有するフラグメントへ重みがより適用されてよい。
図1は、本明細書で開示された態様が実施されてよい1つの可能なシステム100を例示する。この例では、システム100は、コンピューティングデバイス110および120を含んでよい。コンピューティングデバイス110は、1つまたは複数のプロセッサ112、メモリ114、および汎用コンピューティングデバイスに典型的に存在する他のコンポーネントを含んでよい。図1は、単一のブロックとしても表されるデバイス110内の単一のブロックとしてプロセッサ112およびメモリ114の各々を機能的に表すが、本明細書で説明されたシステムおよび方法は、同じ物理的なハウジングに格納されてよい、または格納されなくてよい多数のプロセッサ、メモリ、およびデバイスを含んでよい。たとえば、単一のコンポーネント(たとえば、プロセッサ112)を含むとして以下に説明される様々な方法は、複数のコンポーネント(たとえば、負荷平準サーバファームにおける多数のプロセッサ)を含んでよい。同様に、異なるコンポーネント(たとえば、デバイス110およびデバイス120)を含むとして以下に説明される様々な方法は、単一のコンポーネントを含んでよい(たとえば、デバイス120が、以下に説明される決定を実行するのではなく、デバイス120は、処理のために関連するデータをデバイス110へ送信し、さらなる処理または表示のための決定の結果を受信してよい)。
本発明の様々な態様に従う動作が説明されるであろう。以下の動作は、以下に説明される正確な順序で実行される必要はないことが理解されるべきである。むしろ、様々なステップは、異なる順序で、または同時に取り扱われることができる。
110 サーバ
112 プロセッサ
114 メモリ
116 命令
118 データ
120 クライアントデバイス
121 クライアントデバイス
122 ディスプレイ
130 地理的コンポーネント
131 GPSレシーバ
132 コンパス
133 加速度計
134 ジャイロスコープ
135 照準機
135 ユーザ
160 ネットワーク
162 ユーザ入力
163 カメラ
201 側面
202 正面
210 視座
211 カメラ角度
212 カメラ角度
215 画像
216 モデル
220 視座
221 視角
222 視角
225 画像
226 モデル
230 視座
235 画像
240 車
310 楕円
320 視座
330 交差地点
350 円錐
420 キャプチャ場所
425 テクセル楕円
430 視座
435 ピクセル楕円
450 交差地点
501 表面
502 表面
503 表面
511 ポイント
512 ポイント
513 ポイント
520 画像
521 モデル
530 画像
531 モデル
540 視座
550 光線
601 表面
602 表面
603 ギャップ
620 キャプチャ場所
621 モデル
630 キャプチャ場所
631 モデル
635 表面
640 視座
641 光線
650 視座
710 画像
Claims (20)
- 画像を生成する方法であって、
オブジェクトの第1の表面および前記オブジェクトの第2の表面の方位および視覚的特性のモデルにアクセスするステップであって、前記視覚的特性は、第1の視座からの前記第1の表面の外観を表す第1の視覚的特性のセットと、前記第1の視座とは異なる第2の視座からの前記第2の表面の外観を表す第2の視覚的特性のセットとを備える、ステップと、
前記画像に対する第3の視座を識別するステップと、
前記モデルを使用して、前記第1の表面が前記第2の表面よりも前記第3の視座に近いと判定するステップと、
前記第1の表面が前記第2の表面よりも前記第3の視座に近いと前記判定するステップに基づいて、前記第1の視覚的特性のセットを使用して前記画像を生成するステップと
を備える、方法。 - 前記画像を生成するステップが、前記画像を生成するために、前記第2の視覚的特性のセットを使用することを含まない、請求項1に記載の方法。
- 前記第1の表面が前記第2の表面よりも前記第3の視座に近いと前記判定するステップが、前記第3の視座に対する前記第1の表面の方位に基づく、請求項1に記載の方法。
- 前記第1の表面が前記第2の表面よりも前記第3の視座に近いと前記判定するステップが、前記第3の視座に対する前記第2の表面の方位に基づく、請求項1に記載の方法。
- 前記第1の視覚的特性のセットが、前記第1の表面のテクスチャを規定する、請求項1に記載の方法。
- 前記第2の視覚的特性のセットが、前記第2の表面のテクスチャを規定する、請求項1に記載の方法。
- 前記第1の視覚的特性のセットが前記第2の視覚的特性のセットよりも前記第3の視座に近いと判定するステップをさらに備え、前記第1の視覚的特性のセットが前記第2の視覚的特性のセットよりも前記第3の視座に近いと判定するステップが、前記画像を生成するためにさらに使用される、請求項1に記載の方法。
- 前記オブジェクトとの1つまたは複数の交差する地点を識別するために、前記モデルの前記オブジェクトの上に前記第3の視座からの光線を投影するステップをさらに備え、前記1つまたは複数の交差する地点のうちの1つが、前記画像を生成するために使用される、請求項1に記載の方法。
- 前記1つまたは複数の交差する地点のうちの第1の地点が前記第1の表面に対応し、前記1つまたは複数の交差する地点のうちの第2の地点が前記第2の表面に対応し、前記第1の表面が前記第2の表面よりも前記第3の視座に近いと前記判定するステップが、前記1つまたは複数の交差する地点のうちの前記第1の地点および前記1つまたは複数の交差する地点のうちの前記第2の地点に基づく、請求項8に記載の方法。
- 前記第1の表面が前記第2の表面よりも前記第3の視座に近いと前記判定するステップに少なくとも部分的に基づいて、前記第1の視覚的特性のセットの第1の重みおよび前記第2の視覚的特性のセットの第2の重みを決定するステップをさらに備え、前記画像を生成するステップが、前記第1の重みおよび前記第2の重みに基づく、請求項1に記載の方法。
- 前記第2の重みが0に設定される、請求項10に記載の方法。
- 前記第1の重みが、前記生成された画像における前記オブジェクトの表面の方位に対する前記第1の視座の関係に対応する前記第1の視覚的特性のセットについての品質値に対応する、請求項10に記載の方法。
- 前記画像を生成するステップが、比(w1T1+w2T2)/(w1+w2)にさらに基づき、w1は前記第1の重みに対応し、w2は前記第2の重みに対応し、T1は前記第1の視覚的特性のセットに対応し、T2は前記第2の視覚的特性のセットに対応する、請求項10に記載の方法。
- 画像を生成するためのシステムであって、
オブジェクトの第1の表面および前記オブジェクトの第2の表面の方位および視覚的特性のモデルにアクセスすることであって、前記視覚的特性は、第1の視座からの前記第1の表面の外観を表す第1の視覚的特性のセットと、前記第1の視座とは異なる第2の視座からの前記第2の表面の外観を表す第2の視覚的特性のセットとを備える、アクセスすることと、
前記画像に対する第3の視座を識別することと、
前記モデルを使用して、前記第1の表面が前記第2の表面よりも前記第3の視座に近いと判定することと、
前記第1の表面が前記第2の表面よりも前記第3の視座に近いと前記判定することに基づいて、前記第1の視覚的特性のセットを使用して前記画像を生成することと
を行うように構成される1つまたは複数のプロセッサ
を備える、システム。 - 前記1つまたは複数のプロセッサが、前記画像を生成するために、前記第2の視覚的特性のセットを使用することなく前記画像を生成するようにさらに構成される、請求項14に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記第3の視座に対する前記第1の表面の方位にさらに基づいて、前記第1の表面が前記第2の表面よりも前記第3の視座に近いと判定するようにさらに構成される、請求項14に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記第3の視座に対する前記第2の表面の方位にさらに基づいて、前記第1の表面が前記第2の表面よりも前記第3の視座に近いと判定するようにさらに構成される、請求項14に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記オブジェクトとの1つまたは複数の交差する地点を識別するために、前記モデルの前記オブジェクトの上に前記第3の視座からの光線を投影するようにさらに構成され、前記1つまたは複数の交差する地点のうちの1つが、前記画像を生成するために使用される、請求項14に記載のシステム。
- 前記1つまたは複数の交差する地点のうちの第1の地点が前記第1の表面に対応し、前記1つまたは複数の交差する地点のうちの第2の地点が前記第2の表面に対応し、前記1つまたは複数のプロセッサが、前記1つまたは複数の交差する地点のうちの前記第1の地点および前記1つまたは複数の交差する地点のうちの前記第2の地点にさらに基づいて、前記第1の表面が前記第2の表面よりも前記第3の視座に近いと判定するようにさらに構成される、請求項18に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記第1の表面が前記第2の表面よりも前記第3の視座に近いと前記判定することに少なくとも部分的に基づいて、前記第1の視覚的特性のセットの第1の重みおよび前記第2の視覚的特性のセットの第2の重みを決定するようにさらに構成され、前記画像を生成することが、前記第1の重みおよび前記第2の重みに基づく、請求項14に記載のシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021115686A JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
JP2023041182A JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/877,368 | 2015-10-07 | ||
US14/877,368 US9773022B2 (en) | 2015-10-07 | 2015-10-07 | Displaying objects based on a plurality of models |
JP2018500421A JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Division JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021115686A Division JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019194924A JP2019194924A (ja) | 2019-11-07 |
JP2019194924A5 JP2019194924A5 (ja) | 2021-03-11 |
JP6915001B2 true JP6915001B2 (ja) | 2021-08-04 |
Family
ID=57218984
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Active JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
JP2019143176A Active JP6915001B2 (ja) | 2015-10-07 | 2019-08-02 | 複数のモデルに基づくオブジェクトの表示 |
JP2021115686A Active JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
JP2023041182A Pending JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500421A Active JP6571262B2 (ja) | 2015-10-07 | 2016-10-04 | 複数のモデルに基づくオブジェクトの表示 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021115686A Active JP7247276B2 (ja) | 2015-10-07 | 2021-07-13 | 複数のモデルに基づくオブジェクトの表示 |
JP2023041182A Pending JP2023076498A (ja) | 2015-10-07 | 2023-03-15 | 複数のモデルに基づくオブジェクトの表示 |
Country Status (8)
Country | Link |
---|---|
US (5) | US9773022B2 (ja) |
EP (1) | EP3304497A1 (ja) |
JP (4) | JP6571262B2 (ja) |
KR (3) | KR102340678B1 (ja) |
CN (2) | CN107851329B (ja) |
DE (1) | DE112016003134T5 (ja) |
GB (2) | GB2556511B (ja) |
WO (1) | WO2017062357A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9691241B1 (en) * | 2012-03-14 | 2017-06-27 | Google Inc. | Orientation of video based on the orientation of a display |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
CN108921191B (zh) * | 2018-05-25 | 2021-10-26 | 北方工业大学 | 基于图像质量评估的多生物特征融合识别方法 |
US11284054B1 (en) * | 2018-08-30 | 2022-03-22 | Largo Technology Group, Llc | Systems and method for capturing, processing and displaying a 360° video |
CN112583900B (zh) * | 2020-12-02 | 2023-04-07 | 深圳市互盟科技股份有限公司 | 云计算的数据处理方法及相关产品 |
US11756261B2 (en) * | 2021-11-10 | 2023-09-12 | Ford Global Technologies, Llc | Single-perspective image relighting |
US11776200B2 (en) | 2021-11-10 | 2023-10-03 | Ford Global Technologies, Llc | Image relighting |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697062B1 (en) | 1999-08-06 | 2004-02-24 | Microsoft Corporation | Reflection space image based rendering |
US7085409B2 (en) | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
EP1371019A2 (en) | 2001-01-26 | 2003-12-17 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
GB2390792B (en) * | 2002-07-08 | 2005-08-31 | Vision Rt Ltd | Image processing system for use with a patient positioning device |
EP1510973A3 (en) * | 2003-08-29 | 2006-08-16 | Samsung Electronics Co., Ltd. | Method and apparatus for image-based photorealistic 3D face modeling |
JP4521568B2 (ja) * | 2005-06-14 | 2010-08-11 | 国立大学法人京都大学 | 対応点探索方法、相互標定方法、3次元画像計測方法、対応点探索装置、相互標定装置、3次元画像計測装置、対応点探索プログラム及び対応点探索プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US8244025B2 (en) * | 2006-03-20 | 2012-08-14 | Siemens Energy, Inc. | Method of coalescing information about inspected objects |
CN101321299B (zh) * | 2007-06-04 | 2011-06-01 | 华为技术有限公司 | 视差生成方法、生成单元以及三维视频生成方法及装置 |
JP5011224B2 (ja) * | 2008-07-09 | 2012-08-29 | 日本放送協会 | 任意視点映像生成装置及び任意視点映像生成プログラム |
US8525871B2 (en) * | 2008-08-08 | 2013-09-03 | Adobe Systems Incorporated | Content-aware wide-angle images |
CN101398936A (zh) * | 2008-11-07 | 2009-04-01 | 北京航空航天大学 | 一种双向纹理函数的压缩和合成方法 |
US8970478B2 (en) * | 2009-10-14 | 2015-03-03 | Nokia Corporation | Autostereoscopic rendering and display apparatus |
US9445072B2 (en) | 2009-11-11 | 2016-09-13 | Disney Enterprises, Inc. | Synthesizing views based on image domain warping |
WO2013032955A1 (en) * | 2011-08-26 | 2013-03-07 | Reincloud Corporation | Equipment, systems and methods for navigating through multiple reality models |
US20130127988A1 (en) | 2011-11-17 | 2013-05-23 | Sen Wang | Modifying the viewpoint of a digital image |
US9626798B2 (en) * | 2011-12-05 | 2017-04-18 | At&T Intellectual Property I, L.P. | System and method to digitally replace objects in images or video |
WO2013133648A1 (ko) | 2012-03-07 | 2013-09-12 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US8842162B2 (en) * | 2012-08-16 | 2014-09-23 | Nice-Systems Ltd | Method and system for improving surveillance of PTZ cameras |
US9836875B2 (en) | 2013-04-26 | 2017-12-05 | Flipboard, Inc. | Viewing angle image manipulation based on device rotation |
US9269012B2 (en) * | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
US20150130799A1 (en) * | 2013-11-12 | 2015-05-14 | Fyusion, Inc. | Analysis and manipulation of images and video for generation of surround views |
US10073590B2 (en) * | 2014-09-02 | 2018-09-11 | Apple Inc. | Reduced size user interface |
JP2016162392A (ja) * | 2015-03-05 | 2016-09-05 | セイコーエプソン株式会社 | 3次元画像処理装置および3次元画像処理システム |
US11783864B2 (en) * | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
-
2015
- 2015-10-07 US US14/877,368 patent/US9773022B2/en active Active
-
2016
- 2016-10-04 WO PCT/US2016/055323 patent/WO2017062357A1/en active Application Filing
- 2016-10-04 EP EP16788840.3A patent/EP3304497A1/en not_active Withdrawn
- 2016-10-04 JP JP2018500421A patent/JP6571262B2/ja active Active
- 2016-10-04 KR KR1020217008457A patent/KR102340678B1/ko active IP Right Grant
- 2016-10-04 KR KR1020207013013A patent/KR102232724B1/ko active IP Right Grant
- 2016-10-04 CN CN201680039889.1A patent/CN107851329B/zh active Active
- 2016-10-04 CN CN202210415621.0A patent/CN114898025A/zh active Pending
- 2016-10-04 GB GB1800102.4A patent/GB2556511B/en active Active
- 2016-10-04 GB GB2112089.4A patent/GB2596662B/en active Active
- 2016-10-04 KR KR1020187000631A patent/KR102111079B1/ko active IP Right Grant
- 2016-10-04 DE DE112016003134.3T patent/DE112016003134T5/de active Pending
-
2017
- 2017-08-31 US US15/692,548 patent/US10474712B2/en active Active
-
2019
- 2019-08-02 JP JP2019143176A patent/JP6915001B2/ja active Active
- 2019-09-19 US US16/575,941 patent/US11086927B2/en active Active
-
2021
- 2021-05-14 US US17/320,648 patent/US11809487B2/en active Active
- 2021-07-13 JP JP2021115686A patent/JP7247276B2/ja active Active
-
2023
- 2023-03-15 JP JP2023041182A patent/JP2023076498A/ja active Pending
- 2023-10-09 US US18/377,989 patent/US20240054155A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6915001B2 (ja) | 複数のモデルに基づくオブジェクトの表示 | |
JP2019194924A5 (ja) | ||
US11860923B2 (en) | Providing a thumbnail image that follows a main image | |
CN111081199B (zh) | 选择用于显示的时间分布的全景图像 | |
US10235800B2 (en) | Smoothing 3D models of objects to mitigate artifacts | |
US9551579B1 (en) | Automatic connection of images using visual features | |
US20150109328A1 (en) | Techniques for navigation among multiple images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190814 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190814 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201026 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20210125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6915001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |