JP7264788B2 - 提示システム、サーバ及び端末 - Google Patents
提示システム、サーバ及び端末 Download PDFInfo
- Publication number
- JP7264788B2 JP7264788B2 JP2019184958A JP2019184958A JP7264788B2 JP 7264788 B2 JP7264788 B2 JP 7264788B2 JP 2019184958 A JP2019184958 A JP 2019184958A JP 2019184958 A JP2019184958 A JP 2019184958A JP 7264788 B2 JP7264788 B2 JP 7264788B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- drawing information
- camera
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
D(t)=G2(t)-G3(t) …(1)
G2(t)=G3(t)+D(t) …(2)
G2(t)=G1(t)+D(t) …(3)
G1(t)及びG3(t)…アルベドマップ及びライトマップ(拡散反射モデルによる)
G2(t)…アルベドマップ及びライトマップ(拡散反射モデル及び鏡面反射モデルによる)
G1''(t)=G2''(t)=G3''(t)
D''(t)=0
一方、ライトマップに関しても品質に相違を設けて設定し、例えば、G1(t)及びG3(t)におけるライトマップはアンビエントオクルージョンを考慮しないものとし、G2(t)におけるライトマップはアンビエントオクルージョンを考慮したより高品質なものとしてもよい。(あるいは、アンビエントオクルージョンを考慮する精度に相違を設けて設定してもよい。)この場合、上記とは異なり、G2''(t)≠G1''(t), G2''(t)≠G3''(t),D''(t)≠0となる。
G2(t)=G1(t)+D(0) …(3')
D(t)(u,v)= G2(t)(u,v)/G3(t)(u,v) …(4)
D(t)(u,v)=(α(t)(u,v),β(t)(u,v)) …(5a)
G2(t)(u,v)=α(t)(u,v)*G3(t)(u,v)+β(t)(u,v) …(5b)
D'(t)(u,v)=G2(t)(u,v)-(α(t)*G3(t)(u,v)+β(t)) …(5c)
G2(t)(u,v)=D'(t)(u,v)+(α(t)*G1(t)(u,v)+β(t)) …(5d)
11…撮像部、12…認識部、13…第一描画部、14…統合部、15…提示部
21…第二描画部、22…第三描画部、23…抽出部
Claims (12)
- 拡張現実表示を行う端末とサーバとを備える提示システムであって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記抽出部は、前記第三描画情報を参照フレームに設定し、前記第二描画情報を予測対象フレームに設定し、ゼロの動きベクトルでフレーム間予測を適用した予測残差として前記相違情報を抽出したうえで、前記参照フレームを除外した前記予測残差のみに対して符号化を適用することを特徴とする提示システム。 - 拡張現実表示を行う端末とサーバとを備える提示システムであって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記端末では、第一時刻と当該第一時刻よりも後の第二時刻に関して、前記位置姿勢を求め、前記第一描画情報を得て、
前記サーバでは、前記第一時刻での位置姿勢を用いて、前記第一時刻での相違情報を得て、
前記端末の前記統合部では、前記第二時刻での第一描画情報に前記第一時刻での相違情報を反映することにより、前記第二描画部で得る第二描画情報の前記第二時刻に相当するものを復元することを特徴とする提示システム。 - 拡張現実表示を行う端末とサーバとを備える提示システムであって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記第一描画情報、前記第二描画情報及び前記第三描画情報はそれぞれ、前記3次元モデルの表面のテクスチャを描画するために参照される情報であって、当該3次元モデルを構成する複数の表面要素を正面で見た状態に展開した2次元マップの情報を含んで構成されており、
前記統合部は、前記2次元マップの状態において前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元したうえでさらに、当該復元した第二描画情報を前記位置姿勢のもとに3次元配置することで、前記3次元モデルの前記カメラの画像平面における描画結果を得ることを特徴とする提示システム。 - 前記第一態様及び前記第二態様はそれぞれ所定の描画態様として予め設定されるものであり、且つ、前記第二態様における描画品質は前記第一態様における描画品質よりも高いものとして設定されていることを特徴とする請求項1ないし3のいずれかに記載の提示システム。
- 前記第一態様の描画態様における描画品質と、前記第二態様の描画態様における描画品質と、の相違は、光源モデル、反射モデル又は3次元モデルのうちの少なくとも1つの相違として設定されることを特徴とする請求項4に記載の提示システム。
- 前記第一態様の描画態様における描画品質と、前記第二態様の描画態様における描画品質と、の相違は、描画で用いるシェーダー及び/又はレンダラーの相違として設定されることを特徴とする請求項4に記載の提示システム。
- 前記第一描画情報、前記第二描画情報及び前記第三描画情報はそれぞれ、前記カメラの画像平面において描画された画像であることを特徴とする請求項1または2に記載の提示システム。
- 拡張現実表示を行う端末とサーバとを備える提示システムにおけるサーバであって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記抽出部は、前記第三描画情報を参照フレームに設定し、前記第二描画情報を予測対象フレームに設定し、ゼロの動きベクトルでフレーム間予測を適用した予測残差として前記相違情報を抽出したうえで、前記参照フレームを除外した前記予測残差のみに対して符号化を適用することを特徴とするサーバ。 - 拡張現実表示を行う端末とサーバとを備える提示システムにおけるサーバであって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記第一描画情報、前記第二描画情報及び前記第三描画情報はそれぞれ、前記3次元モデルの表面のテクスチャを描画するために参照される情報であって、当該3次元モデルを構成する複数の表面要素を正面で見た状態に展開した2次元マップの情報を含んで構成されており、
前記統合部は、前記2次元マップの状態において前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元したうえでさらに、当該復元した第二描画情報を前記位置姿勢のもとに3次元配置することで、前記3次元モデルの前記カメラの画像平面における描画結果を得ることを特徴とするサーバ。 - 拡張現実表示を行う端末とサーバとを備える提示システムにおける端末であって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記抽出部は、前記第三描画情報を参照フレームに設定し、前記第二描画情報を予測対象フレームに設定し、ゼロの動きベクトルでフレーム間予測を適用した予測残差として前記相違情報を抽出したうえで、前記参照フレームを除外した前記予測残差のみに対して符号化を適用し、
前記統合部は、前記第一描画情報を参照フレームに設定し、前記符号化された予測残差を再構成し、ゼロの動きベクトルでフレーム間予測を適用することで、前記第二描画情報を復号することによって前記復元することを特徴とする端末。 - 拡張現実表示を行う端末とサーバとを備える提示システムにおける端末であって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記端末では、第一時刻と当該第一時刻よりも後の第二時刻に関して、前記位置姿勢を求め、前記第一描画情報を得て、
前記サーバでは、前記第一時刻での位置姿勢を用いて、前記第一時刻での相違情報を得て、
前記端末の前記統合部では、前記第二時刻での第一描画情報に前記第一時刻での相違情報を反映することにより、前記第二描画部で得る第二描画情報の前記第二時刻に相当するものを復元することを特徴とする端末。 - 拡張現実表示を行う端末とサーバとを備える提示システムにおける端末であって、
前記端末は、
カメラで撮像した撮像画像より、撮像されている対象の種別を特定し、当該対象の前記カメラを基準とした位置姿勢を求める認識部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第一態様で描画するための第一描画情報を得る第一描画部と、を備え、
前記サーバは、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において第二態様で描画するための第二描画情報を得る第二描画部と、
前記種別に応じた3次元モデルを前記位置姿勢に配置して前記カメラの画像平面において前記第一態様で描画するための第三描画情報を得る第三描画部と、
前記第二描画情報と前記第三描画情報との相違情報を抽出する抽出部と、を備え、
前記端末はさらに、
前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元する統合部と、
前記復元された第二描画情報に基づいた表示を行う提示部と、を備え、
前記第一描画情報、前記第二描画情報及び前記第三描画情報はそれぞれ、前記3次元モデルの表面のテクスチャを描画するために参照される情報であって、当該3次元モデルを構成する複数の表面要素を正面で見た状態に展開した2次元マップの情報を含んで構成されており、
前記統合部は、前記2次元マップの状態において前記第一描画情報に前記相違情報を反映することにより、前記第二描画部で得た第二描画情報を復元したうえでさらに、当該復元した第二描画情報を前記位置姿勢のもとに3次元配置することで、前記3次元モデルの前記カメラの画像平面における描画結果を得ることを特徴とする端末。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184958A JP7264788B2 (ja) | 2019-10-08 | 2019-10-08 | 提示システム、サーバ及び端末 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184958A JP7264788B2 (ja) | 2019-10-08 | 2019-10-08 | 提示システム、サーバ及び端末 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060836A JP2021060836A (ja) | 2021-04-15 |
JP7264788B2 true JP7264788B2 (ja) | 2023-04-25 |
Family
ID=75380234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019184958A Active JP7264788B2 (ja) | 2019-10-08 | 2019-10-08 | 提示システム、サーバ及び端末 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7264788B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140173674A1 (en) | 2012-12-13 | 2014-06-19 | Microsoft Corporation | Server gpu assistance for mobile gpu applications |
JP2015079447A (ja) | 2013-10-18 | 2015-04-23 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
CN108109191A (zh) | 2017-12-26 | 2018-06-01 | 深圳创维新世界科技有限公司 | 渲染方法及系统 |
-
2019
- 2019-10-08 JP JP2019184958A patent/JP7264788B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140173674A1 (en) | 2012-12-13 | 2014-06-19 | Microsoft Corporation | Server gpu assistance for mobile gpu applications |
JP2015079447A (ja) | 2013-10-18 | 2015-04-23 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
CN108109191A (zh) | 2017-12-26 | 2018-06-01 | 深圳创维新世界科技有限公司 | 渲染方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2021060836A (ja) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
US7463269B2 (en) | Texture data compression and rendering in 3D computer graphics | |
CN111369655B (zh) | 渲染方法、装置和终端设备 | |
CN111194550B (zh) | 处理3d视频内容 | |
KR101271460B1 (ko) | 영상 복원 장치 및 그 방법 | |
US11004255B2 (en) | Efficient rendering of high-density meshes | |
US9621901B1 (en) | Encoding of computer-generated video content | |
CN114863038B (zh) | 基于显式几何形变的实时动态自由视角合成方法及装置 | |
JP7371691B2 (ja) | ホモグラフィ変換を使用した点群符号化 | |
US11270468B1 (en) | Joint color image and texture data compression | |
Lochmann et al. | Real-time Reflective and Refractive Novel-view Synthesis. | |
US8390623B1 (en) | Proxy based approach for generation of level of detail | |
WO2023272531A1 (zh) | 图像处理方法及装置、设备、存储介质 | |
CN116134491A (zh) | 用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测 | |
Li et al. | Bringing instant neural graphics primitives to immersive virtual reality | |
JP7264788B2 (ja) | 提示システム、サーバ及び端末 | |
Baričević et al. | User-perspective AR magic lens from gradient-based IBR and semi-dense stereo | |
WO2019193696A1 (ja) | 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法 | |
JP7319215B2 (ja) | 情報システム、端末及びプログラム | |
US11417058B2 (en) | Anti-aliasing two-dimensional vector graphics using a multi-vertex buffer | |
US20220201302A1 (en) | Adaptive range packing compression | |
Tran et al. | VOODOO 3D: Volumetric Portrait Disentanglement for One-Shot 3D Head Reenactment | |
Van Bogaert et al. | Novel view synthesis in embedded virtual reality devices | |
Fechteler et al. | Articulated 3D model tracking with on-the-fly texturing | |
Hofer et al. | An End-to-End System for Real-Time Dynamic Point Cloud Visualization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7264788 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |