JP2019144774A - 3dモデル表示装置、3dモデル表示方法及び3dモデル表示プログラム - Google Patents

3dモデル表示装置、3dモデル表示方法及び3dモデル表示プログラム Download PDF

Info

Publication number
JP2019144774A
JP2019144774A JP2018027341A JP2018027341A JP2019144774A JP 2019144774 A JP2019144774 A JP 2019144774A JP 2018027341 A JP2018027341 A JP 2018027341A JP 2018027341 A JP2018027341 A JP 2018027341A JP 2019144774 A JP2019144774 A JP 2019144774A
Authority
JP
Japan
Prior art keywords
model
background image
unit
display device
model display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018027341A
Other languages
English (en)
Other versions
JP7125847B2 (ja
Inventor
大樹 谷口
Daiki Taniguchi
大樹 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc
Original Assignee
Akatsuki Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akatsuki Inc filed Critical Akatsuki Inc
Priority to JP2018027341A priority Critical patent/JP7125847B2/ja
Publication of JP2019144774A publication Critical patent/JP2019144774A/ja
Application granted granted Critical
Publication of JP7125847B2 publication Critical patent/JP7125847B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】3Dモデルが周囲から浮かないように3Dモデルを表示することができる3Dモデル表示装置、3Dモデル表示方法及び3Dモデル表示プログラムを提供する。【解決手段】3Dモデル表示装置10は、撮影部10gで撮影した背景画像を取得する取得部11と、3Dモデルの背後が透過して見えるように、3Dモデルを背景画像に重畳させて表示する表示部10fと、を備える。【選択図】図1

Description

本発明は、3Dモデル表示装置、3Dモデル表示方法及び3Dモデル表示プログラムに関する。
近年、カメラによって撮影している画像に、3Dモデルを重畳表示して、あたかも3Dモデルが現実に存在しているかのように見せるAR(Augmented Reality)やVR(Virtual Reality)と呼ばれる技術が研究されている。
下記特許文献1には、撮像部で撮像した2つの画像の各々から顔を検出し、検出した顔の目と口を結ぶ三角形の三次元座標を算出し、地面を推定して、表示部に表示される立体映像において、推定した地面上に仮想物体を重畳表示させる拡張現実感提供装置が記載されている。
特開2012−216077号公報
例えば特許文献1に記載の技術のように、現実の地面の位置を推定して、推定した地面の位置と整合するように3Dモデルを表示することで、3Dモデルが現実の地面に配置されているように見せることができる。
しかしながら、3Dモデルが現実の地面に配置されているように見せても、3Dモデルの明るさが環境光や照明と整合せず、3Dモデルが周囲から浮いて見えてしまうことがある。
そこで、本発明は、3Dモデルが周囲から浮かないように3Dモデルを表示することができる3Dモデル表示装置、3Dモデル表示方法及び3Dモデル表示プログラムを提供する。
本発明の一態様に係る3D表示装置は、撮影部で撮影した背景画像を取得する取得部と、3Dモデルの背後が透過して見えるように、3Dモデルを背景画像に重畳させて表示する表示部と、を備える。
この態様によれば、3Dモデルの背後が透過して見えるように、透明な3Dモデルを背景画像に重畳させて表示することで、環境光や照明と3Dモデルの明るさの整合が自ずと取れ、3Dモデルが周囲から浮かないように3Dモデルを表示することができる。また、透明な3Dモデルの立体形状が背景画像上に浮かび上がるように表示され、透明な人物やロボットが目の前に現れたかのような新奇な視覚体験を提供することができる。
上記態様において、表示部は、3Dモデルの少なくとも一部のエッジを強調して表示してもよい。
この態様によれば、3Dモデルの輪郭を明確に表示することができ、特殊なゴーグル越しに現実世界を見ているかのような視覚体験を提供できる。
上記態様において、表示部は、3Dモデルの目を所定の色で表示してもよい。
この態様によれば、透明な3Dモデルの目が所定の色で表示されることで、3Dモデルから注視されているかのような視覚体験を提供することができる。
上記態様において、表示部は、3Dモデル及び背景画像にまたがるノイズを表示してもよい。
この態様によれば、3Dモデル及び背景画像にまたがるノイズをあえて表示することで、3Dモデルがより背景画像に整合しているように見え、3Dモデルが周囲から浮かないようにすることができる。
上記態様において、背景画像を表示する2次元座標系における3Dモデルの頂点の位置を算出する算出部と、頂点の位置を歪ませて、テクスチャ座標を決定する決定部と、背景画像をテクスチャとして、テクスチャ座標によりマッピングするマッピング部と、をさらに備えてもよい。
上記態様において、マッピング部は、背景画像の所定の領域に微分フィルタを適用し、フィルタリングされた画像をマッピングしてもよい。
上記態様において、マッピング部は、3Dモデルの目の領域に所定の色をマッピングしてもよい。
本発明の他の態様に係る3次元測定方法は、撮影部で撮影した背景画像を取得することと、3Dモデルの背後が透過して見えるように、3Dモデルを背景画像に重畳させて表示することと、を含む。
この態様によれば、3Dモデルの背後が透過して見えるように、透明な3Dモデルを背景画像に重畳させて表示することで、環境光や照明と3Dモデルの明るさの整合が自ずと取れ、3Dモデルが周囲から浮かないように3Dモデルを表示することができる。また、透明な3Dモデルの立体形状が背景画像上に浮かび上がるように表示され、透明な人物やロボットが目の前に現れたかのような新奇な視覚体験を提供することができる。
本発明の他の態様に係る3次元測定プログラムは、3Dモデル表示装置に備えられた演算部を、撮影部で撮影した背景画像を取得する取得部、及び3Dモデルの背後が透過して見えるように、3Dモデルを背景画像に重畳させて表示部に表示させる表示制御部、として機能させる。
この態様によれば、3Dモデルの背後が透過して見えるように、透明な3Dモデルを背景画像に重畳させて表示することで、環境光や照明と3Dモデルの明るさの整合が自ずと取れ、3Dモデルが周囲から浮かないように3Dモデルを表示することができる。また、透明な3Dモデルの立体形状が背景画像上に浮かび上がるように表示され、透明な人物やロボットが目の前に現れたかのような新奇な視覚体験を提供することができる。
本発明によれば、3Dモデルが周囲から浮かないように3Dモデルを表示することができる3Dモデル表示装置、3Dモデル表示方法及び3Dモデル表示プログラムが提供される。
本実施形態に係る3Dモデル表示装置により表示される画面の第1例を示す図である。 本発明の実施形態に係る3Dモデル表示装置の機能ブロック図である。 本実施形態に係る3Dモデル表示装置の物理的構成を示す図である。 本実施形態に係る3Dモデル表示装置により実行される第1処理のフローチャートである。 本実施形態に係る3Dモデル表示装置により表示される画面の第2例を示す図である。 本実施形態に係る3Dモデル表示装置により実行される第2処理のフローチャートである。 本実施形態に係る3Dモデル表示装置により表示される画面の第3例を示す図である。 本実施形態に係る3Dモデル表示装置により表示される画面の第4例を示す図である。 本実施形態に係る3Dモデル表示装置により実行される第3処理のフローチャートである。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」と表記する。)を、図面に基づいて説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本実施形態に係る3Dモデル表示装置10により表示される画面の第1例を示す図である。本実施形態に係る3Dモデル表示装置10は、スマートフォンで構成され、表示部10f及び撮影部10gを内蔵する。3Dモデル表示装置10は、撮影部10gにより背景画像Pを継続的に撮影し、表示部10fにより撮影した背景画像Pをリアルタイムで表示する。ここで、背景画像とは、現実空間を撮影した画像であり、背景画像の撮影範囲には任意の対象が含まれてよい。
同図に示す例では、背景画像Pは、地下駐車場を撮影した画像であり、背景画像Pには一台の車、駐車範囲を示す白線、天井に設けられた照明等が写されている。3Dモデル表示装置10は、第1の3DモデルM1の背後が透過して見えるように、第1の3DモデルM1を背景画像Pに重畳させて表示する。同図に示すように、3Dモデル表示装置10は、第1の3DモデルM1によって光が屈折して見えるように、第1の3DモデルM1を背景画像Pに重畳して表示する。
このように、3Dモデルの背後が透過して見えるように、透明な3Dモデルを背景画像に重畳させて表示することで、環境光や照明と3Dモデルの明るさの整合が自ずと取れ、3Dモデルが周囲から浮かないように3Dモデルを表示することができる。また、現実には見られない透明な人物を、あたかも現実に存在しているかのように見せることができる。さらに、透明な3Dモデルの立体形状が背景画像上に浮かび上がるように表示され、透明な人物やロボットが目の前に現れたかのような新奇な視覚体験を提供することができる。
また、表示部10fには、第1の3DモデルM1及び背景画像PにまたがるノイズNが表示されている。ノイズNは、画面上部から下部に向かって、移動するように表示されてよい。このように、3Dモデル及び背景画像にまたがるノイズをあえて表示することで、3Dモデルがより背景画像に整合しているように見え、3Dモデルが周囲から浮かないようにすることができる。
図2は、本発明の実施形態に係る3Dモデル表示装置10の機能ブロック図である。3Dモデル表示装置10は、取得部11、記憶部12、表示制御部13及び領域指定部14を備える。また、3Dモデル表示装置10は、入力部10e、表示部10f及び撮影部10gを備える。3Dモデル表示装置10は、例えば、スマートフォンで構成されてよい。
撮影部10gは、画像を撮影するカメラである。撮影部10gは、汎用のデジタルカメラで構成されてよく、3Dモデル表示装置10に内蔵されていてもよいし、外付けされていてもよい。
取得部11は、撮影部10gで撮影した背景画像を取得する。取得部11は、取得した背景画像を記憶部12に格納したり、表示制御部13に伝送したりする。
記憶部12は、背景画像を少なくとも一時的に記憶する。また、記憶部12は、3Dモデルに関する情報を記憶してよい。より具体的には、ワールド座標系における3Dモデルの頂点の位置や3Dモデルの動作に伴う頂点の位置の変化等を記憶してよい。
表示制御部13は、3Dモデルの背後が透過して見えるように、3Dモデルを背景画像に重畳させて表示部10fに表示させる。また、表示制御部13は、3Dモデルによって光が屈折して見えるように、3Dモデルを背景画像に重畳して表示部10fに表示させてよい。
表示制御部13は、算出部13a、決定部13b及びマッピング部13cを含む。算出部13aは、背景画像を表示する2次元座標系における3Dモデルの頂点の位置を算出する。より具体的には、算出部13aは、頂点シェーダーを含み、頂点シェーダーによって、ワールド座標系における3Dモデルの頂点の位置を、射影座標系における位置に変換する。そして、射影座標系における3Dモデルの頂点の位置を、射影座標系からテクスチャ座標系に変換する。
決定部13bは、3Dモデルの頂点の位置を歪ませて、テクスチャ座標を決定する。より具体的には、決定部13bは、頂点シェーダーを含み、頂点シェーダーによって、3Dモデルの頂点の位置を時間に応じて屈折させ、テクスチャ座標を決定してよい。ここで、3Dモデルの頂点の位置は、時間に応じて屈折率が揺らいで見えるように歪まされてよい。
マッピング部13cは、背景画像をテクスチャとして、決定部13bにより決定されたテクスチャ座標によりマッピングする。より具体的には、マッピング部13cは、フラグメントシェーダーを含み、フラグメントシェーダーによって、決定部13bにより決定されたテクスチャ座標に背景画像をテクスチャとしてマッピングする。3Dモデルの頂点の位置を歪ませてテクスチャ座標を決定したことで、背景画像をテクスチャとして3Dモデルにマッピングすると、3Dモデルによって光が屈折しているかのように見せることができる。
領域指定部14は、入力部10eからの入力に応じて、エッジを強調して表示する領域の指定を行う。領域指定部14による領域の指定が行われた場合、マッピング部13cは、背景画像のうち指定された領域に微分フィルタを適用し、フィルタリングされた画像をマッピングする。これにより、表示部10fは、3Dモデルの少なくとも一部のエッジを強調して表示することとなる。なお、3Dモデルのみならず、背景画像についてもエッジを強調して表示してよい。
図3は、本実施形態に係る3Dモデル表示装置10の物理的構成を示す図である。
3Dモデル表示装置10は、ハードウェアプロセッサに相当するCPU(Central Processing Unit)10aと、メモリに相当するRAM(Random Access Memory)10bと、メモリに相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、撮影部10gと、を有する。これら各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では3Dモデル表示装置10が一台のコンピュータで構成される場合について説明するが、3Dモデル表示装置10は、複数のコンピュータを用いて実現されてもよい。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、背後が透過して見える3Dモデルを背景画像に重畳させて表示するプログラム(3Dモデル表示プログラム)を実行する演算装置である。CPU10aは、入力部10eや通信部10dから種々の入力データを受け取り、入力データの演算結果を表示部10fに表示したり、RAM10bやROM10cに格納したりする。なお、3Dモデル表示装置10は、CPU10aの他に、GPU(Graphical Processing Unit)を備えてもよい。
RAM10bは、データの書き換えが可能な記憶部であり、例えば半導体記憶素子で構成される。RAM10bは、CPU10aが実行するアプリケーション等のプログラムやデータを記憶する。
ROM10cは、データの読み出しのみが可能な記憶部であり、例えば半導体記憶素子で構成される。ROM10cは、例えばファームウェア等のプログラムやデータを記憶する。
通信部10dは、3Dモデル表示装置10を通信ネットワークに接続するインターフェースであり、例えば、有線又は無線回線のデータ伝送路により構成されたLAN(Local Area Network)、WAN(Wide Area Network)、インターネット等の通信ネットワークに接続される。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード、マウス及びタッチパネルを含む。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成される。
3Dモデル表示プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。3Dモデル表示装置10では、CPU10aが3Dモデル表示プログラムを実行することにより、図2を用いて説明した様々な機能が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、3Dモデル表示装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
図4は、本実施形態に係る3Dモデル表示装置10により実行される第1処理のフローチャートである。はじめに、3Dモデル表示装置10は、撮影部10gで撮影した背景画像を記憶部12に格納する(S10)。背景画像は、記憶部12に一時的に保存されてよい。
次に、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を、モデル座標系から射影座標系に変換する(S11)。続けて、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を、射影座標系からテクスチャ座標系に変換する(S12)。
さらに、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を時間に応じて屈折させ、テクスチャ座標を決定する(S13)。その後、3Dモデル表示装置10は、フラグメントシェーダーによって、背景画像をテクスチャとして、決定したテクスチャ座標にマッピングする(S14)。また、3Dモデル表示装置10は、3Dモデル及び背景画像にまたがるノイズを表示する(S15)。以上で、第1処理が終了する。
3Dモデル表示装置10は、第1処理を、撮影部10gで連続的に画像を撮影する度に行ってよい。例えば、3Dモデル表示装置10は、撮影部10gにより60fps(frames per second)で背景画像を撮影する度に第1処理を行ってよい。
図5は、本実施形態に係る3Dモデル表示装置10により表示される画面の第2例を示す図である。本例も、撮影部10gにより背景画像Pを継続的に撮影し、リアルタイムで表示部10fに表示される画面の例である。
同図に示す例では、背景画像Pは、地下駐車場を撮影した画像であり、背景画像Pには天井に設けられた照明や配管等が写されている。3Dモデル表示装置10は、第2の3DモデルM2の背後が透過して見えるように、第2の3DモデルM2を背景画像Pに重畳させて表示する。同図に示すように、3Dモデル表示装置10は、第2の3DモデルM2によって光が屈折して見えるように、第2の3DモデルM2を背景画像Pに重畳して表示する。
また、3Dモデル表示装置10は、表示部10fによって、第2の3DモデルM2の目Eを所定の色で表示する。本例の場合、第2の3DモデルM2の目Eは、白色で表示されている。このように、透明な3Dモデルの目が所定の色で表示されることで、3Dモデルから注視されているかのような視覚体験を提供することができる。
なお、本例においても、背景画像P及び第2の3DモデルM2にまたがるノイズNが表示されている。
図6は、本実施形態に係る3Dモデル表示装置10により実行される第2処理のフローチャートである。はじめに、3Dモデル表示装置10は、撮影部10gで撮影した背景画像を記憶部12に格納する(S20)。背景画像は、記憶部12に一時的に保存されてよい。
次に、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を、モデル座標系から射影座標系に変換する(S21)。続けて、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を、射影座標系からテクスチャ座標系に変換する(S22)。
さらに、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を時間に応じて屈折させ、テクスチャ座標を決定する(S23)。その後、3Dモデル表示装置10は、フラグメントシェーダーによって、描画領域が3Dモデルの目の領域であるか否かを判定する(S24)。ここで、目の領域であるか否かは、例えば、3Dモデルの目を他の部位と異なる色として、色の識別によって判定することとしてよい。
描画領域が3Dモデルの目の領域である場合(S24:YES)、3Dモデル表示装置10は、フラグメントシェーダーによって、所定の色をマッピングする(S25)。一方、描画領域が3Dモデルの目の領域でない場合(S24:NO)、3Dモデル表示装置10は、フラグメントシェーダーによって、背景画像をテクスチャとして、決定したテクスチャ座標にマッピングする(S26)。また、3Dモデル表示装置10は、3Dモデル及び背景画像にまたがるノイズを表示してよい。以上で、第2処理が終了する。
図7は、本実施形態に係る3Dモデル表示装置10により表示される画面の第3例を示す図である。本例も、撮影部10gにより背景画像Pを継続的に撮影し、リアルタイムで表示部10fに表示される画面の例である。
同図に示す例では、背景画像Pは、地下駐車場を撮影した画像であり、背景画像Pには天井に設けられた照明や配管等が写されている。3Dモデル表示装置10は、第2の3DモデルM2の背後が透過して見えるように、第2の3DモデルM2を背景画像Pに重畳させて表示する。同図に示すように、3Dモデル表示装置10は、第2の3DモデルM2によって光が屈折して見えるように、第2の3DモデルM2を背景画像Pに重畳して表示する。
また、3Dモデル表示装置10は、表示部10fによって、第2の3DモデルM2の少なくとも一部のエッジを強調して表示する。本例の場合、画面の右半分がエッジを強調して表示する領域Rとして指定されており、領域R内に表示される背景画像P及び第2の3DモデルM2は、エッジが強調されて表示されている。このような画像処理によって、3Dモデルの輪郭を明確に表示することができ、特殊なゴーグル越しに現実世界を見ているかのような視覚体験を提供できる。
なお、本例においても、第2の3DモデルM2の目は白色で表示され、背景画像P及び第2の3DモデルM2にまたがるノイズNが表示されている。
図8は、本実施形態に係る3Dモデル表示装置10により表示される画面の第4例を示す図である。本例も、撮影部10gにより背景画像Pを継続的に撮影し、リアルタイムで表示部10fに表示される画面の例である。
同図に示す例では、背景画像Pは、地下駐車場を撮影した画像であり、背景画像Pには一台の車、駐車範囲を示す白線や横線等が写されている。3Dモデル表示装置10は、表示部10fによって、第1の3DモデルM1のエッジを強調して表示する。本例の場合、画面の右半分がエッジを強調して表示する領域Rとして指定されており、領域R内に表示される背景画像P及び第1の3DモデルM1は、エッジが強調されて表示されている。このような画像処理によって、3Dモデルの輪郭を明確に表示することができ、特殊なゴーグル越しに現実世界を見ているかのような視覚体験を提供できる。
なお、本例においても、背景画像P及び第1の3DモデルM1にまたがるノイズNが表示されている。
図9は、本実施形態に係る3Dモデル表示装置10により実行される第3処理のフローチャートである。
はじめに、3Dモデル表示装置10は、撮影部10gで撮影した背景画像を記憶部12に格納する(S30)。背景画像は、記憶部12に一時的に保存されてよい。さらに、3Dモデル表示装置10は、エッジを強調して表示する領域の指定を受け付ける(S31)。エッジを強調して表示する領域は、任意に広げたり狭めたりされてよい。
次に、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を、モデル座標系から射影座標系に変換する(S32)。続けて、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を、射影座標系からテクスチャ座標系に変換する(S33)。
さらに、3Dモデル表示装置10は、頂点シェーダーによって、3Dモデルの頂点の位置を時間に応じて屈折させ、テクスチャ座標を決定する(S34)。その後、3Dモデル表示装置10は、フラグメントシェーダーによって、描画領域がエッジを強調して表示する領域であるか否かを判定する(S35)。
描画領域がエッジを強調して表示する領域である場合(S35:YES)、3Dモデル表示装置10は、フラグメントシェーダーによって、背景画像に微分フィルタを適用し、フィルタリングされた画像をマッピングする(S36)。ここで、微分フィルタとしては任意のものを用いることができ、ソーベルフィルタや、ラプラシアンフィルタを用いてよい。
一方、描画領域がエッジを強調して表示する領域でない場合(S35:NO)、3Dモデル表示装置10は、フラグメントシェーダーによって、背景画像をテクスチャとして、決定したテクスチャ座標にマッピングする(S37)。また、3Dモデル表示装置10は、3Dモデル及び背景画像にまたがるノイズを表示してよい。以上で、第3処理が終了する。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
10…3Dモデル表示装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、10g…撮影部、11…取得部、12…記憶部、13…表示制御部、13a…算出部、13b…決定部、13c…マッピング部、14…領域指定部

Claims (9)

  1. 撮影部で撮影した背景画像を取得する取得部と、
    3Dモデルの背後が透過して見えるように、前記3Dモデルを前記背景画像に重畳させて表示する表示部と、
    を備える3Dモデル表示装置。
  2. 前記表示部は、前記3Dモデルの少なくとも一部のエッジを強調して表示する、
    請求項1に記載の3Dモデル表示装置。
  3. 前記表示部は、前記3Dモデルの目を所定の色で表示する、
    請求項1又は2に記載の3Dモデル表示装置。
  4. 前記表示部は、前記3Dモデル及び前記背景画像にまたがるノイズを表示する、
    請求項1から3のいずれか一項に記載の3Dモデル表示装置。
  5. 前記背景画像を表示する2次元座標系における前記3Dモデルの頂点の位置を算出する算出部と、
    前記頂点の位置を歪ませて、テクスチャ座標を決定する決定部と、
    前記背景画像をテクスチャとして、前記テクスチャ座標によりマッピングするマッピング部と、をさらに備える、
    請求項1から4のいずれか一項に記載の3Dモデル表示装置。
  6. 前記マッピング部は、前記背景画像の所定の領域に微分フィルタを適用し、フィルタリングされた画像をマッピングする、
    請求項5に記載の3Dモデル表示装置。
  7. 前記マッピング部は、前記3Dモデルの目の領域に所定の色をマッピングする、
    請求項5又は6に記載の3Dモデル表示装置。
  8. 撮影部で撮影した背景画像を取得することと、
    3Dモデルの背後が透過して見えるように、前記3Dモデルを前記背景画像に重畳させて表示することと、
    を含む3Dモデル表示方法。
  9. 3Dモデル表示装置に備えられた演算部を、
    撮影部で撮影した背景画像を取得する取得部、及び
    3Dモデルの背後が透過して見えるように、前記3Dモデルを前記背景画像に重畳させて表示部に表示させる表示制御部、
    として機能させる3Dモデル表示プログラム。
JP2018027341A 2018-02-19 2018-02-19 3dモデル表示装置、3dモデル表示方法及び3dモデル表示プログラム Active JP7125847B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018027341A JP7125847B2 (ja) 2018-02-19 2018-02-19 3dモデル表示装置、3dモデル表示方法及び3dモデル表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018027341A JP7125847B2 (ja) 2018-02-19 2018-02-19 3dモデル表示装置、3dモデル表示方法及び3dモデル表示プログラム

Publications (2)

Publication Number Publication Date
JP2019144774A true JP2019144774A (ja) 2019-08-29
JP7125847B2 JP7125847B2 (ja) 2022-08-25

Family

ID=67772371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018027341A Active JP7125847B2 (ja) 2018-02-19 2018-02-19 3dモデル表示装置、3dモデル表示方法及び3dモデル表示プログラム

Country Status (1)

Country Link
JP (1) JP7125847B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992460A (zh) * 2019-11-26 2020-04-10 深圳市毕美科技有限公司 用于移动设备的模型流畅展示方法、系统、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148032A (ja) * 1999-09-10 2001-05-29 Sony Computer Entertainment Inc 画像描画方法、画像描画装置、記録媒体及びプログラム
JP2012079036A (ja) * 2010-09-30 2012-04-19 Dainippon Printing Co Ltd サーバ装置及びコンテンツ情報提供プログラム
JP2014203326A (ja) * 2013-04-08 2014-10-27 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148032A (ja) * 1999-09-10 2001-05-29 Sony Computer Entertainment Inc 画像描画方法、画像描画装置、記録媒体及びプログラム
JP2012079036A (ja) * 2010-09-30 2012-04-19 Dainippon Printing Co Ltd サーバ装置及びコンテンツ情報提供プログラム
JP2014203326A (ja) * 2013-04-08 2014-10-27 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992460A (zh) * 2019-11-26 2020-04-10 深圳市毕美科技有限公司 用于移动设备的模型流畅展示方法、系统、装置及存储介质
CN110992460B (zh) * 2019-11-26 2023-05-16 深圳市毕美科技有限公司 用于移动设备的模型流畅展示方法、系统、装置及存储介质

Also Published As

Publication number Publication date
JP7125847B2 (ja) 2022-08-25

Similar Documents

Publication Publication Date Title
US20200041799A1 (en) Ipd correction and reprojection for accurate mixed reality object placement
US10026230B2 (en) Augmented point cloud for a visualization system and method
US11030807B2 (en) Image to item mapping
US10319104B2 (en) Method and system for determining datum plane
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
WO2016188010A1 (zh) 运动图像补偿方法及装置、显示装置
GB2567530A (en) Virtual reality parallax correction
US11720996B2 (en) Camera-based transparent display
CN111033573B (zh) 信息处理装置、系统、图像处理方法及存储介质
US11562545B2 (en) Method and device for providing augmented reality, and computer program
EP3038061A1 (en) Apparatus and method to display augmented reality data
US20180213215A1 (en) Method and device for displaying a three-dimensional scene on display surface having an arbitrary non-planar shape
US20190066366A1 (en) Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting
CN114241168A (zh) 显示方法、显示设备及计算机可读存储介质
JP2019144774A (ja) 3dモデル表示装置、3dモデル表示方法及び3dモデル表示プログラム
US11636578B1 (en) Partial image completion
WO2014119555A1 (ja) 画像処理装置、表示装置及びプログラム
TWI541761B (zh) 影像處理方法及其電子裝置
CN114445579A (zh) 物体标注信息呈现方法、装置、电子设备及存储介质
US9875526B1 (en) Display of three-dimensional images using a two-dimensional display
Orlosky Depth based interaction and field of view manipulation for augmented reality
JP5398575B2 (ja) 情報表示制御装置及び情報表示制御方法及びプログラム
JP5786539B2 (ja) 目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム
CN116612255A (zh) 基于局部图像确定全局光源位置的方法及设备
TW202316853A (zh) 擴增實境的顯示方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7125847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150