JP6833925B2 - 画像処理プログラム、画像処理装置及び画像処理方法 - Google Patents
画像処理プログラム、画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP6833925B2 JP6833925B2 JP2019138813A JP2019138813A JP6833925B2 JP 6833925 B2 JP6833925 B2 JP 6833925B2 JP 2019138813 A JP2019138813 A JP 2019138813A JP 2019138813 A JP2019138813 A JP 2019138813A JP 6833925 B2 JP6833925 B2 JP 6833925B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- display frame
- virtual
- display area
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000009877 rendering Methods 0.000 claims description 125
- 238000000034 method Methods 0.000 claims description 78
- 238000003384 imaging method Methods 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 15
- 238000012217 deletion Methods 0.000 description 7
- 230000037430 deletion Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000000670 limiting effect Effects 0.000 description 5
- 241000556720 Manga Species 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- -1 barcode Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Description
図1は、本発明の実施形態の少なくとも一つに対応する画像処理装置のために必要なシステム構成の例を示すブロック図である。図1に示すように、本例のシステム全体の構成は、サーバ装置10と、ユーザが使用する端末装置20,201〜20n(nは2以上の自然数)とを含む。この図1においてはサーバ装置10と端末装置20とが両方図示されているが、本例においては、端末装置20が単独で画像処理装置として機能する場合と、サーバ装置10と端末装置20とが各種機能を分担して処理を行った結果、全体として画像処理装置として機能する場合(この場合は、複数構成を含む画像処理システムであるともいえる)との両方を想定している。なお、サーバ装置10と端末装置20との両方で画像処理装置として機能する場合であっても、ユーザが使用する対象は端末装置20であるので、以下において、端末装置20が画像処理装置の主体となって処理が実行される場合の例として、符号「20」を用いて画像処理装置20と表現することがあるものとする。なお、システム構成はこれに限定されず、単一の端末装置を複数のユーザが使用する構成としてもよいし、複数のサーバ装置を備える構成としてもよい。
図6は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図6に示すように、画像処理装置20Bは、撮影画像取得部21と、表示フレーム表示部22Bと、仮想空間情報取得部23と、レンダリング部24Bと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図6の例では、端末装置20が画像処理装置20Bとして機能する場合を例に説明を行う。
図8は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図8に示すように、画像処理装置20Cは、撮影画像取得部21と、表示フレーム表示部22Cと、姿勢情報取得部26と、初期位置情報記憶部27と、仮想空間情報取得部23と、レンダリング部24Cと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図8の例では、端末装置20が画像処理装置20Cとして機能する場合を例に説明を行う。
図10は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図10に示すように、画像処理装置20Dは、撮影画像取得部21と、表示フレーム表示部22と、仮想空間情報取得部23と、レンダリング部24Dと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図10の例では、端末装置20が画像処理装置20Dとして機能する場合を例に説明を行う。
図12は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図12に示すように、画像処理装置20Eは、撮影画像取得部21と、表示フレーム表示部22Eと、姿勢情報取得部26と、初期位置情報記憶部27と、仮想空間情報取得部23と、レンダリング部24Eと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図12の例では、端末装置20が画像処理装置20Eとして機能する場合を例に説明を行う。
上述した実施形態の説明は、少なくとも下記発明を、当該発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[1]
撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させる機能を実現させるための画像処理プログラムであって、
前記端末装置に、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得機能と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示機能と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得機能と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング機能と
を実現させる画像処理プログラム。
[2]
前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
前記レンダリング機能は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
[1]記載の画像処理プログラム。
[3]
前記端末装置に、
前記端末装置が備える各種センサ情報に基づいて特定される撮影方向、撮影角度及び/又は移動方向を含む姿勢情報を取得する姿勢情報取得機能と、
前記表示フレーム表示機能において最初に前記表示フレームを表示させた時の前記端末装置の位置と前記表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶する初期位置情報記憶機能とを実現させ、
前記表示フレーム表示機能は、前記端末装置の前記姿勢状態が変化したことによって前記端末装置と前記表示フレームとの相対的位置関係又は撮影視点が変化した場合に、変化後の撮影視点から前記初期位置に位置する表示フレームを表示させるようにし、
前記レンダリング機能は、変化後の撮影視点と概略同一視点である仮想視点に基づいてレンダリングを行うようにした
[1]又は[2]に記載の画像処理プログラム。
[4]
前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
また、前記3次元仮想オブジェクトには、指定した識別IDの前記3次元仮想オブジェクトをレンダリングの際に一時的に消去してレンダリングを行うことを設定するための一時消去設定を設定可能であり、
前記レンダリング機能は、前記一時消去設定が一時的に消去させることを指定した前記3次元仮想オブジェクトを消去させた上でレンダリングを行って前記表示領域に表示させる
[1]から[3]のいずれかに記載の画像処理プログラム。
[5]
前記端末装置に、
前記表示画面における前記表示フレームの表示範囲が変化した場合に、少なくとも1以上の前記表示領域のうち何れの表示領域が前記表示画面に含まれているかを判定する表示判定機能を実現させ、
前記レンダリング機能は、前記表示判定機能において前記表示画面に含まれると判定された前記表示領域の中に、前記一時消去設定における消去対象の前記3次元仮想オブジェクトを表示させる設定となっている前記表示領域が存在しない場合にのみ、前記一時消去設定を有効にしてレンダリングを実行する
[4]記載の画像処理プログラム。
[6]
[1]から[5]のうち何れかに記載の画像処理プログラムが前記端末装置に実現させる機能のうち少なくとも1つの機能を、当該端末装置と通信可能なサーバ装置に実現させるための画像処理プログラム。
[7]
[1]から[6]のうち何れかに記載の画像処理プログラムがインストールされた端末装置。
[8]
現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を表示させる機能をサーバ装置に実現させるための画像処理プログラムであって、
前記サーバ装置に、
撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得機能と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示機能と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得機能と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング機能とを
実現させるための画像処理プログラム。
[9]
[8]に記載の画像処理プログラムが前記サーバ装置に実現させる機能のうち少なくとも1つの機能を、当該サーバと通信可能な端末装置に実現させるための画像処理プログラム。
[10]
[8]又は[9]に記載の画像処理プログラムがインストールされたサーバ装置。
[11]
通信ネットワークと、サーバ装置と、端末装置とを備え、現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を端末装置に表示させるための画像処理システムであって、
撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得手段と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示手段と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得手段と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング手段と
を含む画像処理システム。
[12]
撮影手段と表示手段を備え、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得部と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示部と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得部と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング部と
を備える画像処理装置。
[13]
撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させるための画像処理方法であって、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得処理と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示処理と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得処理と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング処理と
を含む画像処理方法。
[14]
通信ネットワークと、サーバ装置と、端末装置とを備える画像処理システムが、現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させるために実行する画像処理方法であって、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得処理と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示処理と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得処理と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング処理とを含む
ことを特徴とするビデオ画像処理方法。
20,201〜20n 端末装置
20A〜20E 画像処理装置(端末装置)
21 撮影画像取得部
22 表示フレーム表示部
23 仮想空間情報取得部
24 レンダリング部
25 記憶部
26 姿勢情報取得部
27 初期位置情報記憶部
30 通信ネットワーク
Claims (5)
- 撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させる機能を実現させるための画像処理プログラムであって、
前記端末装置に、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得機能と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示機能と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得機能と、
前記撮影手段の撮影視点と同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング機能と、を実現させ、
前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
前記レンダリング機能は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
画像処理プログラム。 - 前記端末装置に、
前記端末装置が備える各種センサ情報に基づいて特定される撮影方向、撮影角度及び/又は移動方向を含む姿勢情報を取得する姿勢情報取得機能と、
前記表示フレーム表示機能において最初に前記表示フレームを表示させた時の前記端末装置の位置と前記表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶する初期位置情報記憶機能とを実現させ、
前記表示フレーム表示機能は、前記端末装置の姿勢状態が変化したことによって前記端末装置と前記表示フレームとの相対的位置関係又は撮影視点が変化した場合に、変化後の撮影視点から前記初期位置に位置する表示フレームを表示させるようにし、
前記レンダリング機能は、変化後の撮影視点と同一視点である仮想視点に基づいてレンダリングを行うようにした
請求項1記載の画像処理プログラム。 - 前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
また、前記3次元仮想オブジェクトには、指定した識別IDの前記3次元仮想オブジェクトをレンダリングの際に一時的に消去してレンダリングを行うことを設定するための一時消去設定を設定可能であり、
前記レンダリング機能は、前記一時消去設定が一時的に消去させることを指定した前記3次元仮想オブジェクトを消去させた上でレンダリングを行って前記表示領域に表示させる
請求項1又は請求項2に記載の画像処理プログラム。 - 撮影手段と表示手段を備え、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得部と、
所定条件を満たした場合に、仮想空間上に配置した仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示部と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得部と、
前記撮影手段の撮影視点と同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング部と、を備え、
前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
前記レンダリング部は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
画像処理装置。 - 撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させるための画像処理方法であって、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得処理と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示処理と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得処理と、
前記撮影手段の撮影視点と同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング処理と、を含み、
前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
前記レンダリング処理は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
画像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019138813A JP6833925B2 (ja) | 2019-07-29 | 2019-07-29 | 画像処理プログラム、画像処理装置及び画像処理方法 |
US16/941,314 US11087526B2 (en) | 2019-07-29 | 2020-07-28 | Image processing program, image processing apparatus, and image processing method |
CN202010737232.0A CN112312110A (zh) | 2019-07-29 | 2020-07-28 | 非暂态计算机可读介质、图像处理装置及图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019138813A JP6833925B2 (ja) | 2019-07-29 | 2019-07-29 | 画像処理プログラム、画像処理装置及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022207A JP2021022207A (ja) | 2021-02-18 |
JP6833925B2 true JP6833925B2 (ja) | 2021-02-24 |
Family
ID=74259323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019138813A Active JP6833925B2 (ja) | 2019-07-29 | 2019-07-29 | 画像処理プログラム、画像処理装置及び画像処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11087526B2 (ja) |
JP (1) | JP6833925B2 (ja) |
CN (1) | CN112312110A (ja) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7643025B2 (en) * | 2003-09-30 | 2010-01-05 | Eric Belk Lange | Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates |
JP5340900B2 (ja) * | 2009-12-03 | 2013-11-13 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト管理装置及びオブジェクト管理方法 |
JP2011198138A (ja) | 2010-03-19 | 2011-10-06 | Brother Industries Ltd | 漫画作成支援装置、漫画作成支援方法およびプログラム |
JP2012058968A (ja) * | 2010-09-08 | 2012-03-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US20160163063A1 (en) * | 2014-12-04 | 2016-06-09 | Matthew Ashman | Mixed-reality visualization and method |
JP6088094B1 (ja) * | 2016-06-20 | 2017-03-01 | 株式会社Cygames | 複合現実環境を作成するためのシステム等 |
JP6472486B2 (ja) * | 2016-09-14 | 2019-02-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN109840946B (zh) * | 2017-09-19 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 虚拟对象显示方法及装置 |
JP6453501B1 (ja) * | 2018-02-01 | 2019-01-16 | 株式会社Cygames | 複合現実システム、プログラム、方法、及び携帯端末装置 |
JPWO2019187430A1 (ja) * | 2018-03-29 | 2021-04-08 | ソニー株式会社 | 情報処理装置、方法、及びプログラム |
-
2019
- 2019-07-29 JP JP2019138813A patent/JP6833925B2/ja active Active
-
2020
- 2020-07-28 CN CN202010737232.0A patent/CN112312110A/zh active Pending
- 2020-07-28 US US16/941,314 patent/US11087526B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN112312110A (zh) | 2021-02-02 |
US11087526B2 (en) | 2021-08-10 |
US20210035351A1 (en) | 2021-02-04 |
JP2021022207A (ja) | 2021-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7344974B2 (ja) | マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム | |
KR102414587B1 (ko) | 증강 현실 데이터 제시 방법, 장치, 기기 및 저장 매체 | |
KR102624635B1 (ko) | 메시징 시스템에서의 3d 데이터 생성 | |
CN111701238A (zh) | 虚拟画卷的显示方法、装置、设备及存储介质 | |
US11842384B2 (en) | Digital model optimization responsive to orientation sensor data | |
KR101956098B1 (ko) | 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법 | |
CN109448050B (zh) | 一种目标点的位置的确定方法及终端 | |
US20210312696A1 (en) | Method and apparatus for displaying personalized face of three-dimensional character, device, and storage medium | |
JP2019179382A (ja) | 情報処理プログラム、情報処理方法及び情報処理システム | |
CN107084740A (zh) | 一种导航方法和装置 | |
TWI764366B (zh) | 基於光通信裝置的互動方法和系統 | |
KR102005251B1 (ko) | 가상 현실에 기반하여 매물 영상을 제공하기 위한 서버, 제공자 단말 및 방법 | |
CN109582134B (zh) | 信息显示的方法、装置及显示设备 | |
KR101132512B1 (ko) | 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법 | |
JP6833925B2 (ja) | 画像処理プログラム、画像処理装置及び画像処理方法 | |
CN111292424A (zh) | 多视点360度vr内容提供系统 | |
JP2017168132A (ja) | 仮想オブジェクトの表示システム、表示システムプログラム及び表示方法 | |
JP7417827B2 (ja) | 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム | |
JP2004199159A (ja) | 情報処理方法、情報処理装置、プログラムおよび記憶媒体 | |
KR20130096785A (ko) | 모바일 기기를 이용한 건물 내부 파노라마 이미지와 평면도가 결합된 서비스 제공방법 | |
KR102350226B1 (ko) | 증강현실 컨텐츠 배치 장치 및 방법 | |
EP3923121A1 (en) | Object recognition method and system in augmented reality enviroments | |
CN117635809A (zh) | 3d模型生成方法、系统及电子设备 | |
JP2004234457A (ja) | 情報処理装置、方法、プログラムおよび記憶媒体 | |
CN117676119A (zh) | 视频透视方法、装置、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6833925 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |