JP6833925B2 - 画像処理プログラム、画像処理装置及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6833925B2
JP6833925B2 JP2019138813A JP2019138813A JP6833925B2 JP 6833925 B2 JP6833925 B2 JP 6833925B2 JP 2019138813 A JP2019138813 A JP 2019138813A JP 2019138813 A JP2019138813 A JP 2019138813A JP 6833925 B2 JP6833925 B2 JP 6833925B2
Authority
JP
Japan
Prior art keywords
display
display frame
virtual
display area
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019138813A
Other languages
English (en)
Other versions
JP2021022207A (ja
Inventor
雅人 林
雅人 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019138813A priority Critical patent/JP6833925B2/ja
Priority to US16/941,314 priority patent/US11087526B2/en
Priority to CN202010737232.0A priority patent/CN112312110A/zh
Publication of JP2021022207A publication Critical patent/JP2021022207A/ja
Application granted granted Critical
Publication of JP6833925B2 publication Critical patent/JP6833925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Description

本発明の実施形態の少なくとも1つは、処理負荷を軽減しつつ3次元仮想オブジェクトの複雑な構成を2次元表示画像に変換して表示可能な画像処理プログラム、画像処理装置及び画像処理方法に関する。
近年、3次元仮想オブジェクトを利用して2次元表示画像を生成して利用することが増えている。例えば、3次元仮想オブジェクトを仮想空間に配置した状況を特定視点からの仮想カメラによって撮影した画像を2次元表示画像として取得して漫画やアニメーションにおいて利用するといった実施形態が既に存在する。また、3次元仮想オブジェクトを利用して生成した2次元表示画像を拡張現実技術(AR技術)を利用して現実空間を撮影した撮影画像に重畳表示させることも行われつつある。
3次元仮想オブジェクトを仮想空間に配置した状況を特定視点からの仮想カメラによって撮影した画像を2次元表示画像として取得して漫画の制作に利用するものとして、例えば、特許文献1が挙げられる。この特許文献1は、コマを含む漫画の作成を支援する漫画作成支援装置であり、3次元仮想オブジェクトとしてのキャラクタを仮想空間に配置した状況を特定視点からの仮想カメラによって撮影した画像を2次元静止画像として漫画のコマに採用する際に、撮影された画像内にオブジェクトの頭部が含まれるか否かを判定して、オブジェクトの頭部が含まれる画像のみをコマ画像の候補として提示する機能を備えている。
特開2011−198138号公報
上記の特許文献1には、仮想空間上に配置した3次元仮想オブジェクトとしてのキャラクタを複数の視点方向から撮影してそれぞれを静止画像として漫画のコマに採用することは開示されているが、仮想空間を常にレンダリングして得られる画像をコマに採用する構成は開示されていない。複数の視点方向についてそれぞれ常にレンダリング処理を行って各コマに表示させる構成とすることもできるが、このように仮想空間を複数の視点方向から常にレンダリングして表示させる処理は、非常に処理負荷が重いという問題があった。
処理負荷を軽減するためには同時にレンダリングする視点方向を減らす、例えば、1つの視点方向とすれば、処理負荷を軽減できるが、単純に視点方向を減らしてしまうと、表示させたい画像が単調となり面白みに欠けるという問題が生じてしまう。
本発明の少なくとも1つの実施形態の目的は、上記問題を解決し、処理負荷を軽減しつつ3次元仮想オブジェクトの複雑な構成を2次元表示画像に変換して表示可能な画像処理プログラム、画像処理装置及び画像処理方法を提供することである。
非限定的な観点によると、本発明の一実施形態に係る画像処理プログラムは、撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させる機能を実現させるための画像処理プログラムであって、前記端末装置に、前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得機能と、所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示機能と、予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得機能と、前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング機能とを実現させることを特徴とする。
非限定的な観点によると、本発明の一実施形態に係る画像処理装置は、撮影手段と表示手段を備え、前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得部と、所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示部と、予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得部と、前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング部とを備える画像処理装置ことを特徴とする。
非限定的な観点によると、本発明の一実施形態に係る画像処理方法は、撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させるための画像処理方法であって、前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得処理と、所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示処理と、予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得処理と、前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング処理とを含むことを特徴とする。
本願の各実施形態により1または2以上の不足が解決される。
本発明の実施形態の少なくとも一つに対応する画像処理装置のために必要なシステム構成の例を示すブロック図である。 本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応する画像処理の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する端末装置が画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応するサーバ装置が画像処理を実行する場合のサーバ装置側の動作の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応する端末装置が画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応する端末装置が画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応する端末装置が画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応する端末装置が画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する仮想空間に対して表示フレーム及び3次元仮想オブジェクトを配置した状態を表した説明図である。 本発明の実施形態の少なくとも一つに対応する表示領域に設定されるフィルタの機能を説明するための説明図である。 本発明の実施形態の少なくとも一つに対応する表示領域に設定される一時消去設定の機能を説明するための説明図である。 本発明の実施形態の少なくとも一つに対応する撮影視点が変化する様子を説明するための説明図である。 本発明の実施形態の少なくとも一つに対応する端末装置に表示させる表示画面の一例を表した説明図である。
以下、本発明の実施形態の例について図面を参照して説明する。なお、以下で説明する各実施形態の例における各種構成要素は、矛盾等が生じない範囲で適宜組み合わせ可能である。また、ある実施形態の例として説明した内容については、他の実施形態においてその説明を省略している場合がある。また、各実施形態の特徴部分に関係しない動作や処理については、その内容を省略している場合がある。さらに、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。
[第1の実施形態]
図1は、本発明の実施形態の少なくとも一つに対応する画像処理装置のために必要なシステム構成の例を示すブロック図である。図1に示すように、本例のシステム全体の構成は、サーバ装置10と、ユーザが使用する端末装置20,201〜20n(nは2以上の自然数)とを含む。この図1においてはサーバ装置10と端末装置20とが両方図示されているが、本例においては、端末装置20が単独で画像処理装置として機能する場合と、サーバ装置10と端末装置20とが各種機能を分担して処理を行った結果、全体として画像処理装置として機能する場合(この場合は、複数構成を含む画像処理システムであるともいえる)との両方を想定している。なお、サーバ装置10と端末装置20との両方で画像処理装置として機能する場合であっても、ユーザが使用する対象は端末装置20であるので、以下において、端末装置20が画像処理装置の主体となって処理が実行される場合の例として、符号「20」を用いて画像処理装置20と表現することがあるものとする。なお、システム構成はこれに限定されず、単一の端末装置を複数のユーザが使用する構成としてもよいし、複数のサーバ装置を備える構成としてもよい。
サーバ装置10と複数の端末装置20,201〜20nは、それぞれインターネットなどの通信ネットワーク30に接続されている。なお、図示しないが、複数の端末装置20,201〜20nは、通信業者によって管理される基地局と無線通信回線によるデータ通信を行うことによって、通信ネットワーク30と接続する。そして、当該システムは、サーバ装置10と複数の端末装置20,201〜20nとを備えることにより、ユーザの操作に応じて各種処理を実行するための各種機能を実現する。
サーバ装置10は、システムの管理者によって管理され、複数の端末装置20,201〜20nに対して各種処理に関する情報を提供するための各種機能を有する。本例において、サーバ装置10は、WWWサーバなどの情報処理装置によって構成され、各種情報を格納する記憶媒体を備える。なお、サーバ装置10は、制御部や通信部などコンピュータとして各種処理を行うための一般的な構成を備えるが、ここでの説明は省略する。また、複数の端末装置20,201〜20nそれぞれにかかる処理負荷を軽減させるといった観点から、各種情報はサーバ装置10が管理することが好ましい。ただし、各種情報を記憶する記憶部は、サーバ装置10がアクセス可能な状態で記憶領域を備えていればよく、例えば専用の記憶領域をサーバ装置10の外部に有する構成とされていてもよい。
複数の端末装置20,201〜20nは、それぞれ、ユーザによって管理され、例えば携帯電話端末やPDA(Personal Digital Assistants)、携帯型ゲーム装置などの通信端末によって構成される。また、本例において端末装置20,201〜20nは、撮影手段と表示手段とを備えているものとする。撮影手段は、例えばカメラ装置などが該当するが、ユーザ周辺の状況を動画又は静止画として撮影し得る構成であればどのようなものであってもよい。表示手段は、例えばディスプレイ装置などが該当するが、撮影手段によって撮影した動画又は静止画を表示し得る構成であればどのようなものであってもよい。
また、複数の端末装置20,201〜20nは、それぞれ、通信ネットワーク30に接続し、サーバ装置10との通信を行うことにより各種処理を実行するためのハードウェアおよびソフトウェアを備える。なお、複数の端末装置20,201〜20nそれぞれは、サーバ装置10を介さずに互いに直接通信を行うこともできる構成とされていてもよい。
画像処理装置における各種処理の際に必要に応じて、サーバ装置10は適宜端末装置20に対して処理過程を送信するものとし、端末装置20側では、受信した処理過程の内容を含む表示画像を表示手段によって表示させるものとする。表示画像の生成(又は、表示画像の一部の生成)は、サーバ装置10側で行ってもよいし、端末装置20側で行ってもよい。
図2は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図2に示すように、画像処理装置20Aは、撮影画像取得部21と、表示フレーム表示部22と、仮想空間情報取得部23と、レンダリング部24と、記憶部25とを少なくとも備える。
撮影画像取得部21は、撮影手段によって現実空間を撮影した撮影画像を取得する機能を有する。例えば、ユーザが所持するスマートフォン等の端末装置20が備えるカメラ装置にてユーザの周辺状況を静止画又は動画の撮影画像として取得する。
表示フレーム表示部22は、所定条件を満たした場合に、仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる機能を有する。ここで、仮想オブジェクトとは、仮想空間上に配置される仮想的な物のことをいう。また、3次元仮想オブジェクトとは、3次元構造で表現された仮想オブジェクトのことをいう。3次元仮想オブジェクトとしては、例えば、ポリゴンによって3次元構造で表現されたオブジェクトが挙げられる。なお、仮想空間に配置されるオブジェクトは必ずしも3次元仮想オブジェクトである必要はなく、2Dのアニメーションを描画した平面形状のオブジェクトであってもよい。すなわち、本例において3次元仮想オブジェクトと表現する場合には、3次元仮想空間に配置された2次元仮想オブジェクトも含むものとする。また、表示フレームとは、仮想オブジェクトの1つであり、仮想空間上に配置された仮想オブジェクトをユーザに対して表示する機能を実現するための仮想オブジェクトである。また、表示領域とは、仮想空間上に配置された仮想オブジェクトをユーザに対して表示する機能を備えた領域のことをいう。表示フレームに対して幾つの表示領域を設けるかについては適宜設定可能である。表示フレームは、例えば、少なくとも1以上の表示領域と、表示領域以外の枠部分とで構成される。
また、所定条件とは、表示フレームを表示開始するための条件のことをいう。本例は、現実空間を撮影した撮影画像に対して仮想オブジェクトである表示フレームを重畳表示させる構成、いわゆる拡張現実(AR:Augmented Reality)に関するものであるので、現実空間の撮影画像に対してどのような条件を満たしたときに表示フレームを重畳表示させるかについて予め設定しておく必要がある。所定条件はどのような条件であってもよいが、例えば、端末装置20のGPS情報などの位置情報が所定位置に到達したことをトリガーとする条件、端末装置20が現実空間に存在する所定の対象物(ARマーカー、バーコード、マトリックス型2次元コード、ユニークなオブジェクトなど)を撮影画像中から特定した場合をトリガーとする条件、ビーコンなどの近距離無線通信装置からの所定の無線信号を受信した場合をトリガーとする条件などが考えられる。
仮想空間情報取得部23は、予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する機能を有する。3次元仮想オブジェクト情報とは、3次元仮想オブジェクトを特定するために必要な情報のことをいう。例えば、3次元仮想オブジェクトが3Dポリゴンで形成される場合には、3Dポリゴンの頂点、多角形面がどのように構成されるのかを特定するための情報のほか、各面の表面のテクスチャ情報などが3次元仮想オブジェクト情報として含まれる。また、位置関係情報とは、本例において仮想空間上に必ず配置される表示フレームと仮想空間上に配置される3次元仮想オブジェクトとの位置関係を特定するための情報のことをいう。なお、表示フレームと3次元仮想オブジェクトとの位置関係の制約は特に存在しないが、後述するレンダリング部24によって表示フレームの表示領域に対して3次元オブジェクトがレンダリングされるためには、仮想視点から撮影した時にレンダリング対象となる位置関係である必要がある。これらの3次元仮想オブジェクト情報と位置関係情報を少なくとも含む仮想空間情報がこの仮想空間情報取得部23において取得される。この仮想空間情報は、端末装置20の記憶部25において記憶させておく構成であってもよいし、サーバ装置10の記憶部に記憶させておき、通信ネットワークを介して端末装置20が取得する構成であってもよい。
レンダリング部24は、撮影手段の撮影視点と概略同一視点である仮想視点から仮想空間上の表示フレームを仮想的に撮影した場合に、表示フレームの表示領域が透過領域だったとしたら仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを表示フレームの当該表示領域にレンダリングして表示させる機能を有する。このレンダリング部24は、仮想空間を仮想視点から撮影したときに表示領域の奥に映る3次元仮想オブジェクトを当該表示領域に対してレンダリングする構成である。すなわち、仮想空間上に表示フレームや複数の3次元仮想オブジェクトが配置されているとしてもこれら全てを撮影画像に重畳表示するのではなく、表示フレームの表示領域に対してのみ仮想空間における3次元仮想オブジェクトをレンダリングして、撮影画像に対しては当該表示領域を含む表示フレームのみを重畳表示する構成となっている。よって、ユーザに対して見せたい3次元仮想オブジェクトが表示領域に映るように仮想空間に配置する必要がある。レンダリングを行う際の仮想空間上における仮想視点の位置は、撮影手段の撮影視点と同一であることが好ましいが、完全に一致している必要はなく、ユーザにとって違和感のない程度であれば両者が若干ずれていても問題はない。
記憶部25は、画像処理装置における各部の処理に必要な情報を記憶し、また、各部の処理で生じた各種の情報を記憶する機能を有する。
図3は、本発明の実施形態の少なくとも一つに対応する画像処理の例を示すフローチャートである。以下、サーバ装置10と端末装置20Aとが、画像処理を実行する場合を例にして説明する。
画像処理は、端末装置20Aが撮影画像を取得することによって開始される(ステップS11)。端末装置20Aは、表示フレームを表示させるための所定条件の充足を判定する(ステップS12)。所定条件を充足した場合、端末装置20Aは、サーバ装置10に対して充足した所定条件に対応する表示フレームに対応付けて記憶された仮想空間情報を要求する(ステップS13)。サーバ装置10は、指定された表示フレームに対応付けて記憶された仮想空間情報を端末装置20Aに対して送信する(ステップS14)。端末装置20Aは、取得した仮想空間情報及び端末装置の撮影視点に対応した仮想視点に基づいて、表示フレームの表示領域に対してレンダリング処理を行う(ステップS15)。そして、端末装置20Aは、表示領域に対してレンダリング処理を実行した状態の表示フレームを撮影画像に重畳表示して(ステップS16)、処理を終了する。なお、このフローチャートにおいては1つのレンダリング結果を重畳表示する場合についてのみ説明しているが、これは最もシンプルな構成を例に説明を行っただけであり、仮想空間を常にレンダリングして動画のようにフレーム毎にレンダリング結果を出力する構成とする場合には、レンダリング処理と重畳表示処理を毎フレーム実行する必要があることはいうまでもない。これは以下に登場する他のフローチャートに関する説明においても同様である。
図4は、端末装置20Aが画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。ここでは、端末装置20Aにおいて画像処理を実行する場合の動作について説明する。
画像処理は、端末装置20Aにおいて撮影画像を取得することによって開始される(ステップS101)。端末装置20Aは、表示フレームを表示させるための所定条件の充足を判定する(ステップS102)。所定条件を充足した場合、端末装置20Aは、充足した所定条件に対応する表示フレームに対応付けて記憶された仮想空間情報を取得する(ステップS103)。端末装置20Aは、取得した仮想空間情報及び端末装置の撮影視点に対応した仮想視点に基づいて、表示フレームの表示領域に対してレンダリング処理を行う(ステップS104)。そして、端末装置20Aは、表示領域に対してレンダリング処理を実行した状態の表示フレームを撮影画像に重畳表示して(ステップS105)、処理を終了する。
図5は、サーバ装置が画像処理を実行する場合のサーバ装置側の動作の例を示すフローチャートである。以下、サーバ装置10が、主体となって画像処理を実行する場合を例にして説明する。なお、サーバ装置10の構成については、端末装置20Aから各種情報を受信することを除き端末装置20Aの構成と同様の機能を備えるものであるため、重複説明を避ける観点から記載を省略する。
画像処理は、サーバ装置10において撮影画像を取得することによって開始される(ステップS201)。サーバ装置10は、表示フレームを表示させるための所定条件の充足を判定する(ステップS202)。所定条件を充足した場合、サーバ装置10は、充足した所定条件に対応する表示フレームに対応付けて記憶された仮想空間情報を取得する(ステップS203)。サーバ装置10は、取得した仮想空間情報及び端末装置の撮影視点に対応した仮想視点に基づいて、表示フレームの表示領域に対してレンダリング処理を行う(ステップS204)。そして、サーバ装置10は、表示領域に対してレンダリング処理を実行した状態の表示フレームを撮影画像に重畳表示して(ステップS205)、処理を終了する。最終的な重畳画像は端末装置20Aの表示手段によって表示されることになる。
以上に説明したように、第1の実施形態の一側面として、撮影手段と表示手段を備えた画像処理装置が、撮影画像取得部21と、表示フレーム表示部22と、仮想空間情報取得部23と、レンダリング部24と、記憶部25とを備え、撮影手段によって現実空間を撮影した撮影画像を取得し、所定条件を満たした場合に仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを撮影画像の表示範囲に表示させ、予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と当該3次元仮想オブジェクトと表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得し、撮影手段の撮影視点と概略同一視点である仮想視点から仮想空間上の表示フレームを仮想的に撮影した場合に表示フレームの表示領域が透過領域だったとしたら仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを表示フレームの当該表示領域にレンダリングして表示させるようにしたので、処理負荷を軽減しつつ3次元仮想オブジェクトの複雑な構成を2次元表示画像に変換して表示することが可能となる。
すなわち、レンダリングのための仮想視点の位置を撮影手段の撮影視点と概略同一視点の位置に固定して、この視点から表示フレームを撮影するようにすることで、ユーザに見せたい3次元仮想オブジェクトをユーザから見て表示フレームの背後に予め配置するというシンプルな構成とすることができる。このような単一視点からの撮影に限定することで、複数視点からのレンダリング処理を並行して実行する場合に比較して処理負荷を軽減することが可能となる。
[第2の実施形態]
図6は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図6に示すように、画像処理装置20Bは、撮影画像取得部21と、表示フレーム表示部22Bと、仮想空間情報取得部23と、レンダリング部24Bと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図6の例では、端末装置20が画像処理装置20Bとして機能する場合を例に説明を行う。
表示フレーム表示部22Bは、所定条件を満たした場合に、仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる機能を有する。また、この第2の実施形態においては、3次元仮想オブジェクトに対してそれぞれ識別IDを対応付けて登録するようにし、表示フレームの各表示領域には、識別IDを対応付け可能なフィルタを設定可能としている。ここで、識別IDとは、3次元仮想オブジェクトを識別するためのIDのことをいう。また、フィルタとは、表示領域に対して識別IDを設定することで何れの3次元仮想オブジェクトを描画するか、或いは、何れの3次元仮想オブジェクトを描画しないかを設定するためのものをいう。フィルタに対する識別IDの登録は予め行っておく必要がある。
レンダリング部24Bは、撮影手段の撮影視点と概略同一視点である仮想視点から仮想空間上の表示フレームを仮想的に撮影した場合に、表示フレームの表示領域が透過領域だったとしたら仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを表示フレームの当該表示領域にレンダリングして表示させる機能を有し、さらに、表示領域に設定されたフィルタに基づいて表示させる3次元仮想オブジェクトを特定した上でレンダリングを行って表示領域に表示させる機能を有する。すなわち、フィルタが存在しなければレンダリングの際に表示領域に描画される位置に配置された3次元仮想オブジェクトであっても、フィルタによって描画の許可がされていない、或いは、描画の禁止が設定されている3次元仮想オブジェクトについては、レンダリングの際に描画対象から除外する。
図7は、端末装置20Bが画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。ここでは、端末装置20Bにおいて画像処理を実行する場合の動作について説明する。
画像処理は、端末装置20Bにおいて撮影画像を取得することによって開始される(ステップS301)。端末装置20Bは、表示フレームを表示させるための所定条件の充足を判定する(ステップS302)。所定条件を充足した場合、端末装置20Bは、充足した所定条件に対応する表示フレームに対応付けて記憶された仮想空間情報を取得する(ステップS303)。次に、端末装置20Bは、表示フレームの表示領域に設定されたフィルタの情報を取得する(ステップS304)。そして、端末装置20Bは、フィルタに基づいて表示させる3次元仮想オブジェクトを特定した上で、取得した仮想空間情報及び端末装置の撮影視点に対応した仮想視点に基づいて、表示フレームの表示領域に対してレンダリング処理を行う(ステップS305)。最後に、端末装置20Bは、表示領域に対してレンダリング処理を実行した状態の表示フレームを撮影画像に重畳表示して(ステップS306)、処理を終了する。
以上に説明したように、第2の実施形態の一側面として、撮影手段と表示手段を備えた画像処理装置が、撮影画像取得部21と、表示フレーム表示部22Bと、仮想空間情報取得部23と、レンダリング部24Bと、記憶部25とを備え、3次元仮想オブジェクトにはそれぞれ識別IDが対応付けされ、表示領域には識別IDを対応付け可能なフィルタを設定可能とし、レンダリング部24Bでは、表示領域に設定されたフィルタに基づいて表示させる3次元仮想オブジェクトを特定した上でレンダリングを行って表示領域に表示させるようにしたので、表示領域に表示させる3次元仮想オブジェクトをフィルタによって任意に設定することが可能となる。
すなわち、ある表示領域には3次元仮想オブジェクトを表示させたいが、隣接する表示領域には当該3次元仮想オブジェクトを表示させたくないという状況が発生するが、仮想視点から見て表示領域の背後に対して3次元オブジェクトをどのように配置するかのみによって見せたい表示フレームを構成しようと思うと、大きな3次元仮想オブジェクトを配置した時に表示させたくない表示領域にも描画されてしまうという問題が生じる。そこで、例えば表示させたくない3次元オブジェクトの識別IDを表示させたくない表示領域のフィルタに設定することで、表示させたくない3次元オブジェクトが表示領域の描画範囲にはみ出していたとしてもフィルタによってレンダリングの際に描画対象から除くことが可能となる。これにより、仮想空間に対する3次元仮想オブジェクトの配置の自由度が高まる。
[第3の実施形態]
図8は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図8に示すように、画像処理装置20Cは、撮影画像取得部21と、表示フレーム表示部22Cと、姿勢情報取得部26と、初期位置情報記憶部27と、仮想空間情報取得部23と、レンダリング部24Cと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図8の例では、端末装置20が画像処理装置20Cとして機能する場合を例に説明を行う。
姿勢情報取得部26は、端末装置が備える各種センサ情報に基づいて特定される撮影方向、撮影角度及び/又は移動方向を含む姿勢情報を取得する機能を有する。ここで、姿勢情報とは、端末装置の姿勢状態を特定するために用いる情報のことをいい、撮影方向、撮影角度、移動方向などに限らず、様々な姿勢情報が含まれ得る。各種センサは、姿勢情報を取得するためのセンサであればどのようなものも採用し得るが、例えば、方位センサ、ジャイロセンサ、GPS装置などが挙げられる。姿勢情報としては、端末装置において姿勢情報に変換されたものを取得してもよいし、センサ情報を取得して姿勢情報に変換処理を行うようにしてもよい。
初期位置情報記憶部27は、表示フレーム表示機能において最初に表示フレームを表示させた時の端末装置の位置と表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶する機能を有する。最初に表示フレームを表示させる位置を何れの位置に決定するかについては様々な手法があり、どのような手法であってもよい。例えば、表示フレームを表示させる位置を空間内での座標位置や緯度経度情報などの位置情報に予め対応付けて登録するという手法や、所定条件を満たした際の端末装置20の位置から所定距離の位置を表示フレームを表示させる位置に定める手法などが考えられる。表示フレームの表示位置が固定の位置情報に対応付けて定められる場合には、端末装置20の位置情報を取得すれば初期位置を特定することができる。表示フレームの表示位置が予め定まっていない場合には、端末装置20及び表示フレームのそれぞれについて初期位置を仮想空間上にプロットするか、現実の位置座標と関連付けて記憶させることで初期位置を記憶させる。また、初期位置として記憶させる情報の中には、表示フレームの表示向きの情報も含まれるものとする。
表示フレーム表示部22Cは、所定条件を満たした場合に、仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる機能を有する。ここで、本例における表示フレームは、表示向きも含め初期位置に固定されるため、端末装置20の姿勢情報が変化して撮影視点が変化した場合、表示フレームに対する仮想空間上の仮想視点も変化する。よって、端末装置20の姿勢情報が初期位置から変化した場合には、変化後の撮影視点と略同一視点の仮想視点から初期位置の表示フレームを撮影したものを撮影画像に重畳表示させる。
レンダリング部24Cは、撮影手段の撮影視点と概略同一視点である仮想視点から仮想空間上の表示フレームを仮想的に撮影した場合に、表示フレームの表示領域が透過領域だったとしたら仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを表示フレームの当該表示領域にレンダリングして表示させる機能を有する。ここで、本例における表示フレームは、表示向きも含め初期位置に固定されるため、端末装置20の姿勢情報が変化して撮影視点が変化した場合、表示フレームに対する仮想空間上の仮想視点も変化する。よって、端末装置20の姿勢情報が初期位置から変化した場合には、変化後の撮影視点と略同一視点の仮想視点から初期位置に位置する表示フレームの表示領域を撮影した場合に、表示領域の奥の3次元仮想オブジェクトを当該表示領域にレンダリングする。
図9は、端末装置20Cが画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。ここでは、端末装置20Cにおいて画像処理を実行する場合の動作について説明する。
画像処理は、端末装置20Cにおいて撮影画像を取得することによって開始される(ステップS401)。また、端末装置20Cは、端末装置20Cと表示フレームについての初期位置情報を取得する(ステップS402)。さらに、端末装置20Cは、姿勢情報を取得する(ステップS403)。次に、端末装置20Cは、表示フレームを表示させるための所定条件の充足を判定する(ステップS404)。所定条件を充足した場合、端末装置20Cは、充足した所定条件に対応する表示フレームに対応付けて記憶された仮想空間情報を取得する(ステップS405)。次に、端末装置20Cは、取得した初期位置情報と姿勢情報とから現在の撮影視点方向を特定する(ステップS406)。そして、端末装置20Cは、現在の撮影画像の撮影範囲に表示フレームの表示位置が含まれる場合、現在の撮影視点方向に基づいて表示領域に対してレンダリング処理を実行する(ステップS407)。最後に、端末装置20Cは、表示領域に対してレンダリング処理を実行した状態の表示フレームを撮影画像に重畳表示して(ステップS408)、処理を終了する。
以上に説明したように、第3の実施形態の一側面として、撮影手段と表示手段を備えた画像処理装置が、撮影画像取得部21と、表示フレーム表示部22Cと、姿勢情報取得部26と、初期位置情報記憶部27と、仮想空間情報取得部23と、レンダリング部24Cと、記憶部25とを備え、表示フレーム表示部22Cにおいて最初に表示フレームを表示させた時の端末装置の位置と表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶し、端末装置の姿勢状態が変化したことによって端末装置と表示フレームとの相対的位置関係又は撮影視点が変化した場合に、変化後の撮影視点から初期位置に位置する表示フレームを表示させるようにし、変化後の撮影視点と概略同一視点である仮想視点に基づいてレンダリングを行うようにしたので、変化後の撮影視点に対応した3次元仮想オブジェクトを表示フレームの表示領域に表示させることが可能となる。
すなわち、仮想空間上の表示フレームと3次元仮想オブジェクトとの位置関係は予め設定された状態で固定であるが、端末装置と表示フレームの位置関係、撮影角度が変化したときに、変化後の撮影視点から見たときに表示領域の奥に配置された3次元仮想オブジェクトをレンダリングするようにすることで、仮想空間上にて表示フレームの背後に配置された3次元仮想オブジェクトの見え方が変化することになる。よって、ユーザから見たときには、端末装置の撮影画像にAR技術として重畳表示された表示フレームに対して角度を変えて観察すると、表示フレームの表示領域にレンダリングされる3次元仮想オブジェクトが変化して、まるで表示領域を窓枠としてその奥にある仮想空間を覗き込んでいるような画像を表示させることが可能となる。また、角度を変えた時に初めて見えるような位置に3次元オブジェクトを配置するなど、配置の自由度が増してユーザの興味を引き付ける表示が可能となる。
[第4の実施形態]
図10は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図10に示すように、画像処理装置20Dは、撮影画像取得部21と、表示フレーム表示部22と、仮想空間情報取得部23と、レンダリング部24Dと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図10の例では、端末装置20が画像処理装置20Dとして機能する場合を例に説明を行う。
レンダリング部24Dは、撮影手段の撮影視点と概略同一視点である仮想視点から仮想空間上の表示フレームを仮想的に撮影した場合に、表示フレームの表示領域が透過領域だったとしたら仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを表示フレームの当該表示領域にレンダリングして表示させる機能を有し、さらに、一時消去設定において指定された3次元仮想オブジェクトを一時消去させたうえでレンダリングを行い表示領域に表示させる機能を有する。この第4の実施形態においては、3次元仮想オブジェクトに対してそれぞれ識別IDを対応付けて登録するようにし、指定した識別IDの3次元仮想オブジェクトを当該表示領域のレンダリングの際に一時的に消去してレンダリングを行うことを設定するための一時消去設定を設定可能としている。ここで、一時消去設定とは、指定した識別IDの3次元仮想オブジェクトをレンダリングの際に仮想空間から一時的に消去させるための設定のことをいう。一時消去設定としての識別IDの登録は予め行っておく必要がある。すなわち、仮想空間に配置された3次元仮想オブジェクトを一時的に消去する構成であるため、撮影視点から見て消去対象の3次元オブジェクトの背後に配置された他の3次元仮想オブジェクトを表示領域に表示させることが可能となる。この一時消去設定は、レンダリング時に指定した3次元仮想オブジェクトを仮想空間から一時的に消去することができればどのように設定されるものであってもよいが、例えば、それぞれの3次元仮想オブジェクトに対して一時消去設定を行い、表示フレームや表示領域においてレンダリング処理を開始するトリガーとなる条件において各3次元仮想オブジェクトに設定された一時消去設定を書き換え可能としてもよい。すなわち、所定条件未充足時には一時消去せずに所定条件充足時には一時消去するといった処理を実行かのうとしてもよい。
図11は、端末装置20Dが画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。ここでは、端末装置20Dにおいて画像処理を実行する場合の動作について説明する。
画像処理は、端末装置20Dにおいて撮影画像を取得することによって開始される(ステップS501)。端末装置20Dは、表示フレームを表示させるための所定条件の充足を判定する(ステップS502)。所定条件を充足した場合、端末装置20Dは、充足した所定条件に対応する表示フレームに対応付けて記憶された仮想空間情報を取得する(ステップS503)。次に、端末装置20Dは、一時消去設定の情報を取得する(ステップS504)。そして、端末装置20Dは、一時消去設定に基づいて表示させる3次元仮想オブジェクトを特定した上で、一時消去設定において指定された3次元仮想オブジェクトを取得した仮想空間情報から一時的に消去した上で、一時消去後の仮想空間情報及び端末装置の撮影視点に対応した仮想視点に基づいて、表示フレームの表示領域に対してレンダリング処理を行う(ステップS505)。最後に、端末装置20Dは、表示領域に対してレンダリング処理を実行した状態の表示フレームを撮影画像に重畳表示して(ステップS506)、処理を終了する。
以上に説明したように、第4の実施形態の一側面として、撮影手段と表示手段を備えた画像処理装置が、撮影画像取得部21と、表示フレーム表示部22と、仮想空間情報取得部23と、レンダリング部24Dと、記憶部25とを備え、3次元仮想オブジェクトにはそれぞれ識別IDが対応付けされ、指定した識別IDの3次元仮想オブジェクトをレンダリングの際に仮想空間から一時的に消去してレンダリングを行うことを設定するための一時消去設定を設定可能とし、レンダリング部24Dでは、一時消去設定において指定された3次元仮想オブジェクトを仮想空間から一時的に消去させたうえでレンダリングを行い表示領域に表示させるようにしたので、表示領域に表示させる3次元仮想オブジェクトを一時消去設定によって仮想空間から一時的に消去することが可能となる。
すなわち、ある表示領域には3次元仮想オブジェクトを表示させたいが、隣接する表示領域には当該3次元仮想オブジェクトを表示させたくないという状況において、当該3次元仮想オブジェクトを一時的に消去することが出来ればその背後に配置した他の3次元仮想オブジェクトを表示させることができるという状況の場合には、隣接する表示領域に対してレンダリング処理をする際に当該3次元仮想オブジェクトを一時消去設定にて一時的に消去するように設定することで、背後に配置した3次元仮想オブジェクトを表示させることが可能となる。
[第5の実施形態]
図12は、本発明の実施形態の少なくとも一つに対応する画像処理装置の構成を示すブロック図である。図12に示すように、画像処理装置20Eは、撮影画像取得部21と、表示フレーム表示部22Eと、姿勢情報取得部26と、初期位置情報記憶部27と、仮想空間情報取得部23と、レンダリング部24Eと、記憶部25とを少なくとも備える。なお、画像処理はサーバ装置10と端末装置20が連動して処理する構成であってもよいし、端末装置20単体で処理を実行する構成であってもよいが、何れの場合も端末装置20がユーザに利用される状況が前提となるため、図12の例では、端末装置20が画像処理装置20Eとして機能する場合を例に説明を行う。
撮影画像取得部21は、撮影手段によって現実空間を撮影した撮影画像を取得する機能を有する。例えば、ユーザが所持するスマートフォン等の端末装置20が備えるカメラ装置にてユーザの周辺状況を静止画又は動画の撮影画像として取得する。
表示フレーム表示部22Eは、所定条件を満たした場合に、仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる機能を有する。また、この第5の実施形態においては、3次元仮想オブジェクトに対してそれぞれ識別IDを対応付けて登録するようにし、表示フレームの各表示領域には、識別IDを対応付け可能なフィルタを設定可能としている。ここで、識別IDとは、3次元仮想オブジェクトを識別するためのIDのことをいう。また、フィルタとは、表示領域に対して識別IDを設定することで何れの3次元仮想オブジェクトを描画するか、或いは、何れの3次元仮想オブジェクトを描画しないかを設定するためのものをいう。フィルタに対する識別IDの登録は予め行っておく必要がある。
姿勢情報取得部26は、端末装置が備える各種センサ情報に基づいて特定される撮影方向、撮影角度及び/又は移動方向を含む姿勢情報を取得する機能を有する。ここで、姿勢情報とは、端末装置の姿勢状態を特定するために用いる情報のことをいい、撮影方向、撮影角度、移動方向などに限らず、様々な姿勢情報が含まれ得る。各種センサは、姿勢情報を取得するためのセンサであればどのようなものも採用し得るが、例えば、方位センサ、ジャイロセンサ、GPS装置などが挙げられる。姿勢情報としては、端末装置において姿勢情報に変換されたものを取得してもよいし、センサ情報を取得して姿勢情報に変換処理を行うようにしてもよい。また、端末装置によって撮影した撮影画像から姿勢情報を取得するようにしてもよい。例えば、現実空間に固定的に配置されたオブジェクトとの位置関係、オブジェクトの映り方(傾いて映っている等)などに基づいて姿勢情報を特定することが可能である。
初期位置情報記憶部27は、表示フレーム表示機能において最初に表示フレームを表示させた時の端末装置の位置と表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶する機能を有する。最初に表示フレームを表示させる位置を何れの位置に決定するかについては様々な手法があり、どのような手法であってもよい。例えば、表示フレームを表示させる位置を空間内での座標位置や緯度経度情報などの位置情報に予め対応付けて登録するという手法や、所定条件を満たした際の端末装置20の位置から所定距離の位置を表示フレームを表示させる位置に定める手法などが考えられる。表示フレームの表示位置が固定の位置情報に対応付けて定められる場合には、端末装置20の位置情報を取得すれば初期位置を特定することができる。表示フレームの表示位置が予め定まっていない場合には、端末装置20及び表示フレームのそれぞれについて初期位置を仮想空間上にプロットするか、現実の位置座標と関連付けて記憶させることで初期位置を記憶させる。また、初期位置として記憶させる情報の中には、表示フレームの表示向きの情報も含まれるものとする。
仮想空間情報取得部23は、予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する機能を有する。3次元仮想オブジェクト情報とは、3次元仮想オブジェクトを特定するために必要な情報のことをいう。例えば、3次元仮想オブジェクトが3Dポリゴンで形成される場合には、3Dポリゴンの頂点、多角形面がどのように構成されるのかを特定するための情報のほか、各面の表面のテクスチャ情報などが3次元仮想オブジェクト情報として含まれる。また、位置関係情報とは、本例において仮想空間上に必ず配置される表示フレームと仮想空間上に配置される3次元仮想オブジェクトとの位置関係を特定するための情報のことをいう。なお、表示フレームと3次元仮想オブジェクトとの位置関係の制約は特に存在しないが、後述するレンダリング部24によって表示フレームの表示領域に対して3次元オブジェクトがレンダリングされるためには、仮想視点から撮影した時にレンダリング対象となる位置関係である必要がある。これらの3次元仮想オブジェクト情報と位置関係情報を少なくとも含む仮想空間情報がこの仮想空間情報取得部23において取得される。この仮想空間情報は、端末装置20の記憶部25において記憶させておく構成であってもよいし、サーバ装置10の記憶部に記憶させておき、通信ネットワークを介して端末装置20が取得する構成であってもよい。
レンダリング部24Eは、撮影手段の撮影視点と概略同一視点である仮想視点から仮想空間上の表示フレームを仮想的に撮影した場合に、表示フレームの表示領域が透過領域だったとしたら仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを表示フレームの当該表示領域にレンダリングして表示させる機能を有する。
また、レンダリング部24Eは、表示領域に設定されたフィルタに基づいて表示させる3次元仮想オブジェクトを特定した上でレンダリングを行って表示領域に表示させる機能を有する。すなわち、レンダリングの際に表示領域に描画される位置に配置された3次元仮想オブジェクトであっても、フィルタによって描画の許可がされていない、或いは、描画の禁止が設定されている3次元仮想オブジェクトについては、レンダリングの際に描画対象から除外する。
さらに、レンダリング部24Eは、一時消去設定において指定された3次元仮想オブジェクトを一時的に消去させたうえでレンダリングを行い表示領域に表示させる機能を有する。この第5の実施形態においては、指定した識別IDの3次元仮想オブジェクトをレンダリングの際に一時的に消去してレンダリングを行うことを設定するための一時消去設定を設定可能としている。ここで、一時消去設定とは、指定した識別IDの3次元仮想オブジェクトを当該表示領域のレンダリングの際に仮想空間から一時的に消去させるための設定のことをいう。一時消去設定としての識別IDの登録は予め行っておく必要がある。この一時消去設定は、レンダリング時に指定した3次元仮想オブジェクトを仮想空間から一時的に消去することができればどのように設定されるものであってもよいが、例えば、それぞれの3次元仮想オブジェクトに対して一時消去設定を行い、表示フレームや表示領域においてレンダリング処理を開始するトリガーとなる条件が満たされた場合に各3次元仮想オブジェクトに設定された一時消去設定を書き換えることで可能としてもよい。すなわち、所定条件未充足時には一時消去せずに所定条件充足時には一時消去するといった処理を実行かのうとしてもよい。なお、各3次元仮想オブジェクトにおいて自身の一時消去設定のみを行う場合には識別IDを用いない構成としてもよい。
この一時消去設定は、仮想空間に配置された3次元仮想オブジェクトを一時的に消去する構成であるため、撮影視点から見て消去対象の3次元オブジェクトの背後に配置された他の3次元仮想オブジェクトを表示領域に表示させることが可能となる。ただし、一時消去設定における消去は、仮想空間から指定した3次元仮想オブジェクトを消去してしまうので、全ての表示領域において当該3次元仮想オブジェクトが消去されてしまう構成となる。よって一時消去設定によって3次元仮想オブジェクトを仮想空間から消去しても他の表示領域の表示に影響を及ぼさない工夫が必要となる。例えば、複数の表示領域が同時に表示されている状況においてはレンダリング処理を開始させずに、端末装置と表示領域の位置関係が近くなって1つの表示領域のみが表示画面の大半を占める状況になったような場合になって初めてレンダリング処理を開始するようにしてもよい。或いは、撮影視点方向が1つの表示領域を中心に捉えて所定期間変化しない状況となったとき、その状態を当該表示領域にユーザが着目した着目状態と判定するようにし、着目状態と判定してときに初めてレンダリング処理を開始するようにしてもよい。このように、レンダリング処理を開始するトリガーとなる条件を設定できる構成とすることで、一時消去設定にて3次元仮想オブジェクトを消去させても他の表示領域に影響を及ぼさない構成とすることができる。なお、レンダリング処理を開始するトリガーとなる条件が満たされなくなった場合にレンダリング処理を終了させて一時的に消去させていた3次元仮想オブジェクトを仮想空間上に再配置するようにすれば、他の表示領域においては当該3次元仮想オブジェクトを問題なく表示させることが可能となる。
また、表示画面における表示フレームの表示範囲が変化した場合に、少なくとも1以上の表示領域のうち何れの表示領域が表示画面に含まれているかを判定する表示判定部を設け、レンダリング部24Eにおいては、表示判定部において表示画面に含まれると判定された表示領域の中に、一時消去設定における消去対象の3次元仮想オブジェクトを表示させる設定となっている表示領域が存在しない場合にのみ、一時消去設定を有効にしてレンダリングを実行するようにしてもよい。
記憶部25は、画像処理装置における各部の処理に必要な情報を記憶し、また、各部の処理で生じた各種の情報を記憶する機能を有する。
図13は、端末装置20Eが画像処理を実行する場合の端末装置側の動作の例を示すフローチャートである。ここでは、端末装置20Eにおいて画像処理を実行する場合の動作について説明する。
画像処理は、端末装置20Eにおいて撮影画像を取得することによって開始される(ステップS601)。また、端末装置20Eは、端末装置20Eと表示フレームについての初期位置情報を取得する(ステップS602)。さらに、端末装置20Eは、姿勢情報を取得する(ステップS603)。次に、端末装置20Eは、表示フレームを表示させるための所定条件の充足を判定する(ステップS604)。所定条件を充足した場合、端末装置20Eは、充足した所定条件に対応する表示フレームに対応付けて記憶された仮想空間情報を取得する(ステップS605)。次に、端末装置20Eは、取得した初期位置情報と姿勢情報とから現在の撮影視点方向を特定する(ステップS606)。そして、端末装置20Eは、現在の撮影画像の撮影範囲に表示フレームの表示位置が含まれる場合、現在の撮影視点方向に基づいて表示領域に対してレンダリング処理を実行する(ステップS607)。その際、端末装置20Eは、フィルタの情報及び/又は一時消去設定の情報が設定されている場合には、それらの情報を用いて表示させる3次元仮想オブジェクトを特定した上でレンダリング処理を実行する。最後に、端末装置20Eは、表示領域に対してレンダリング処理を実行した状態の表示フレームを撮影画像に重畳表示して(ステップS608)、処理を終了する。
図14は、仮想空間に対して表示フレーム及び3次元仮想オブジェクトを配置した状態を表した説明図である。この図14において、仮想空間上には、2つの表示領域f1、f2を備える表示フレームFが配置され、また、3つの3次元仮想オブジェクトA、B及びCが配置されている。このような仮想空間を仮想カメラで撮影して表示領域に対するレンダリングを行う。
図15は、表示領域に設定されるフィルタの機能を説明するための説明図である。レンダリング処理は、表示フレームの表示領域が透過領域だったとしたら仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを当該表示領域にレンダリングして表示させる処理である。図14の仮想視点から表示フレームFを撮影した時に表示領域f1、f2のそれぞれの奥に存在する3次元仮想オブジェクトをレンダリングする。表示領域f1には、3次元仮想オブジェクトAがレンダリングされている。ここで、3次元仮想オブジェクトBだけ描画を許可するように表示領域f2にフィルタが設定されているものとする。すると、図15に示すように、表示領域f2には、フィルタが設定されていなければ描画対象であった3次元仮想オブジェクトAはレンダリングされずに3次元仮想オブジェクトBだけがレンダリングされる。なお、このフィルタ設定は、仮想空間上から3次元仮想オブジェクトを消去する機能ではないので、仮にフィルタの設定において3次元仮想オブジェクトCの描画を許可していたとしても、3次元仮想オブジェクトAの背後に配置されて完全に隠れてしまう3次元仮想オブジェクトCは描画されない。
図16は、一時消去設定の機能を説明するための説明図である。図14の仮想視点から表示フレームFを撮影した時に表示領域f1、f2のそれぞれの奥に存在する3次元仮想オブジェクトがレンダリング対象となる。ここで、3次元仮想オブジェクトAを仮想空間から一時的に消去するように一時消去設定が設定されているものとする。すると、図16に示すように、一時消去設定がなければ描画されていた3次元仮想オブジェクトAはレンダリングされず、3次元仮想オブジェクトAの奥に配置された3次元仮想オブジェクトCがレンダリングされている。なお、この一時消去設定は、仮想空間上から3次元仮想オブジェクトを一時的に消去する機能であるので、表示領域f2以外の表示領域に対しても影響が及ぶ。すなわち、図16に示すように、表示領域f1には3次元仮想オブジェクトAが描画されるべきところ、一時消去設定によって仮想空間から消去された結果、表示領域f1に表示すべき3次元仮想オブジェクトが存在しない状態となっている。このような状況が生じないように、例えば、端末装置と表示領域の位置関係が近くなって1つの表示領域のみが表示画面の大半を占める状況になったこと、撮影視点方向が1つの表示領域を中心に捉えて所定期間変化しない状況(着目状態)となったことなどを、レンダリング処理を開始するトリガーとして定めておくことが好ましい。
図17は、撮影視点が変化する様子を説明するための説明図である。端末装置の撮影方向、撮影角度、移動方向などの姿勢情報が変化して端末装置と表示フレームの相対的位置関係が初期位置から変化した場合、その変化後の端末装置の撮影視点の方向を仮想視点の方向としてレンダリングを行う。図17は、端末装置の撮影視点の変化に伴って仮想視点が変化した様子を表している。この図17に示すように、仮想視点が変化した場合には、変化後の仮想視点の位置から初期位置の表示フレームFの表示領域の奥に存在する3次元仮想オブジェクトをレンダリングすることになる。このとき、表示フレームFと3次元仮想オブジェクトA、B及びCとの位置関係は固定されたものであるので、表示フレームFの表示領域f1、f2に対する仮想視点が変化すると、レンダリングする内容も変化する。このように、変化する仮想視点に追従させてレンダリング内容を適宜修正して表示させるようにしたので、ユーザが角度を変えつつ覗き込むことで表示領域f1、f2の中に広がる拡張現実空間をよりリアルに感じることが可能となる。
図18は、端末装置に表示させる表示画面の一例を表した説明図である。図18(a)は、撮影画像を表示画面に表示させた様子を表した説明図である。この図18(a)には椅子が映っているが、例えば、椅子に表示フレームを表示させるためのARマーカーが設けられており当該ARマーカーを端末装置が認識すること、或いは、椅子自体の3次元形状からオブジェクトとしての椅子を特定することなど、表示フレームを表示させるための所定条件が設定されているものとする。そのような所定条件を満たすと、図18(b)に示すように、撮影画像中の椅子の上に表示フレームが重畳表示した画像が表示画面に表示される。
以上に説明したように、第5の実施形態の一側面として、撮影手段と表示手段を備えた画像処理装置が、撮影画像取得部21と、表示フレーム表示部22Eと、姿勢情報取得部26と、初期位置情報記憶部27と、仮想空間情報取得部23と、レンダリング部24Eと、記憶部25とを備え、最初に表示フレームを表示させた時の端末装置の位置と表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶し、端末装置の姿勢状態が変化したことによって端末装置と表示フレームとの相対的位置関係又は撮影視点が変化した場合に、変化後の撮影視点から初期位置に位置する表示フレームを表示させるようにし、変化後の撮影視点と概略同一視点である仮想視点に基づいてレンダリングを行うようにしたので、変化後の撮影視点に対応した3次元仮想オブジェクトを表示フレームの表示領域に表示させることが可能となる。また、このとき、表示領域に設定されたフィルタや一時消去設定を利用することでレンダリング対象の3次元仮想オブジェクトを調整することにより、仮想空間への3次元仮想オブジェクトの配置条件だけではなく表示内容を変更することが可能となるので、配置の自由度が高まる。
すなわち、仮想空間上の表示フレームと3次元仮想オブジェクトとの位置関係は予め設定された状態で固定であるが、端末装置と表示フレームの位置関係、撮影角度が変化したときに、変化後の撮影視点から見たときに表示領域の奥に配置された3次元仮想オブジェクトをレンダリングするようにすることで、仮想空間上にて表示フレームの背後に配置された3次元仮想オブジェクトの見え方が変化することになる。よって、ユーザから見たときには、端末装置の撮影画像にAR技術として重畳表示された表示フレームに対して角度を変えて観察すると、表示フレームの表示領域にレンダリングされる3次元仮想オブジェクトが変化して、まるで表示領域を窓枠としてその奥にある仮想空間を覗き込んでいるような画像を表示させることが可能となる。また、角度を変えた時に初めて見えるような位置に3次元オブジェクトを配置するなど、配置の自由度が増してユーザの興味を引き付ける表示が可能となる。
なお、上述した第1から第5の実施形態において説明した画像処理装置によって表示させる表示フレームは様々な表示に利用することが可能であるが、例えば、ARによって漫画を表現することに用いることが可能である。表示フレームを漫画のページとし、表示領域を漫画の各コマとして扱うことで、現実空間を撮影した撮影画像に対して漫画のページを重畳表示させることが可能となる。漫画のページを構成する複数のコマのうち、全てのコマを本例の表示領域として仮想空間をレンダリングした画像で表現する必要はなく、漫画の作画担当者が描いた漫画を表示するコマと、仮想空間をレンダリングした画像を表示する表示領域としてのコマとを併存させた漫画とすることも可能である。また、漫画の作画担当者が描いた絵を板状の3次元仮想オブジェクトとして仮想空間に配置することも可能である。3Dポリゴンのキャラクタを3次元仮想オブジェクトとして仮想空間に、漫画の作画担当者が描いた絵を板状のポリゴンの表面に張り付けて背景として配置するといった表現も可能となる。
表示フレームを漫画のページとして処理する場合に、漫画の1ページに複数の表示領域を設けたとしても1つの仮想視点に基づいて一度にレンダリングを行う手法であるため、コマ数が増えても処理負荷を増大させずに済む。また、フィルタや一時消去設定を利用することで、1つの仮想視点に基づいて一度にレンダリングを行う手法であるにも関わらず、それぞれの表示領域ごとに独立した3次元仮想空間を有しているように見せることが可能となる。
なお、上述した第1から第5の実施形態においては、現実空間を撮影した撮影画像に表示フレームを重畳表示させる構成、すなわちAR技術として実現する例として説明を行ったが、ARに限定されるものではない。例えば、ヘッドマウントディスプレイ等を用いた仮想現実(VR:virtual reality)技術によって提供される仮想空間に対して表示フレームを配置して、当該表示フレームの表示領域に対して上述した第1から第5の実施形態において説明したレンダリング処理を行うようにしてもよい。また、端末装置のディスプレイに表示させる映像が3次元仮想空間を表現した映像である場合に、当該3次元仮想空間に表示フレームを配置して、当該表示フレームの表示領域に対して上述した第1から第5の実施形態において説明したレンダリング処理を行うようにしてもよい。
以上に説明したように、本願の各実施形態により1または2以上の不足が解決される。なお、夫々の実施形態による効果は、非限定的な効果または効果の一例である。
なお、上述した各実施形態では、複数の端末装置20,201〜20nとサーバ装置10は、自己が備える記憶装置に記憶されている各種制御プログラム(例えば、画像処理プログラム)に従って、上述した各種の処理を実行する。
また、システムの構成は上述した各実施形態の例として説明した構成に限定されず、例えば端末装置が実行する処理として説明した処理の一部または全部をサーバ装置10が実行する構成としてもよいし、サーバ装置10が実行する処理として説明した処理の一部または全部を複数の端末装置20,201〜20nの何れか(例えば、端末装置20)が実行する構成としてもよい。また、サーバ装置10が備える記憶部の一部または全部を複数の端末装置20,201〜20nの何れかが備える構成としてもよい。すなわち、システムにおける端末装置20とサーバ装置10のどちらか一方が備える機能の一部または全部を、他の一方が備える構成とされていてもよい。
また、プログラムが、上述した各実施形態の例として説明した機能の一部または全部を、通信ネットワークを含まない装置単体に実現させる構成としてもよい。
[付記]
上述した実施形態の説明は、少なくとも下記発明を、当該発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[1]
撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させる機能を実現させるための画像処理プログラムであって、
前記端末装置に、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得機能と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示機能と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得機能と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング機能と
を実現させる画像処理プログラム。
[2]
前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
前記レンダリング機能は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
[1]記載の画像処理プログラム。
[3]
前記端末装置に、
前記端末装置が備える各種センサ情報に基づいて特定される撮影方向、撮影角度及び/又は移動方向を含む姿勢情報を取得する姿勢情報取得機能と、
前記表示フレーム表示機能において最初に前記表示フレームを表示させた時の前記端末装置の位置と前記表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶する初期位置情報記憶機能とを実現させ、
前記表示フレーム表示機能は、前記端末装置の前記姿勢状態が変化したことによって前記端末装置と前記表示フレームとの相対的位置関係又は撮影視点が変化した場合に、変化後の撮影視点から前記初期位置に位置する表示フレームを表示させるようにし、
前記レンダリング機能は、変化後の撮影視点と概略同一視点である仮想視点に基づいてレンダリングを行うようにした
[1]又は[2]に記載の画像処理プログラム。
[4]
前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
また、前記3次元仮想オブジェクトには、指定した識別IDの前記3次元仮想オブジェクトをレンダリングの際に一時的に消去してレンダリングを行うことを設定するための一時消去設定を設定可能であり、
前記レンダリング機能は、前記一時消去設定が一時的に消去させることを指定した前記3次元仮想オブジェクトを消去させた上でレンダリングを行って前記表示領域に表示させる
[1]から[3]のいずれかに記載の画像処理プログラム。
[5]
前記端末装置に、
前記表示画面における前記表示フレームの表示範囲が変化した場合に、少なくとも1以上の前記表示領域のうち何れの表示領域が前記表示画面に含まれているかを判定する表示判定機能を実現させ、
前記レンダリング機能は、前記表示判定機能において前記表示画面に含まれると判定された前記表示領域の中に、前記一時消去設定における消去対象の前記3次元仮想オブジェクトを表示させる設定となっている前記表示領域が存在しない場合にのみ、前記一時消去設定を有効にしてレンダリングを実行する
[4]記載の画像処理プログラム。
[6]
[1]から[5]のうち何れかに記載の画像処理プログラムが前記端末装置に実現させる機能のうち少なくとも1つの機能を、当該端末装置と通信可能なサーバ装置に実現させるための画像処理プログラム。
[7]
[1]から[6]のうち何れかに記載の画像処理プログラムがインストールされた端末装置。
[8]
現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を表示させる機能をサーバ装置に実現させるための画像処理プログラムであって、
前記サーバ装置に、
撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得機能と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示機能と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得機能と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング機能とを
実現させるための画像処理プログラム。
[9]
[8]に記載の画像処理プログラムが前記サーバ装置に実現させる機能のうち少なくとも1つの機能を、当該サーバと通信可能な端末装置に実現させるための画像処理プログラム。
[10]
[8]又は[9]に記載の画像処理プログラムがインストールされたサーバ装置。
[11]
通信ネットワークと、サーバ装置と、端末装置とを備え、現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を端末装置に表示させるための画像処理システムであって、
撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得手段と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示手段と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得手段と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング手段と
を含む画像処理システム。
[12]
撮影手段と表示手段を備え、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得部と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示部と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得部と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング部と
を備える画像処理装置。
[13]
撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させるための画像処理方法であって、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得処理と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示処理と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得処理と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング処理と
を含む画像処理方法。
[14]
通信ネットワークと、サーバ装置と、端末装置とを備える画像処理システムが、現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させるために実行する画像処理方法であって、
前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得処理と、
所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示処理と、
予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得処理と、
前記撮影手段の撮影視点と概略同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング処理とを含む
ことを特徴とするビデオ画像処理方法。
10 サーバ装置
20,201〜20n 端末装置
20A〜20E 画像処理装置(端末装置)
21 撮影画像取得部
22 表示フレーム表示部
23 仮想空間情報取得部
24 レンダリング部
25 記憶部
26 姿勢情報取得部
27 初期位置情報記憶部
30 通信ネットワーク

Claims (5)

  1. 撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させる機能を実現させるための画像処理プログラムであって、
    前記端末装置に、
    前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得機能と、
    所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示機能と、
    予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得機能と、
    前記撮影手段の撮影視点と同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング機能と、を実現させ、
    前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
    前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
    前記レンダリング機能は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
    像処理プログラム。
  2. 前記端末装置に、
    前記端末装置が備える各種センサ情報に基づいて特定される撮影方向、撮影角度及び/又は移動方向を含む姿勢情報を取得する姿勢情報取得機能と、
    前記表示フレーム表示機能において最初に前記表示フレームを表示させた時の前記端末装置の位置と前記表示フレームが現実空間に存在すると仮定した場合の位置との少なくとも相対的位置関係を初期位置として記憶する初期位置情報記憶機能とを実現させ、
    前記表示フレーム表示機能は、前記端末装置の姿勢状態が変化したことによって前記端末装置と前記表示フレームとの相対的位置関係又は撮影視点が変化した場合に、変化後の撮影視点から前記初期位置に位置する表示フレームを表示させるようにし、
    前記レンダリング機能は、変化後の撮影視点と同一視点である仮想視点に基づいてレンダリングを行うようにした
    請求項記載の画像処理プログラム。
  3. 前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
    また、前記3次元仮想オブジェクトには、指定した識別IDの前記3次元仮想オブジェクトをレンダリングの際に一時的に消去してレンダリングを行うことを設定するための一時消去設定を設定可能であり、
    前記レンダリング機能は、前記一時消去設定が一時的に消去させることを指定した前記3次元仮想オブジェクトを消去させた上でレンダリングを行って前記表示領域に表示させる
    請求項1又は請求項2に記載の画像処理プログラム。
  4. 撮影手段と表示手段を備え、
    前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得部と、
    所定条件を満たした場合に、仮想空間上に配置した仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示部と、
    予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得部と、
    前記撮影手段の撮影視点と同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング部と、を備え、
    前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
    前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
    前記レンダリング部は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
    像処理装置。
  5. 撮影手段と表示手段を備えた端末装置に対して、前記撮影手段によって現実空間を撮影した撮影画像に仮想空間上に配置した仮想オブジェクトを重畳表示させた表示画面を前記表示手段によって表示させるための画像処理方法であって、
    前記撮影手段によって現実空間を撮影した撮影画像を取得する撮影画像取得処理と、
    所定条件を満たした場合に、前記仮想オブジェクトの1つであって少なくとも1以上の表示領域を有する表示フレームを前記撮影画像の表示範囲に表示させる表示フレーム表示処理と、
    予め仮想空間上に配置した少なくとも1以上の3次元仮想オブジェクト情報と、当該3次元仮想オブジェクトと前記表示フレームの位置関係情報とを少なくとも含む仮想空間情報を取得する仮想空間情報取得処理と、
    前記撮影手段の撮影視点と同一視点である仮想視点から前記仮想空間上の前記表示フレームを仮想的に撮影した場合に、前記表示フレームの前記表示領域が透過領域だったとしたら前記仮想視点から撮影したときに当該表示領域の奥に映る3次元仮想オブジェクトを前記表示フレームの当該表示領域にレンダリングして表示させるレンダリング処理と、を含み、
    前記3次元仮想オブジェクトには、それぞれ識別IDが対応付けされており、
    前記表示領域には、前記識別IDを対応付け可能なフィルタを設定可能であり、
    前記レンダリング処理は、前記表示領域に設定された前記フィルタに基づいて表示させる前記3次元仮想オブジェクトを特定した上でレンダリングを行って前記表示領域に表示させる
    像処理方法。
JP2019138813A 2019-07-29 2019-07-29 画像処理プログラム、画像処理装置及び画像処理方法 Active JP6833925B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019138813A JP6833925B2 (ja) 2019-07-29 2019-07-29 画像処理プログラム、画像処理装置及び画像処理方法
US16/941,314 US11087526B2 (en) 2019-07-29 2020-07-28 Image processing program, image processing apparatus, and image processing method
CN202010737232.0A CN112312110A (zh) 2019-07-29 2020-07-28 非暂态计算机可读介质、图像处理装置及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019138813A JP6833925B2 (ja) 2019-07-29 2019-07-29 画像処理プログラム、画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2021022207A JP2021022207A (ja) 2021-02-18
JP6833925B2 true JP6833925B2 (ja) 2021-02-24

Family

ID=74259323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019138813A Active JP6833925B2 (ja) 2019-07-29 2019-07-29 画像処理プログラム、画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US11087526B2 (ja)
JP (1) JP6833925B2 (ja)
CN (1) CN112312110A (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
JP5340900B2 (ja) * 2009-12-03 2013-11-13 株式会社エヌ・ティ・ティ・ドコモ オブジェクト管理装置及びオブジェクト管理方法
JP2011198138A (ja) 2010-03-19 2011-10-06 Brother Industries Ltd 漫画作成支援装置、漫画作成支援方法およびプログラム
JP2012058968A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US20160163063A1 (en) * 2014-12-04 2016-06-09 Matthew Ashman Mixed-reality visualization and method
JP6088094B1 (ja) * 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等
JP6472486B2 (ja) * 2016-09-14 2019-02-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN109840946B (zh) * 2017-09-19 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象显示方法及装置
JP6453501B1 (ja) * 2018-02-01 2019-01-16 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
JPWO2019187430A1 (ja) * 2018-03-29 2021-04-08 ソニー株式会社 情報処理装置、方法、及びプログラム

Also Published As

Publication number Publication date
CN112312110A (zh) 2021-02-02
US11087526B2 (en) 2021-08-10
US20210035351A1 (en) 2021-02-04
JP2021022207A (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7344974B2 (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
KR102414587B1 (ko) 증강 현실 데이터 제시 방법, 장치, 기기 및 저장 매체
KR102624635B1 (ko) 메시징 시스템에서의 3d 데이터 생성
CN111701238A (zh) 虚拟画卷的显示方法、装置、设备及存储介质
US11842384B2 (en) Digital model optimization responsive to orientation sensor data
KR101956098B1 (ko) 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법
CN109448050B (zh) 一种目标点的位置的确定方法及终端
US20210312696A1 (en) Method and apparatus for displaying personalized face of three-dimensional character, device, and storage medium
JP2019179382A (ja) 情報処理プログラム、情報処理方法及び情報処理システム
CN107084740A (zh) 一种导航方法和装置
TWI764366B (zh) 基於光通信裝置的互動方法和系統
KR102005251B1 (ko) 가상 현실에 기반하여 매물 영상을 제공하기 위한 서버, 제공자 단말 및 방법
CN109582134B (zh) 信息显示的方法、装置及显示设备
KR101132512B1 (ko) 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법
JP6833925B2 (ja) 画像処理プログラム、画像処理装置及び画像処理方法
CN111292424A (zh) 多视点360度vr内容提供系统
JP2017168132A (ja) 仮想オブジェクトの表示システム、表示システムプログラム及び表示方法
JP7417827B2 (ja) 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
JP2004199159A (ja) 情報処理方法、情報処理装置、プログラムおよび記憶媒体
KR20130096785A (ko) 모바일 기기를 이용한 건물 내부 파노라마 이미지와 평면도가 결합된 서비스 제공방법
KR102350226B1 (ko) 증강현실 컨텐츠 배치 장치 및 방법
EP3923121A1 (en) Object recognition method and system in augmented reality enviroments
CN117635809A (zh) 3d模型生成方法、系统及电子设备
JP2004234457A (ja) 情報処理装置、方法、プログラムおよび記憶媒体
CN117676119A (zh) 视频透视方法、装置、设备、存储介质及程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R150 Certificate of patent or registration of utility model

Ref document number: 6833925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250