JP7225016B2 - Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末 - Google Patents

Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末 Download PDF

Info

Publication number
JP7225016B2
JP7225016B2 JP2019079878A JP2019079878A JP7225016B2 JP 7225016 B2 JP7225016 B2 JP 7225016B2 JP 2019079878 A JP2019079878 A JP 2019079878A JP 2019079878 A JP2019079878 A JP 2019079878A JP 7225016 B2 JP7225016 B2 JP 7225016B2
Authority
JP
Japan
Prior art keywords
projection
image
dimensional object
information
projection image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019079878A
Other languages
English (en)
Other versions
JP2020177490A (ja
Inventor
レミ ドリアンクール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019079878A priority Critical patent/JP7225016B2/ja
Priority to US16/851,310 priority patent/US11238658B2/en
Publication of JP2020177490A publication Critical patent/JP2020177490A/ja
Application granted granted Critical
Publication of JP7225016B2 publication Critical patent/JP7225016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明の実施形態の少なくとも1つは、現実世界に配置された実在のオブジェクトに対してユーザ端末から仮想的に投影した画像を拡張現実技術によって複数のユーザと共有可能とするためのAR空間画像投影システム、AR空間画像投影方法及びユーザ端末に関する。
近年、拡張現実(AR:Augumented Reality)技術が提供され始めている。拡張現実は、現実空間の画像に対して平面や立体のオブジェクトを重畳表示することで現実空間に仮想オブジェクトを表示する技術である。
また、拡張現実技術によって表示させるオブジェクトを複数のユーザで共有する技術も提案されている。複数のユーザで仮想的なオブジェクトを共有するものとしては、例えば、特許文献1が挙げられる。この特許文献1には、複数のユーザで共有したいオブジェクトについて共有ユーザの全員に見えやすい適切な位置を決定するための技術が開示されている。
特開2014-203175号公報
特許文献1に記載の情報処理装置は、複数のユーザの全員が見やすい位置に仮想的なオブジェクトを配置することを特徴とするものであるが、現実世界に配置された実在のオブジェクトに対してユーザ端末から仮想的に画像を投影して拡張現実技術によって複数のユーザと共有可能とする技術については開示されていない。
本発明の少なくとも1つの実施形態の目的は、現実世界に配置された実在のオブジェクトに対してユーザ端末から仮想的に投影された投影画像を拡張現実技術によって複数のユーザと共有可能とするためのAR空間画像投影システム、AR空間画像投影方法及びユーザ端末を提供することである。
非限定的な観点によると、本発明の一実施形態に係るAR空間画像投影システムは、複数の3次元オブジェクト情報を格納したサーバ装置と、撮影手段及び表示手段を備えた1以上のユーザ端末とを含むAR空間画像投影システムであって、深度マップ取得手段によって前記撮影手段によって撮影される範囲の深度マップを取得する深度マップ取得部と、3次元オブジェクト特定手段を利用して前記撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定する3次元オブジェクト特定部と、投影画像の指定を受付ける投影画像指定受付部と、前記撮影手段によって撮影される前記3次元オブジェクトに前記投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付ける投影実行受付部と、投影実行入力がされた際に、前記3次元オブジェクトの何れの位置に前記投影画像が投影されたかを特定し、前記投影画像の情報と投影位置の情報を前記3次元オブジェクト情報に関連付けて登録する投影画像情報登録部と、前記投影画像が投影された3次元オブジェクトが前記ユーザ端末の撮影手段によって撮影された場合に、前記ユーザ端末の表示手段に映る前記3次元オブジェクトに対して前記投影画像を重畳表示する投影画像重畳表示部とを備えることを特徴とする。
非限定的な観点によると、本発明の一実施形態に係るAR空間画像投影方法は、複数の3次元オブジェクト情報を格納したサーバ装置と、撮影手段及び表示手段を備えた1以上のユーザ端末とを用いたAR空間画像投影方法であって、深度マップ取得手段によって前記撮影手段によって撮影される範囲の深度マップを取得する深度マップ取得手順と、3次元オブジェクト特定手段を利用して前記撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定する3次元オブジェクト特定手順と、投影画像の指定を受付ける投影画像指定受付手順と、前記撮影手段によって撮影される前記3次元オブジェクトに前記投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付ける投影実行受付手順と、投影実行入力がされた際に、前記3次元オブジェクトの何れの位置に前記投影画像が投影されたかを特定し、前記投影画像の情報と投影位置の情報を前記3次元オブジェクト情報に関連付けて登録する投影画像情報登録手順と、前記投影画像が投影された3次元オブジェクトが前記ユーザ端末の撮影手段によって撮影された場合に、前記ユーザ端末の表示手段に映る前記3次元オブジェクトに対して前記投影画像を重畳表示する投影画像重畳表示手順とを含むことを特徴とする。
非限定的な観点によると、本発明の一実施形態に係るユーザ端末は、複数の3次元オブジェクト情報を格納したサーバ装置と、撮影手段及び表示手段を備えた1以上のユーザ端末とを含むAR空間画像投影システムにおけるユーザ端末であって、深度マップ取得手段によって前記撮影手段によって撮影される範囲の深度マップを取得する深度マップ取得部と、3次元オブジェクト特定手段を利用して前記撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定する3次元オブジェクト特定部と、投影画像の指定を受付ける投影画像指定受付部と、前記撮影手段によって撮影される前記3次元オブジェクトに前記投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付ける投影実行受付部と、投影実行入力がされた際に、前記3次元オブジェクトの何れの位置に前記投影画像が投影されたかを特定し、前記投影画像の情報と投影位置の情報を前記3次元オブジェクト情報に関連付けて登録するように前記サーバ装置に対して送信する投影画像情報送信部と、前記投影画像が投影された3次元オブジェクトが撮影手段によって撮影された場合に、前記サーバ装置から投影画像情報を取得して表示手段に映る前記3次元オブジェクトに対して前記投影画像を重畳表示する投影画像重畳表示部とを備えることを特徴とする。
本願の各実施形態により1または2以上の不足が解決される。
本発明の実施形態の少なくとも一つに対応するAR空間画像投影システムの構成の例を示すブロック図である。 本発明の実施形態の少なくとも一つに対応するサーバ装置の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応するユーザ端末の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応するAR空間画像投影システムにおける画像投影の概念を説明するための説明図である。 本発明の実施形態の少なくとも一つに対応するAR空間画像投影システムにおける画像投影の概念を説明するための説明図である。 本発明の実施形態の少なくとも一つに対応するAR空間画像投影システムにおける画像投影の概念を説明するための説明図である。 本発明の実施形態の少なくとも一つに対応する投影画像登録処理の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する投影画像重畳表示処理の例を示すフローチャートである。
以下、本発明の実施形態の例について図面を参照して説明する。なお、以下で説明する各実施形態の例における各種構成要素は、矛盾等が生じない範囲で適宜組み合わせ可能である。また、ある実施形態の例として説明した内容については、他の実施形態においてその説明を省略している場合がある。また、各実施形態の特徴部分に関係しない動作や処理については、その内容を省略している場合がある。さらに、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。
[第1の実施形態]
図1は、本発明の一実施の形態におけるAR空間画像投影システム100の構成の例を示すブロック図である。図1に示すように、AR空間画像投影システム100は、サーバ装置10と、AR空間画像投影システムのユーザが使用するユーザ端末201~20n(nは任意の整数)とを含む。なお、AR空間画像投影システム100の構成はこれに限定されず、単一のユーザ端末を複数のユーザが使用する構成としてもよいし、複数のサーバ装置を備える構成としてもよい。
サーバ装置10と複数のユーザ端末201~20nは、それぞれインターネットなどの通信ネットワーク30に接続されている。なお、図示しないが、複数のユーザ端末201~20nは、例えば、通信業者によって管理される基地局と無線通信回線によるデータ通信を行うことによって、通信ネットワーク30と接続する。
AR空間画像投影システム100は、サーバ装置10と複数のユーザ端末201~20nとを備えることにより、ユーザの操作に応じて各種処理を実行するための各種機能を実現する。
サーバ装置10は、AR空間画像投影システム100の管理者によって管理され、複数のユーザ端末201~20nに対して各種処理に関する情報を提供するための各種機能を有する。本例において、サーバ装置10は、WWWサーバなどの情報処理装置によって構成され、各種情報を格納する記憶媒体を備える。なお、サーバ装置10は、制御部や通信部などコンピュータとして各種処理を行うための一般的な構成を備えるが、ここでの説明は省略する。また、AR空間画像投影システム100においては、複数のユーザ端末201~20nそれぞれにかかる処理負荷を軽減させるといった観点から、各種情報はサーバ装置10が管理することが好ましい。ただし、各種情報を記憶する記憶部は、サーバ装置10がアクセス可能な状態で記憶領域を備えていればよく、例えば専用の記憶領域をサーバ装置10の外部に有する構成とされていてもよい。
複数のユーザ端末201~20nは、それぞれ、ユーザによって管理され、例えば携帯電話端末やPDA(Personal Digital Assistants)などの通信端末が挙げられ、ユーザが動画及び/又は静止画の撮影を行うためのカメラ装置を搭載しており、かつ、撮影画像データ等を表示するためのディスプレイを備えた構成である必要がある。ユーザ端末の構成の他の例には、スマートウォッチなどの所謂ウェアラブルデバイスや、ウェアラブルデバイスと通信端末等との組み合わせがある。また、カメラ装置は、光学式カメラの他、3次元カメラ装置を併用するものであってもよい。また、ユーザ端末201~20nは、描画情報を入力するためのマウス、タッチパネル、タッチペン等の入力手段を備えている。
また、複数のユーザ端末201~20nは、それぞれ、通信ネットワーク30に接続し、サーバ装置10との通信を行うことにより各種処理を実行するためのハードウェアおよびソフトウェアを備える。なお、複数のユーザ端末201~20nそれぞれは、サーバ装置10を介さずに互いに直接通信を行うこともできる構成とされていてもよい。
情報処理を行う過程においては、サーバ装置10は適宜ユーザ端末201~20nに対して処理過程を送信するものとし、ユーザ端末201~20n側では、受信した処理過程の内容に基づいた画面内容を表示装置の表示画面に表示させるものとする。画面内容の生成は、サーバ装置10側で行ってもよいし、ユーザ端末201~20n側で行ってもよい。
図2は、本発明の実施形態の少なくとも一つに対応するサーバ装置10の構成を示すブロック図である。図2に示すように、サーバ装置10は、記憶部11と、3次元オブジェクト特定手段12と、投影画像登録部13とを備える。
記憶部11は、AR空間画像投影システム100において画像投影の対象となる3次元オブジェクト情報を格納する機能を有する。ここで、3次元オブジェクトとは、AR空間画像投影システム100において、3次元形状、サイズ、姿勢状態、ビル等の固定物の場合には位置情報などを把握可能に登録したオブジェクトのことをいう。この記憶部11では、3次元オブジェクト情報として、3次元オブジェクト毎に3次元形状、サイズ、姿勢状態、ビル等の固定物の場合には位置情報などを3次元オブジェクト情報として記憶させる。また、後述する投影画像情報についても、3次元オブジェクト情報として記憶させる。
3次元オブジェクト特定手段12は、3次元オブジェクトを特定する機能を有する。後述するユーザ端末20の撮影手段において撮影された3次元オブジェクトに対して投影画像が投影されたことを関連付けて記憶させるためには、3次元オブジェクトを一意に特定し、かつ姿勢状態も一意に特定する必要がある。そこで、ユーザ端末20からの問い合わせに対して3次元オブジェクト特定手段12において3次元オブジェクトを特定して、特定結果をユーザ端末20に対して送信する。3次元オブジェクトを特定することができればどのような手段であってもよい。例えば、立方体の場合には、当該立方体を他の立方体と区別して認識する必要があり、また、同じサイズの6面で構成されるので6面を区別して認識するための構成が必要となる。この場合、例えば、立方体を区別するための識別コードと6面を区別するための識別コードを、どの方向から撮影されても姿勢状態を把握可能なように配置することが考えられる。ユーザ端末20で読み取った識別コードを用いてこの3次元オブジェクト特定手段12において立方体の特定及び姿勢状態の特定を行って、現在ユーザ端末20の撮影手段によって撮影されている範囲に写っている立方体の面を特定することができる。また、識別コードに限らず、ARマーカーのように一意に立方体及び面を特定可能なマーカーを用いることも可能である。なお、3次元オブジェクト特定手段12は、ユーザ端末20が備えるようにしてもよい。
投影画像登録部13は、ユーザ端末20において投影画像の投影が実行された場合に、3次元オブジェクトの何れの位置にどのような投影画像が投影されたかの情報である投影画像情報を3次元オブジェクト情報に関連付けて登録する機能を有する。サーバ装置10は、記憶部11に3次元オブジェクト情報を格納しており、ユーザ端末20から投影画像情報が送信されてきた際に、3次元オブジェクト情報と投影画像情報を関連付けて登録して記憶させる。
図3は、本発明の実施形態の少なくとも一つに対応するユーザ端末20の構成を示すブロック図である。図3に示すように、ユーザ端末20は、撮影手段としてのカメラ装置21と、表示手段としてのディスプレイ22と、深度マップ取得部23と、3次元オブジェクト特定部24と、投影実行受付部25と、投影画像情報送信部26と、投影画像重畳表示部27とを備える。
カメラ装置21は、ユーザの周辺の状況を撮影する機能を有する。撮影手段としてのカメラ装置21によってユーザの周辺の状況を動画として撮影して、撮影された映像に仮想オブジェクトを重畳表示することで拡張現実(AR:Augumented Reality)をユーザに提供する。ここで、仮想オブジェクトとは、仮想空間に配置されるオブジェクトのことであり、本例においては、現実に存在する3次元オブジェクトと同一サイズの仮想3次元オブジェクトや、仮想3次元オブジェクトに重畳させて表示させる投影画像などが仮想オブジェクトに含まれる。
ディスプレイ22は、撮影手段によって撮影された映像を表示するとともに、その映像に仮想オブジェクトを重畳した表示画面を表示する機能を有する。表示手段としてのディスプレイ22を介してARを実現する。
深度マップ取得部23は、深度マップ取得手段によって前記撮影手段によって撮影される範囲の深度マップを取得する機能を有する。ここで、深度マップとは、現実空間に存在する3次元オブジェクトを含む様々な物体までの深度(距離)を網羅的に取得することで生成される深度に関するマップのことをいう。深度マップ取得手段は、深度マップを取得することが出来ればどのような手段であってもよい。一例としては、レーザ光などの光を使ったTOF(time-of-flight)方式による深度取得、2つのカメラを用いたステレオカメラによる深度取得、1つのカメラで取得した映像の異なる2以上のフレームを用いた深度取得などが挙げられる。具体的には、カメラ装置21によって撮影される範囲に映り込む3次元オブジェクトまでの深度を、この深度マップ取得部23によって取得する。
3次元オブジェクト特定部24は、3次元オブジェクト特定手段12を利用して撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定する機能を有する。前述の通り、3次元オブジェクト特定手段12によって3次元オブジェクトを特定するが、撮影映像の範囲に映る3次元オブジェクトを照会する処理をこの3次元オブジェクト特定部24において行う必要がある。3次元オブジェクトの照会は、例えば、撮影映像に映る識別コード若しくはARマーカーによって行われる。また、ビル等の不動産や固定物が3次元オブジェクトである場合には、ユーザ端末20の位置情報と撮影方向の情報とで3次元オブジェクトを特定できる可能性があるので、ユーザ端末20の位置情報と撮影方向の情報とで3次元オブジェクトの照会を行うこともあり得る。照会の結果、サーバ装置10の3次元オブジェクト特定手段12において3次元オブジェクトを一意に特定できた場合には、サーバ装置10はユーザ端末20に対して特定した3次元オブジェクトの情報を送信し、3次元オブジェクト特定部24において3次元オブジェクトを特定する。
投影実行受付部25は、撮影手段によって撮影される3次元オブジェクトに投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付ける機能を有するユーザが投影画像を選択して表示手段としてのディスプレイ22に表示させた状態にてカメラ装置21によって撮影を行うモードとなる。カメラ装置21の撮影映像には撮影範囲に存在する3次元オブジェクトが映り込む状況が生じる。すなわち、3次元オブジェクトに投影画像が重畳表示されることになる。このような状況において、ユーザが撮影方向を変えたり、ズーム機能によって3次元オブジェクトまでの遠近を調整したり、投影画像の表示サイズを調整したりすることで、3次元オブジェクトの任意の箇所に任意の大きさの投影画像が重畳表示された状況となるようにユーザが調整を行う。調整が完了した状況において、ユーザが投影実行入力を行うことで投影実行入力が受付けられる。投影実行入力は、例えば、表示画面上の投影画像をタップするといった入力が考えられる。
投影画像情報送信部26は、投影実行入力がされた際に、3次元オブジェクトの何れの位置に投影画像が投影されたかを特定し、投影画像の情報と投影位置の情報を3次元オブジェクト情報に関連付けて登録可能なようにサーバ装置10に対して送信する機能を有する。投影画像の投影は予め定めた方式に基づいて実行される。例えば、表示画面上の重畳関係をそのまま維持して投影前と投影後で撮影映像上の見た目が同じとなるように3次元オブジェクトに対して投影画像を貼り付ける処理が考えられる。また、投影画像が2以上のオブジェクトにまたがって投影されている場合には、投影画像を分割してそれぞれのオブジェクトに対して対応する箇所の画像を貼り付けるように処理を行う。投影画像の分割は、深度マップにおける深度が変化する境界箇所を分割箇所として抽出するといった処理が考えられる。また、3次元オブジェクトの投影される面がカメラ装置21に対して正対せずに角度がついている場合には、投影画像は手前側と奥側とで異なる距離の位置に投影されることになるので、正確に投影すると、当該投影面を正面から見たときには歪んだ画像となる投影画像が貼り付けられることになる。このように、投影時の投影角度から見たときのみ正常なアスペクト比となるように投影するようにしてもよいし、面に対して正面から貼り付けるように投影するものであってもよい。
また、3次元オブジェクトに対して投影画像がどのように投影されたかを特定する手段はどのようなものであってもよいが、例えば、現実の3次元オブジェクトに対して仮想3次元オブジェクトモデルが重なるように配置して、仮想3次元オブジェクトモデルに対する投影画像の投影として特定するようにしてもよい。
投影画像重畳表示部27は、投影画像が投影された3次元オブジェクトがユーザ端末20の撮影手段によって撮影された場合に、ユーザ端末20の表示手段に映る3次元オブジェクトに対して投影画像を重畳させて表示させる機能を有する。サーバ装置10において3次元オブジェクト情報と投影画像情報とを関連付けて記憶させているので、ユーザ端末20の撮影手段によって3次元オブジェクトが撮影された場合に、当該3次元オブジェクトについてサーバ装置10に照会を行うことで、投影画像情報が関連付けられているか否かを特定することができ、投影画像情報が関連付けられている場合には、ユーザ端末20において投影画像情報を取得して、表示手段としてのディスプレイ22に映る3次元オブジェクトに対して関連付けられていた投影画像を重畳させて表示させる。これは、関連付けを行ったユーザ端末20に限らず他のユーザ端末20においても、投影画像情報が関連付けられている場合には重畳表示させる。これにより、投影画像を他のユーザと共有することが可能となる。
図4乃至図6は、本発明の実施形態の少なくとも一つに対応するAR空間画像投影システムにおける画像投影の概念を説明するための説明図である。AR空間画像投影システム100を利用して画像投影を行う場合、先ず、ユーザが、図4(a)に示すような投影画像Iを選択する。次に、図4(b)に示すように、ユーザの近傍に3次元オブジェクトA及びBが現に存在するとする。このとき、ユーザが、AR空間画像投影システム100を利用して画像投影を行うためには、ユーザは、AR空間画像投影システム100を利用するための専用アプリケーションを用いるなどして、カメラ装置21によって3次元オブジェクトA及びBを撮影するとともに、投影画像Iを表示画面に重畳表示させて、投影実行入力を行える状況を作る。図4(c)は、投影実行入力を行う際の様子を表した一例である。
図4(c)の状況で投影が実行されると、投影画像Iは、2つの3次元オブジェクトA及びBにまたがって投影されることになる。このとき、図5(a)に示すように、ユーザ端末20から3次元オブジェクトA及びBまでの深度がそれぞれ異なるので、図5(c)に示すように、2つの3次元オブジェクトAとBの境界箇所においては深度が大きく変化することになるので、この深度が大きく変化する境界線をもって投影画像Iを2つに分割する。分割して投影を実行すると、図5(c)に示すように、3次元オブジェクトAに対して投影される投影画像Iと3次元オブジェクトBに対して投影される投影画像Iとがそれぞれ投影される。
図6(a)は、3次元オブジェクトA及びBのそれぞれに対して投影が完了した状態を表している。投影が完了した場合には、図6(b)に示すように、3次元オブジェクトAとBの位置関係を変化させたとしても、3次元オブジェクトA及びBそれぞれの姿勢状態を把握可能であれば、投影画像も常に最初の投影位置に投影された状態を維持したままとなる。このような構成を利用することで、図6(c)に示すように、AR空間での画像投影の正しい位置関係を探すパズルゲームとしても利用することができる。また、このとき、ユーザ端末20と3次元オブジェクトA及びBとの投影時の相対的位置関係も併せて投影画像情報としてサーバ装置10において登録するようにすれば、投影実行した際の相対的位置関係を当てることもゲームの一部として採用することができる。
次に、本例のAR空間画像投影システム100において行われる投影画像登録処理の流れについて説明を行う。図7は、本発明の実施形態の少なくとも一つに対応する投影画像登録処理の例を示すフローチャートである。以下、サーバ装置10とユーザ端末20とが、投影画像登録処理を実行する場合を例にして説明する。
図7に示すように、投影画像登録処理は、先ず、ユーザ端末20が深度マップを取得することで開始される(ステップS11)。次に、ユーザ端末20は、カメラ装置21によって撮影する撮影映像に映る3次元オブジェクトを抽出してサーバ装置10に対して照会処理を実行する(ステップS12)。サーバ装置10は、照会の際に与えられた情報を用いて3次元オブジェクトの特定を行い、特定結果をユーザ端末20に対して送信する。(ステップS13)。次に、ユーザ端末20は、ユーザによる投影画像の指定を受付け、撮影画像を表示する表示画面に投影画像を重畳表示させる(ステップS14)。そして、ユーザ端末20は、ユーザによる投影実行入力を受付ける(ステップS15)。投影が実行されると、3次元オブジェクトに対する投影画像の投影位置が確定するので、この投影位置の情報等を投影画像自体の内容の情報と併せて投影画像情報として登録するためにサーバ装置10に送信する(ステップS16)。サーバ装置10は、投影画像の内容と投影位置の情報を投影画像情報として3次元オブジェクト情報と関連付けて登録して記憶させ(ステップS17)、投影画像登録処理を終了する。
次に、本例のAR空間画像投影システム100において行われる投影画像重畳表示処理の流れについて説明を行う。図8は、本発明の実施形態の少なくとも一つに対応する投影画像重畳表示処理の例を示すフローチャートである。以下、サーバ装置10とユーザ端末20とが、投影画像登録処理を実行する場合を例にして説明する。
図8に示すように、投影画像重畳表示処理は、先ず、ユーザ端末20が深度マップを取得することで開始される(ステップS21)。次に、ユーザ端末20は、カメラ装置21によって撮影する撮影映像に映る3次元オブジェクトを抽出してサーバ装置10に対して照会処理を実行する(ステップS22)。サーバ装置10は、照会の際に与えられた情報を用いて3次元オブジェクトの特定を行い、特定結果をユーザ端末20に対して送信する(ステップS23)。また、特定した3次元オブジェクトに対して投影画像情報が関連付けて登録されている場合には、サーバ装置10は、関連付けて登録されている投影画像情報をユーザ端末20に対して送信する(ステップS24)。ユーザ端末20は、現在の3次元オブジェクトの姿勢状態を特定し、現在の姿勢状態において投影画像が投影された箇所が表示範囲に含まれるか否かを判定して、含まれる場合には、投影画像を3次元オブジェクトの投影位置に対して重畳表示させ(ステップS25)、投影画像重畳表示処理を終了する。
以上のように、本例のAR空間画像投影システム100によれば、深度マップ取得手段によって撮影手段によって撮影される範囲の深度マップを取得し、3次元オブジェクト特定手段を利用して撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定し、投影画像の指定を受付け、撮影手段によって撮影される3次元オブジェクトに投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付け、投影実行入力がされた際に、3次元オブジェクトの何れの位置に投影画像が投影されたかを特定し、投影画像の情報と投影位置の情報を3次元オブジェクト情報に関連付けて登録し、投影画像が投影された3次元オブジェクトがユーザ端末の撮影手段によって撮影された場合に、ユーザ端末の表示手段に映る3次元オブジェクトに対して投影画像を重畳表示するようにしたので、現実世界に配置された実在のオブジェクトに対してユーザ端末から仮想的に投影された投影画像を拡張現実技術によって複数のユーザと共有可能となる。
以上に説明したように、本願の各実施形態により1または2以上の不足が解決される。なお、夫々の実施形態による効果は、非限定的な効果または効果の一例である。
100 AR空間画像投影システム
10 サーバ装置
11 記憶部
12 3次元オブジェクト特定手段
13 投影画像登録部
20、201~20n ユーザ端末
21 カメラ装置
22 ディスプレイ
23 深度マップ取得部
24 3次元オブジェクト特定部
25 投影実行受付部
26 投影画像情報送信部
27 投影画像重畳表示部
30 通信ネットワーク

Claims (4)

  1. 複数の3次元オブジェクト情報を格納したサーバ装置と、撮影手段及び表示手段を備えた1以上のユーザ端末とを含むAR空間画像投影システムであって、
    深度マップ取得手段によって前記撮影手段によって撮影される範囲の深度マップを取得する深度マップ取得部と、
    3次元オブジェクト特定手段を利用して前記撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定する3次元オブジェクト特定部と、
    投影画像の指定を受付ける投影画像指定受付部と、
    前記撮影手段によって撮影された撮影画像に写る前記3次元オブジェクトに前記投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付ける投影実行受付部と、
    投影実行入力がされた際に、前記撮影画像に写る前記3次元オブジェクトと前記投影画像との位置関係及び前記深度マップに基づいて前記3次元オブジェクトの何れの位置に前記投影画像が投影されたかを特定し、前記投影画像の情報と投影位置の情報を前記3次元オブジェクト情報に関連付けて前記サーバ装置に対して登録する投影画像情報登録部と、
    前記投影画像が投影された3次元オブジェクトが少なくとも1以上の前記ユーザ端末の撮影手段によって撮影された場合に、前記サーバ装置に登録されている前記投影画像の情報及び前記投影位置の情報に基づいて、少なくとも1以上の前記ユーザ端末の表示手段に映る前記3次元オブジェクトに対して前記投影画像を重畳表示する投影画像重畳表示部とを備え、
    前記投影画像情報登録部は、前記深度マップの深度が所定値以上変化する境界個所と前記投影画像の投影個所が重なる場合、当該境界個所で前記投影画像を分割した上でそれぞれ前記3次元オブジェクト情報に関連付けて登録する
    R空間画像投影システム。
  2. 前記投影画像情報登録部は、投影実行時のユーザ端末と3次元オブジェクトとの相対的位置関係についても投影画像情報として登録する
    請求項1記載のAR空間画像投影システム。
  3. 複数の3次元オブジェクト情報を格納したサーバ装置と、撮影手段及び表示手段を備えた1以上のユーザ端末とを用いたAR空間画像投影方法であって、
    深度マップ取得手段によって前記撮影手段によって撮影される範囲の深度マップを取得する深度マップ取得手順と、
    3次元オブジェクト特定手段を利用して前記撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定する3次元オブジェクト特定手順と、
    投影画像の指定を受付ける投影画像指定受付手順と、
    前記撮影手段によって撮影された撮影画像に写る前記3次元オブジェクトに前記投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付ける投影実行受付手順と、
    投影実行入力がされた際に、前記撮影画像に写る前記3次元オブジェクトと前記投影画像との位置関係及び前記深度マップに基づいて前記3次元オブジェクトの何れの位置に前記投影画像が投影されたかを特定し、前記投影画像の情報と投影位置の情報を前記3次元オブジェクト情報に関連付けて前記サーバ装置に対して登録する投影画像情報登録手順と、
    前記投影画像が投影された3次元オブジェクトが少なくとも1以上の前記ユーザ端末の撮影手段によって撮影された場合に、前記サーバ装置に登録されている前記投影画像の情報及び前記投影位置の情報に基づいて、少なくとも1以上の前記ユーザ端末の表示手段に映る前記3次元オブジェクトに対して前記投影画像を重畳表示する投影画像重畳表示手順とを含み、
    前記投影画像情報登録手順では、前記深度マップの深度が所定値以上変化する境界個所と前記投影画像の投影個所が重なる場合、当該境界個所で前記投影画像を分割した上でそれぞれ前記3次元オブジェクト情報に関連付けて登録する
    R空間画像投影方法。
  4. 複数の3次元オブジェクト情報を格納したサーバ装置と、撮影手段及び表示手段を備えた1以上のユーザ端末とを含むAR空間画像投影システムにおけるユーザ端末であって、
    深度マップ取得手段によって前記撮影手段によって撮影される範囲の深度マップを取得する深度マップ取得部と、
    3次元オブジェクト特定手段を利用して前記撮影手段によって撮影される範囲に存在する少なくとも1以上の3次元オブジェクトを特定する3次元オブジェクト特定部と、
    投影画像の指定を受付ける投影画像指定受付部と、
    前記撮影手段によって撮影された撮影画像に写る前記3次元オブジェクトに前記投影画像を重畳表示させて表示手段に表示させた状態にて投影実行入力を受付ける投影実行受付部と、
    投影実行入力がされた際に、前記撮影画像に写る前記3次元オブジェクトと前記投影画像との位置関係及び前記深度マップに基づいて前記3次元オブジェクトの何れの位置に前記投影画像が投影されたかを特定し、前記投影画像の情報と投影位置の情報を前記3次元オブジェクト情報に関連付けて登録するように前記サーバ装置に対して送信する投影画像情報送信部と、
    前記投影画像が投影された3次元オブジェクトが少なくとも1以上の前記ユーザ端末の撮影手段によって撮影された場合に、前記サーバ装置に登録されている前記投影画像の情報及び前記投影位置の情報に基づいて、少なくとも1以上の前記ユーザ端末の表示手段に映る前記3次元オブジェクトに対して前記投影画像を重畳表示する投影画像重畳表示部とを備え、
    前記投影画像情報送信部は、前記深度マップの深度が所定値以上変化する境界個所と前記投影画像の投影個所が重なる場合、当該境界個所で前記投影画像を分割した上でそれぞれ前記3次元オブジェクト情報に関連付けて登録するように前記サーバ装置に対して送信する
    ーザ端末。
JP2019079878A 2019-04-19 2019-04-19 Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末 Active JP7225016B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019079878A JP7225016B2 (ja) 2019-04-19 2019-04-19 Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
US16/851,310 US11238658B2 (en) 2019-04-19 2020-04-17 AR space image projecting system, AR space image projecting method, and user terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019079878A JP7225016B2 (ja) 2019-04-19 2019-04-19 Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末

Publications (2)

Publication Number Publication Date
JP2020177490A JP2020177490A (ja) 2020-10-29
JP7225016B2 true JP7225016B2 (ja) 2023-02-20

Family

ID=72832701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019079878A Active JP7225016B2 (ja) 2019-04-19 2019-04-19 Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末

Country Status (2)

Country Link
US (1) US11238658B2 (ja)
JP (1) JP7225016B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7225016B2 (ja) * 2019-04-19 2023-02-20 株式会社スクウェア・エニックス Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193471A (ja) 2008-02-15 2009-08-27 Osaka Univ 表示制御装置、表示処理装置、アプリケーションサーバ、表示制御方法、表示処理方法、アプリケーション実行方法、制御プログラム、および、記録媒体
JP2011227644A (ja) 2010-04-19 2011-11-10 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013164696A (ja) 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20150042640A1 (en) 2013-08-07 2015-02-12 Cherif Atia Algreatly Floating 3d image in midair
JP2016184295A (ja) 2015-03-26 2016-10-20 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
JP2016200920A (ja) 2015-04-09 2016-12-01 セイコーエプソン株式会社 情報処理装置、画像表示装置、情報処理装置および画像表示装置の制御方法、および、コンピュータープログラム
JP2018142090A (ja) 2017-02-27 2018-09-13 Kddi株式会社 キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203175A (ja) 2013-04-02 2014-10-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム。
US9761049B2 (en) * 2014-03-28 2017-09-12 Intel Corporation Determination of mobile display position and orientation using micropower impulse radar
US9947139B2 (en) * 2014-06-20 2018-04-17 Sony Interactive Entertainment America Llc Method and apparatus for providing hybrid reality environment
JP7225016B2 (ja) * 2019-04-19 2023-02-20 株式会社スクウェア・エニックス Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193471A (ja) 2008-02-15 2009-08-27 Osaka Univ 表示制御装置、表示処理装置、アプリケーションサーバ、表示制御方法、表示処理方法、アプリケーション実行方法、制御プログラム、および、記録媒体
JP2011227644A (ja) 2010-04-19 2011-11-10 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013164696A (ja) 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20150042640A1 (en) 2013-08-07 2015-02-12 Cherif Atia Algreatly Floating 3d image in midair
JP2016184295A (ja) 2015-03-26 2016-10-20 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
JP2016200920A (ja) 2015-04-09 2016-12-01 セイコーエプソン株式会社 情報処理装置、画像表示装置、情報処理装置および画像表示装置の制御方法、および、コンピュータープログラム
JP2018142090A (ja) 2017-02-27 2018-09-13 Kddi株式会社 キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム

Also Published As

Publication number Publication date
US11238658B2 (en) 2022-02-01
JP2020177490A (ja) 2020-10-29
US20200334910A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
CN106550182B (zh) 共享式无人机观景系统
US11089266B2 (en) Communication processing method, terminal, and storage medium
TWI675351B (zh) 基於擴增實境的使用者位置定位方法及裝置
CN108932051B (zh) 增强现实图像处理方法、装置及存储介质
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
US9727298B2 (en) Device and method for allocating data based on an arrangement of elements in an image
US20110158509A1 (en) Image stitching method and apparatus
US9392248B2 (en) Dynamic POV composite 3D video system
KR101600038B1 (ko) 소셜 증강현실 서비스 시스템 및 방법
US20190289203A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10922042B2 (en) System for sharing virtual content and method for displaying virtual content
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
JP2019179382A (ja) 情報処理プログラム、情報処理方法及び情報処理システム
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
WO2022166868A1 (zh) 漫游视图的生成方法、装置、设备和存储介质
CN111226255A (zh) 图像处理设备,图像捕获系统,图像处理方法和记录介质
WO2022180459A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
WO2013145820A1 (ja) 撮影装置、方法、記憶媒体及びプログラム
JP7225016B2 (ja) Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
CN112767248B (zh) 红外相机图片拼接方法、装置、设备及可读存储介质
KR102534449B1 (ko) 이미지 처리 방법, 장치, 전자 장치 및 컴퓨터 판독 가능 저장 매체
CN117115244A (zh) 云端重定位方法、装置及存储介质
WO2021147749A1 (zh) 实现3d显示的方法、装置及3d显示系统
CN111242107B (zh) 用于设置空间中的虚拟对象的方法和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R150 Certificate of patent or registration of utility model

Ref document number: 7225016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150