JP2019179382A - 情報処理プログラム、情報処理方法及び情報処理システム - Google Patents

情報処理プログラム、情報処理方法及び情報処理システム Download PDF

Info

Publication number
JP2019179382A
JP2019179382A JP2018068055A JP2018068055A JP2019179382A JP 2019179382 A JP2019179382 A JP 2019179382A JP 2018068055 A JP2018068055 A JP 2018068055A JP 2018068055 A JP2018068055 A JP 2018068055A JP 2019179382 A JP2019179382 A JP 2019179382A
Authority
JP
Japan
Prior art keywords
information
image data
target object
terminal device
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018068055A
Other languages
English (en)
Other versions
JP7209474B2 (ja
Inventor
レミ ドリアンクール
Driancourt Remi
レミ ドリアンクール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2018068055A priority Critical patent/JP7209474B2/ja
Priority to US16/367,737 priority patent/US10825252B2/en
Priority to EP19165855.8A priority patent/EP3547083B1/en
Publication of JP2019179382A publication Critical patent/JP2019179382A/ja
Priority to US17/034,966 priority patent/US11328490B2/en
Application granted granted Critical
Publication of JP7209474B2 publication Critical patent/JP7209474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】現実世界において固定的に配置された実在のオブジェクトに対する仮想的処理を拡張現実技術によって複数のユーザで共有すること。【解決手段】端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させるために、端末装置の位置情報を取得し、端末装置で撮影された撮影画像データを取得し、撮影画像データに含まれる対象オブジェクトを特定し、ユーザによる対象オブジェクトに対する描画処理の内容を表した描画情報を取得し、描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに描画情報を重畳させて表示するための重畳情報を出力するようにした。【選択図】図2

Description

本発明の実施形態の少なくとも1つは、現実世界において固定的に配置された実在のオブジェクトに対する仮想的処理を拡張現実技術によって複数のユーザで共有するための情報処理プログラム、情報処理方法及び情報処理システムに関する。
近年、拡張現実(AR:Augumented Reality)技術が提供され始めている。拡張現実は、現実空間の画像に対して平面や立体のオブジェクトを重畳表示することで現実空間に仮想オブジェクトを表示する技術である。
また、拡張現実技術によって表示させるオブジェクトを複数のユーザで共有する技術も提案されている。複数のユーザで仮想的なオブジェクトを共有するものとしては、例えば、特許文献1が挙げられる。この特許文献1には、複数のユーザで共有したいオブジェクトについて共有ユーザの全員に見えやすい適切な位置を決定するための技術が開示されている。
特開2014−203175号公報
特許文献1に記載の情報処理装置は、複数のユーザの全員が見やすい位置に仮想的なオブジェクトを配置することを特徴とするものであるが、現実世界において固定的に配置された実在のオブジェクトに対する仮想的処理を複数のユーザで共有する技術については開示されていない。
本発明の少なくとも1つの実施形態の目的は、現実世界において固定的に配置された実在のオブジェクトに対する仮想的処理を拡張現実技術によって複数のユーザで共有するための情報処理プログラム、情報処理方法及び情報処理システムを提供することである。
非限定的な観点によると、本発明の一実施形態に係る情報処理プログラムは、端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させる機能をサーバ装置に実現させるための情報処理プログラムであって、前記サーバ装置に、前記端末装置の位置情報を取得する端末位置情報取得機能と、前記端末装置で撮影された撮影画像データを取得する撮影画像データ取得機能と、前記撮影画像データに含まれる対象オブジェクトを特定する対象オブジェクト特定機能と、ユーザによる前記対象オブジェクトに対する描画処理の内容を表した描画情報を取得する描画情報取得機能と、前記描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに前記描画情報を重畳させて表示するための重畳情報を出力する重畳情報出力機能とを実現させることを特徴とする。
非限定的な観点によると、本発明の一実施形態に係る情報処理方法は、端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させるための情報処理方法であって、前記端末装置の位置情報を取得する端末位置情報取得手順と、前記端末装置で撮影された撮影画像データを取得する撮影画像データ取得手順と、前記撮影画像データに含まれる対象オブジェクトを特定する対象オブジェクト特定手順と、ユーザによる前記対象オブジェクトに対する描画処理の内容を表した描画情報を取得する描画情報取得手順と、前記描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに前記描画情報を重畳させて表示するための重畳情報を出力する重畳情報出力手順とを含むことを特徴とする。
非限定的な観点によると、本発明の一実施形態に係る情報処理システムは、通信ネットワークと、サーバ装置と、少なくとも1以上の端末装置とを備え、端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させる機能を制御する情報処理システムであって、前記端末装置の位置情報を取得する端末位置情報取得手段と、前記端末装置で撮影された撮影画像データを取得する撮影画像データ取得手段と、前記撮影画像データに含まれる対象オブジェクトを特定する対象オブジェクト特定手段と、ユーザによる前記対象オブジェクトに対する描画処理の内容を表した描画情報を取得する描画情報取得手段と、前記描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに前記描画情報を重畳させて表示するための重畳情報を出力する重畳情報出力手段とをとを含むことを特徴とする。
本願の各実施形態により1または2以上の不足が解決される。
本発明の実施形態の少なくとも一つに対応する情報処理システムの構成の例を示すブロック図である。 本発明の実施形態の少なくとも一つに対応するサーバ装置の構成を示すブロック図である。 本発明の実施形態の少なくとも一つに対応する情報処理システムを利用した複数ユーザによるAR空間の共有の概念を表した説明図である。 本発明の実施形態の少なくとも一つに対応する情報処理の例を示すフローチャートである。 本発明の実施形態の少なくとも一つに対応する情報処理におけるサーバ装置側の動作の例を示すフローチャートである。
以下、本発明の実施形態の例について図面を参照して説明する。なお、以下で説明する各実施形態の例における各種構成要素は、矛盾等が生じない範囲で適宜組み合わせ可能である。また、ある実施形態の例として説明した内容については、他の実施形態においてその説明を省略している場合がある。また、各実施形態の特徴部分に関係しない動作や処理については、その内容を省略している場合がある。さらに、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。
[第1の実施形態]
図1は、本発明の一実施の形態における情報処理システム100の構成の例を示すブロック図である。図1に示すように、情報処理システム100は、サーバ装置10と、情報処理システムのユーザが使用する端末装置201〜20n(nは任意の整数)とを含む。なお、情報処理システム100の構成はこれに限定されず、単一の端末装置を複数のユーザが使用する構成としてもよいし、複数のサーバ装置を備える構成としてもよい。
サーバ装置10と複数の端末装置201〜20nは、それぞれインターネットなどの通信ネットワーク30に接続されている。なお、図示しないが、複数の端末装置201〜20nは、例えば、通信業者によって管理される基地局と無線通信回線によるデータ通信を行うことによって、通信ネットワーク30と接続する。
情報処理システム100は、サーバ装置10と複数の端末装置201〜20nとを備えることにより、ユーザの操作に応じて各種処理を実行するための各種機能を実現する。
サーバ装置10は、情報処理システム100の管理者によって管理され、複数の端末装置201〜20nに対して各種処理に関する情報を提供するための各種機能を有する。本例において、サーバ装置10は、WWWサーバなどの情報処理装置によって構成され、各種情報を格納する記憶媒体を備える。なお、サーバ装置10は、制御部や通信部などコンピュータとして各種処理を行うための一般的な構成を備えるが、ここでの説明は省略する。また、情報処理システム100においては、複数の端末装置201〜20nそれぞれにかかる処理負荷を軽減させるといった観点から、各種情報はサーバ装置10が管理することが好ましい。ただし、各種情報を記憶する記憶部は、サーバ装置10がアクセス可能な状態で記憶領域を備えていればよく、例えば専用の記憶領域をサーバ装置10の外部に有する構成とされていてもよい。
複数の端末装置201〜20nは、それぞれ、ユーザによって管理され、例えば携帯電話端末やPDA(Personal Digital Assistants)などの通信端末が挙げられ、ユーザが動画及び/又は静止画の撮影を行うためのカメラ装置を搭載しており、かつ、撮影画像データ等を表示するためのディスプレイを備えた構成である必要がある。端末装置の構成の他の例には、スマートウォッチなどの所謂ウェアラブルデバイスや、ウェアラブルデバイスと通信端末等との組み合わせがある。また、カメラ装置は、光学式カメラの他、3次元カメラ装置を併用するものであってもよい。また、端末装置201〜20nは、描画情報を入力するためのマウス、タッチパネル、タッチペン等の入力手段を備えている。
また、複数の端末装置201〜20nは、それぞれ、通信ネットワーク30に接続し、サーバ装置10との通信を行うことにより各種処理を実行するためのハードウェアおよびソフトウェアを備える。なお、複数の端末装置201〜20nそれぞれは、サーバ装置10を介さずに互いに直接通信を行うこともできる構成とされていてもよい。
情報処理を行う過程においては、サーバ装置10は適宜端末装置201〜20nに対して処理過程を送信するものとし、端末装置201〜20n側では、受信した処理過程の内容に基づいた画面内容を表示装置の表示画面に表示させるものとする。画面内容の生成は、サーバ装置10側で行ってもよいし、端末装置201〜20n側で行ってもよい。
図2は、サーバ装置10の構成を示すブロック図である。図2に示すように、サーバ装置10は、端末位置情報取得部11と、撮影画像データ取得部12と、対象オブジェクト特定部13と、描画情報取得部14と、描画情報重畳表示処理部15と、記憶部16とを少なくとも備える。
端末位置情報取得部11は、端末装置20の位置情報を取得する機能を有する。位置情報を取得する手段はどのようなものであってもよい。例えば、GPS信号を用いた位置情報の取得、複数のビーコン発信機からの無線信号の受信強度情報に基づく位置情報の取得などが挙げられる。端末装置20において得た位置情報は、サーバ装置10に送信され、この端末位置情報取得部11において取得される。また、端末装置20によって撮影された映像や画像に映っている対象オブジェクトや位置情報取得のために予め設置した特殊マーカーから端末装置20の位置情報を取得するものであってもよい。対象オブジェクトや特殊マーカーがユニークであれば、その撮影角度や距離から端末装置20の位置情報を取得することが可能となる。この場合には、端末装置20で撮影した撮影画像データをサーバ装置10で取得して、サーバ装置10において端末装置20の位置情報を特定するものであってもよい。
撮影画像データ取得部12は、端末装置20で撮影された撮影画像データを取得する機能を有する。AR空間を共有しようとするユーザは、自身の端末装置20に備えられたカメラ装置によって撮影を行い、その撮影画像データをサーバ装置10に送信し、サーバ装置10では端末装置20からの撮影画像データを取得する。この撮影画像データは、静止画であってもよいし、動画であってもよい。また、端末装置20に電子コンパス機能が備えられている場合には、サーバ装置10において撮影方向の情報を併せて取得するようにしてもよい。加えて、端末装置20にジャイロセンサ等の機能が備えられている場合には、サーバ装置10において撮影角度の情報を併せて取得するようにしてもよい。これらの撮影方向の情報や撮影角度の情報を併せて取得することによって、後述する対象オブジェクト特定部13における対象オブジェクトの特定処理が容易になる。
対象オブジェクト特定部13は、撮影画像データに含まれる対象オブジェクトを特定する機能を有する。ここで、対象オブジェクトとは、ユーザによる描画処理を受付可能なオブジェクトのことをいう。屋外においては、ビル等の建造物を一つの対象オブジェクトとする場合が考えられるし、屋内においては、窓ガラス、家具、ドアなど屋内に存在する要素を一つの対象オブジェクトとする場合が考えられる。ここで、サーバ装置10は、端末装置周辺の現実空間に関する3次元モデル情報を予め記憶部16に記憶させている。3次元モデル情報は、例えば、3次元CADやBIM(Building Information Modeling)によって構築されているモデルである。すなわち、この対象オブジェクト特定部13では、撮影画像データに含まれる対象オブジェクトが、3次元モデル情報におけるどのオブジェクトと対応するかを特定する。対象オブジェクトの特定方法はどのようなものであってもよい。例えば、撮影画像データに対して画像処理を適用して画像に含まれる対象オブジェクトを特定する手法が考えられる。画像処理の結果得られた特徴箇所を3次元モデル情報と照合することで対象オブジェクトを特定するものであってもよい。また、撮影画像データ取得部12において、撮影画像データとともに撮影方向の情報や撮影角度の情報を併せて取得している場合には、端末装置20の位置情報とともに、これらの撮影方向の情報や撮影角度の情報を用いることで、撮影画像データに含まれる対象オブジェクトの候補を絞り込むことができる。対象オブジェクトとして設定している対象物が疎らにしか存在しない場合には、端末位置情報、撮影方向の情報、撮影角度の情報によって、対象オブジェクトを一意に決定することができる場合もあり得る。対象オブジェクト特定部13において対象オブジェクトを特定した場合には、撮影を行った端末装置20に対して、特定した対象オブジェクトの情報を通知する。このとき、撮影画像データに重畳させる対象オブジェクトに関する3次元モデル情報を併せて送信する。
描画情報取得部14は、ユーザによる前記対象オブジェクトに対する描画処理の内容を表した描画情報を取得する機能を有する。ここで、ユーザによる描画処理とは、AR空間におけるオブジェクトの外観に視覚的な変化を生じさせる処理全般をいう。例えば、対象オブジェクトに対して、色を塗る行為、絵を描く行為、予め作成して登録しておいたイラストやスタンプ等を貼り付ける行為、仮想的物体を貼付、設置、配置等する行為などが一例として考えられる。これらのユーザによる描画処理を、例えば、撮影画像データを映した端末装置20のディスプレイに対してマウス、タッチパネル等の入力デバイスによってユーザが操作することで描画処理を実行する。このときの描画処理の入力内容が、対象オブジェクトに関する3次元モデル情報の何れの箇所に対する入力であるかを把握する必要がある。このようにして入力された描画処理の入力内容を描画情報という。描画情報には、3次元モデル情報の何れの箇所に対する入力であるかの情報も含まれているものとする。なお、描画処理の入力が3次元モデル情報の何れの箇所に対する入力であるかの特定は、サーバ装置10の描画情報取得部14で描画情報を取得した後に行う手法であってもよい。この場合には、撮影画像データと描画情報の入力位置との関係性から3次元モデル情報の何れの箇所に対する入力であるかを特定するようにする。このようにして得られた描画情報は、3次元モデル情報と関連付けて記憶部16において記憶される。
重畳情報出力部15は、描画情報の付された対象オブジェクトを撮影する端末装置20に対して、撮影画像データに含まれる当該対象オブジェクトに前記描画情報を重畳させて表示するための重畳情報を出力する機能を有する。端末装置20によって撮影されている撮影画像データには端末の現在位置の方向から対象オブジェクトを撮影した状態が映されており、その撮影角度の際に撮影画像データに映る描画情報を少なくとも端末装置20に対して出力する必要がある。このとき端末装置20に出力される描画情報は、当該端末装置20を扱うユーザによって描画された描画情報のみならず、他の端末装置20を扱うユーザによって描画された描画情報も含まれる。
記憶部16は、各部の処理に必要な各種データや、各部における処理の結果として得られたデータを記憶させる機能を有する。具体的には、現実空間に関する3次元モデル情報を予めこの記憶部16に記憶させている。また、描画情報取得部14で取得した描画情報は、3次元モデル情報と関連付けてこの記憶部16において記憶される。
図3は、本例の情報処理システム100を利用した複数ユーザによるAR空間の共有の概念を表した説明図である。この図3において、ユーザAが右斜め前方に位置する対象オブジェクトの一例としてのビルを情報処理システム100で共有する対象と定めたとする。その際、ユーザAは、先ず、端末装置201において本例の情報処理システム100を利用するためのソフトウェアを起動させる必要がある。ソフトウェアを起動させると、端末装置201の位置情報取得手段に基づいて端末の位置情報を取得して、サーバ装置10に端末装置201の位置情報を送信する。次に、ユーザAが右斜め前方に位置する対象オブジェクトの一例としてのビルを自身が所持する端末装置201の備えるカメラ装置で撮影を行って撮影画像データを得ると、この撮影画像データがサーバ装置10に送信される。その際、端末位置からの撮影方向の情報、撮影角度の情報も併せて送信することが好ましい。サーバ装置10では、得られた撮影画像データを含む各種情報に基づいて撮影画像データに含まれる対象オブジェクトを特定する。その際、予め作成して記憶させてある3次元モデル情報の何れのオブジェクトに該当するかの特定を行う。対象オブジェクトを特定した場合には、サーバ装置10は、端末装置201に対して撮影画像データに含まれるビルが対象オブジェクトである旨を通知する。通知を受信した端末装置201では、例えば、タッチパネル式のディスプレイに表示された撮影画像データの上からタッチペン等を用いた描画処理を受付ける。例えば、ユーザAが概略直方体形状のビルの一つの側面に白い星印を描画し、他の側面に黒の星印を描画したとする。これらの描画情報は、サーバ装置10に送信され、サーバ装置10において、当該ビルに関する3次元モデル情報と関連付けて登録されて記憶される。
次に、図3において、ユーザBが左斜め前方に位置する対象オブジェクトの一例としてのビルを情報処理システム100で共有する対象と定めたとする。その際、ユーザBは、先ず、端末装置202において本例の情報処理システム100を利用するためのソフトウェアを起動させる必要がある。ソフトウェアを起動させると、端末装置202の位置情報取得手段に基づいて端末の位置情報を取得して、サーバ装置10に端末装置202の位置情報を送信する。次に、ユーザBが左斜め前方に位置するビル(ユーザAが描画処理を行ったビル)を自身が所持する端末装置202の備えるカメラ装置で撮影を行って撮影画像データを得ると、この撮影画像データがサーバ装置10に送信される。その際、端末位置からの撮影方向の情報、撮影角度の情報も併せて送信することが好ましい。サーバ装置10では、撮影画像データに含まれる対象オブジェクトを特定する。対象オブジェクトを特定した場合には、サーバ装置10は、端末装置202に対して撮影画像データに含まれるビルが対象オブジェクトである旨を通知する。そして、その対象オブジェクトに対して既に描画情報が登録されている場合には、端末装置202のディスプレイに表示された撮影画像データに対して登録されている描画情報を重畳表示させる。図3の例では、ビルの側面に描画された白い星印が重畳表示されている一方で、黒い星印は端末装置202の位置からは見えない側面であるため表示されていない。このように重畳表示を行った状態において、端末装置202では、例えば、タッチパネル式のディスプレイに表示された撮影画像データの上からタッチペン等を用いた描画処理を受付ける。
次に、本例の情報処理システム100において行われる情報処理の流れについて説明を行う。図4は、情報処理システム100が実行する情報処理の例を示すフローチャートである。以下、サーバ装置10と端末装置201と端末装置202とが、情報処理を実行する場合を例にして説明する。
図4に示すように、情報処理は、先ず、端末装置201がサーバ装置10に対して端末位置情報を送信することで開始される(ステップS11)。例えば、端末装置201において本例の情報処理システム100を利用するためのソフトウェアを起動させたことをトリガーとして位置情報の取得が行われてサーバ装置10に対して位置情報の送信が実行される。サーバ装置10は、端末装置201からの端末位置情報を受信する(ステップS12)。続いて、端末装置201の備えるカメラ装置で撮影が行われて撮影画像データが得られると、この撮影画像データがサーバ装置10に送信される。(ステップS13)。このとき、端末位置からの撮影方向の情報、撮影角度の情報も併せて送信するようにしてもよい。サーバ装置10は、端末装置201からの撮影画像データを受信する(ステップS14)。サーバ装置10では、受信した撮影画像データに対象オブジェクトが存在するか否かを判定し、存在する場合にはその対象オブジェクトを特定する(ステップS15)。対象オブジェクトの特定は、撮影画像データに映っているオブジェクトが3次元モデル情報の何れのオブジェクトに該当するかの特定によって行われる。対象オブジェクトの特定が行われると、サーバ装置10から端末装置201に対して、対象オブジェクトの通知が行われる(ステップS16)。このとき、対象オブジェクトに関する3次元モデル情報も併せて端末装置201に送信するようにしてもよい。端末装置201は、サーバ装置10からの対象オブジェクトの通知を受信後に、ユーザからの描画処理の入力を受付け、描画情報をサーバ装置10に送信する(ステップS17)。このとき、3次元モデル情報の何れの箇所に描画処理の入力がなされたかの情報も併せて送信するようにしてもよい。サーバ装置10は、端末装置201からの描画情報を受信して3次元モデル情報と関連付けて登録する(ステップS18)。端末装置201では、ディスプレイに対して撮影画像データに描画情報を重畳させた画像データを表示させる(ステップS19)。
次に、端末装置201とは異なる端末装置202において本例の情報処理システム100を利用するためのソフトウェアを起動させたことをトリガーとして位置情報の取得が行われて、端末装置202からサーバ装置10に対して位置情報を送信する(ステップS20)。サーバ装置10は、端末装置202からの端末位置情報を受信する(ステップS21)。続いて、端末装置202の備えるカメラ装置で撮影が行われて撮影画像データが得られると、この撮影画像データがサーバ装置10に送信される。(ステップS22)。このとき、端末位置からの撮影方向の情報、撮影角度の情報も併せて送信するようにしてもよい。サーバ装置10は、端末装置202からの撮影画像データを受信する(ステップS23)。サーバ装置10では、受信した撮影画像データに対象オブジェクトが存在するか否かを判定し、存在する場合にはその対象オブジェクトを特定する(ステップS24)。対象オブジェクトの特定は、撮影画像データに映っているオブジェクトが3次元モデル情報の何れのオブジェクトに該当するかの特定によって行われる。対象オブジェクトの特定が行われると、サーバ装置10から端末装置202に対して、対象オブジェクトの通知と、当該対象オブジェクトに対して既に描画情報が登録されている場合にはその描画情報の送信が行われる(ステップS25)。このとき、対象オブジェクトに関する3次元モデル情報も併せて端末装置201に送信するようにしてもよい。端末装置202は、サーバ装置10からの対象オブジェクトの通知及び描画情報の受信後に、ディスプレイに対して撮影画像データに描画情報を重畳させた画像データを表示させる(ステップS26)。この後、ユーザからの描画処理の入力の受付に移行することも可能であるが、図4においては、端末装置202のディスプレイに対して撮影画像データに描画情報を重畳させた画像データを表示させた時点で処理を終了している。
図5は、情報処理におけるサーバ装置10側の動作の例を示すフローチャートである。ここでは、情報処理システム100におけるサーバ装置10の動作について説明する。
サーバ装置10は、端末装置20からの端末位置情報を取得することで処理が開始される(ステップS101)。次に、サーバ装置10は、端末装置20の備えるカメラ装置で撮影された撮影画像データを取得する(ステップS102)。このとき、端末位置からの撮影方向の情報、撮影角度の情報も併せて取得するようにしてもよい。サーバ装置10は、取得した撮影画像データに対象オブジェクトが存在するか否かを判定し、存在する場合にはその対象オブジェクトを特定する(ステップS103)。対象オブジェクトの特定は、撮影画像データに映っているオブジェクトが3次元モデル情報の何れのオブジェクトに該当するかの特定によって行われる。対象オブジェクトの特定が行われると、サーバ装置10から端末装置20に対して、対象オブジェクトの通知が行われ、端末装置20において、ユーザからの描画処理の入力が受付けられる。なお、特定した対象オブジェクトに対して描画情報が関連付けて登録されていた場合には、サーバ装置10から端末装置20に対して当該描画情報も併せて送信し、端末装置20において撮影画像データに含まれる対象オブジェクトに重畳表示するようにする。サーバ装置10は、端末装置20からの描画情報を取得して3次元モデル情報と関連付けて登録する(ステップS104)。サーバ装置10は、端末装置20のディスプレイに表示される撮影画像データに対して重畳表示するための描画情報を重畳情報として出力して(ステップS105)、処理を終了する。
以上のように、本例の情報処理システム100によれば、端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させるために、端末装置の位置情報を取得し、端末装置で撮影された撮影画像データを取得し、撮影画像データに含まれる対象オブジェクトを特定し、ユーザによる対象オブジェクトに対する描画処理の内容を表した描画情報を取得し、描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに描画情報を重畳させて表示するための重畳情報を出力するようにしたので、現実世界において固定的に配置された実在のオブジェクトに対する描画処理等の仮想的処理を拡張現実技術によって複数のユーザで共有することが可能となる。
第1の実施の形態における情報処理システム100によれば、複数の端末装置201〜20nにおいて現実世界において固定的に配置された実在のオブジェクトに対する描画処理等の仮想的処理を拡張現実技術によって複数のユーザで共有する情報処理について説明をおこなったが、第1の実施の形態における情報処理システム100をビデオゲームに適用することも可能である。
例えば、屋外の路地における1ブロックの範囲内、体育館の中の範囲など、所定範囲をビデオゲームのフィールドとして設定した上で、複数のユーザを複数のグループに分類し、各グループの色を決定し、各ユーザは自身の所属するグループの色を用いて所定範囲内に含まれる対象オブジェクトに対して彩色を施す描画処理を実行し、予め定めた時間等の終了条件が満たされた時点での彩色面積をグループ毎に集計して、最も彩色面積の大きかったグループの勝利とするビデオゲームが考えられる。このようなビデオゲームは、AR空間での各ユーザの描画処理を複数のユーザで共有しながらビデオゲームを進行する制御を実行することで、現実世界において固定的に配置された実在のオブジェクトに対する着色等の描画処理を拡張現実技術によって複数のユーザで共有するビデオゲームを実現することが可能となる。
また、他のビデオゲームの一例としては、ビルの壁面などの実在のオブジェクトに対して複数のユーザが協力して絵を描くビデオゲームが考えられる。その場合、複数のユーザにはそれぞれ異なる色が設定されたパレットが割り振られたり、異なる筆の太さが割り振られたりなど、異なる条件のユーザが複数人で絵を完成させることを目標とする。それらの完成した絵をAR空間に所定期間描画した状態として、複数のユーザからの評価を得られるようにしてもよい。
また、他のビデオゲームの一例としては、描画処理の一手法として、AR空間にユーザがアイテムを配置したり、AR空間からアイテムを取得したりする機能を本例の情報処理システム100によって実現することで、複数のユーザがAR空間を介してアイテムの交換、罠の配置、情報の交換などを実行可能とすることで、ゲーム性を持たせることが可能となる。
以上に説明したように、本願の各実施形態により1または2以上の不足が解決される。なお、夫々の実施形態による効果は、非限定的な効果または効果の一例である。
100 情報処理システム
10 サーバ装置
11 端末位置情報取得部
12 撮影画像データ取得部
13 対象オブジェクト特定部
14 描画情報取得部
15 重畳情報出力部
16 記憶部
20、201〜20n 端末装置
30 通信ネットワーク

Claims (5)

  1. 端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させる機能をサーバ装置に実現させるための情報処理プログラムであって、
    前記サーバ装置に、
    前記端末装置の位置情報を取得する端末位置情報取得機能と、
    前記端末装置で撮影された撮影画像データを取得する撮影画像データ取得機能と、
    前記撮影画像データに含まれる対象オブジェクトを特定する対象オブジェクト特定機能と、
    ユーザによる前記対象オブジェクトに対する描画処理の内容を表した描画情報を取得する描画情報取得機能と、
    前記描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに前記描画情報を重畳させて表示するための重畳情報を出力する重畳情報出力機能とを
    実現させるための情報処理プログラム。
  2. 少なくとも端末装置周辺の現実空間に関する3次元モデル情報を予め記憶させた記憶手段を備えており、
    前記対象オブジェクト特定機能は、前記撮影画像データに含まれるオブジェクトが前記3次元モデル情報のうちの何れの対象オブジェクトであるかを特定する機能を実現し、
    前記描画情報取得機能は、前記描画情報の取得時に、前記対象オブジェクトに対応する前記3次元モデル情報の何れの箇所に対する描画処理の入力であるかの情報も併せて取得する
    請求項1記載の情報処理プログラム。
  3. 前記重畳情報出力機能は、前記対象オブジェクトについての前記描画情報のうち、前記端末装置について取得した端末位置情報と対象オブジェクトとの位置関係から、前記端末装置からの撮影可能範囲に含まれる描画情報を重畳情報として出力するようにした
    請求項1又は請求項2記載の情報処理プログラム。
  4. 端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させるための情報処理方法であって、
    前記端末装置の位置情報を取得する端末位置情報取得手順と、
    前記端末装置で撮影された撮影画像データを取得する撮影画像データ取得手順と、
    前記撮影画像データに含まれる対象オブジェクトを特定する対象オブジェクト特定手順と、
    ユーザによる前記対象オブジェクトに対する描画処理の内容を表した描画情報を取得する描画情報取得手順と、
    前記描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに前記描画情報を重畳させて表示するための重畳情報を出力する重畳情報出力手順とを
    含む情報処理方法。
  5. 通信ネットワークと、サーバ装置と、少なくとも1以上の端末装置とを備え、端末装置によって現実空間を撮影した撮影画像データにユーザによる描画情報を重畳した画像データを少なくとも1以上の端末装置のディスプレイに対して表示させる機能を制御する情報処理システムであって、
    前記端末装置の位置情報を取得する端末位置情報取得手段と、
    前記端末装置で撮影された撮影画像データを取得する撮影画像データ取得手段と、
    前記撮影画像データに含まれる対象オブジェクトを特定する対象オブジェクト特定手段と、
    ユーザによる前記対象オブジェクトに対する描画処理の内容を表した描画情報を取得する描画情報取得手段と、
    前記描画情報の付された対象オブジェクトを撮影する端末装置に対して、撮影画像データに含まれる当該対象オブジェクトに前記描画情報を重畳させて表示するための重畳情報を出力する重畳情報出力手段とを
    とを含む情報処理システム。
JP2018068055A 2018-03-30 2018-03-30 情報処理プログラム、情報処理方法及び情報処理システム Active JP7209474B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018068055A JP7209474B2 (ja) 2018-03-30 2018-03-30 情報処理プログラム、情報処理方法及び情報処理システム
US16/367,737 US10825252B2 (en) 2018-03-30 2019-03-28 Information processing program, method, and system for sharing virtual process for real object in real world using augmented reality
EP19165855.8A EP3547083B1 (en) 2018-03-30 2019-03-28 Information processing program, information processing method, and information processing system
US17/034,966 US11328490B2 (en) 2018-03-30 2020-09-28 Information processing program, method, and system for sharing virtual process for real object arranged in a real world using augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018068055A JP7209474B2 (ja) 2018-03-30 2018-03-30 情報処理プログラム、情報処理方法及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2019179382A true JP2019179382A (ja) 2019-10-17
JP7209474B2 JP7209474B2 (ja) 2023-01-20

Family

ID=66248499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068055A Active JP7209474B2 (ja) 2018-03-30 2018-03-30 情報処理プログラム、情報処理方法及び情報処理システム

Country Status (3)

Country Link
US (2) US10825252B2 (ja)
EP (1) EP3547083B1 (ja)
JP (1) JP7209474B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634773A (zh) * 2020-12-25 2021-04-09 北京市商汤科技开发有限公司 增强现实的呈现方法、装置、展示设备及存储介质
JP7082698B1 (ja) 2021-02-18 2022-06-08 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP7086242B1 (ja) 2021-02-18 2022-06-17 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11808941B2 (en) * 2018-11-30 2023-11-07 Google Llc Augmented image generation using virtual content from wearable heads up display
WO2021173390A1 (en) * 2020-02-27 2021-09-02 Qsinx Management Llc Connecting spatially distinct settings
CN112468696A (zh) * 2020-11-17 2021-03-09 珠海大横琴科技发展有限公司 一种数据处理的方法和装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091390A (ja) * 2004-09-24 2006-04-06 Mitsubishi Electric Corp 情報表示システム及び情報表示方法及び情報表示方法をコンピュータに実行させるためのプログラム及び情報表示端末装置
JP2011081557A (ja) * 2009-10-06 2011-04-21 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011159162A (ja) * 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011227644A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012168646A (ja) * 2011-02-10 2012-09-06 Sony Corp 情報処理装置、情報共有方法、プログラム及び端末装置
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
US20120263154A1 (en) * 2011-04-13 2012-10-18 Autonomy Corporation Ltd Methods and systems for generating and joining shared experience
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013538377A (ja) * 2010-06-17 2013-10-10 クアルコム,インコーポレイテッド 拡張現実環境のためのモバイルデバイスベースのコンテンツマッピング
JP2016511850A (ja) * 2012-12-21 2016-04-21 ヴィディノティ エスアーVidinoti Sa プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置
JP2017084100A (ja) * 2015-10-28 2017-05-18 キヤノン株式会社 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203175A (ja) 2013-04-02 2014-10-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム。
US9823739B2 (en) * 2013-04-04 2017-11-21 Sony Corporation Image processing device, image processing method, and program
JP2015090553A (ja) * 2013-11-05 2015-05-11 株式会社ソニー・コンピュータエンタテインメント 端末装置、付加情報管理装置、および付加情報管理方法
KR101583286B1 (ko) * 2014-05-16 2016-01-07 네이버 주식회사 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
US9727977B2 (en) * 2014-12-29 2017-08-08 Daqri, Llc Sample based color extraction for augmented reality
US20160371885A1 (en) * 2015-06-22 2016-12-22 Anatolie Gavriliuc Sharing of markup to image data
WO2017069324A1 (ko) * 2015-10-22 2017-04-27 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6088094B1 (ja) * 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等
WO2018213801A1 (en) * 2017-05-19 2018-11-22 Magic Leap, Inc. Keyboards for virtual, augmented, and mixed reality display systems
US10467809B2 (en) * 2018-01-03 2019-11-05 Verizon Patent And Licensing Inc. Methods and systems for presenting a video stream within a persistent virtual reality world

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091390A (ja) * 2004-09-24 2006-04-06 Mitsubishi Electric Corp 情報表示システム及び情報表示方法及び情報表示方法をコンピュータに実行させるためのプログラム及び情報表示端末装置
JP2011081557A (ja) * 2009-10-06 2011-04-21 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011159162A (ja) * 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011227644A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013538377A (ja) * 2010-06-17 2013-10-10 クアルコム,インコーポレイテッド 拡張現実環境のためのモバイルデバイスベースのコンテンツマッピング
JP2012168646A (ja) * 2011-02-10 2012-09-06 Sony Corp 情報処理装置、情報共有方法、プログラム及び端末装置
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
US20120263154A1 (en) * 2011-04-13 2012-10-18 Autonomy Corporation Ltd Methods and systems for generating and joining shared experience
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2016511850A (ja) * 2012-12-21 2016-04-21 ヴィディノティ エスアーVidinoti Sa プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置
JP2017084100A (ja) * 2015-10-28 2017-05-18 キヤノン株式会社 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634773A (zh) * 2020-12-25 2021-04-09 北京市商汤科技开发有限公司 增强现实的呈现方法、装置、展示设备及存储介质
CN112634773B (zh) * 2020-12-25 2022-11-22 北京市商汤科技开发有限公司 增强现实的呈现方法、装置、展示设备及存储介质
JP7082698B1 (ja) 2021-02-18 2022-06-08 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP7086242B1 (ja) 2021-02-18 2022-06-17 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022126547A (ja) * 2021-02-18 2022-08-30 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022126546A (ja) * 2021-02-18 2022-08-30 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7209474B2 (ja) 2023-01-20
EP3547083B1 (en) 2023-05-24
US11328490B2 (en) 2022-05-10
EP3547083A1 (en) 2019-10-02
US20210012573A1 (en) 2021-01-14
US10825252B2 (en) 2020-11-03
US20190304196A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
JP7209474B2 (ja) 情報処理プログラム、情報処理方法及び情報処理システム
US20160180593A1 (en) Wearable device-based augmented reality method and system
CN108141511B (zh) 图像处理装置、摄像装置、图像处理方法以及有形介质
JP2019533372A (ja) パノラマ画像の表示制御方法、装置及び記憶媒体
CN103369354B (zh) 藉由多个屏幕联合显示影片的影片播放系统和相关的装置
KR20230023824A (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
US11880999B2 (en) Personalized scene image processing method, apparatus and storage medium
CN108154058A (zh) 图形码展示、位置区域确定方法及装置
CN104898832A (zh) 一种基于智能终端的3d实时眼镜试戴方法
KR101560352B1 (ko) 대형 벽면 환경과 연동 가능한 스마트 테이블을 이용한 대형 벽면 활용형 대화형 영상컨텐츠 디스플레이 시스템
KR102523493B1 (ko) 가상 카메라 머신을 이용한 콘텐츠 제공 시스템 및 방법
CN111899349B (zh) 一种模型呈现方法、装置、电子设备及计算机存储介质
KR20180029690A (ko) 매물에 관한 가상현실영상 제공방법 및 제공서버, 매물에 관한 가상현실영상 제작방법 및 제작서버
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
KR101366707B1 (ko) 모바일 웹 기반 모바일 디바이스의 센서 제어를 이용한 이벤트 서비스 제공 시스템 및 방법
JP7225016B2 (ja) Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
JP2017168132A (ja) 仮想オブジェクトの表示システム、表示システムプログラム及び表示方法
CN109582687A (zh) 一种基于增强现实技术的数据处理方法及装置
CN113126770A (zh) 一种基于增强现实的交互式三维布景系统
CN111242107A (zh) 用于设置空间中的虚拟对象的方法和电子设备
Simões et al. Creativity support in projection-based augmented environments
JP7417827B2 (ja) 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
CN103870221A (zh) 一种显示信息的方法、系统和设备
CN112988007B (zh) 三维素材的交互方法及装置
KR20240076872A (ko) Xr 환경에서 사용자 간에 협동을 통해 그림을 완성하는 xr 서비스 장치, 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230110

R150 Certificate of patent or registration of utility model

Ref document number: 7209474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150