JP2019133507A - 複合現実システム、プログラム、方法、及び携帯端末装置 - Google Patents

複合現実システム、プログラム、方法、及び携帯端末装置 Download PDF

Info

Publication number
JP2019133507A
JP2019133507A JP2018016562A JP2018016562A JP2019133507A JP 2019133507 A JP2019133507 A JP 2019133507A JP 2018016562 A JP2018016562 A JP 2018016562A JP 2018016562 A JP2018016562 A JP 2018016562A JP 2019133507 A JP2019133507 A JP 2019133507A
Authority
JP
Japan
Prior art keywords
mixed reality
marker
identification code
virtual
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018016562A
Other languages
English (en)
Other versions
JP6453501B1 (ja
Inventor
修一 倉林
Shuichi Kurabayashi
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2018016562A priority Critical patent/JP6453501B1/ja
Application granted granted Critical
Publication of JP6453501B1 publication Critical patent/JP6453501B1/ja
Priority to PCT/JP2019/003680 priority patent/WO2019151493A1/ja
Priority to CN201980023788.9A priority patent/CN111937046B/zh
Publication of JP2019133507A publication Critical patent/JP2019133507A/ja
Priority to US16/943,444 priority patent/US11321925B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/06131Constructional details the marking comprising a target pattern, e.g. for indicating the center of the bar code or for helping a bar code reader to properly orient the scanner or to retrieve the bar code inside of an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10554Moving beam scanning
    • G06K7/10564Light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】より簡易に、その場所に応じたMRを体験させることが可能な複合現実システムを提供する。【解決手段】本発明は、サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、サーバは、仮想空間データ記憶部と、アプリケーション記憶部とを備え、携帯端末装置は、ブラウザ部と、マーカ認識部と、位置決定部と、画像生成部とを備える。【選択図】図1

Description

本発明は、複合現実システム等に関し、特に所定の実空間内にいるユーザに対して複合現実感を体感させることができる複合現実システム等に関する。
近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術は、これを体験するユーザに対して、あたかもその場に仮想の物体が存在するかのような体験を行わせることができる。MR技術については、ユーザに違和感を与えることなく仮想空間の物体を表示させるような、MRそのものを高精度に実行する技術が開発されている。例えば特許文献1は、複合現実環境において実空間の環境をリアルタイムに認識することができるシステムを開示している。
特許第6088094号
しかしながら、ユーザがMR体験を開始するためには、例えばスマートフォンに専用のアプリをインストールする必要があった。更に、そのような専用のアプリを、場所に応じてユーザにダウンロードさせるためには、その場所に広帯域の無線通信を用意する必要があり、かつユーザにアプリのインストールを促す必要があるため、現実的に運用することは困難であった。
本発明は、このような課題を解決するためになされたものであり、ユーザに、より簡易に、その場所に応じたMRを体験させることが可能な複合現実システム等を提供することを主目的とする。
上記の目的を達成するために、本発明の一態様としての複合現実システムは、サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、前記サーバは、 予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データと該仮想空間に配置される仮想オブジェクトデータとを含む仮想空間データを記憶する仮想空間データ記憶部と、前記識別コードに含まれる識別子により特定されるWebアプリケーションを記憶するアプリケーション記憶部であって、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものである、アプリケーション記憶部と、を備え、前記携帯端末装置は、前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、を備えることを特徴とする。
また、本発明において好ましくは、前記携帯端末装置は、前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識する識別コード認識部を備え、前記ブラウザ部は、前記識別コード認識部により認識された前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示する。
また、本発明において好ましくは、前記仮想空間データ記憶部は、前記識別コードに含まれる識別子の各々に対応する前記仮想空間データを記憶し、前記ブラウザ部は、アクセスした識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、前記画像生成部は、前記仮想空間データ記憶部から取得された前記仮想空間データを用いて前記仮想カメラの視点位置からみた複合現実画像を生成する。
また、本発明において好ましくは、前記携帯端末装置は、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる識別子が、前記ブラウザ部がアクセスした識別子と同一であるか否かを判定する識別子判定部を更に備え、前記マーカ認識部は、前記識別子判定部により同一であると判定された場合、前記位置合わせ用マーカを認識する。
また、本発明において好ましくは、前記ブラウザ部は、前記識別子判定部により同一でないと判定された場合、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる他の識別子にアクセスし、該他の識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、再読み込みをせずに前記複合現実画像表示用ウェブページを表示し、前記マーカ認識部は、前記他の識別子を含む前記識別コードとともに前記MRマーカを構成する前記位置合わせ用マーカを認識する。
また、本発明において好ましくは、前記識別子はURLである。
また、本発明において好ましくは、前記3次元形状要素は、ポリゴンから構成されるメッシュである。
また、本発明において好ましくは、前記識別コードはQRコード(登録商標)又はデータマトリックスである。
また、本発明において好ましくは、前記位置合わせ用マーカは、正方形の形状を有する。
また、本発明において好ましくは、前記位置合わせ用マーカは、前記識別コードの縁に沿うように配置される。
また、本発明において好ましくは、前記マーカ認識部は、前記識別コードを予め定められた色で塗りつぶして消去することにより、前記位置合わせ用マーカを認識する。
また、本発明において好ましくは、前記位置合わせ用マーカは、前記識別コードの近傍に、前記識別コードと所定の位置関係を有する位置に配置される。
また、本発明において好ましくは、前記携帯端末装置は、前記サーバに前記画像生成部が生成する複合現実画像を構成する前記撮影装置が撮影する実空間の撮影画像及び仮想オブジェクトの画像データをそれぞれ送信し、他の端末装置が、該複合現実画像を取得することができるように構成される。
また、上記の目的を達成するために、本発明の一態様としてのプログラムは、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムのためのプログラムであって、前記システムは、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、前記プログラムは、前記携帯端末装置に、前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、を実行させることを特徴とする。
また、上記の目的を達成するために、本発明の一態様としての方法は、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにより実行される方法であって、前記システムは、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、前記携帯端末装置が、前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、を含むことを特徴とする。
また、上記の目的を達成するために、本発明の一態様としての携帯端末装置は、サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおける携帯端末装置であって、前記システムは、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、前記携帯端末装置は、前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて、前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、を備えることを特徴とする。
本発明によれば、ユーザに、より簡易に、その場所に応じたMRを体験させることができる。
本発明の一実施形態による複合現実システムの全体構成図である。 本発明の一実施形態によるサーバのハードウェア構成を示すブロック図である。 本発明の一実施形態による携帯端末装置のハードウェア構成を示すブロック図である。 複合現実システムがユーザに複合現実感を提供する所定の実空間の一例を示す図である。 MRマーカの一例を示す図である。 識別コードの一例を示す図である。 位置合わせ用マーカの一例を示す図である。 本発明の一実施形態によるサーバ3の機能ブロック図である。 本発明の一実施形態による携帯端末装置の機能ブロック図である。 本発明の一実施形態による複合現実システムの情報処理を示すフローチャートである。 MRマーカの変形例を示す図である。
以下、図面を参照して、本発明の実施形態による複合現実システムについて説明する。本実施形態による複合現実システムは、例えばスマートフォンの画面を通してユーザが視認する実空間の撮影画像に対して、仮想空間の存在である仮想オブジェクトを重畳させて描画することにより、ユーザにMRを体験させる。仮想オブジェクトは、例えばゲームキャラクタのように、画面上のごく一部だけを占めるコンピュータグラフィックスである。本明細書においては、説明の便宜上、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成についての重複説明を省略する場合がある。
図1は、本発明の一実施形態による複合現実システム1の全体構成図である。図1に示すように、複合現実システム1は、サーバ3と、携帯端末装置4と備え、サーバ3及び携帯端末装置4は、インターネットなどのネットワーク2に接続され、互いに通信可能である。
図2は本発明の一実施形態によるサーバ3のハードウェア構成を示すブロック図である。サーバ3は、プロセッサ11、表示装置12、入力装置13、記憶装置14、及び通信装置15を備える。これらの各構成装置はバス16によって接続される。バス16と各構成装置との間には必要に応じてインタフェースが介在しているものとする。
プロセッサ11は、サーバ3全体の動作を制御するものであり、例えばCPUである。なお、プロセッサ11としては、MPU等の電子回路が用いられてもよい。プロセッサ11は、記憶装置14に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。1つの例では、プロセッサ11は、複数のプロセッサから構成される。
表示装置(ディスプレイ)12は、プロセッサ11の制御に従って、アプリケーション画面などをサーバ3の使用者に表示する。入力装置13は、サーバ3に対するユーザからの入力を受け付けるものであり、例えば、タッチパネル、タッチパッド、キーボード、又はマウスである。
記憶装置14は、主記憶装置及び補助記憶装置を含む。主記憶装置は、例えばRAMのような半導体メモリである。RAMは、情報の高速な読み書きが可能な揮発性の記憶媒体であり、プロセッサ21が情報を処理する際の記憶領域及び作業領域として用いられる。主記憶装置は、読み出し専用の不揮発性記憶媒体であるROMを含んでいてもよい。この場合、ROMはファームウェア等のプログラムを格納する。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置は、例えばハードディスク装置であるが、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。補助記憶装置は、例えば、オペレーティングシステム(OS)、ミドルウェア、アプリケーションプログラム、これらのプログラムの実行に伴って参照され得る各種データなどを格納する。
好適な1つの例では、記憶装置14は各種データベース用のデータ(例えばテーブル)やプログラムを記憶する。プロセッサ11の動作などにより、各種データベースは実現される。サーバ3は、データベースサーバ機能を備えることもできるし、1又は複数のデータベースサーバを含むこともできるし、又は他のサーバを含むこともできる。
通信装置15は、ネットワーク2を介して携帯端末装置4などの他のコンピュータとの間でデータの授受を行う。例えば通信装置15は、イーサネット(登録商標)ケーブル等を用いた有線通信や移動体通信、無線LAN等の無線通信を行い、ネットワーク4へ接続する。
図3は本発明の一実施形態による携帯端末装置4のハードウェア構成を示すブロック図である。本実施形態において、携帯端末装置4はスマートフォンである。携帯端末装置4は、プロセッサ21、表示装置22、入力装置23、撮影装置24、記憶装置25、及び通信装置26を備える。これらの各構成装置はバス27によって接続される。バス27と各構成装置との間には必要に応じてインタフェースが介在しているものとする。ただし、携帯端末装置4は、上記の構成を備えるものであれば、タブレット型コンピュータ、タッチパッド等の接触型入力装置を備えるコンピュータなどとすることができる。
プロセッサ21は、携帯端末装置4全体の動作を制御するものであり、例えばCPUである。なお、プロセッサ21としては、MPU等の電子回路が用いられてもよい。プロセッサ21は、記憶装置24に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。1つの例では、プロセッサ21は、複数のプロセッサから構成される。
表示装置(ディスプレイ)22は、プロセッサ21の制御に従って、アプリケーション画面や撮影装置24によって撮影された画像などを携帯端末装置4のユーザに表示する。好ましくは液晶ディスプレイであるが、有機ELを用いたディスプレイやプラズマディスプレイ等であってもよい。
入力装置23は、タッチパネル、タッチパッド、入力ボタン等のようにユーザからの入力を受け付ける機能を有するものである。本実施形態では、携帯端末装置4はスマートフォンであるため、携帯端末装置4は入力装置23としてタッチパネルを備え、タッチパネルは表示装置22としても機能し、表示装置22と入力装置23は一体となった構造である。ただし、表示装置22と入力装置23は、別の位置に配置される別個の形態であってもよい。
撮影装置(撮像装置)24は、実空間の静止画又は動画を撮影(撮像)するものであり、撮影した画像又は動画データを記憶部25に格納する。撮影装置24は、例えばイメージセンサなどから構成されるカメラである。
記憶装置25は、揮発性メモリであるRAM及び不揮発性メモリであるROMを含む、一般的なスマートフォンが備える記憶装置である。記憶装置25は、外部メモリを含むこともできる。
1つの例では、記憶装置25は、主記憶装置及び補助記憶装置を含む。主記憶装置は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、プロセッサ21が情報を処理する際の記憶領域及び作業領域として用いられる。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ21が使用するデータを格納する。補助記憶装置は、例えばハードディスク装置であるが、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。補助記憶装置は、例えば、オペレーティングシステム(OS)、ミドルウェア、アプリケーションプログラム、これらのプログラムの実行に伴って参照され得る各種データなどを格納する。
通信装置26は、ネットワーク2を介してサーバ3などの他のコンピュータとの間でデータの授受を行う。例えば通信装置26は、移動体通信や無線LAN等の無線通信を行い、ネットワーク2へ接続する。1つの例では、通信装置26によって、プログラムをサーバ3からダウンロードして、記憶装置25に格納する。ただし、通信装置26は、イーサネット(登録商標)ケーブル等を用いた有線通信を行ってもよい。
本実施形態の複合現実システム1がユーザに複合現実感(MR)を提供する現実世界の空間(所定の実空間)として、図4に示すような予め定められた屋内の空間である実空間50を想定する。実空間50内には、現実世界の実オブジェクトである机51が配置される。
本実施形態においては、実空間50に対応付けされた仮想空間60において、各々が仮想空間における3次元位置情報を有する基本単位を用いた3次元空間データにより、実オブジェクトの3次元形状を表す。この基本単位を3次元形状要素と表現する。本実施形態においては、3次元形状要素として3次元メッシュを用いる。したがって、3次元区間データは3次元メッシュから構成される。3次元メッシュは、1又は複数のポリゴンから形成され、各々の3次元メッシュを構成するポリゴンの頂点の少なくとも1つは3次元位置情報を有する。なお、3次元形状要素は、点群データなどとすることもできる。
3次元空間データは、以下のように予め取得される。1つの例では、最初に、例えば高精度なレーザスキャナ(図示せず)を用いることにより、実空間50内の実オブジェクトの3次元形状を示す点群データを予め取得する。点群データのそれぞれは、例えば3次元座標(x、y、z)を有し、実空間50に対応付けられた仮想空間60内に配置される。なお点群データのそれぞれは、色情報を有する色付き点群データである。続いて、既知の方法を用いて、上記のように取得された色付き点群データから各点群を頂点としたポリゴンが形成される。3次元メッシュは、当該ポリゴンから形成される。他の例では、3次元メッシュは、実空間50内における複数の撮影画像から、既知の方法を用いて生成される。なお、3次元空間データを構成する3次元形状要素は、色情報を有する必要はないため、上記例示において、点群データは色情報を有していなくてもよい。
実空間50内にある実オブジェクトの机51の予め定められた1以上の位置には、MRマーカ52が配置される。1つの例では、図4に示すように、机51の表面の複数箇所にMRマーカ52が配置される。
図5は、MRマーカ52の一例を示す図である。MRマーカ52は、配置されるMRマーカ52の各々の位置に対応する位置情報を包含する識別子55を含む識別コード53と四角形の形状を有する位置合わせ用マーカ54とから構成される。
図6は、識別コード53の一例を示す図である。本実施形態では、識別コード53はQRコード(登録商標)(以下、「二次元コード」という。)であり、識別子55はURLであるものとする。識別コード53は、携帯端末装置4により撮影されることにより、ブラウザを起動するためのマーカであり、撮影されたMRマーカ52を識別するためのマーカである。識別子55は、サーバ3が記憶するWebアプリケーションの起動及び初期化と、配置されるMRマーカ52の各々の位置に対応する位置情報を含む。1つの例では、二次元コード53は、二次元コードリーダアプリ(QRコード(登録商標)リーダアプリ)により認識され、二次元コード53が包含するURL55は、二次元コードリーダアプリにより抽出される。他の変形例では、識別コード53は、データマトリックスなどの他の二次元バーコードとすることもできる。
1つの例では、URL55は以下に示すURL(1)である。
https://サーバ名/MRシーンのID/@緯度,経度,アングル
サーバ名及びMRシーンのIDはサーバ3に対してアクセスする位置を指定するものであり、各々が英数字の文字列データから構成される。緯度、経度、及びアングルは、MRマーカ52の緯度、MRマーカ52の経度、MRマーカ52のアングル(方位)を示すものであり、各々が数値データから構成される。URL(1)は、MRマーカ52の標高を示す数値データを含むこともできる。ただし、識別子55はURL以外のファイル位置を指定する識別子とすることもできる。
図7は、位置合わせ用マーカ54の一例を示す図である。本実施形態では、位置合わせ用マーカ54は、正方形の形状を有し、識別コードの縁に沿うように配置される。位置合わせ用マーカ54は、携帯端末装置4により撮影されることにより、携帯端末装置4の位置姿勢を算出するためのマーカであり、予め大きさ及び形状は定められている。位置合わせ用マーカ54は、携帯端末装置4の位置姿勢を算出するためのマーカであるため、四角形以外の多角形の形状とすることもできる。好ましくは、位置合わせ用マーカ54は、MRマーカ52を識別するためのマーカではないため、正方形の形状を有し、配置されるすべてのMRマーカ52で同じである。これにより、システムの演算量を低減することができる。
なお、説明の便宜上、本実施形態の複合現実システム1がユーザにMRを提供する所定の実空間を図4に示すような実空間50としているが、図4は1つの例であってこれに限定されない。例えば、実空間50は、壁に覆われた屋内の空間であってもよいし、屋外の空間であってもよい。また例えば、実空間50は、1つの区切られた空間であってもよいし、複数の区切られた空間を含むものであってもよい。また例えば、実オブジェクトは、机51でなくてもよく、椅子、棚、壁又は地面などであってもよく、実空間50は複数の実オブジェクトを含んでもよい。また例えば、MRマーカ52の位置は、実空間50内にある実オブジェクトの予め定められた1以上の位置であれば、机51の表面の複数箇所でなくてもよい。
図8は、本発明の一実施形態によるサーバ3の機能ブロック図である。サーバ3は、仮想空間データ記憶部31と、アプリケーション記憶部32と、を備える。本実施形態においては、プロセッサ11によりプログラムが実行されることによりこれらの機能が実現される。本実施形態においては、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。なおサーバ3は、1つのサーバ装置から構成してもよいし、複数のサーバ装置から構成してもよい。
仮想空間データ記憶部31は、予め取得された実空間50内にある実オブジェクトの3次元空間データと、仮想空間60に配置される3次元の仮想オブジェクトのデータである仮想オブジェクトデータとを含む仮想空間データを記憶する。3次元形状要素が3次元メッシュである場合、仮想オブジェクトデータも3次元メッシュにより形成される。仮想空間データ記憶部31は、配置されるMRマーカ52ごとに、MRマーカ52の周囲の実空間50に対応する仮想空間60における仮想空間データを記憶する。具体的には、仮想空間データ記憶部31は、識別コード53に含まれる識別子55の各々に対応させて仮想空間データを記憶することにより、配置されるMRマーカ52ごとに仮想空間データを記憶する。
1つの例では、仮想空間データ記憶部31は、仮想空間データを記憶するデータベースとして機能し、記憶装置14はデータベース用のデータ及びプログラムを記憶する。1つの例では、サーバ3は、仮想空間データ記憶部31として、仮想空間データを記憶するデータベースサーバを備える。1つの例では、仮想オブジェクトデータは、時間に応じて形状が変化する仮想オブジェクトのデータである。
アプリケーション記憶部32は、識別コード53に含まれる識別子55により特定されるWebアプリケーション33(以下、「Webアプリ33」という。)を記憶する。Webアプリ33は、Webアプリ33にアクセスする携帯端末装置4へ複合現実画像表示用ウェブページ34(以下、「MR体験用ページ34」という。)を提供する。MR体験用ページ34は、携帯端末装置4により読み込まれると撮影装置24を起動させるものであり、撮影装置24が撮影する実空間50の撮影画像(又は撮影動画)に基づいた複合現実画像の表示領域を含むものである。MR体験用ページ34は、重畳させて描画させる仮想オブジェクトが無い場合、複合現実画像の表示領域には、撮影装置24が撮影する実空間50の撮影画像(又は撮影動画)を表示する。なお、複合現実画像の表示領域が、一般的なカメラのアプリと同様にして、ディスプレイ22の大部分を占めるように、MR体験用ページ34は構成されるのが好ましい。
1つの例では、携帯端末装置4は、二次元コードリーダアプリを通じて二次元コードから抽出されるURL55をWebブラウザのURLと解釈し、携帯端末装置4のブラウザは、URL55へそのままアクセスする。サーバ3は、Webアプリ33の実行に必要なHTML、JavaScript(登録商標)、画像等をレスポンスとして、携帯端末装置4へ送信する。当該レスポンスとして携帯端末装置4へ送信されるデータにより携帯端末装置4においてWebページとして表示されるものが、本実施形態におけるMR体験用ページ4に対応する。MR体験用ページ34は、JavaScript(登録商標)が組み込まれ、MR体験用ページ34が携帯端末装置4に読み込まれたときにJavaScript(登録商標)が実行され、例えばHTML Media Capture APIにより、撮影装置24を起動させる。1つの例では、サーバ3は、アプリケーション記憶部32として、Webアプリ33を記憶するアプリケーションサーバを備える。1つの例では、URL55が前述のURL(1)である場合において、MR体験用ページ34により携帯端末装置4においてJavaScript(登録商標)からURL55が読み込まれる場合、携帯端末装置4は、@以降も含んだURL55へアクセスする。この場合、サーバ3は、携帯端末装置4からのアクセスがWebアプリ33からのアクセスであると判定して、URL55に対応する仮想空間データ又は仮想オブジェクトデータをレスポンスとして、携帯端末装置4へ送信する。
図9は本発明の一実施形態による携帯端末装置4の機能ブロック図である。携帯端末装置4は、第1の識別コード認識部41と、ブラウザ部42と、第2の識別コード認識部43と、識別子判定部44と、マーカ認識部45と、位置決定部46と、画像生成部47と、を備える。本実施形態においては、プロセッサ21によりプログラムが実行されることによりこれらの機能が実現される。本実施形態においては、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。
第1の識別コード認識部41は、撮影装置24によりMRマーカ52が撮影される場合、識別コード53を認識する。ブラウザ部42は、第1の識別コード認識部41により認識された識別コード53に含まれる識別子55にアクセスして、該識別子55により特定されるWebアプリ33が提供するMR体験用ページ34を表示する。
1つの例では、携帯端末装置4は、一般的なスマートフォンにおいてインストールされているような二次元コードリーダアプリ及びブラウザがインストールされている。この場合、二次元コードリーダアプリが第1の識別コード認識部41の機能を有し、ブラウザがブラウザ部42の機能を有する。この場合、二次元コードリーダアプリは、実行されることにより撮影装置24を起動し、起動された撮影装置24によりMRマーカ52が撮影されると、撮影画像から二次元コード53を認識(識別)し、当該二次元コード53からURL55を抽出する。二次元コードリーダアプリは、URL55を抽出すると、ブラウザを起動する。ブラウザは、二次元コードリーダアプリが抽出したURL55にアクセスすると、該URL55により特定されたサーバ3上のWebアプリ33へアクセスし、サーバ3から受信したレスポンスに基づいてMR体験用ページ34を表示する。Webアプリ33は、このようにアクセスされることで起動する。
1つの例では、URL55が前述のURL(1)である場合、サーバ4上のWebアプリ33は、@の前の部分により特定され、携帯端末装置4は、URL55へアクセスすることで当該Webアプリ33にアクセスする。
第2の識別コード認識部43は、携帯端末装置4がMR体験用ウェブページ34にアクセスした後、撮影装置24がMRマーカ52を撮影する場合、撮影画像から識別コード53を新たに認識する。或いは、第2の識別コード認識部43は、ブラウザがMR体験用ウェブページ34にアクセスしており又は該ウェブページ34を表示しており、かつ撮影装置24がMRマーカ52を撮影する場合、撮影画像から識別コード53を新たに認識する。1つの例では、MR体験用ページ34に組み込まれたJavaScript(登録商標)が自動的に実行されることにより、撮影装置24が起動され、第2の識別コード認識部43の機能が実現される。1つの例では、ブラウザが第2の識別コード認識部43の機能を有する。1つの例では、携帯端末装置4が備える1つのアプリケーションやAPIが、第1の識別コード認識部41及び第2の識別コード認識部43の機能を有する。このように、第1の識別コード認識部41と第2の識別コード認識部43は、同一のソフトウェアモジュールとすることができる。
識別子判定部44は、Webアプリ33が起動され、第2の識別コード認識部43により識別コード53が認識された場合、認識された識別コード53に含まれる識別子55が、ブラウザ部42がアクセスした識別子55と同一であるか否かを判定する。1つの例では、識別子判定部44は、ブラウザがアクセスしているURL55と、MR体験用ページ34内の複合現実画像の表示領域に表示するMRマーカ52より認識される二次元コード53から抽出されるURL55とが同一であるか否かを判定する。
マーカ認識部45は、第2の識別コード認識部43により識別コード53が新たに認識された場合、位置合わせ用マーカ54を認識する。好適な1つの例では、マーカ認識部45は、更に識別子判定部44により同一であると判定された場合に、位置合わせ用マーカ54を認識する。このように構成される場合、マーカ認識部45は、新たに認識された認識コード53がWebアプリ33を起動させたMRマーカ52が含むものである場合に位置合わせ用マーカ54を認識するため、Webアプリ33を起動させたMRマーカ52とそれ以外のMRマーカ52を識別することが可能となる。
1つの例では、マーカ認識部45は、MRマーカ52が識別コード53と位置合わせ用マーカ54とが一体として構成されるため、MRマーカ52のそのままの画像から位置合わせ用マーカ54を認識することができない。そのため、マーカ認識部45は、認識された識別コード53を画像処理として消去することにより、位置合わせ用マーカ54を抽出し、認識する。例えば、マーカ認識部45は、MRマーカ52が配置されている机51の背景色などの予め定められた色で識別コード53を塗りつぶして消去することにより、位置合わせ用マーカ54を認識する。
位置決定部46は、ブラウザ部42がアクセスした識別子55が包含する位置情報、及び位置合わせ用マーカ52の形状及び大きさから決定される携帯端末装置4と位置合わせ用マーカ52との位置関係に基づいて、実空間50における携帯端末装置4の位置及び撮影装置24の撮影している角度を決定する。すなわち、位置決定部46は、携帯端末装置4の位置(撮影装置24の位置)及び撮影装置24の撮影方向に対応する仮想空間50における仮想カメラの視点位置を決定する。位置決定部46が参照する識別コード53は、第2の識別コード認識部43により認識された識別コード53であり、ブラウザ部42がアクセスしている識別子55を包含している識別コード53である。
1つの例では、位置決定部46は、以下のように仮想カメラの視点位置を決定する。識別子55が、MRマーカ52の緯度、経度、標高、及びアングル(方位)の情報を含む場合、位置決定部46は、識別子55が含む情報から、携帯端末装置4の大まかな位置を、絶対的な位置として決定する。ここで決定される位置は、例えば絶対位置としての6DoFである。更に位置決定部46は、マーカ認識部45により認識された位置合わせ用マーカ54を画像として認識し、式(1)に示すような、マーカ座標系からカメラ座標系へ変換するための座標変換行列Tを算出する。
Figure 2019133507
(式1)
式(1)において、rは回転成分であり、tは並進成分を示している。位置決定部46は、座標変換行列Tを用いることにより、撮影装置24による撮影画像中のMRマーカ52のカメラ座標系における位置及び姿勢を算出し、MRマーカ52の撮影装置24に対する相対的な位置を決定する。ここで決定される位置は、例えば相対位置としての6DoFである。位置決定部46は、上記のように決定される絶対位置及び相対位置を用いて、仮想空間60における撮影装置24の絶対位置を決定することにより、仮想カメラの視点位置を決定する。なお撮影装置24の絶対位置は、6DoFであってもよいし、クオータニオンであってもよい。
画像生成部47は、仮想空間データ記憶部31に記憶される仮想空間データと位置決定部46により決定される仮想カメラの視点位置とに基づいて、実空間50の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する。ブラウザ部42が、識別子55にアクセスすると、画像生成部47は、仮想空間データ記憶部31から識別子55に対応する仮想空間データを取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。複合現実画像の生成にあたっては、特許文献1に示すような既知の方法を用いることができる。画像生成部47により生成された複合現実画像は、MR体験用ページ34における表示領域に表示される。好適な1つの例では、画像生成部47は、所定のフレームレートで複合現実画像を生成することにより、MR動画を生成する。1つの例では、ブラウザ部42が、画像生成部47により生成された複合現実画像をMR体験用ページ34における表示領域に表示する。なお、画像生成部47が撮影画像に重畳させるデータは仮想オブジェクトデータであるため、画像生成部47が仮想空間データ記憶部31から取得するデータは、仮想空間データのうちの仮想オブジェクトデータのみとすることもできる。
以下に、識別子判定部44により同一でないと判定された場合の各部の処理について更に説明する。第2の識別コード認識部43は、認識対象の撮影画像から識別部判定部44により判定されていない識別コード53を認識し、識別部判定部44は、該認識された識別コード53に含まれる識別子55が、ブラウザ部42がアクセスした識別子55と同一であるか否かを判定する。第2の識別コード認識部43及び識別部判定部44は、認識対象の撮影画像に識別部判定部44により判定されていない識別コード53が含まれる限り、上記の処理を行う。
上記の場合において、識別子判定部44が同一であると判定する識別コード53が第2の識別コード認識部43により認識されなかった場合、アクセス部42は、第2の識別コード認識部43により新たに認識された識別コード53のうちの1つの識別コード53に含まれる識別子55にアクセスする。当該識別コード53は、例えば第2の識別コード認識部43の認識対象の撮影画像において一番中央に位置する識別コード53である。このとき、ブラウザ部42は、表示されているMR体験用ページ34の再読み込みを行わずに、MR体験用ページ34の表示を継続する。マーカ認識部45は、ブラウザ部42によりアクセスされた識別子55を含む識別コード53を構成するMRマーカ52が含む位置合わせ用マーカ54を認識する。画像生成部47は、仮想空間データ記憶部31から、ブラウザ部42によりアクセスされた識別子55に対応する仮想空間データを取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。
1つの例では、上記のブラウザ部42の機能は、ブラウザにおいて標準化されているAPIであるhistory.pushState()関数を用いて実現される。これにより、ブラウザは、MR体験用ページ34の再読み込みを行わずに履歴情報を残し、URL55を動的に書き換えることが可能となる。1つの例では、上記の画像生成部47のURL55に対応する仮想空間データを取得する機能は、JavaScript(登録商標)のfetch()関数を用いて実現される。当該JavaScript(登録商標)を実行することにより、携帯端末装置4は、書き換えられたURL55に対応するデータをサーバ3から取得することが可能となる。このとき携帯端末装置4は、URL55が前述のURL(1)である場合、@以降も含んだURL55へアクセスする。サーバ3は、当該アクセスをWebアプリ33からのアクセスであると判定して、@以降も含んだURL55に対応する仮想空間データを携帯端末装置4へ送信する。この場合、MR体験用ページ34はJavaScript(登録商標)が組み込まれ、携帯端末装置4は、上記のように、URL55が動的に書き換えられたときに、書き換えられたURL55に対応するデータをサーバ3から取得するように構成される。
本実施形態による複合現実システム1は、更に、ネットワーク2に接続可能なスマートフォンなどの他の端末装置に、携帯端末装置4が表示しているMR体験用ページ34における表示領域に表示される複合現実画像又はMR動画を配信できるように構成される。
1つの例では、サーバ3は、URL55を介して、携帯端末装置4からのアクセスを受け付けており、例えばURLに関連付けて、記憶装置25の所定の格納場所に複合現実画像又はMR動画を記憶する。他の端末装置は、当該URLにアクセスすることで、複合現実画像又はMR動画を閲覧することができる。
1つの例では、サーバ3は、WEBRTCを提供する配信用ウェブページを記憶し、配信用ウェブページは、URL55を介して、携帯端末装置4からのアクセスを受け付けている。この場合、携帯端末装置4にインストールされているブラウザは、WEBRTCをサポートするものである。配信用ウェブページは、画像生成部48が生成する複合現実画像を構成する、撮影装置24が撮影する実空間50の撮影画像と該撮影画像に重畳される仮想オブジェクトの画像データとを受信する。他の端末装置が配信用ウェブページにアクセスすると、サーバ3は、携帯端末装置4及び他の端末装置のIPアドレス及びポート番号をお互いに通知し、2つの端末装置がPeer-to-Peer通信できるように設定する。これにより、他の端末装置は、携帯端末装置4のユーザが閲覧する複合現実画像を閲覧することが可能となる。この場合、2以上の端末装置が、Peer-to-Peer通信可能である。他の例では、サーバ3以外のサーバが配信用ウェブページを記憶する。他の例では、他の端末装置が配信用ウェブページにアクセスすると、他の端末装置は、サーバ3又はサーバ3以外のサーバ(例えばMCUサーバ又はSFUサーバ)から、撮影装置24が撮影する実空間50の撮影画像と該撮影画像に重畳される仮想オブジェクトの画像データとを受信する。
次に、本発明の一実施形態による複合現実システム1の情報処理について図10に示したフローチャートを用いて説明する。図10に示す情報処理は、プログラムを携帯端末装置4に実行させ、かつプログラムをサーバ3に実行させることで実現される。本処理においては、携帯端末装置4を持っているユーザは実空間50内におり、携帯端末装置4は、一般的なスマートフォンにおいてインストールされているような二次元コードリーダアプリ及びブラウザがインストールされている。
ステップ101で、二次元コードリーダアプリが起動された携帯端末装置4は、MRマーカ52を撮影すると、撮影装置24の撮影画像から二次元コードを認識(抽出)する。携帯端末装置4(二次元コードリーダアプリ)は、二次元コード53からURL55を抽出して読み込むと、ブラウザを起動し、当該URL55をパラメータとして受け渡す。
ステップ102で、携帯端末装置4(ブラウザ)は、URL55にアクセスし、MR体験用ページ34を表示する。ブラウザがURL55にアクセスすると、ブラウザ内でJavaScript(登録商標)が自動的に実行され、撮影装置24が起動される。なお、ステップ101からステップ102における撮影装置24の起動までは一連の動作であるため、最初のユーザの一般的な動作においては、撮影装置24は、ステップ101で撮影されたMRマーカ52を撮影したままである。この場合、MR体験用ページ34の表示領域には、当該MRマーカ52が表示される。
携帯端末装置4(ブラウザ)は、撮影装置24の撮影画像から二次元コード53を認識すると(ステップ103)、ステップ104で、携帯端末装置4(ブラウザ)は、撮影画像の中にある1つの二次元コード53をデコードし、URL55を抽出する。ステップ103では、携帯端末装置4(ブラウザ)は、二次元コード53を認識するまで本処理を実行し続けるように構成されるが、エラーメッセージをディスプレイ24に表示するように構成してもよい。ステップ104では、ブラウザが有する機能により二次元コード53をデコードしてURL55を抽出してもよいし、ブラウザ内で実行されるJavaScript(登録商標)により、二次元コード53をデコードしてURL55を抽出してもよい。
ステップ105で、携帯端末装置4は、ブラウザがアクセスしているURL55と、ステップ104において抽出されたURL55とが同一であるか否かを判定する。ステップ105で、同一であると判定された場合、本処理はステップ108へ進み、同一でないと判定された場合、本処理はステップ106へ進む。
ステップ106で、携帯端末装置4(ブラウザ)は、撮影装置24の撮影画像から既に認識した二次元コード53以外の二次元コード53が有るか否かを判定する。ステップ106で有ると判定された場合、ステップ104で、携帯端末装置4(ブラウザ)は、撮影画像の中にある二次元コード53であって、まだ認識していない二次元コード53からURL55を更に抽出する。
本処理は、ステップ104〜ステップ106を繰り返し、撮影画像から認識された二次元コード53に含まれるURL55のいずれもが、ブラウザがアクセスしているURL55と同一でない場合、ステップ107へ進む。ステップ105で同一でないと判定された場合において撮影画像に1つの二次元コード53のみが含まれる場合においても、本処理は、ステップ106からステップ107へ進む。
ステップ107で、携帯端末装置4(ブラウザ)は、例えば撮影画像の一番中央に位置する二次元コード53から抽出されるURL55を、携帯端末装置4がアクセスしているURLとして、例えばブラウザの最新履歴として、更新する。携帯端末装置4(ブラウザ)は、撮影画像に1つの二次元コード53のみが含まれる場合、当該二次元コード53から抽出されるURL55を、携帯端末装置4がアクセスしているURLとして更新する。
ステップ108で、携帯端末装置4は、ブラウザがアクセスしているURL55を含む二次元コード53を、該二次元コード53を構成するMRマーカ52から画像処理として消去することにより、該MRマーカ52が含む位置合わせ用マーカ54を認識する。1つの例では、ステップ105で同一であると判定された場合、ステップ108で、携帯端末装置4は、ステップ104で認識された二次元コード53を画像処理として消去することにより、位置合わせ用マーカ54を抽出し、認識する。ステップ105で同一でないと判定され、ステップ107でブラウザがアクセスしているURLを撮影画像にある1つの二次元コード53から抽出されるURL55に更新した場合、ステップ108で、該二次元コード53を画像処理として消去することにより、位置合わせ用マーカ54を抽出し、認識する。ステップ108で、携帯端末装置4は、位置合わせ用マーカ54を認識し、座標変換行列Tを算出する。
ステップ109で、携帯端末装置4は、算出された座標変換行列Tを用いて、仮想空間60における仮想カメラの視点位置を決定する。仮想カメラの視点位置は、複合現実画面において仮想空間50を表示する際の仮想的なカメラ位置である。
ステップ110で、携帯端末装置4は、ブラウザがアクセスしているURL55に対応する仮想空間データをサーバ3から取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。本処理は、例えばアプリケーションが終了するなどにより終了しない限り、ステップ103へ進む(ステップ111)。
次に、本発明の実施形態による複合現実システム1の作用効果について説明する。本実施形態では、複合現実システム1には、実空間50内に二次元コード53と位置合わせ用マーカ54とを統合したMRマーカ52が配置される。携帯端末装置4は、既存の任意の二次元コードリーダアプリを用いて、MRマーカ52の二次元コード53を読み込んでURL55を抽出し、当該URL55にアクセスすることによりサーバ3上に記憶されるWebアプリ33を実行する。携帯端末装置4は、Webアプリ33を起動させたMRマーカ52の識別に二次元コード53を用い、携帯端末装置4の位置姿勢を算出するために、該二次元コード53とともに該MRマーカ52を構成する位置合わせ用マーカ54を用いる。
このように、複合現実システム1は、二次元コード53を識別用マーカとして用い、識別用マーカの内容に応じて、姿勢制御マーカとして用いる位置合わせ用マーカ54を選択することが可能となる。このような多段階のコード識別を行う構成とすることにより、撮影装置24が複数のMRマーカ52を撮影した場合であっても、二次元コード53及び位置合わせ用マーカ54を適切に関連付けて認識することが可能となる。
また本実施形態では、複合現実システム1は、既存の二次元コードリーダアプリ及びブラウザがインストールされたスマートフォンなどの携帯端末装置4を用いる。したがって、ユーザは、携帯端末装置4に特別なアプリケーションのインストールを行うことなく、より簡易に、MRを体験することが可能となる。
また本実施形態では、複合現実システム1は、携帯端末装置4が二次元コード53から抽出されるURL55に特定されるWebアプリ33にアクセスすることにより実現される。そのため、複合現実システム1は、URL55を、MR体験の開始の基点として用いるだけでなく、MR体験を共有する基点として用いることが可能となる。
また本実施形態では、サーバ3は、二次元コード53に含まれるURL55の各々に対応する仮想空間データを記憶する。記憶される仮想空間データは、配置されるMRマーカ52ごとに、MRマーカ52の周囲の実空間50に対応する仮想空間60における仮想空間データである。携帯端末装置4は、二次元コード53を読み込んでURL55を抽出し、当該URL55にアクセスすることにより、サーバ3上に記憶される仮想空間データを取得し、取得されたデータを用いて仮想カメラの視点からみた複合現実画像を生成する。複合現実システム1は、このように構成され、また前述のとおり二次元コード53及び位置合わせ用マーカ54を適切に関連付けて認識することが可能であるため、ユーザに、配置されるMRマーカ52ごとに、その場所に応じたMRを体験させることが可能となる。
また本実施形態では、携帯端末装置4は、二次元コード53に含まれるURL55に対応する仮想空間データを取得するとともに、該二次元コード53とともにMRマーカ52を構成する位置合わせ用マーカ54を認識する。そして、携帯端末装置4は、二次元コード53に含まれるURL55が包含する位置情報、及び認識された位置合わせ用マーカ52の形状及び大きさから決定される携帯端末装置4と位置合わせ用マーカ52との位置関係に基づいて、実空間60における撮影装置24の位置及び撮影方向に対応する仮想空間50における仮想カメラの視点位置を決定する。このような構成とすることにより、実空間50内の実オブジェクトと仮想オブジェクトとがほぼ正確に接触する、高精度な複合現実空間をユーザに提供することが可能となる。
また本実施形態では、携帯端末装置4は、Webアプリ33を起動した後に新たに認識された二次元コード53から抽出されたURL55が、ブラウザによりアクセスしているURL55と同一であるか否かを判定する。携帯端末装置4は、同一でないと判定した場合、MR体験用ページ34の再読み込みをせずに、新たに認識された二次元コード53から抽出されたURL55を、携帯端末装置4がアクセスしているURLとして、例えばブラウザの最新履歴として、更新する。携帯端末装置4は、更新されたURL55を含む二次元コード53とともにMRマーカ52を構成する位置合わせ用マーカ54を認識し、これにより算出された座標変換行列Tを用いて、仮想空間60における仮想カメラの視点位置を決定する。携帯端末装置4は、更新されたURL55に対応する仮想空間データをサーバ3から取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。
このような構成とすることにより、携帯端末装置4は、最初に基準となるMRマーカ52を設定し、ユーザの移動により撮影装置24が他のMRマーカ52の二次元コード53を認識したとき、基準となるMRマーカ52を変更する「ローミング処理」を行うことが可能となる。この「ローミング処理」において、携帯端末装置4は、Webアプリ33起動後のMRマーカ52の識別に二次元コード53を用いている。これにより、実空間50内を移動するユーザに対して、MR体験を提供し続けることが可能となる。またこのとき、ブラウザは、MR体験用ページ34の再読み込みを行わずにURL55を動的に書き換えるため、実空間50内を移動するユーザに対して、MR体験をシームレスに提供し続けることが可能となる。
また本実施形態では、サーバ3は、URL55を介して、携帯端末装置4からのアクセスを受け付けており、他の端末装置は、例えばサーバ3にアクセスすることにより、携帯端末装置4が表示しているMR体験用ページ34における表示領域に表示されるMR動画等を取得する。このような構成とすることにより、携帯端末装置4のユーザは、例えばMR動画等にアクセス可能なURLをSNS上に投稿することにより、自身が体験する複合現実感を他のユーザと共有することが可能となる。近年、スマートフォンを用いたWeb利用者、特にSNS利用者が多いが、上記のように、複合現実システム1は、今まで実施されていないような、複合現実感の体験を既存のWebシステムを用いて共有するシステムを提供するため、MRシステムを、より簡易に、より一般的に使用することが可能となる。
このように複合現実システム1は、URL55を、MR体験の開始・閲覧・共有の基点として利用可能なシステムを実現している。これにより、ユーザに、より簡易に、その場所に応じたMRを体験させることが可能となる。
上記の作用効果は、特に言及が無い限り、他の実施形態や他の実施例においても同様である。
本発明の他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムを格納したコンピュータ読み取り可能な記憶媒体とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する方法とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムをコンピュータに供給することができるサーバとすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する仮想マシンとすることもできる。
以下に本発明の実施形態の変形例について説明する。以下で述べる変形例は、矛盾が生じない限りにおいて、適宜組み合わせて本発明の任意の実施形態に適用することができる。
1つの例では、MRマーカ52は、識別コード53と、識別コード53の近傍に、識別コード53と所定の位置関係を有する位置に配置される、多角形の形状を有する位置合わせ用マーカ54とから構成される。図11は、MRマーカ52の変形例を示す図である。本変形例では、位置合わせ用マーカ54は、正方形の形状を有し、識別コード53に隣接して配置され、マーカ認識部45は、MRマーカ52のそのままの画像から位置合わせ用マーカ54を認識することができる。この場合、マーカ認識部45は、第2の識別コード認識部43により識別コード53が新たに認識されると、該識別コード53と所定の位置関係を有する位置に配置された位置合わせ用マーカ54を認識する。
1つの例では、識別子判定部44は、同一でないと判定した場合、第2の識別コード認識部43により新たに認識された識別コード53に含まれる識別子55が包含する位置情報と、ブラウザ部42がアクセスした識別子55が包含する位置情報とが所定距離範囲内であるか否かを更に判定する。所定距離範囲内でない場合、ブラウザ部42は、第2の識別コード認識部43により新たに認識された識別コード53に含まれる識別子55にアクセスせず、マーカ認識部45は、該識別コード53を構成するMRマーカ52が含む位置合わせ用マーカ54を認識しない。
以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。
1 複合現実システム
2 ネットワーク
3 サーバ
4 携帯端末装置
11 プロセッサ
12 表示装置
13 入力装置
14 記憶装置
15 通信装置
16 バス
21 プロセッサ
22 表示装置
23 入力装置
24 撮影装置
25 記憶装置
26 通信装置
27 バス
31 仮想空間データ記憶部
32 アプリケーション記憶部
41 第1の識別コード認識部
42 ブラウザ部
43 第2の識別コード認識部
44 識別子判定部
45 マーカ認識部
46 位置決定部
47 画像生成部
50 実空間
51 机
52 MRマーカ
53 識別コード
54 位置合わせ用マーカ
55 識別子

Claims (16)

  1. サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、
    前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
    前記サーバは、
    予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データと該仮想空間に配置される仮想オブジェクトデータとを含む仮想空間データを記憶する仮想空間データ記憶部と、
    前記識別コードに含まれる識別子により特定されるWebアプリケーションを記憶するアプリケーション記憶部であって、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものである、アプリケーション記憶部と、を備え、
    前記携帯端末装置は、
    前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、
    前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、
    前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、
    前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、
    を備える複合現実システム。
  2. 前記携帯端末装置は、
    前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識する識別コード認識部を備え、
    前記ブラウザ部は、前記識別コード認識部により認識された前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示する、請求項1に記載の複合現実システム。
  3. 前記仮想空間データ記憶部は、前記識別コードに含まれる識別子の各々に対応する前記仮想空間データを記憶し、
    前記ブラウザ部は、アクセスした識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、
    前記画像生成部は、前記仮想空間データ記憶部から取得された前記仮想空間データを用いて前記仮想カメラの視点位置からみた複合現実画像を生成する、請求項1又は2に記載の複合現実システム。
  4. 前記携帯端末装置は、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる識別子が、前記ブラウザ部がアクセスした識別子と同一であるか否かを判定する識別子判定部を更に備え、
    前記マーカ認識部は、前記識別子判定部により同一であると判定された場合、前記位置合わせ用マーカを認識する、請求項3に記載の複合現実システム。
  5. 前記ブラウザ部は、前記識別子判定部により同一でないと判定された場合、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる他の識別子にアクセスし、該他の識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、再読み込みをせずに前記複合現実画像表示用ウェブページを表示し、
    前記マーカ認識部は、前記他の識別子を含む前記識別コードとともに前記MRマーカを構成する前記位置合わせ用マーカを認識する、請求項4に記載の複合現実システム。
  6. 前記識別子はURLである、請求項1から5のいずれか1項に記載の複合現実システム。
  7. 前記3次元形状要素は、ポリゴンから構成されるメッシュである、請求項1から6のいずれか1項に記載の複合現実システム。
  8. 前記識別コードはQRコード(登録商標)又はデータマトリックスである、請求項1から7のいずれか1項に記載の複合現実システム。
  9. 前記位置合わせ用マーカは、正方形の形状を有する、請求項1から8のいずれか1項に記載の複合現実システム。
  10. 前記位置合わせ用マーカは、前記識別コードの縁に沿うように配置される、請求項1から9のいずれか1項に記載の複合現実シテム。
  11. 前記マーカ認識部は、前記識別コードを予め定められた色で塗りつぶして消去することにより、前記位置合わせ用マーカを認識する、請求項10に記載の複合現実システム。
  12. 前記位置合わせ用マーカは、前記識別コードの近傍に、前記識別コードと所定の位置関係を有する位置に配置される、請求項1から9のいずれか1項に記載の複合現実システム。
  13. 前記携帯端末装置は、前記サーバに前記画像生成部が生成する複合現実画像を構成する前記撮影装置が撮影する実空間の撮影画像及び仮想オブジェクトの画像データをそれぞれ送信し、他の端末装置が、該複合現実画像を取得することができるように構成される、請求項1から12のいずれか1項に記載の複合現実システム。
  14. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムのためのプログラムであって、
    前記システムは、
    前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
    予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、
    前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、
    前記プログラムは、前記携帯端末装置に、
    前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、
    前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、
    前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、
    前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、
    を実行させるプログラム。
  15. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにより実行される方法であって、
    前記システムは、
    前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
    予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、
    前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、
    前記携帯端末装置が、
    前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、
    前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、
    前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、
    前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、
    を含む方法。
  16. サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおける携帯端末装置であって、
    前記システムは、
    前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
    予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、
    前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、
    前記携帯端末装置は、
    前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、
    前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて、前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、
    前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、
    前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、
    を備える携帯端末装置。
JP2018016562A 2018-02-01 2018-02-01 複合現実システム、プログラム、方法、及び携帯端末装置 Active JP6453501B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018016562A JP6453501B1 (ja) 2018-02-01 2018-02-01 複合現実システム、プログラム、方法、及び携帯端末装置
PCT/JP2019/003680 WO2019151493A1 (ja) 2018-02-01 2019-02-01 複合現実システム、プログラム、方法、及び携帯端末装置
CN201980023788.9A CN111937046B (zh) 2018-02-01 2019-02-01 混合现实系统、存储介质、方法和便携式终端装置
US16/943,444 US11321925B2 (en) 2018-02-01 2020-07-30 Mixed-reality system, program, method, and portable terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018016562A JP6453501B1 (ja) 2018-02-01 2018-02-01 複合現実システム、プログラム、方法、及び携帯端末装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018232474A Division JP2019133642A (ja) 2018-12-12 2018-12-12 複合現実システム、プログラム、方法、及び携帯端末装置

Publications (2)

Publication Number Publication Date
JP6453501B1 JP6453501B1 (ja) 2019-01-16
JP2019133507A true JP2019133507A (ja) 2019-08-08

Family

ID=65020527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018016562A Active JP6453501B1 (ja) 2018-02-01 2018-02-01 複合現実システム、プログラム、方法、及び携帯端末装置

Country Status (4)

Country Link
US (1) US11321925B2 (ja)
JP (1) JP6453501B1 (ja)
CN (1) CN111937046B (ja)
WO (1) WO2019151493A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373090B1 (ja) * 2023-05-01 2023-11-01 株式会社あかつき 情報処理システム、情報処理装置、プログラム及び情報処理方法
JP7480408B1 (ja) 2023-05-01 2024-05-09 株式会社あかつき 情報処理システム、情報処理装置、プログラム及び情報処理方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10969600B2 (en) 2018-03-08 2021-04-06 Apple Inc. Electronic devices with optical markers
US12003585B2 (en) 2018-06-08 2024-06-04 Vale Group Llc Session-based information exchange
DE102019112781B4 (de) * 2019-05-15 2022-12-15 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren zum Koppeln von Koordinatensystemen und computergestütztes System
JP7203692B2 (ja) * 2019-06-12 2023-01-13 本田技研工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP6833925B2 (ja) * 2019-07-29 2021-02-24 株式会社スクウェア・エニックス 画像処理プログラム、画像処理装置及び画像処理方法
KR102208708B1 (ko) * 2019-08-14 2021-01-28 한국과학기술연구원 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
US10777017B1 (en) * 2020-01-24 2020-09-15 Vertebrae Inc. Augmented reality presentation using a uniform resource identifier
US10817648B1 (en) 2020-01-30 2020-10-27 Leap Tools Inc. Systems and methods for product visualization using a single-page application
US11194952B2 (en) * 2020-01-30 2021-12-07 Leap Tools, Inc. Systems and methods for product visualization using a single-page application
US11610013B2 (en) 2020-04-17 2023-03-21 Intertrust Technologies Corporation Secure content augmentation systems and methods
CN114581635B (zh) * 2022-03-03 2023-03-24 上海涞秋医疗科技有限责任公司 一种基于HoloLens眼镜的定位方法及系统
CN115457142B (zh) * 2022-09-14 2023-10-10 北京中科深智科技有限公司 一种mr混合摄影相机的标定方法和系统

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8700301B2 (en) * 2008-06-19 2014-04-15 Microsoft Corporation Mobile computing devices, architecture and user interfaces based on dynamic direction information
US8467991B2 (en) * 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
US20170034586A1 (en) * 2008-10-08 2017-02-02 Wakingapp Ltd. System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
JP5762892B2 (ja) * 2011-09-06 2015-08-12 ビッグローブ株式会社 情報表示システム、情報表示方法、及び情報表示用プログラム
CA3207408A1 (en) * 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
EP2600316A1 (en) * 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US9497501B2 (en) * 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US9324190B2 (en) * 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
US20150170260A1 (en) * 2012-02-29 2015-06-18 Google Inc. Methods and Systems for Using a Mobile Device to Visualize a Three-Dimensional Physical Object Placed Within a Three-Dimensional Environment
US9578226B2 (en) * 2012-04-12 2017-02-21 Qualcomm Incorporated Photometric registration from arbitrary geometry for augmented reality
NO334902B1 (no) * 2012-12-07 2014-07-07 Kongsberg Defence & Aerospace As System og fremgangsmåte for overvåking av minst ett observasjonsområde
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
US20140210857A1 (en) * 2013-01-28 2014-07-31 Tencent Technology (Shenzhen) Company Limited Realization method and device for two-dimensional code augmented reality
JP6264014B2 (ja) * 2013-12-17 2018-01-24 セイコーエプソン株式会社 頭部装着型表示装置
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
JP6294780B2 (ja) * 2014-07-17 2018-03-14 株式会社ソニー・インタラクティブエンタテインメント 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
TWI526992B (zh) * 2015-01-21 2016-03-21 國立清華大學 擴充實境中基於深度攝影機之遮蔽效果優化方法
US9723253B2 (en) * 2015-03-11 2017-08-01 Sony Interactive Entertainment Inc. Apparatus and method for automatically generating an optically machine readable code for a captured image
EP3451135A4 (en) * 2016-04-26 2019-04-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
WO2017192467A1 (en) * 2016-05-02 2017-11-09 Warner Bros. Entertainment Inc. Geometry matching in virtual reality and augmented reality
JP6088094B1 (ja) * 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等
US11181743B2 (en) * 2017-11-14 2021-11-23 Maxell, Ltd. Head up display apparatus and display control method thereof
JP7142853B2 (ja) * 2018-01-12 2022-09-28 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム
KR20200047185A (ko) * 2018-10-26 2020-05-07 삼성전자주식회사 전자 장치 및 그 제어 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373090B1 (ja) * 2023-05-01 2023-11-01 株式会社あかつき 情報処理システム、情報処理装置、プログラム及び情報処理方法
JP7480408B1 (ja) 2023-05-01 2024-05-09 株式会社あかつき 情報処理システム、情報処理装置、プログラム及び情報処理方法

Also Published As

Publication number Publication date
US20200357188A1 (en) 2020-11-12
CN111937046A (zh) 2020-11-13
CN111937046B (zh) 2024-03-29
JP6453501B1 (ja) 2019-01-16
US11321925B2 (en) 2022-05-03
WO2019151493A1 (ja) 2019-08-08

Similar Documents

Publication Publication Date Title
JP6453501B1 (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
JP2019133642A (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
US10026229B1 (en) Auxiliary device as augmented reality platform
US9898844B2 (en) Augmented reality content adapted to changes in real world space geometry
US9443353B2 (en) Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
JP6022732B2 (ja) コンテンツ作成ツール
AU2014235484B2 (en) Contextual local image recognition dataset
US20150185825A1 (en) Assigning a virtual user interface to a physical object
CN112074797A (zh) 用于将虚拟对象锚定到物理位置的系统和方法
US20160163107A1 (en) Augmented Reality Method and System, and User Mobile Device Applicable Thereto
US20150370318A1 (en) Apparatus, system, and method of controlling display, and recording medium
US20150187137A1 (en) Physical object discovery
US20130088514A1 (en) Mobile electronic device, method and webpage for visualizing location-based augmented reality content
US9607584B2 (en) Real world analytics visualization
US20150062114A1 (en) Displaying textual information related to geolocated images
JP2016519800A (ja) 画像ベースのアプリケーションランチャー
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP2016006589A (ja) 表示装置、制御プログラム、および制御方法
CN112882576B (zh) Ar交互方法、装置、电子设备及存储介质
US10950043B1 (en) Rendering three-dimensional models on mobile devices
CN107851069B (zh) 图像管理系统、图像管理方法及程序
JP2017085533A (ja) 情報処理システム、及び情報処理方法
US20150185992A1 (en) Providing geolocated imagery related to a user-selected image
JP2011060254A (ja) 拡張現実システム、拡張現実装置および仮想オブジェクト表示方法
ES2958257T3 (es) Sistemas y métodos de visualización de productos mediante el uso de una aplicación de una sola página

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180823

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181212

R150 Certificate of patent or registration of utility model

Ref document number: 6453501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250