JP2020030748A - 複合現実システム、プログラム、携帯端末装置、及び方法 - Google Patents

複合現実システム、プログラム、携帯端末装置、及び方法 Download PDF

Info

Publication number
JP2020030748A
JP2020030748A JP2018157410A JP2018157410A JP2020030748A JP 2020030748 A JP2020030748 A JP 2020030748A JP 2018157410 A JP2018157410 A JP 2018157410A JP 2018157410 A JP2018157410 A JP 2018157410A JP 2020030748 A JP2020030748 A JP 2020030748A
Authority
JP
Japan
Prior art keywords
feature point
virtual
real space
point sets
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018157410A
Other languages
English (en)
Other versions
JP6640294B1 (ja
Inventor
修一 倉林
Shuichi Kurabayashi
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2018157410A priority Critical patent/JP6640294B1/ja
Priority to CN201980069925.2A priority patent/CN112912936A/zh
Priority to PCT/JP2019/032969 priority patent/WO2020040277A1/ja
Application granted granted Critical
Publication of JP6640294B1 publication Critical patent/JP6640294B1/ja
Publication of JP2020030748A publication Critical patent/JP2020030748A/ja
Priority to US17/181,456 priority patent/US20210174599A1/en
Priority to US18/501,702 priority patent/US20240071016A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】屋外などの比較的広域な空間を対象として、ユーザに、その場所に応じたMRを体験させることが可能な複合現実システムを提供する。【解決手段】本発明は、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、複合現実画像を該ディスプレイに表示するための複合現実システムであって、複合現実システムは、所定の実空間内に配置された複数の特徴点集合を含み、携帯端末装置は、撮影装置により撮影された特徴点集合の各々を認識し、該特徴点集合の各々の配置位置姿勢情報及び該特徴点集合の各々に対する携帯端末装置の相対位置姿勢情報に基づいて、実空間における撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定し、実空間の撮影画像に該視点位置に応じた仮想オブジェクトの画像を重畳させた複合現実画像を生成する。【選択図】図1

Description

本発明は、複合現実システム等に関し、特に所定の実空間内にいるユーザに対して複合現実を体験させることができる複合現実システム等に関する。
近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術は、これを体験するユーザに対して、あたかもその場に仮想の物体が存在するかのような体験を行わせることができる。MR技術については、ユーザに違和感を与えることなく仮想空間の物体を表示させるような、MRそのものを高精度に実行する技術が開発されている。例えば特許文献1は、複合現実環境において実空間の環境をリアルタイムに認識することができるシステムを開示している。
特開2017−227975号公報
Francisco J. Romero-Ramirez, Rafael Munoz-Salinas, Rafael Medina-Carnicer, "Speeded up detection of squared fiducial markers," Image and Vision Computing, Volume 76, 2018, Pages 38-47, ISSN 0262-8856, DOI: 10.1016/j.imavis.2018.05.004. David G Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, vol.50, No. 2, 2004, pp.91-110. Ethan Rublee, Vincent Rabaud, Kurt Konolige and Gary Bradski, "ORB: and efficient alternative to SIFT or SURF," IEEE International Conference on Computer Vision, 2011. Genshiro Kitagawa, "Monte Carlo Filter and Smoother for Non-Gaussian Nonlinear State Space Models," Journal of Computational and Graphical Statistics, Vol. 5, No. 1 (Mar., 1996), pp. 1-25 Shuichi Kurabayashi, Hidetoshi Ishiyama, and Masaru Kanai, "Sensing By Overlaying: a Practical Implementation of a Multiplayer Mixed-Reality Gaming System by Integrating a Dense Point Cloud and a Real-Time Camera," In Proceedings of the 2016 IEEE International Symposium on Multimedia (ISM), pages 636-639, San Jose, CA, DOI: 10.1109/ISM.2016.0136, (2016)
従来、MR技術が対象とするものはセンサの観測範囲内での実空間であり、広域空間でMRを実現することは難しかった。例えば、屋外において、ビル群の間を仮想的な巨大ロボットが飛行するようなMRを実現することは難しかった。
本発明は、このような課題を解決するためになされたものであり、屋外などの比較的広域な空間を対象として、ユーザに、その場所に応じたMRを体験させることが可能な複合現実システム等を提供することを主目的とする。
上記の目的を達成するために、本発明の一態様としてのシステムは、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、前記複合現実システムは、前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、前記携帯端末装置は、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、前記撮影装置により撮影された前記特徴点集合の各々を認識し、認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定し、前記第1の仮想オブジェクトのデータ、前記第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、ことを特徴とする。
また、本発明において好ましくは、前記携帯端末装置は、前記複合現実画像を生成するにあたって、前記仮想カメラの視野範囲内に前記第1の仮想オブジェクトと前記第2の仮想オブジェクトが重複する場合において、該第2の仮想オブジェクトの前記視点位置からの奥行距離が該第1の仮想オブジェクトよりも大きい場合、該重複した部分が除かれた該第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する。
また、本発明において好ましくは、前記複合現実システムは、5以上の前記特徴点集合を含み、前記携帯端末装置は、所定時間ごとに、前記撮影装置により撮影された前記特徴点集合の各々を認識し、前記視点位置を決定し、前記複合現実画像を生成する。
また、本発明において好ましくは、前記複合現実システムは、前記所定の実空間に配置された4つの前記特徴点集合を含み、該特徴点集合の各々は、実空間上の仮想的な矩形の4つの頂点位置に対応する位置関係を有し、かつ予め定められた垂直方向の距離及び予め定められた水平方向の距離離れて配置される。
また、本発明において好ましくは、1又は複数の前記特徴点集合が、水平方向に離れて設置された複数の棒状体の各々に、固定して取り付けられる。
また、本発明において好ましくは、前記特徴点集合の各々は、光を透過する材料で形成される透過部材に固定して取り付けられる。
また、本発明において好ましくは、前記特徴点集合の各々は、ワイヤーを用いて固定して取り付けられる。
また、本発明において好ましくは、前記特徴点集合は、ポスター、絵、写真、ArUcoマーカ、ARマーカ、2次元コード、又はデータマトリックスである。
上記の目的を達成するために、本発明の一態様としてのプログラムは、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおいて、該携帯端末装置に実行させるプログラムであって、前記複合現実システムは、前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、前記プログラムは、前記携帯端末装置に、前記撮影装置により撮影された前記特徴点集合の各々を認識するステップと、認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々が配置された仮想空間における配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータ、該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成するステップと、を実行させることを特徴とする。
また、上記の目的を達成するために、本発明の一態様としての携帯端末装置は、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおける携帯端末装置であって、前記複合現実システムは、前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、前記携帯端末装置は、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、前記撮影装置により撮影された前記特徴点集合の各々を認識し、認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定し、前記第1の仮想オブジェクトのデータ、前記第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、ことを特徴とする。
また、上記の目的を達成するために、本発明の一態様としての方法は、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおいて、該携帯端末装置により実行される方法であって、前記複合現実システムは、前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、前記撮影装置により撮影された前記特徴点集合の各々を認識するステップと、認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々が配置された仮想空間における配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータ、該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成するステップと、を含むことを特徴とする。
また、上記の目的を達成するために、本発明の一態様としてのシステムは、サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、前記複合現実システムは、前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、前記サーバは、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、前記携帯端末装置は、前記撮影装置により撮影された前記特徴点集合の各々を認識し、認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定し、前記第1の仮想オブジェクトのデータ、前記第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、ことを特徴とする。
また、上記の目的を達成するために、本発明の一態様としてのシステムは、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、前記複合現実システムは、前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、前記携帯端末装置は、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、前記撮影装置により撮影された前記特徴点集合の各々を認識し、認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、前記第1の仮想オブジェクトの位置姿勢情報を決定し、前記第1の仮想オブジェクトのデータ及び前記第2の仮想オブジェクトのデータに基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、ことを特徴とする。
また、上記の目的を達成するために、本発明の一態様としてのプログラムは、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおいて、該携帯端末装置に実行させるプログラムであって、前記複合現実システムは、前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、前記プログラムは、前記携帯端末装置に、前記撮影装置により撮影された前記特徴点集合の各々を認識するステップと、認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々が配置された仮想空間における配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトの位置姿勢情報を決定するステップと、前記第1の仮想オブジェクトのデータ及び前記実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータに基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成するステップと、を実行させることを特徴とする。
本発明によれば、屋外などの比較的広域な空間を対象として、ユーザに、その場所に応じたMRを体験させることができる。
本発明の一実施形態の複合現実システムの一部を示す模式図である。 本発明の一実施形態の携帯端末装置のハードウェア構成を示すブロック図である。 本発明の一実施形態の2次元コードを示す図である。 本発明の一実施形態の実空間の一部を示す模式図である。 図4に示す実空間に対応する仮想空間を示す図である。 本発明の一実施形態の携帯端末装置の機能ブロック図である。 第2の仮想オブジェクトの画像の一例である。 実空間の撮影画像に図7に示す第2の仮想オブジェクトの画像を重畳させた複合現実画像の一例である。 本発明の一実施形態の複合現実システムにおける携帯端末装置と特徴点集合群が含む特徴点集合の位置関係を説明する図である。 本発明の一実施形態による複合現実システムの情報処理について示したフローチャートである。 窓ガラスに固定して取り付けられた特徴点集合群3示す図である。 本発明の一実施形態の複合現実システムの全体構成の一例を示す。
以下、図面を参照して、ユーザに対して仮想空間と現実空間とを融合した複合現実空間を提供する複合現実(MR)システムについて説明する。本明細書においては、説明の便宜上、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成についての重複説明を省略する場合がある。なお各図において同一の符号は、特に言及が無い限り同一又は相当部分を示すものとする。
本実施形態によるMRシステムは、例えばスマートフォンの画面を通してユーザが視認する実空間の撮影画像に対して、実空間に対応する仮想空間に配置される仮想空間上のオブジェクトである仮想オブジェクトを重畳させて描画することにより、ユーザにMRを体験させる。
図1は、本発明の一実施形態の複合現実システム(MRシステム)1の一部を示す模式図である。本発明の実施形態によるMRシステム1は、予め定められた所定の実空間(実空間50)において実現する。実空間50は、予め定められた屋外の実空間であり、該空間内には、現実世界におけるオブジェクトである実オブジェクトが存在する。実オブジェクトは、例えば建物、橋、壁などの構造物であり、実空間内に固定されたものである。ただし、移動可能な物を実オブジェクトに含めてもよい。また、実空間50は、屋外の実空間の代わりに屋内の実空間であってもよいし、屋内の実空間を一部に含んでいてもよい。
MRシステム1は、図1に示すように、携帯端末装置2と、実空間50内に配置された複数の特徴点集合4を含む特徴点集合群3とを含む。
図2は本発明の一実施形態の携帯端末装置2のハードウェア構成を示すブロック図である。携帯端末装置2は、プロセッサ11、入力装置12、表示装置13、撮影装置14、記憶装置15、及び通信装置16を備える。これらの各構成装置はバス17によって接続される。なお、バス17と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態において、携帯端末装置2はスマートフォンである。ただし、携帯端末装置2は、上記の構成を備える携帯可能な端末であれば、タブレット型コンピュータ、タッチパッド等の接触型入力装置を備えるコンピュータなどの端末とすることができる。
プロセッサ11は、携帯端末装置2全体の動作を制御する。例えばプロセッサ11は、CPUである。なお、プロセッサ11としては、MPU等の電子回路が用いられてもよい。プロセッサ11は、記憶装置15に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。1つの例では、プロセッサ11は、複数のプロセッサから構成される。
入力装置12は、携帯端末装置2に対するユーザからの入力を受け付けるユーザインタフェースである。表示装置(ディスプレイ)13は、プロセッサ11の制御に従って、アプリケーション画面や撮影装置14によって撮影された画像などを携帯端末装置2のユーザに表示するものである。本実施形態においては、スマートフォンである携帯端末装置2は入力装置12としてタッチパネルを備え、タッチパネルは表示装置13としても機能し、入力装置12と表示装置13は一体となった構造である。ただし、入力装置12と表示装置13は、別の位置に配置される別個の形態であってもよい。この場合、入力装置12は、例えばタッチパッド又はボタンなどとすることができ、表示装置13は、液晶ディスプレイ、有機ELを用いたディスプレイ、又はプラズマディスプレイなどとすることができる。
撮影装置(撮像装置)14は、実空間の静止画又は動画を撮影(撮像)するものであり、撮影した画像又は動画データを記憶装置15に格納する。撮影装置14は、例えばイメージセンサなどから構成されるカメラである。
記憶装置15は、揮発性メモリであるRAM及び不揮発性メモリであるROMを含む、一般的なスマートフォンが備える記憶装置である。記憶装置15は、外部メモリを含むこともできる。
1つの例では、記憶装置15は、主記憶装置及び補助記憶装置を含む。主記憶装置は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、プロセッサ11が情報を処理する際の記憶領域及び作業領域として用いられる。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置は、例えばハードディスク装置であるが、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。補助記憶装置は、例えば、オペレーティングシステム(OS)、ミドルウェア、アプリケーションプログラム、これらのプログラムの実行に伴って参照され得る各種データなどを格納する。
通信装置16は、インターネットなどのネットワークを介して他のコンピュータとの間でデータの授受を行う。例えば通信装置16は、移動体通信や無線LAN等の無線通信を行い、ネットワークへ接続する。1つの例では、通信装置16によって、プログラムをサーバからダウンロードして、記憶装置15に格納する。ただし、通信装置16は、イーサネット(登録商標)ケーブル等を用いた有線通信を行ってもよい。他のコンピュータとの間でデータの送受信を行わない場合、携帯端末装置2は通信装置16を備えなくてもよい。
特徴点集合4は、局所特徴点集合を示すものであり、本実施形態では、特徴点集合4は、ArUcoマーカ(非特許文献1)である。特徴点集合4は、予め実空間50内に固定して配置される。特徴点集合4の各々は、一意の識別情報(ID)と紐付けられている。ただし、特徴点集合4の各々は、各々の特徴点集合4を識別可能な識別可能情報を含むものであればよい。識別情報は、識別可能情報の1つの例示である。また、特徴点集合4は、ArUcoマーカに限定されない。
図3は、本発明の一実施形態の特徴点集合4を示す図である。特徴点集合4は、白色と黒色の正方形から構成され、全体として正方形の形状を有する。特徴点集合4の外縁を構成する位置には黒色の正方形が配置される。各々の特徴点集合4は、白色と黒色の正方形の配置位置が異なり、該配置位置に応じたID(例えばID番号)が割り当てられる。特徴点集合4は、例えば、表面が平らな金属製の板に顔料を用いて印刷されたもの又は印刷されたものが他の支持物に取り付けられたものであり、太陽光の反射防止のためのコーティングが施される。
特徴点集合4は、特徴点集合4の各々を識別することができるものであり、かつ実空間50内に固定して配置されるものであればよく、上記の例示に限定されない。特徴点集合4は、特徴点集合4自体のパターンが印刷されたものであってもよいし、特徴点集合4自体のパターンを含むものが印刷されたものであってもよい。特徴点集合4は、例えば一辺10cmの正方形の形状である。
図1に示すように、特徴点集合群3は、4つの特徴点集合4を含み、特徴点集合4の各々は、水平方向に離れて設置された一対の棒状体41の各々に、垂直方向に離れて固定して取り付けられる。棒状体41は、例えば固定式のポール又は柱であり、地面に固定して取り付けられる。特徴点集合群3が含む特徴点集合4の各々は、実空間50上の仮想的な矩形の4つの頂点位置に対応する位置関係を有し、予め定められた垂直方向の距離及び予め定められた水平方向の距離離れて配置される。仮想的な矩形を構成する2辺は、鉛直方向(垂直方向)及び水平方向に平行であることが好ましい。なお、特徴点集合群3は、複数の特徴点集合4を表すものである。特徴点集合群3は、局所的に存在する複数の特徴点集合4を示すこともできるし、又は撮影装置14が撮影する1つの撮影画像内に収まる複数の特徴点集合4を示すこともできる。またMRシステム1は、複数の特徴点集合群3を含むこともできる。
本実施形態においては、実空間50は、渋谷駅周辺全域のような、数キロメートル四方の範囲のエリアである。図4は、本発明の一実施形態の実空間50の一部を示す模式図である。実空間50は、ビルなどの実オブジェクト51を含む。
仮想空間60は実空間50に対応付けられた仮想的な空間であり、実空間50上の位置と仮想空間60上の位置は1対1で対応付けられる。MRシステム1は、仮想空間60において実空間50内にある実オブジェクト51を表す3次元空間データを用いる。したがって、3次元空間データは、実空間50に対応付けされた仮想空間60を定めるものであり、実オブジェクト51の3次元形状を表すものである。3次元空間データは、予め取得されるものであり、各々が仮想空間60における3次元位置情報を有する基本単位である3次元形状要素から構成される。この基本単位を3次元形状要素と表現する。本実施形態では、3次元形状要素として3次元メッシュを用いる。したがって、3次元空間データは3次元メッシュから構成される。3次元メッシュは、1又は複数のポリゴンから形成され、各々の3次元メッシュを構成するポリゴンの頂点の少なくとも1つは3次元位置情報を有する。ただし、3次元形状要素は、点群データなどとすることもできる。
3次元形状要素が有する3次元位置情報は、実空間50上の位置情報に対応する仮想空間60上の位置情報である。ここでの実空間50上の位置情報は、例えば、緯度、経度、高度、方向を含む6DoF(6軸)の値であり、仮想空間60上の位置情報も、対応する6DoFの値である。
近年、本実施形態の実空間50が対象とする比較的広域なエリアの3次元メッシュデータは、様々な企業から提供されており、比較的簡易に精密な3次元メッシュデータを取得することが可能である。
このような3次元メッシュデータは、例えば以下のように予め取得される。最初に、高精度なレーザスキャナを用いることにより、実空間50内の実オブジェクト51の3次元形状を示す点群データを予め取得する。図5は、実空間50に対応付けられた仮想空間60における点群データの一例を示す。点群データのそれぞれは、例えば3次元座標(x、y、z)を有し、実空間50に対応付けられた仮想空間60内に配置される。なお点群データのそれぞれは、色情報を有する色付き点群データである。続いて、既知の方法を用いて、上記のように取得された色付き点群データから各点群を頂点としたポリゴンが形成される。3次元メッシュは、当該ポリゴンから形成される。ただし、3次元空間データを構成する3次元形状要素は、色情報を有する必要はないため、上記例示において、点群データは色情報を有していなくてもよい。他の例では、3次元メッシュは、実空間50内における複数の撮影画像から、既知の方法を用いて生成される。
図5は、図4に示す実空間50に対応する仮想空間60を示し、実空間50内に存在する実オブジェクト51に対応する仮想オブジェクトである第1の仮想オブジェクト61を示す。仮想空間60に配置されるオブジェクトは、すべて仮想オブジェクトであるが、説明の便宜上、実オブジェクト51に対応する仮想オブジェクトを第1の仮想オブジェクト61と呼び、実オブジェクト51に対応しない仮想オブジェクト、すなわち実空間50内に存在しない仮想オブジェクトを第2の仮想オブジェクト62と呼ぶ。したがって、3次元空間データは、第1の仮想オブジェクト61のデータであり、第1の仮想オブジェクト61のデータにより仮想空間60は定められる。本実施形態では、例えば3次元空間データの座標は、仮想空間60の座標と同義である。
仮想空間60の位置は、図5に示すような3次元座標(x、y、z)を含む6DoFを用いて特定される。ただし、図5に示す仮想空間60上の3次元座標は1つの例示であって、3次元座標の原点はいずれの場所に設定してもよいし、各座標軸はお互いに直交していればいずれの方向としてもよい。或いは、仮想空間60の位置は、他の座標系を用いて、3次元位置を特定してもよい。
図6は、本発明の一実施形態の携帯端末装置2の機能ブロック図である。携帯端末装置2は、アプリケーション部21を備える。アプリケーション部21は、認識部22、位置決定部23、画像生成部24、及び画像表示部25を備える。本実施形態においては、プロセッサ11によりプログラムが実行されることによりこれらの機能が実現される。本実施形態においては、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。
携帯端末装置2は、OSがインストールされるとともに、ユーザにMRを体験させるための当該OS上で動作させるアプリケーションがインストールされている。アプリケーション部21は、当該アプリケーションに対応するものであり、アプリケーションプログラムとして記憶装置15に記憶される。
記憶装置15は、実空間50内に存在する実オブジェクト51に対応する仮想空間60における第1の仮想オブジェクト61のデータと仮想空間60における第2の仮想オブジェクト62のデータとを記憶する。本実施形態では、第2の仮想オブジェクト62のデータも3次元メッシュにより形成され、第2の仮想オブジェクトのデータが含む位置情報は、3次元空間データの座標で表現される又は3次元空間データの座標と紐付けられる。1つの例では、第2の仮想オブジェクト62は、仮想的なキャラクタ又は仮想的なアイテムである。図7は、第2の仮想オブジェクト62の画像の一例である。1つの例では、第2の仮想オブジェクト62のデータは、位置及び時間の少なくとも一方に応じて形状、大きさ、及び向きの少なくとも1つが変化する仮想オブジェクトのデータである。
記憶装置15は、特徴点集合4の各々のIDと、特徴点集合4の各々が配置された、実空間50上の位置情報に対応する仮想空間60における配置位置情報とが関連付けられた特徴点集合位置データを記憶する。ここでの配置位置情報は、3次元空間データの座標で表現される又は3次元空間データの座標と紐付けられるものである。また配置位置情報は、正確には配置位置姿勢情報であり、例えば6DoF(6軸自由度)の値である。したがって、例えば配置位置情報(配置位置姿勢情報)は、第1の仮想オブジェクト61の所定の位置(仮想空間60の原点)を原点とする特徴点集合4の位置姿勢情報である。なお、一般的にArUcoを使用する場合と同様にして、記憶装置15は、ArUcoを利用するためのソフトウェアモジュールを記憶しており、アプリケーション部21は、本モジュールを用いて、特徴点集合4の各々とIDとを対応付ける。
1つの例では、記憶装置15は3次元空間データを3次元空間データベースとして機能させるためのプログラムとともに記憶する。例えばこの場合、アプリケーション部21は、認識した特徴点集合4の各々のIDの組み合わせを用いて3次元空間データベースに問い合わせることにより、該IDの組み合わせに応じた3次元空間データを取得する。
アプリケーション部21は、ユーザ操作などによりアプリケーションが起動すると、撮影装置14を起動する。認識部22は、撮影装置14により撮影された特徴点集合4の各々を認識する。例えば、認識部22は、特徴点集合4の外縁及び白色と黒色の正方形の配置位置から特徴点集合4を認識するとともに該特徴点集合4のIDを認識する。好ましくは、認識部22は、所定時間ごとに、例えば0.5秒ごとに、撮影装置14により撮影された特徴点集合4の各々を認識する。
位置決定部23は、実空間50における撮影装置14の位置及び撮影方向に対応する仮想空間60における仮想カメラの視点位置を決定する。位置決定部23が決定する仮想カメラの視点位置は、例えば仮想空間60上に6DoF(6軸自由度)で表される。例えば、仮想カメラの画角は、実際の撮影装置14の画角に応じて決定される。
1つの例では、アプリケーション部21は、撮影装置14が所定の数量以上の特徴点集合4を撮影しているか否かを判定し、撮影装置14が所定の数量以上の特徴点集合4を撮影していると判定した場合、位置決定部23は、仮想カメラの視点位置を決定する。例えば、アプリケーション部21は、認識部22が3つ以上の特徴点集合4を認識した場合、位置決定部23は、仮想カメラの視点位置を決定する。
位置決定部23は、認識した特徴点集合4のIDと記憶装置15が記憶する特徴点集合位置データとを用いて、該特徴点集合4が配置された配置位置情報を取得する。また位置決定部23は、認識した特徴点集合4の形状及び大きさから該特徴点集合4に対する携帯端末装置2の相対位置を示す相対位置情報を決定する。相対位置情報は、正確には相対位置姿勢情報であり、例えば相対位置としての6DoFを含む情報であり、特徴点集合4に対する携帯端末装置2(撮影装置14)の3次元位置及び向いている方向を含む。したがって、例えば相対位置情報(相対位置姿勢情報)は、仮想カメラの位置を原点とする特徴点集合4の位置姿勢情報である。位置決定部23は、認識した特徴点集合4の各々について、配置位置情報を取得し、携帯端末装置2と特徴点集合4との相対位置を示す相対位置情報を決定する。位置決定部23は、取得した配置位置情報及び決定した相対位置情報に基づいて、仮想カメラの視点位置(6DoF)を決定する。
1つの例では、位置決定部23は、認識した特徴点集合4の各々についての配置位置情報及び相対位置情報を用いて、仮の仮想カメラの視点位置(6DoF)を各々算出する。位置決定部23は、算出された複数の6DoFの平均値を用いて、仮想カメラの視点位置を決定する。或いは、位置決定部23は、算出された複数の6DoFの中央値を用いて、仮想カメラの視点位置を決定する。或いは、位置決定部23は、算出された複数の6DoFをパーティクルフィルタ(非特許文献4)などの推定モデルに入力することにより、仮想カメラの視点位置を決定する。
1つの例では、位置決定部23は、上記の例示の代わりに、又は追加して、既知の特徴点集合4の配置関係を用いて、仮想カメラの視点位置を決定する。ここで、特徴点集合4の各々は、予め定められた垂直方向及び水平方向の距離離れて配置されるため、一の特徴点集合4の位置から、他の特徴点集合4の位置を導き出すことができる。1つの例では、位置決定部23は、認識した特徴点集合4の各々について相対位置情報を決定すると、認識した特徴点集合4により構成される第1の仮想的な矩形を決定する。一方、位置決定部23は、認識した特徴点集合4の各々についての配置位置情報を取得し、取得した配置位置情報から構成される第2の仮想的な矩形を決定する。位置決定部23は、第2の仮想的な矩形の配置位置情報と、第2の仮想的な矩形に対する第1の仮想的な矩形の形状及び大きさとを用いて、仮想カメラの視点位置を決定する。
他の例では、位置決定部23は、仮の仮想カメラの視点位置を一の特徴点集合4の配置位置情報及び相対位置情報を用いて算出された6DoFとした場合、該特徴点集合4から導き出した他の特徴点集合4の位置と、撮影装置14による撮影画像から特定される他の特徴点集合4の位置との差分を算出する。位置決定部23は、算出された6DoFの各々のうち、算出した差分が所定範囲内であった6DoFを抽出し、該6DoFの平均値若しくは中央値を用いて、又は該6DoFを既知の推定モデルに入力して、仮想カメラの視点位置を決定する。或いは、位置決定部23は、算出された6DoFの各々に対して、算出した差分に応じて重み付けを行い、重み付けを行った6DoFの平均値若しくは中央値を用いて、又は該6DoFを既知の推定モデルに入力して、仮想カメラの視点位置を決定する。或いは、位置決定部23は、算出されたDoFに基づいて仮想カメラの視点位置を決定した後、既知の特徴点集合群3の配置関係を用いて、当該仮想カメラの視点位置を補正する。
1つの例では、位置決定部23は、特徴点集合4に対する携帯端末装置2の相対位置を以下のように決定する。特徴点集合4の各々の大きさ及び形状は、予め定められている。位置決定部23は、既知の方法を用いて、特徴点集合4を画像として認識し、特徴点集合4の輪郭を認識し、特徴点集合座標系からカメラ座標系へ変換するための座標変換行列を算出する。位置決定部23は、算出された座標変換行列を用いて、撮影装置14による撮影画像中の特徴点集合4のカメラ座標系における位置及び姿勢を算出し、特徴点集合4の撮影装置14に対する相対的な位置(6DoF)を決定する。
1つの例では、位置決定部23は、特徴点集合4に対する携帯端末装置2の相対位置を以下のように決定する。位置決定部23は、撮像された画像中に含まれる対象物の検出のために回転や移動に強いロバストな特徴量である局所特徴量を用いた既知の方法(非特許文献2、3)を用いる。本例示において、記憶装置15は、特徴点集合4の各々のテンプレート画像を特徴点集合4のIDに関連付けて記憶する。位置決定部23は、局所特徴量を用いて、テンプレート画像と撮影装置14による撮影画像間の射影(回転、拡大縮小、変形など)を求めることにより、相対的な位置(6DoF)を決定する。ここで、局所特徴量とは、点、エッジ、小さいイメージ・パッチなど、画像内に見られるパターンや際立つ構造のことを指す。具体的には、テンプレート画像の四隅の点と、局所特徴量を用いて求めたホモグラフィ行列を利用して、射影を推定する。ホモグラフィ行列とは、ある平面を、射影変換を用いて別の平面に射影する際のパラメータを指す。
仮想カメラの視点位置は、6DoFを用いて算出され決定されるが、同等の情報を含む他のフォーマットの位置情報を用いてもよい。
画像生成部24は、記憶装置15が記憶する第1の仮想オブジェクト61のデータ及び第2の仮想オブジェクト62のデータ、並びに位置決定部23が決定した仮想カメラの視点位置に基づいて、実空間50の撮影画像に該視点位置に応じた第2の仮想オブジェクト62の画像を重畳させた複合現実画像を生成する。画像表示部25は、生成された複合現実画像を含むアプリケーション画面を表示装置13に表示する。
1つの例では、画像生成部24は、位置決定部23が決定した仮想カメラの視点位置に対応する第1の仮想オブジェクト61のデータ及び第2の仮想オブジェクト62のデータを読み込み、実空間50の撮影画像に該視点位置に応じた第2の仮想オブジェクト62の画像を重畳させた複合現実画像を生成する。複合現実画像の生成にあたっては、特許文献1や非特許文献5に示すような既知の方法を用いることができる。
図8は、実空間50の撮影画像に図7に示す第2の仮想オブジェクト62の画像を重畳させた複合現実画像の一例である。画像生成部24は、仮想カメラの視野範囲内に第1の仮想オブジェクト61と第2の仮想オブジェクト62が重複する場合において、第2の仮想オブジェクト62の仮想カメラの視点位置からの奥行距離が第1の仮想オブジェクト61よりも大きい場合、該重複した部分が除かれた第2の仮想オブジェクト62の画像を重畳させた複合現実画像を生成する。例えば、画像生成部24は、第1の仮想オブジェクト61についてはインビジブルなメッシュとして描画処理を行い、第2の仮想オブジェクト62については通常の描画処理を実行する。これにより、上記重複した部分においては、第2の仮想オブジェクト62よりも仮想カメラの視点位置が近い第1の仮想オブジェクト61のインビジブルな描画処理が実行されることになる。なお、仮想カメラの視野範囲は、撮影装置14の画角に応じて決定される。
図8は、一部が削られて表示される第2の仮想オブジェクト62を示す。図8において、第2の仮想オブジェクト62は実オブジェクト51であるビルの向こう側に存在するように表示されていることが確認できる。
1つの例では、画像生成部24は、所定のフレームレートで複合現実画像を生成することにより、MR動画を生成する。1つの例では、撮影装置14が特徴点集合4を認識しない場合や仮想カメラの視点位置が決定されない場合、画像表示部25は、実空間50の撮影画像をそのまま複合現実画像として表示する。
本実施形態では、アプリケーション部21の各部の動作から、MRシステム1は、撮影装置14が撮影する1つの撮影画像内に収まる少なくとも3つの特徴点集合4を含む必要がある。特徴点集合群3が含む特徴点集合4のうち仮想的な矩形の隣接する頂点位置に対応する2つの特徴点集合4の垂直方向の距離及び水平方向の距離は、該特徴点集合群3から既定距離離れたときの撮影装置14の画角に基づいて決定される。
図9は、本発明の一実施形態のMRシステム1における携帯端末装置2と特徴点集合群3が含む特徴点集合4の位置関係を説明する図である。図9において、距離hは棒状体41に固定された特徴点集合4間の距離を表し、距離wは、一対の棒状体41の上側に固定された特徴点集合間4の距離又は下側に固定された特徴点集合間4の距離を表す。距離dは、特徴点集合群3からの撮影装置14(携帯端末装置2)の距離を表す。特徴点集合4間の距離は、例えば特徴点集合4の中心間の距離であり、特徴点集合群3からの距離は、例えば特徴点集合群3が含む特徴点集合4が構成する仮想的な矩形(平面)からの距離である。例えば距離dは、MRシステム1がMR体験を得ようとするユーザに対して推奨する該ユーザの特徴点集合群3からの距離である。
1つの例では、撮影装置14の垂直画角がα度、水平画角がβ度の場合、距離hの最大値hmaxと距離wの最大値wmaxは、各々以下の式により決定される。
Figure 2020030748

Figure 2020030748
(1)
h≦hmax、w≦wmaxとなるように各特徴点集合4を配置することにより、撮影装置14が特徴点集合群3から距離d離れたときに、撮影装置14は、1つの撮影画像内に特徴点集合群3が含む特徴点集合4を収めることが可能となる。位置決定部23がより精度よく位置を算出するためには、特徴点集合4間の距離を大きくすることが好ましいため、h=hmax、w=wmaxとなるように各特徴点集合4を配置することが好ましい。1つの例では、d=2m、α=63度、β=50度の場合、h=1.2m、w=0.9mである。
次に、本発明の一実施形態によるMRシステム1の情報処理について図10に示したフローチャートを用いて説明する。図10に示す情報処理は、プログラムを携帯端末装置2に実行させることで実現される。本処理においては、携帯端末装置2を持っているユーザは実空間50内におり、ユーザによりアプリケーション部21の機能を含むアプリケーションが起動された状態にある。1つの例では、当該アプリケーションが起動されている間、携帯端末装置2は、本フローチャートの処理を定期的に実行する。
ステップ101で、携帯端末装置2は、携帯端末装置2の撮影装置14が撮影する撮影画像から特徴点集合4を3つ以上認識できるか否かを判定する。特徴点集合4を3つ以上認識した場合、本処理はステップ102へ進み、特徴点集合4を3つ未満認識した場合、本処理は終了する。
次にステップ102で、携帯端末装置2は、認識した特徴点集合4のIDの各々と記憶装置15が記憶する特徴点集合位置データとを用いて、該特徴点集合4の各々が配置された配置位置情報を取得する。携帯端末装置2は、認識した特徴点集合4の形状及び大きさから該特徴点集合4の各々に対する携帯端末装置2の相対位置を示す相対位置情報を決定する。
次にステップ103で、携帯端末装置2は、認識した特徴点集合4の各々についての配置位置情報及び相対位置情報の各々に基づいて、仮想カメラの視点位置を決定する。
次にステップ104で、携帯端末装置2は、仮想カメラの視野範囲内で第2の仮想オブジェクト62が有るか否かを判定する。第2の仮想オブジェクト62が有る場合、本処理はステップ105へ進み、第2の仮想オブジェクト62が無い場合、本処理は終了する。ステップ105で、携帯端末装置2は、第1の仮想オブジェクト61のデータ、第2の仮想オブジェクト62のデータ、及び決定された仮想カメラの視点位置に基づいて、実空間50の撮影画像に該視点位置に応じた第2の仮想オブジェクト62の画像を重畳させた複合現実画像を生成する。本処理を終了する場合、携帯端末装置2は、実空間50の撮影画像をそのまま複合現実画像として表示する。
次に、本発明の実施形態によるMRシステム1(携帯端末装置2)の主な作用効果について説明する。本実施形態では、MRシステム1は、所定の実空間50内に複数の特徴点集合4を含み、該特徴点集合4の各々は、実空間50上の仮想的な矩形の4つの頂点位置に対応する位置に、予め定められた垂直方向の距離及び水平方向の距離離れて配置される。また記憶装置15は、実空間50内にある実オブジェクト51を表し仮想空間60を定める3次元空間データを記憶するとともに、各特徴点集合4の配置位置情報を記憶し、該配置位置情報は3次元空間データに紐づけられたものである。
携帯端末装置2は、特徴点集合4を認識することにより、認識した特徴点集合4の各々の配置位置情報を取得する。一方、携帯端末装置2は、認識した特徴点集合4の各々の撮影画像における形状及び大きさから該特徴点集合4の各々に対する携帯端末装置2の相対位置を示す相対位置情報(6DoF)を決定する。携帯端末装置2は、認識した特徴点集合4の各々の配置位置情報及び相対位置情報に基づいてカメラの視点位置(6DoF)を決定し、実空間50の撮影画像に仮想カメラの視点位置に応じた複合現実画像を生成する。
このように、MRシステム1においては、3次元空間データ(仮想空間60)の座標を用いて実オブジェクト51と特徴点集合4の位置を紐付けられるため、携帯端末装置2は、特徴点集合4を認識することにより、認識した特徴点集合4の仮想空間60における配置位置情報を取得することができる。また本実施形態では、配置位置情報と特徴点集合4に対する携帯端末装置2の相対位置情報を用いて、ユーザにより操作されている撮影装置14(自己位置)に対応する仮想カメラの視点位置(6DoF)を決定することが可能である。
また本実施形態では、携帯端末装置2は、特徴点集合4の各々から仮の仮想カメラの視点位置(6DoF)を各々算出した後で、算出した6DoFの各々に基づいて仮想カメラの視点位置を決定する。仮想カメラの視点位置の精度は、複合現実画像を生成する上で非常に重要である。このような構成とすることにより、本実施形態では、より精度よく仮想カメラの視点位置を決定することが可能となる。また本実施形態では、携帯端末装置2は、更に既知の特徴点集合群3の配置関係を用いて、仮想カメラの視点位置を決定する。これにより、より精度よく仮想カメラの視点位置を決定することが可能となる。この場合、携帯端末装置2が仮想カメラの視点位置を決定する上で、より正確にかつ速く演算するために、特徴点集合群3を構成する隣接する特徴点集合4は、鉛直方向(垂直方向)及び水平方向に実質的に平行であることが好ましい。
また本実施形態では、携帯端末装置2は、複合現実画像を生成するにあたって、第1の仮想オブジェクト61についてはインビジブルなメッシュとして描画処理を行い、第2の仮想オブジェクト62については通常の描画処理を実行する。このような構成とすることにより、本実施形態では、第2の仮想オブジェクト62を表示するときの実オブジェクト51とのより精度の高い幾何学的整合性(前後関係、オクルージョンなど)を実現することが可能となる。複合現実画像における幾何学的整合性は、第2の仮想オブジェクト62にリアリティを与えるうえで、極めて重要である。
上記の作用効果は、特に言及が無い限り、他の実施形態や他の実施例においても同様である。
本発明の他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムや該プログラムを格納したコンピュータ読み取り可能な記憶媒体とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する方法とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムをコンピュータに供給することができるサーバとすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する仮想マシンとすることもできる。また他の実施形態では、MRシステム1における特徴点集合4の配置構造とすることもできる。
以下に本発明の実施形態の変形例について説明する。以下で述べる変形例は、矛盾が生じない限りにおいて、適宜組み合わせて本発明の任意の実施形態に適用することができる。
1つの変形例では、特徴点集合4は、2次元コードであるか、又は2次元コードを含む。例えば特徴点集合4は、QRコード(登録商標)又はデータマトリックスである。更なる1つの変形例では、特徴点集合4としての2次元コードは、識別可能情報として、緯度、経度、アングル等を示す識別子を含む。この場合、2次元コードを認識した携帯端末装置2は、取得した識別可能情報から直接特徴点集合4の配置位置情報を取得することができる。この場合、記憶装置15は、特徴点集合位置データを記憶しなくてもよい。
1つの変形例では、特徴点集合4は、既知のARマーカである。
1つの変形例では、各々を識別可能な異なる特徴点の空間的な分散を有するポスター、絵、写真などを特徴点集合4として用いる。認識部22及び位置決定部23は、前述の局所特徴量を用いた既知の方法(非特許文献2、3)を用いる。この場合、局所特徴量が識別可能情報となる。本変形例において、記憶装置15は、特徴点集合4の各々のテンプレート画像を特徴点集合4のIDに関連付けて記憶する。認識部22は、撮影装置14により撮影された特徴点集合4から局所特徴量を抽出し、特徴点集合4の各々のテンプレート画像と照合することにより、特徴点集合4の各々のIDを認識する。位置決定部23は、認識した特徴点集合4のIDと記憶装置15が記憶する特徴点集合位置データとを用いて、該特徴点集合4が配置された配置位置情報を取得する。また位置決定部23は、局所特徴量を用いて、テンプレート画像と撮影装置14による撮影画像間の射影(回転、拡大縮小、変形など)を求めることにより、特徴点集合4に対する携帯端末装置2の相対位置情報を決定する。位置決定部23は、認識した特徴点集合4の各々について、配置位置情報を取得して相対位置情報を決定し、当該配置位置情報及び相対位置情報に基づいて、仮想カメラの視点位置を決定する。
1つの変形例では、特徴点集合群3は、予め定められた位置関係を有するように配置された3つの特徴点集合4を含む。例えば、実空間50において水平方向に離れて設置された一対の棒状体41のうちの一方の棒状体41には2つの特徴点集合4が固定して取り付けられ、他方の棒状体41には1つの特徴点集合4が固定して取り付けられる。本実施形態では、特徴点集合群3が予め位置関係が定められた3つの特徴点集合4を含むことにより、位置決定部23は、既知の特徴点集合群3の配置関係を用いて、仮想カメラの視点位置を決定することが可能となる。この場合の3つの特徴点集合4は、実空間50上の仮想的な矩形の4つの頂点のうちの3つの頂点位置に対応する位置関係を有するように配置されることが好ましい。
1つの変形例では、MRシステム1は、実空間50において水平方向に離れて設置された3以上の棒状体41の各々に固定して取り付けられた、複数の特徴点集合4を含む。各棒状体41においては、複数の特徴点集合4が垂直方向に離れて固定して取り付けられる。ただし、一部の棒状体41は、1つの特徴点集合4のみが取り付けられてもよい。
1つの変形例では、特徴点集合4の各々は、光を透過する材料で形成される透過部材42に固定して取り付けられる。透過部材42は、例えば、可視光線のほぼ全域を透過するガラスや樹脂であり、窓ガラスのような構造物の一部でもよいし、ガラス板のような持ち運び可能なものでもよい。図11は、窓ガラスに固定して取り付けられた特徴点集合群3を示す図である。
1つの変形例では、特徴点集合4の各々は、ワイヤーを用いて固定して取り付けられる。ただし、ワイヤーと同等の機能を有する部材を用いて、実空間50に固定してもよい。
1つの変形例では、MRシステム1は、5以上の特徴点集合4を含む特徴点集合群3を含む。例えば、特徴点集合群3は20の特徴点集合4から構成される。本変形例では、撮影装置14が1つの撮影画像内に、特徴点集合群3が含む特徴点集合4のすべてを収めることができない場合を想定する。
認識部22は、所定時間ごとに、撮影装置14の撮影画像内に含まれる特徴点集合4の各々を認識する。位置決定部23は、所定時間ごとに、認識した特徴点集合4の各々の配置位置情報及び相対位置情報に基づいてカメラの視点位置(6DoF)を決定する。画像生成部24は、第1の仮想オブジェクト61のデータ及び第2の仮想オブジェクト62のデータ、並びに所定時間ごとに位置決定部23が決定した仮想カメラの視点位置に基づいて、実空間50の撮影画像に仮想カメラの視点位置に応じた複合現実画像を生成する。
このように、撮影装置14が複数の特徴点集合4を認識した後、ユーザの移動により撮影装置14の撮影位置が移動したとき、携帯端末装置2は、他の複数の特徴点集合4を認識する。このような構成とすることにより、携帯端末装置2は、実空間50内のユーザの移動に伴って、複数の特徴点集合4を順次切り替えながらキャリブレーションする「ローミング処理」を行うことが可能となる。このように、本変形例では、撮影装置14が撮影する複数の特徴点集合4が時間に応じて変化する状況であっても、携帯端末装置2は自己位置(6DoF)を連続的に算出することが可能となる。これにより、実空間50内を移動するユーザに対して、MR体験を提供し続けることが可能となる。
本変形例において、位置決定部23は、認識した特徴点集合4のうちの一部の特徴点集合4の各々の配置位置情報及び相対位置情報に基づいてカメラの視点位置(6DoF)を決定してもよい。例えば、撮影画像内の特徴点集合4のサイズが所定の大きさ以上の特徴点集合4の各々の配置位置情報及び相対位置情報に基づいてカメラの視点位置(6DoF)を決定してもよい。
1つの変形例では、図11に示すように、MRシステム1は、第1の特徴点集合群3a、第2の特徴点集合群3b、第3の特徴点集合群3c、及び第4の特徴点集合群3dを含む複数の特徴点集合群3を含む。本変形例において、各特徴点集合群3はお互いに異なる特徴点集合4を含むが、複数の特徴点集合群3が同一の特徴点集合4を含む。例えば、第1の特徴点集合群3aは、第2の特徴点集合群3bが含む特徴点集合4と、第2の特徴点集合群3bが含まない特徴点集合4を含む。
認識部22は、所定時間ごとに、撮影装置14の撮影画像内に含まれる特徴点集合4の各々を認識する。アプリケーション部21は、認識した特徴点集合群3のうちの一の特徴点集合群3を基準特徴点集合群3として選択する。位置決定部23は、基準特徴点集合群3が含む特徴点集合4の各々についての相対位置情報を決定すると、認識した特徴点集合4により構成される第1の仮想的な矩形を決定する。一方、位置決定部23は、認識した特徴点集合4の各々についての配置位置情報を取得し、取得した配置位置情報から構成される第2の仮想的な矩形を決定する。位置決定部23は、第2の仮想的な矩形の配置位置情報と、第2の仮想的な矩形に対する第1の仮想的な矩形の形状及び大きさとを用いて、仮想カメラの視点位置を決定する。
1つの例では、認識部22が特徴点集合4の各々を認識するごとに、アプリケーション部21は、基準特徴点集合群3を選択する。1つの例では、アプリケーション部21は、撮影画像に含まれる特徴点集合4がより多い特徴点集合群3を、基準特徴点集合群3として選択する。1つの例では、上記選択方法の代わりに、又はこれに加えて、アプリケーション部21は、撮影画像の中央部分に含まれる特徴点集合4がより多い特徴点集合群3を、基準特徴点集合群3として選択する。1つの例では、上記選択方法の代わりに、又はこれに加えて、アプリケーション部21は、撮影画像に含まれる特徴点集合4のサイズが大きい特徴点集合4の比率がより多い特徴点集合群3を、基準特徴点集合群3として選択する。
このように、撮影装置14により基準特徴点集合群3が含む特徴点集合4を認識した後、ユーザの移動により撮影装置14の撮影位置が移動したとき、携帯端末装置2は、他の基準特徴点集合群3が含む特徴点集合4を認識する。このような構成とすることにより、携帯端末装置2は、実空間50内のユーザの移動に伴って、特徴点集合群3を順次切り替えながらキャリブレーションする「ローミング処理」を行うことが可能となる。このように、本変形例では、撮影装置14が撮影する複数の特徴点集合4が時間に応じて変化する状況であっても、携帯端末装置2は自己位置(6DoF)を連続的に算出することが可能となる。これにより、実空間50内を移動するユーザに対して、MR体験を提供し続けることが可能となる。
なお、1つの特徴点集合群3は、6つの特徴点集合4を含むものとしてもよいし、9つの特徴点集合4を含むものとしてもよい。
1つの変形例では、携帯端末装置2(位置決定部23)は、仮想カメラの視点位置を仮想空間60上の所定位置(例えば、予め定めた6DoF)に固定し、3次元空間データの座標の位置を動的に決定する。携帯端末装置2は、カメラの視点位置を決定する代わりに、第1の仮想オブジェクト61の3次元位置情報を決定する。例えば携帯端末装置2は、3次元空間データの座標を決定する。これに伴って、特徴点集合4の座標及び第2の仮想オブジェクト62の座標も変更される。
1つの変形例では、配置位置情報(配置位置姿勢情報)又は相対位置情報(相対位置姿勢情報)は、6DoFの値の代わりに、クオータニオンの値を用いる。
1つの変形例では、図12に示すように、MRシステム1は、複数の携帯端末装置2と、サーバ6と備え、携帯端末装置2及びサーバ6は、インターネットなどのネットワーク8に接続され、互いに通信可能である。サーバ6は、一般的なサーバが備える構成を備える。例えば、サーバ6は、各部を制御するCPU等のプロセッサと、ROMやRAM等の記憶素子やハードディスクドライブ等の記憶装置と、ディスプレイ等の表示装置と、マウス、キーボード、タッチパネル等の入力装置と、ネットワークボード等の通信装置とを備える。これらの構成要素はバスを介して接続される。
サーバ6が備える記憶装置は、第1の仮想オブジェクト61のデータ(3次元空間データ)及び第2の仮想オブジェクト62のデータを記憶する。携帯端末装置2の記憶装置15は、サーバ6が記憶するデータを記憶しなくてもよい。例えば、サーバ6は、3次元空間データを3次元空間データベースとして機能させるためのプログラムとともに記憶し、携帯端末装置2からの問い合わせに応じて、3次元空間データを携帯端末装置2に送信する。サーバ6が備える記憶装置は、携帯端末装置2の記憶装置15の代わりに、特徴点集合位置データを記憶してもよい。
更なる1つの変形例では、MRシステム1の携帯端末装置2の動作は、サーバ6が提供するWebアプリにより実現される。例えば、サーバ6は、アプリケーション部21の機能をすべて備え、アプリケーション部21の動作で用いる各種データも併せて記憶する。この場合、サーバ6は、アプリケーション部21に対応するWebアプリを携帯端末装置2に提供する。携帯端末装置2は、該携帯端末装置2に予めインストールされたWebアプリが起動されると、サーバ6上のWebアプリへアクセスする。携帯端末装置2は、サーバ6と通信することにより、アプリケーション部21の機能を携帯端末装置2上で実現する。
以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。
1 複合現実システム
2 携帯端末装置
3 特徴点集合群
4 特徴点集合
6 サーバ
8 ネットワーク
11 プロセッサ
12 入力装置
13 表示装置
14 撮影装置
15 記憶装置
16 通信装置
17 バス
21 アプリケーション部
22 認識部
23 位置決定部
24 画像生成部
25 画像表示部
41 棒状体
42 透過部材
50 実空間
51 実オブジェクト
60 仮想空間
61 第1の仮想オブジェクト
62 第2の仮想オブジェクト

Claims (14)

  1. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、
    前記複合現実システムは、
    前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、
    前記携帯端末装置は、
    予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、
    前記撮影装置により撮影された前記特徴点集合の各々を認識し、
    認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定し、
    前記第1の仮想オブジェクトのデータ、前記第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、
    複合現実システム。
  2. 前記携帯端末装置は、前記複合現実画像を生成するにあたって、前記仮想カメラの視野範囲内に前記第1の仮想オブジェクトと前記第2の仮想オブジェクトが重複する場合において、該第2の仮想オブジェクトの前記視点位置からの奥行距離が該第1の仮想オブジェクトよりも大きい場合、該重複した部分が除かれた該第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、請求項1に記載の複合現実システム。
  3. 前記複合現実システムは、5以上の前記特徴点集合を含み、
    前記携帯端末装置は、所定時間ごとに、前記撮影装置により撮影された前記特徴点集合の各々を認識し、前記視点位置を決定し、前記複合現実画像を生成する、請求項1又は2に記載の複合現実システム。
  4. 前記複合現実システムは、前記所定の実空間に配置された4つの前記特徴点集合を含み、該特徴点集合の各々は、実空間上の仮想的な矩形の4つの頂点位置に対応する位置関係を有し、かつ予め定められた垂直方向の距離及び予め定められた水平方向の距離離れて配置される、請求項1から3のいずれか1項に記載の複合現実システム。
  5. 1又は複数の前記特徴点集合が、水平方向に離れて設置された複数の棒状体の各々に、固定して取り付けられる、請求項4に記載の複合現実システム。
  6. 前記特徴点集合の各々は、光を透過する材料で形成される透過部材に固定して取り付けられる、請求項1から4のいずれか1項に記載の複合現実システム。
  7. 前記特徴点集合の各々は、ワイヤーを用いて固定して取り付けられる、請求項1から4のいずれか1項に記載の複合現実システム。
  8. 前記特徴点集合は、ポスター、絵、写真、ArUcoマーカ、ARマーカ、2次元コード、又はデータマトリックスである、請求項1から7のいずれか1項に記載の複合現実システム。
  9. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおいて、該携帯端末装置に実行させるプログラムであって、
    前記複合現実システムは、
    前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、
    前記プログラムは、前記携帯端末装置に、
    前記撮影装置により撮影された前記特徴点集合の各々を認識するステップと、
    認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々が配置された仮想空間における配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、
    予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータ、該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成するステップと、
    を実行させる、プログラム。
  10. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおける携帯端末装置であって、
    前記複合現実システムは、
    前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、
    前記携帯端末装置は、
    予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、
    前記撮影装置により撮影された前記特徴点集合の各々を認識し、
    認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定し、
    前記第1の仮想オブジェクトのデータ、前記第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、
    携帯端末装置。
  11. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおいて、該携帯端末装置により実行される方法であって、
    前記複合現実システムは、
    前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、
    前記撮影装置により撮影された前記特徴点集合の各々を認識するステップと、
    認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々が配置された仮想空間における配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、
    予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータ、該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成するステップと、
    を含む、方法。
  12. サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、
    前記複合現実システムは、
    前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、
    前記サーバは、
    予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、
    前記携帯端末装置は、
    前記撮影装置により撮影された前記特徴点集合の各々を認識し、
    認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定し、
    前記第1の仮想オブジェクトのデータ、前記第2の仮想オブジェクトのデータ、及び前記視点位置に基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、
    複合現実システム。
  13. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、
    前記複合現実システムは、
    前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、
    前記携帯端末装置は、
    予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトのデータと該実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータとを記憶するとともに、前記所定の実空間に配置された前記特徴点集合の各々の仮想空間における配置位置姿勢情報を記憶し、
    前記撮影装置により撮影された前記特徴点集合の各々を認識し、
    認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々の前記配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、前記第1の仮想オブジェクトの位置姿勢情報を決定し、
    前記第1の仮想オブジェクトのデータ及び前記第2の仮想オブジェクトのデータに基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成する、
    複合現実システム。
  14. 所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を含み、実空間の撮影画像に実空間に対応する仮想空間に配置される仮想オブジェクトの画像を重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおいて、該携帯端末装置に実行させるプログラムであって、
    前記複合現実システムは、
    前記所定の実空間内に配置された複数の特徴点集合を含み、該特徴点集合は、各々を識別可能な識別可能情報を含み、該複数の特徴点集合のうちの少なくとも3つの該特徴点集合は予め定められた位置関係を有するように配置され、
    前記プログラムは、前記携帯端末装置に、
    前記撮影装置により撮影された前記特徴点集合の各々を認識するステップと、
    認識した前記特徴点集合の一部又は全部の各々の前記識別可能情報から取得された該特徴点集合の各々が配置された仮想空間における配置位置姿勢情報、及び該特徴点集合の形状及び大きさから決定される該特徴点集合の各々に対する前記携帯端末装置の相対位置姿勢情報に基づいて、予め取得された前記所定の実空間内に存在する実オブジェクトに対応するものであり仮想空間を定めるものである第1の仮想オブジェクトの位置姿勢情報を決定するステップと、
    前記第1の仮想オブジェクトのデータ及び前記実オブジェクトに対応しない仮想空間における第2の仮想オブジェクトのデータに基づいて、実空間の撮影画像に該視点位置に応じた前記第2の仮想オブジェクトの画像を重畳させた複合現実画像を生成するステップと、
    を実行させる、プログラム。
JP2018157410A 2018-08-24 2018-08-24 複合現実システム、プログラム、携帯端末装置、及び方法 Active JP6640294B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018157410A JP6640294B1 (ja) 2018-08-24 2018-08-24 複合現実システム、プログラム、携帯端末装置、及び方法
CN201980069925.2A CN112912936A (zh) 2018-08-24 2019-08-23 混合现实系统、程序、移动终端装置和方法
PCT/JP2019/032969 WO2020040277A1 (ja) 2018-08-24 2019-08-23 複合現実システム、プログラム、携帯端末装置、及び方法
US17/181,456 US20210174599A1 (en) 2018-08-24 2021-02-22 Mixed reality system, program, mobile terminal device, and method
US18/501,702 US20240071016A1 (en) 2018-08-24 2023-11-03 Mixed reality system, program, mobile terminal device, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157410A JP6640294B1 (ja) 2018-08-24 2018-08-24 複合現実システム、プログラム、携帯端末装置、及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019234647A Division JP2020057430A (ja) 2019-12-25 2019-12-25 複合現実システム、プログラム、携帯端末装置、及び方法

Publications (2)

Publication Number Publication Date
JP6640294B1 JP6640294B1 (ja) 2020-02-05
JP2020030748A true JP2020030748A (ja) 2020-02-27

Family

ID=69320908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157410A Active JP6640294B1 (ja) 2018-08-24 2018-08-24 複合現実システム、プログラム、携帯端末装置、及び方法

Country Status (4)

Country Link
US (2) US20210174599A1 (ja)
JP (1) JP6640294B1 (ja)
CN (1) CN112912936A (ja)
WO (1) WO2020040277A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195336B2 (en) * 2018-06-08 2021-12-07 Vulcan Inc. Framework for augmented reality applications
CN117635879A (zh) * 2022-08-17 2024-03-01 北京字跳网络技术有限公司 图像处理方法及装置
WO2024070602A1 (ja) * 2022-09-29 2024-04-04 日本電気通信システム株式会社 情報表示システム、情報表示方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020614A (ja) * 2007-07-10 2009-01-29 Ritsumeikan 複合現実感システムに用いるマーカユニット、複合現実感システム、マーカユニット作成支援システム、及び、マーカユニット作成支援プログラム
JP2017076295A (ja) * 2015-10-16 2017-04-20 富士フイルム株式会社 拡張現実提供システム及び方法、情報処理装置、並びにプログラム
WO2018123022A1 (ja) * 2016-12-28 2018-07-05 株式会社メガハウス コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ
WO2018147093A1 (ja) * 2017-02-10 2018-08-16 株式会社エンプラス マーカ
JP6410874B1 (ja) * 2017-05-30 2018-10-24 株式会社タカラトミー Ar映像生成装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US9111347B2 (en) * 2009-07-29 2015-08-18 Metaio Gmbh Method for determining the pose of a camera with respect to at least one real object
US8749396B2 (en) * 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
US9524436B2 (en) * 2011-12-06 2016-12-20 Microsoft Technology Licensing, Llc Augmented reality camera registration
JP6318542B2 (ja) * 2013-10-24 2018-05-09 富士通株式会社 表示制御方法、表示制御プログラムおよび情報処理装置
US9286725B2 (en) * 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images
JP6244954B2 (ja) * 2014-02-06 2017-12-13 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6344029B2 (ja) * 2014-04-16 2018-06-20 富士通株式会社 表示方法、表示プログラム、及び表示装置
JP6265027B2 (ja) * 2014-04-22 2018-01-24 富士通株式会社 表示装置、位置特定プログラム、および位置特定方法
US9892560B2 (en) * 2014-09-11 2018-02-13 Nant Holdings Ip, Llc Marker-based augmented reality authoring tools
US10026228B2 (en) * 2015-02-25 2018-07-17 Intel Corporation Scene modification for augmented reality using markers with parameters
US10192361B2 (en) * 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10347048B2 (en) * 2015-12-02 2019-07-09 Seiko Epson Corporation Controlling a display of a head-mounted display device
CN107077739A (zh) * 2017-01-23 2017-08-18 香港应用科技研究院有限公司 使用单目相机的三维标记模型构建和实时跟踪

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020614A (ja) * 2007-07-10 2009-01-29 Ritsumeikan 複合現実感システムに用いるマーカユニット、複合現実感システム、マーカユニット作成支援システム、及び、マーカユニット作成支援プログラム
JP2017076295A (ja) * 2015-10-16 2017-04-20 富士フイルム株式会社 拡張現実提供システム及び方法、情報処理装置、並びにプログラム
WO2018123022A1 (ja) * 2016-12-28 2018-07-05 株式会社メガハウス コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ
WO2018147093A1 (ja) * 2017-02-10 2018-08-16 株式会社エンプラス マーカ
JP6410874B1 (ja) * 2017-05-30 2018-10-24 株式会社タカラトミー Ar映像生成装置

Also Published As

Publication number Publication date
CN112912936A (zh) 2021-06-04
US20210174599A1 (en) 2021-06-10
US20240071016A1 (en) 2024-02-29
WO2020040277A1 (ja) 2020-02-27
JP6640294B1 (ja) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
JP7294396B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9443353B2 (en) Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
JP5093053B2 (ja) 電子カメラ
JP4508049B2 (ja) 360°画像撮影装置
JP6453501B1 (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
US10580205B2 (en) 3D model generating system, 3D model generating method, and program
US20240071016A1 (en) Mixed reality system, program, mobile terminal device, and method
JP2015510112A (ja) 仮想定規
JP6609640B2 (ja) 電子デバイス上における環境マッピング用のフィーチャ・データの管理
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
JP2019133642A (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
JP5714960B2 (ja) 監視範囲検知装置
JP2013196388A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
KR20120005735A (ko) 증강 현실에서 위치 정보를 표시하는 방법 및 장치
JP2020057430A (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP2008203991A (ja) 画像処理装置
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP6859763B2 (ja) プログラム、情報処理装置
JP2017162192A (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP2016224015A (ja) 三次元位置計測方法、測量方法、三次元位置計測装置及び三次元位置計測プログラム
JP2021047516A (ja) 情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181024

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190225

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191225

R150 Certificate of patent or registration of utility model

Ref document number: 6640294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250