JP2023134920A - システム、方法、端末、方法及びプログラム - Google Patents

システム、方法、端末、方法及びプログラム Download PDF

Info

Publication number
JP2023134920A
JP2023134920A JP2022039856A JP2022039856A JP2023134920A JP 2023134920 A JP2023134920 A JP 2023134920A JP 2022039856 A JP2022039856 A JP 2022039856A JP 2022039856 A JP2022039856 A JP 2022039856A JP 2023134920 A JP2023134920 A JP 2023134920A
Authority
JP
Japan
Prior art keywords
anchor
virtual object
real world
virtual
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022039856A
Other languages
English (en)
Inventor
紘幸 岡本
Hiroyuki Okamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022039856A priority Critical patent/JP2023134920A/ja
Priority to US18/180,044 priority patent/US20230298286A1/en
Priority to CN202310246712.0A priority patent/CN116778365A/zh
Publication of JP2023134920A publication Critical patent/JP2023134920A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Figure 2023134920000001
【課題】 仮想オブジェクトが同じ場所に乱雑に複数表示される場合、ユーザは見せたい仮想オブジェクトを見せられなくなる、あるいは、見たい仮想オブジェクトを見ることができなくなってしまう。
【解決手段】 仮想オブジェクトを管理するシステムであって、仮想オブジェクトを現実世界に紐づけて表示するための現実世界における特徴量を識別情報に関連付けて管理する管理手段を有し、前記管理手段は、前記識別情報に、さらに、前記仮想オブジェクトが提供される際に、ほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータをさらに関連付けて管理する、ことを特徴とする。
【選択図】 図4

Description

本発明は、AR(Augumented Reatlity、拡張現実)やMRR(Mixed Reality、複合現実)で扱う仮想オブジェクトを現実世界に表示する際の技術に関する。
AR(Augumented Reatlity、拡張現実)やMR(Mixed Reality、複合現実)といった現実と仮想の世界を融合して疑似体験を提供する空間を作り出す技術の総称としてXRが注目され、各種標準化の取り組みが行われている。また、近年では1つの仮想オブジェクトを現実世界の同じ場所に複数端末で表示するための仕組みが各社の提供するプラットフォーム上にて実現されている。例えば、現実世界に配置されるべき仮想オブジェクトと、カメラなどで捉えた現実世界の特徴量とを紐づけて管理するクラウドシステムが存在する。その後、任意の端末のカメラで、該システムで管理済みの特徴量と一致する現実世界をとらえることで、該特徴量と紐づけて管理された仮想オブジェクトをその任意の端末で閲覧することが可能となる。
ここで、仮想オブジェクトと、カメラなどで捉えた現実世界の特徴量とを紐づける関連付け情報のことをアンカーと呼ぶ場合がある。
特許文献1は、ユーザの行動情報や物理環境情報を用いて、特定の仮想オブジェクトの表示を切り替えている。例えば、最初は単なる青い球体の地球儀の仮想オブジェクトが表示されているが、近づいたり見つめたりすると詳細な地形を表現したものに切り替わる、というようなものである。
特開2015-118578号公報
ここで特許文献1では、ユーザ行動情報や物理環境情報に応じた、複数の仮想オブジェクト同士の表示制御については考慮していない。
例えば、多数のユーザが、それぞれ、現実世界の同じ場所(街の人気スポットなど)に仮想オブジェクトを配置すると、仮想オブジェクトが同じ場所に乱雑に複数表示されてしまうかもしれない。各ユーザが見せたい仮想オブジェクトを想定通りに提供できない、あるいは、閲覧者が見たいと思うような仮想オブジェクトが見られなくなってしまうかもしれない。
そこで、本発明は仮想オブジェクトを管理するシステムであって、仮想オブジェクトを現実世界に紐づけて表示するための現実世界における特徴量を識別情報に関連付けて管理する管理手段を有し、前記管理手段は、前記識別情報に、さらに、前記仮想オブジェクトが提供される際に、ほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータをさらに関連付けて管理する、ことを特徴とする。
本発明によれば、現実世界の特定の場所に複数の仮想オブジェクトが配置されるようなケースであっても、適切な情報提供が実現し得る仕組みが提供できる。
実施例1における仮想オブジェクト管理システムの全体構成を示す。 実施例1における仮想オブジェクト管理システムを構成するサーバーコンピューター、クライアント端末のハードウェア構成図である。 実施例1における仮想オブジェクト管理システムのソフトウェア構成図である。 実施例1における仮想オブジェクト管理システムにおいて複数端末で仮想オブジェクトを共有する処理の流れを表す。 実施例1におけるアンカーを生成する処理の流れを表したフローチャートである。 実施例1における仮想オブジェクト管理システムに保存されているアンカーに優先度を設定する処理の流れを表したフローチャートである。 実施例1における仮想オブジェクト管理システムがアンカーを検索する処理の流れを表したフローチャートである。 実施例1におけるクライアント端末が仮想オブジェクトを描画する処理の流れを表したフローチャートである。 実施例2におけるクライアント端末が仮想オブジェクトを描画する処理の流れを表したフローチャートである。 実施例2における仮想オブジェクト管理システムがアンカーを検索する処理の流れを表したフローチャートである。 実施例1におけるクライアント端末の画面の一例である。 実施例2におけるクライアント端末の画面の一例である。
以下、本発明を実施するための最良の形態について図面を用いて説明する。
図1は、本発明の実施の形態に係る、仮想オブジェクト管理システムの全体構成を示す図である。
図1において、仮想オブジェクト管理システム121、クライアント端末131~133、ネットワーク100~102を介して接続されている。ネットワーク100~102は、例えば、インターネット等のLAN、WAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、ケーブルテレビ回線、データ放送用無線回線等により実現される、いわゆる通信ネットワークである。ネットワーク100~102は、データの送受信が可能であればよい。本発明では、ネットワーク100はインターネット、ネットワーク101、102はインターネットや一般家庭内や会社内のネットワーク、街中に設定されている無線LANなどである。
クライアント端末131~133は、例えば、HMD(ヘッドマウントディスプレイ)やスマートグラスなどのXRで扱う仮想オブジェクトの描画に対応した専用ハードウェアや、スマートフォンのようなプログラムの実行環境が内蔵された携帯電話などである。また、クライアント端末131~133は周囲を撮影するためのカメラと、仮想オブジェクトを表示するためのディスプレイを備える。クライアント端末131~133はカメラ等を通じて周囲を撮影し、ディスプレイ上に現実世界に重ねて仮想オブジェクトを描画し、投影することで、ユーザに対して現実と仮想の世界を融合した疑似体験を提供する。クライアント端末131~133がスマートフォンなどのように専用ハードウェアでない場合は、WebブラウザやOS等が提供するAPIを利用して仮想オブジェクトの描画を行う。
仮想オブジェクト管理システム121は、現実世界に配置されるべき仮想オブジェクトと、カメラなどで捉えた現実世界の特徴量とを紐付けて管理するサービス、当該仮想オブジェクトを外部の端末に提供するためのサービスなどを提供するためのシステムである。仮想オブジェクト管理システム121はサーバーコンピューターを用いて構築される。クラウドコンピューティング技術などを採用して構築することができる。
本実施例では、仮想オブジェクト管理システム121で管理する、仮想オブジェクトと、カメラなどで捉えた現実世界の特徴量とを紐づける関連付け情報のことを、以降ではアンカーと呼ぶ。関連付け情報としては、それらの情報以外にも、後述するように、アンカー自体を識別するための識別子やセッションIDや各種パラメータを含むプロパティ情報が含まれる。
仮想オブジェクト管理システム121は、クライアント端末131~133からのアンカー登録要求を受けつけ、登録されたアンカーを保存する。また、仮想オブジェクト管理システム121は、クライアント端末131~133からのアンカー取得要求を受けつけ、保存されているアンカーの中から条件に合致するアンカーを応答する。
以降、本発明で説明するサーバーの機能は、単体のサーバー又は単体の仮想サーバーによって実現しても構わないし、複数のサーバー又は複数の仮想サーバーによって実現しても構わない。あるいは複数の仮想サーバーが単体のサーバー上で実行されていても構わない。
図2は、本発明の実施形態に係る仮想オブジェクト管理システム121、クライアント端末131~133のハードウェア構成図である。
図2において、Central Processing Unit(CPU)202は装置全体の制御を行う。CPU202はHard Disc Drive(HDD)205に格納されているアプリケーションプログラム、OS等を実行し、Random Access Memory(RAM)203にプログラムの実行に必要な情報、ファイル等を一時的に格納する制御を行う。Graphics Processing Unit(GPU)210は仮想オブジェクトをリアルタイムに描画するために必要な演算処理を行う。Read Only Memory(ROM)204は記憶手段であり、内部には、基本I/Oプログラム等の各種データを記憶する。RAM203は一時記憶手段であり、CPU202,GPU210の主メモリ、ワークエリア等として機能する。HDD205は外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザ等のアプリケーションプログラム、サービスサーバー群のプログラム、OS、関連プログラム等を格納している。ディスプレイ206は表示手段であり、仮想オブジェクトや操作に必要な情報等を表示したりするものである。インターフェース208は外部装置I/Fであり、各種外付けセンサーのような周辺機器を接続する。カメラ207はクライアント端末131~133において、周囲の映像を撮影する。カメラ207によって撮影された映像をHDD205に格納されたアプリケーションプログラムで解析することで、現実世界と重ね合わせて仮想オブジェクトを配置できるようになり、また現実世界の特徴量を計算することが可能になる。また、クライアント端末131~133がHMDのようなXR向けの専用端末の場合は、カメラ207が認識したユーザの手指によって、ディスプレイ206上に表示された仮想オブジェクトを操作することもできるようになる。クライアント端末131~133がスマートフォンのようなXR向けの専用端末でない場合は、ディスプレイのタッチパネルなどを操作することによってディスプレイ206上に表示された仮想オブジェクトを操作することが可能である。仮想オブジェクト管理システム121は必ずしもカメラ207を必要としない。
システムバス201は、装置内におけるデータの流れを司るものである。Network Interface Card(NIC)209は、該インターフェース208、ネットワーク100~102を介して外部装置とのデータのやり取りを行う。なお、上記コンピュータの構成はその一例であり、図2の構成例に限定されるものではない。例えば、データやプログラムの格納先は、その特徴に応じてROM204、RAM203、HDD205などで変更することも可能である。加えて、CPU202、GPU210がHDD205に記憶されているプログラムに基づき処理を実行することによって、図3に示されるようなソフトウェア構成における処理が実現される。
続いて、図3、図11を利用して、本実施例に係る仮想オブジェクト管理システムのソフトウェア構成を説明する。
図3は、本実施例に係る仮想オブジェクト管理システムの中で、本発明に関わる機能を抜粋したソフトウェア構成を説明したものである。
仮想オブジェクト管理システム121は、アンカー受信部311、アンカー提供部312、アンカー記憶部313、アンカー管理部314から構成される。
アンカー受信部311はクライアント端末131~133からのアンカー登録要求を受信すると、受信したアンカー情報をアンカー記憶部313に保存する。また、アンカー提供部312はクライアント端末131~133からのアンカー取得要求を受信すると、条件に合致するアンカーをアンカー記憶部313から検索して、クライアント端末131~133に返却する。
表1にアンカー記憶部313に保存されるデータの例を示す。
Figure 2023134920000002
アンカー受信部311はクライアント端末131~133からのアンカー登録要求を受信すると、アンカー記憶部313に対して対応するアンカーのレコードを保存する。アンカーID列は、アンカーを識別するための一意の識別情報(ID)である。
セッションID列は、同一セッションであれば同じIDが付加される。セッションによって複数のアンカーを紐付けておくことで、複数のアンカーを同時にユーザに提示することができる。仮想オブジェクトデータ列は各種フォーマットの3Dモデルのデータである。
本発明におけるアンカーで示す仮想オブジェクトを現実世界に紐づけて表示するための特徴量は、表2の(1)特徴量列、(2)位置情報列、(3)センサー情報列の3つの情報で管理される。
特徴量列は、アンカーが配置された周囲の現実世界の3次元的な特徴量である。位置情報列は現実世界での仮想オブジェクトの3次元的な位置を表す。センサー情報列はアンカーが配置された場所情報(GPSの座標)、アンカーが紐付いたBeaconやWifiなどの無線通信機能を用いた信号に含まれる識別子(ID)などである。
本発明では、アンカーで示す特徴量として、表2の(1)特徴量列、(2)位置情報列、(3)センサー情報列の3つの情報で管理しているが、少なくともこれらの中の1つ、もしくは複数の組み合わせと他の情報との組合せを用いて各アンカーの特徴量の管理を実現することも可能である。
アンカー提供部312は、クライアント端末131~133からのアンカー取得要求に対して、特定のアンカーIDに紐づく1つのアンカーを返却することができ、また同一のセッションIDまたは同一のセンサーIDに紐づく複数のアンカーを返却することもできる。
本実施例では、アンカーIDに、さらに、仮想オブジェクトが提供される際に、ほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータとして、優先度の情報をさらに関連付けて管理している。優先度列はアンカー毎の優先度を示した数値であり、アンカー登録後にそれぞれのアンカーに対して追加で設定を行える値である。
アンカー管理部314はアンカー記憶部に保存されているアンカーに対して操作を行うことができ、アンカー管理部314によってアンカー記憶部313に保存されているアンカーに対して優先度の追加設定を行う。優先度は例えば表1のように数値を設定でき、数値が小さい方を優先度が高いとしても構わないし、数値が大きい方を優先度が高いとしても構わない。
クライアント端末131~133は仮想オブジェクトデータ管理部301、アンカー生成部302、アンカー取得部303、アンカー描画部304、ローカルアンカー管理部305から構成される。
仮想オブジェクトデータ管理部301は、各種フォーマットの3Dモデルのデータが格納されている。仮想オブジェクトデータ管理部301に保存されている3Dデータは、ユーザが現実世界に重ねて自由に配置して投影、表示させることができる仮想オブジェクトである。
アンカー生成部302はユーザの操作によってアンカーを作成する処理を担う。ユーザは、アンカー生成部302を通じて仮想オブジェクトデータ管理部301に保存されている3Dモデルを選択し、カメラ207で撮影した手指や、ディスプレイ206のタッチパネル操作によって、現実世界に仮想オブジェクトを配置することができる。図11(a)~(h)はそれぞれHMD型のクライアント端末131及び133のディスプレイ206に見える映像を表したものである。ユーザは、図11(a)のようにクライアント端末131の仮想オブジェクトデータ管理部301に保存されている円柱形仮想オブジェクト1102を前述の方法で操作し、現実世界の机1101の上に配置することができる。続いて、アンカー生成部302は、仮想オブジェクトが配置された周囲の映像を、カメラ207を介して撮影された映像を解析することで、特徴量を抽出し、仮想オブジェクトと紐付けて、ローカルアンカー管理部305に保存する。また、アンカー生成部302はインターフェース208を介して接続されているGSPセンサーを利用してアンカーの位置情報を特定し、アンカーと紐付ける。また、ユーザはアンカー生成部302を通じて、アンカーとセンサーを紐付ける。アンカー生成部302は、上記のように作成されローカルアンカー管理部305に保存されたアンカーを、アンカー受信部311に対して送信する。
アンカー取得部303は、インターフェース208に接続されたセンサー情報をもとにアンカー提供部312に対してアンカー取得要求を行い、アンカー提供部312から取得したアンカーをローカルアンカー管理部305に保存する。アンカー取得部303は、例えばGPS信号をもとに現在地の近くにあるアンカーや、WifiやBeaconの信号を検知したらそのWifiやBeaconに紐づくアンカーの取得要求をアンカー提供部312に対して行う。
アンカー描画部304は、ローカルアンカー管理部305に保存されている各アンカーに含まれる特徴量と、カメラ207で撮影されている現実世界の映像とを比較し、特徴が一致する部分にアンカーに含まれる仮想オブジェクトを配置する。図11(b)は、図11(a)のようにユーザがクライアント端末131にて机1101上に配置した円柱形仮想オブジェクト1102を、クライアント端末133上で同じ特徴量の机1111上に、円柱形仮想オブジェクト1112として描画した様子を表す。
図11(c)は、アンカー取得部303で取得したアンカーが複数あり、同じ特徴量の机1121上に、複数の仮想オブジェクト1122~1124として描画した様子を表す。この場合、仮想オブジェクトB1123が前面にあるため仮想オブジェクトA1122を見ることが困難である。
しかし、ユーザが仮想オブジェクトA1122を一番見たい場合、あるいは、看板や広告など机1121の所有者が仮想オブジェクトA1122を一番見せたい場合など、仮想オブジェクトA1122を他の仮想オブジェクトより見えやすく描画したい場合がある。
そこで、ローカルアンカー管理部305に保存されている各アンカーに含まれる優先度の値によって各アンカーの優先度を決定し、アンカー描画部304は各アンカーの優先度によって仮想オブジェクトの描画を制御し、優先度の高いアンカーを見えやすく描画する。図11(d)~(h)は優先度に応じたアンカーの描画制御例である。
図11(d)~(h)は図11(c)の仮想オブジェクトA1122の優先度が一番高い場合に、仮想オブジェクトA1122、仮想オブジェクトB1123、仮想オブジェクトC1124を優先度に応じて描画した一例である。
図11(d)は優先度の高い仮想オブジェクトを他の仮想オブジェクトの前面に描画させる例である。優先度の高い仮想オブジェクトA1132を仮想オブジェクトB1133の前面に描画することで、仮想オブジェクトA1132を見えやすくしている。
図11(e)は優先度の高い仮想オブジェクトと描画が被っている他の仮想オブジェクトがあった場合、最も優先度の高い仮想オブジェクトのみを描画する例である。優先度の高い仮想オブジェクトA1142のみを描画することで、仮想オブジェクトA1142を見えやすくしている。
図11(f)は優先度の高い仮想オブジェクトと描画が被っている他の仮想オブジェクトがあった場合、他の仮想オブジェクトは透過させて描画する例である。仮想オブジェクトA1152より優先度の低い仮想オブジェクトB1153と仮想オブジェクトC1154を透過させて描画することで、仮想オブジェクトA1152を見えやすくしている。
図11(g)は仮想オブジェクトの描画を時間に応じて切り替え、優先度の高い仮想オブジェクトをより長時間描画する例である。タイムテーブルダイアログ1163は各仮想オブジェクトを表示させる時間を表した表であり、この表に従って仮想オブジェクトの描画の時間に応じた切り替えを行う。タイムテーブル1164は仮想オブジェクトAの表示時間を表し、タイムテーブル1165は仮想オブジェクトBの表示時間を表し、タイムテーブル1166は仮想オブジェクトCの表示時間を表す。前記タイムテーブルは優先度に応じて時間が長くなるようにローカルアンカー管理部305、あるいは、アンカー描画部304が時間設定を行う。アンカー描画部304は前記タイムテーブルに従い、仮想オブジェクトAを20秒描画させ、仮想オブジェクトBを10秒描画させ、仮想オブジェクトCを5秒描画させる。優先度の高い仮想オブジェクトAを長時間表示させることにより、仮想オブジェクトAを見えやすくする。タイムテーブルダイアログ1163はディスプレイ206に描画しても構わないし、描画しなくても構わない。
図11(h)は優先度の低い仮想オブジェクトが特定領域にあった場合、仮想オブジェクトの描画を行わない例である。境界面1174はアンカーの描画可能領域の境界を示し、アンカー描画部304は前記境界面1174によって定められた空間にのみ優先度の低いアンカーの描画を行える。表1のアンカー一覧のアンカーID=aを仮想オブジェクトA、アンカーID=bを仮想オブジェクトB、アンカーID=cを仮想オブジェクトCとする。境界面1174は表1の位置情報y=20の平面であり、アンカー描画部304は位置情報がy≦20の空間に仮想オブジェクトの描画を行わないとする。位置情報がy≦20のアンカーは仮想オブジェクトA、及び、仮想オブジェクトBがあり、優先度の低い仮想オブジェクトBの描画は行わないため仮想オブジェクトAのみが描画されている。また、仮想オブジェクトCは優先度が低いがy≦20でないため描画されている。優先度の高い仮想オブジェクトAと描画が被る空間への仮想オブジェクトの描画を行わないことで、仮想オブジェクトAを見えやすくする。境界面1174はディスプレイ206に描画しても構わないし、描画しなくても構わない。
なお、図11は優先度に応じた仮想オブジェクトの描画を制御するための一例であり、優先度に応じて描画の制御を行うことができれば図11の例に限定されるものではない。
続いて、クライアント端末131で生成したアンカーを別のクライアント端末133で表示するまでの一連の流れを図4、図5、図6、図7、図8を利用して説明する。
図4は、クライアント端末131で生成したアンカーを仮想オブジェクト管理システム121に登録し、仮想オブジェクト管理システム121に保存されたアンカーをクライアント端末133が取得して表示するまでのシーケンスを表す。
最初に図4におけるS401からS403で、クライアント端末131を操作してアンカーを登録するシーケンスを説明する。ユーザはクライアント端末131を操作し、アンカー生成部302を介して仮想オブジェクトデータ管理部301に保存されている仮想オブジェクトを配置してアンカーを生成、ローカルアンカー管理部305に保存する(S401)。アンカー生成部302は生成されたアンカーのアンカー登録要求をアンカー受信部311に送信する(S402)。アンカー登録要求を受信したアンカー受信部311は、アンカー記憶部313に受信したアンカーを保存したのち、保存結果をアンカー生成部302に返す(S403)。複数のアンカーを同一セッションIDとして登録したい場合はS401~S403を繰り返す(S404)。
図5を用いて、図4においてアンカー生成部302が行うアンカー生成処理S401の詳細なフローを説明する。アンカー生成部302は、ユーザの操作によって現実世界の空間上に仮想オブジェクトを配置し、その位置・向きを決定する(S502)。次にアンカー生成部302は、S503にてカメラ207を通じて周辺を撮影し、空間の3次元的な特徴点を取得する。アンカー生成部302は、S504にて特徴点が十分に集まったと判断できない場合は再度、S503の特徴点の取得を行う。アンカー生成部302は、S504にて特徴点が十分に集まったと判断した場合は、S505にてアンカーに対して有効期限やその他必要なプロパティを設定してもらい、S506にてアンカーに対してセンサー情報を設定しない場合は処理を終了する。S506にてアンカーに対してセンサー情報を設定する場合、アンカー生成部302は、センサーの種類に応じた設定をユーザにしてもらい(S507)、処理を終了する。例えば、表1のアンカーID=aのデータのように、アンカー生成部302は、S507にてユーザの操作に従ってアンカーの情報にid=123のBeaconを紐付ける。
以上が、クライアント端末131を操作してアンカーを仮想オブジェクト管理システムに登録するシーケンスである。
続いて、図4におけるS405からS406で、アンカー記憶部313に保存されているアンカーに優先度を設定するシーケンスについて説明する。
ユーザは仮想オブジェクト管理システム121に対して操作を行い、アンカー管理部314を介して、アンカー記憶部313に保存されているアンカーに対して優先度の追加設定を行う(S405)。複数のアンカーに対して優先度の設定を行う場合はS405を繰り返し行う(S406)。図6を用いて、図4においてアンカー記憶部313に保存されているアンカーに優先度を設定するアンカー優先度設定S405の詳細なフローを説明する。
ユーザの仮想オブジェクト管理システム121に対する操作によってアンカー記憶部313に保存されているアンカーをユーザは選択する(S602)。S603においてアンカー管理部314はユーザが選択したアンカーに関連するアンカーがあるか検索を行う。ここでの関連するアンカーとは、表1のセッションID、特徴量、センサー情報のいずれかが一致、あるいは、類似するアンカーを示す。S604において、アンカー記憶部313に保存されているアンカーの中にユーザが選択したアンカーに関連するアンカーがあった場合、S605において前記関連するアンカー一覧のリストアップを行う。ユーザはS605においてリストアップされたアンカー一覧のアンカー毎に優先度の設定をアンカー管理部介してアンカー記憶部313に保存されているアンカーに優先度の設定を行う(S606)。表1を例として、ユーザがS602においてアンカーID=aを選択した場合、S603においてセンサー情報が一致するアンカーID=bのアンカー、及び、セッション情報が一致するアンカーID=cのアンカーが検索される。ユーザはS605にてリストアップされたアンカーID=a、b、cの各アンカーに対して、S606にて、アンカーID=aのアンカーの優先度を1に、アンカーID=bのアンカーの優先度を2に、アンカーID=cのアンカーの優先度を3に設定を行う。
続いて、図4におけるS407からS416で、ユーザがクライアント端末133を操作してアンカーを取得、描画するシーケンスについて説明する。
アンカー取得部303は、S407にてセンサー情報を取得する。センサー情報を取得できない場合、アンカー取得部303はS407を繰り返す(S408)。センサー情報の取得は、クライアント端末133にインターフェース208を介して接続されているBluetooth信号を検知するセンサーを介して、アンカー取得部303が行う。例えばid=123のBeacon端末からの信号を検知した場合、アンカー取得部303は、id=123のBeacon端末に紐づくアンカーの検索リクエストをアンカー提供部312に対して送信する(S409)。アンカー提供部312はid=123のBeacon端末に紐づくアンカーをアンカー記憶部313から検索を行う。id=123のBeaconに紐づくアンカーはアンカーID=a,bの2つ存在するので、アンカーID=a,bのアンカーをアンカー取得部303に返却する(S411)。次に、アンカー取得部303はアンカー提供部312が返却したアンカーをローカルアンカー管理部305に保存し(S412)、さらにそれぞれのアンカーに対して同一セッションのアンカーの検索リクエストをアンカー提供部312に対して行う(S413)。すなわち、アンカー取得部303は、アンカーID=aのセッションIDである111と同じアンカーの検索リクエストをアンカー提供部312に対して行う(S413)。アンカー提供部312は、セッションID=111のアンカーをアンカー記憶部313から検索し(S414)、アンカー取得部303に返却する(S415)。即ち、セッションID-=111のアンカーはアンカーID=dであるので、アンカー提供部312は、これをアンカー取得部303に返却する(S415)。次に、アンカー取得部303はアンカー提供部312が返却したアンカーをローカルアンカー管理部305に保存する(S416)。最後にアンカー描画部304はローカルアンカー管理部305に保存されているアンカーに対して、アンカー描画処理を行う(S417)。
ここで、アンカー提供部312が行う、センサーに紐づくアンカー検索処理S410、同一セッションに紐づくアンカー検索処理S414の詳細なフローを図6のフローチャートを用いて説明する。
図7(a)はアンカー提供部312が行う、センサーに紐づくアンカー検索処理S410のフローチャートである。アンカー提供部312は、アンカー取得部303からのアンカー取得リクエストに含まれるセンサーに合致するアンカーが、まだアンカー記憶部313で保存している表1に存在するかどうかを確認する(S702)。S702にて、アンカーが存在しない場合、アンカー提供部312は処理を終了する。S702にてアンカーが存在する場合、アンカー提供部312は、アンカー記憶部313からアンカーを取得する(S703)。アンカー提供部312は、アンカー一覧にS703にて取得したアンカーを保持し(S704)、S702に戻る。図7(b)はアンカー提供部312が行う、同一セッションに紐づくアンカー検索処理S414のフローチャートである。アンカー提供部312は、アンカー取得部303からのアンカー取得リクエストに含まれるセッションIDに合致するアンカーが、まだアンカー記憶部313に保存している表1に存在するかどうかを確認する(S712)。S712にて、アンカーが存在しない場合、アンカー提供部312は処理を終了する。S712にてアンカーが存在する場合、アンカー提供部312は、アンカー記憶部313からアンカーを取得する(S713)。アンカー提供部312は、アンカー一覧にS713にて取得したアンカーを保持し(S714)、S712に戻る。センサーに紐づくアンカー検索処理S410、および同一セッションに紐づくアンカー検索処理S414のいずれの場合も、アンカー提供部312が、アンカー取得部303に返却するアンカーは、S704、及び、S714にてアンカー一覧に保持されたアンカーのみである。
図8はクライアント端末133が行う、アンカー描画処理S417のフローチャートである。アンカー描画部304は、カメラ207を通じて撮影される映像から、現実空間の領域の特徴量を取得し(S802)、ローカルアンカー管理部305に保存されているアンカー毎の特徴量と合致するかどうかを確認する(S803)。S803にて合致しない場合、アンカー描画部304はアンカー描画処理S417を終了する。S803にて合致した場合、アンカー描画部304は一致したアンカー毎の優先度を取得し(S804)、アンカー毎の優先度に応じて仮想オブジェクトの描画を行う(S805)。S805におけるアンカー毎の優先度に応じた仮想オブジェクトの描画とは図11(d)~(h)を例とする描画方法である。
以上のような方法により、仮想オブジェクトに優先順位をつけ、優先順位に応じて描画の制御を行うことで優先度の高い仮想オブジェクトを見えやすくすることが実現できる。それにより、ユーザは見せたい仮想オブジェクトを見やすくさせられる、あるいは、見たい仮想オブジェクトが見やすくなる。
実施例1において、決められた優先度に従って仮想オブジェクトの描画を行うのではなく、ユーザーフィードバックにより優先度を決定したい場合が考えられる。例えば、ユーザがアンカーに対して口コミ点数や高評価をつけることにより、口コミ点数の平均点が高いアンカーや高評価の数が多いアンカーの優先度を高いとする。
本実施例は、仮想オブジェクトに加えて評価ダイアログをディスプレイ206に表示する(後述)。ユーザは評価ダイアログに評価を入力することで、クライアント端末131~133は仮想オブジェクト管理システムに評価の送信を行う。
本実施例は、実施例1と重複する部分が多いため、実施例1との差分のみ説明する。
表2にアンカー記憶部313に保存されるデータの例を示す。
Figure 2023134920000003
本実施例では、アンカーIDに、さらに、仮想オブジェクトが提供される際に、ほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータとして、仮想オブジェクトに対して行われた評価を数値化した情報を示す評価点を評価点列でさらに関連付けて管理している。表2では、評価点列以外は、表1の対応する列の定義と同じである。表2の評価点列はユーザによって入力された評価点が格納される。
表2では不図示であるが、優先度列と評価点列の両方を管理することも可能である。その場合には、同等の優先度であれば、評価点の高い仮想オブジェクトを優先的に表示するなどといった制御が可能となる。また、それらの列に対する値に設定は任意であり、片方の値が無い場合には、もう一方の情報を表示制御に利用することもできる。
図12は本実施例において、クライアント端末131~133のディスプレイ206に見える映像を表したものである。
図12(a)は各アンカーに対して評価点を加算する例である。評価ダイアログ1205は仮想オブジェクト1202~1204に対して評価を入力するためのダイアログである。入力ウィンドウ1206は仮想オブジェクトAに対して、入力ウィンドウ1207は仮想オブジェクトBに対して、入力ウィンドウ1208は仮想オブジェクトCに対しての入力ウィンドウである。入力ウィンドウ1206~1208のGoodを選択することにより、各仮想オブジェクトに対して評価点の加算が行われる。
図12(b)は各アンカーに対して評価点を入力する例である。評価ダイアログ1215は仮想オブジェクト1212~1214に対して評価を入力するためのダイアログである。入力ウィンドウ1216は仮想オブジェクトAに対して、入力ウィンドウ1217は仮想オブジェクトBに対して、入力ウィンドウ1218は仮想オブジェクトCに対しての入力ウィンドウである。入力ウィンドウ1216~1218の評価点数を選択することにより、各仮想オブジェクトに対して選択された評価点の入力が行われる。
なお、図12は評価点をアンカーにつけるための一例であり、アンカーに対しての評価を行うことができれば図12の例に限定されるものではない。
図9(a)は実施例2におけるクライアント端末131~133が行う、アンカー描画処理のフローチャートである。アンカー描画部304は、カメラ207を通じて撮影される映像から、現実空間の領域の特徴量を取得し(S902)、ローカルアンカー管理部305に保存されているアンカー毎の特徴量と合致するかどうかを確認する(S903)。S903にて合致しない場合、アンカー描画部304はアンカー描画処理を終了する。S903にて合致した場合、アンカー描画部304は一致したアンカー毎の評価点を取得し(S904)、アンカー毎の優先度に応じて仮想オブジェクトの描画を行う(S905)。S905におけるアンカー毎の優先度に応じた仮想オブジェクトの描画とは図11(d)~(h)を例とする描画方法である。その後、ユーザは各アンカーに対する評価点をインターフェース208を介して入力し(S906)、クライアント端末133は仮想オブジェクト管理システムに送信を行う(S908)。
図9(b)は実施例2における仮想オブジェクト管理システム121が行う、評価点更新処理のフローチャートである。仮想オブジェクト管理システム121はクライアント端末131~133から各アンカーに対する評価点を受信し(S912)、アンカー記憶部313に保存されている各アンカーの評価点の更新を行う。ここでの更新とは、評価点の加算や平均点の算出などである。
なお、本実施例では評価点は図12の例のようにユーザが入力するとした。しかし、仮想オブジェクトの描画回数やユーザが視線を仮想オブジェクトに送った回数などで評価点を自動取得しても構わない。
本実施例によってユーザのフィードバックを仮想オブジェクト管理システム121に送信することで、ユーザーフィードバックにより優先度を決定し、仮想オブジェクトの描画制御を行うことができる。
実施例1において、優先度に関わらず、ユーザ好みのアンカーを描画したい場合が考えられる。作成者、作成日、タグなどをアンカープロパティとして用意し、それを選択的に利用することでユーザ好みのアンカーのみを取得できるようにする。例えば、アンカーの作成者をアンカーのプロパティに追加することにより、ユーザは好きな作成者のアンカーのみを取得することができる。
本実施例は、実施例1と重複する部分が多いため、実施例1との差分のみ説明する。
表3にアンカー記憶部313に保存されるプロパティデータの例を示す。
Figure 2023134920000004
本実施例では、アンカーIDに、さらに、仮想オブジェクトが提供される際に、ほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータとして、プロパティデータをさらに関連付けて管理している。表3では省力しているが、表1表2に含まれるセッションID列、仮想オブジェクトデータ列、特徴量列、位置情報列、センサー情報列は各レコードで管理されている。また、評価点列も含めてもよい。
表2では不図示であるが、優先度列と評価点列の両方を管理することも可能である。その場合には、同等の優先度であれば、評価点の高い仮想オブジェクトを優先的に表示するなどといった制御が可能となる。また、それらの列に対する値に設定は任意であり、片方の値が無い場合には、もう一方の情報を表示制御に利用することもできる。
各アンカーは表1のデータに加えて表3のプロパティデータを所持する。
S409、S413においてユーザが指定したプロパティ条件を検索リクエストに加え、仮想オブジェクト管理システムがユーザの指定したプロパティを含むアンカーのみをS411、S415においてクライアント端末133に送信を行う。それにより、ユーザは好みのアンカーのみを見ることができる。
図10(a)は実施例3におけるアンカー提供部312が行う、センサーに紐づくアンカー検索処理S410のフローチャートである。アンカー提供部312は、アンカー取得部303からのアンカー取得リクエストに含まれるセンサーに合致するアンカーが、まだアンカー記憶部313で保存している表1に存在するかどうかを確認する(S1002)。S1002にて、アンカーが存在しない場合、アンカー提供部312は処理を終了する。S1002にてアンカーが存在する場合、アンカー提供部312は、アンカー記憶部313からアンカーを取得する(S1003)。取得したアンカーがユーザが指定したプロパティ条件に一致する場合(S1004)、アンカー提供部312は、アンカー一覧にS1003にて取得したアンカーを保持し(S1005)、S1002に戻る。ユーザが指定するプロパティ条件はプロパティに対する完全一致、部分一致、時刻の大小比較などである。
図10(b)は実施例3におけるアンカー提供部312が行う、同一セッションに紐づくアンカー検索処理S414のフローチャートである。アンカー提供部312は、アンカー取得部303からのアンカー取得リクエストに含まれるセッションIDに合致するアンカーが、まだアンカー記憶部313に保存している表1に存在するかどうかを確認する(S1ー012)。S1012にて、アンカーが存在しない場合、アンカー提供部312は処理を終了する。S1012にてアンカーが存在する場合、アンカー提供部312は、アンカー記憶部313からアンカーを取得する(S1013)。取得したアンカーがユーザが指定したプロパティ条件に一致する場合(S1014)、アンカー提供部312は、アンカー一覧にS1013にて取得したアンカーを保持し(S1015)、S1012に戻る。センサーに紐づくアンカー検索処理S410、および同一セッションに紐づくアンカー検索処理S414のいずれの場合も、アンカー提供部312が、アンカー取得部303に返却するアンカーは、S1005、及び、S1015にてアンカー一覧に保持されたアンカーのみである。
なお、アンカーに設定するプロパティは表3に記載のプロパティに限らない。
本実施例によってアンカーにプロパティを用意し、それを選択的に利用することでユーザは好みのアンカーのみを表示できるようにする。
(他の実施例)
本発明は、上述した実施形態を適宜組み合わせることにより構成された装置あるいはシステムやその方法も含まれるものとする。
ここで、本発明は、上述した実施形態の機能を実現する1以上のソフトウェア(プログラム)を実行する主体となる装置あるいはシステムである。また、その装置あるいはシステムで実行される上述した実施形態を実現するための方法も本発明の一つである。また、そのプログラムは、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給され、そのシステム或いは装置の1以上のコンピュータ(CPUやMPU等)によりそのプログラムが1以上のメモリーに読み出され、実行される。つまり、本発明の一つとして、さらにそのプログラム自体、あるいは該プログラムを格納したコンピューターにより読み取り可能な各種記憶媒体も含むものとする。また、上述した実施形態の機能を実現する回路(例えば、ASIC)によっても、本発明は実現可能である。
121 仮想オブジェクト管理システム
131 クライアント端末(ヘッドマウントディスプレイ)
132 クライアント端末(スマートフォン)

Claims (10)

  1. 仮想オブジェクトを管理するシステムであって、
    仮想オブジェクトを現実世界に紐づけて表示するための現実世界における特徴量を識別情報に関連付けて管理する管理手段を有し、
    前記管理手段は、前記識別情報に、さらに、前記仮想オブジェクトが提供される際に、ほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータをさらに関連付けて管理する、ことを特徴とするシステム。
  2. 前記パラメータは、現実世界に仮想オブジェクトを表示する際に、ほかの仮想オブジェクトより優先すべきかどうかを決定するための優先度の情報を含むことを特徴とする請求項1に記載のシステム。
  3. 前記パラメータは、仮想オブジェクトに対して行われた評価を数値化した情報を含むことを特徴とする請求項1または2に記載のシステム。
  4. 前記システムは、仮想オブジェクトを現実世界に投影することができる端末を含み、
    端末からの識別情報及び現実世界における特徴量の少なくとも1つを用いた要求に応じて、前記管理手段で当該識別情報及び当該特徴量の少なくとも1つで管理された仮想オブジェクトの情報を応答し、
    該端末により、前記パラメータと応答された情報とに基づき、該仮想オブジェクトが現実世界に投影されることを特徴とする請求項1乃至3の何れか1項に記載のシステム。
  5. 前記端末は、ヘッドマウントディスプレイを含むことを特徴とする請求項4に記載のシステム。
  6. 仮想オブジェクトを管理するシステムにおける方法であって、
    仮想オブジェクトを現実世界に紐づけて表示するための現実世界における特徴量を識別情報に関連付けて管理する管理工程を有し、
    前記管理工程では、前記識別情報に、さらに、前記仮想オブジェクトが提供される際に、ほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータをさらに関連付けて管理する、ことを特徴とする方法。
  7. 仮想オブジェクトを現実世界に投影することができる端末であって、
    識別情報及び現実世界における特徴量の少なくとも1つを用いた要求を、仮想オブジェクトを管理するシステムに送信する送信手段と、
    前記システムから、前記要求に応じて、仮想オブジェクトの情報を受信する受信手段と、
    前記受信した情報に基づき、前記仮想オブジェクトを現実世界に投影する投影手段と、を有し、
    前記受信した仮想オブジェクトの投影は、当該仮想オブジェクトに関連付けて前記システムで管理されるほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータに基づき制御されることを特徴とする端末。
  8. 前記要求は前記特徴量を含み、
    該特徴量は、前記端末が利用できる無線通信機能を用いた信号に含まれる識別子を含むことを特徴とする請求項7に記載の端末。
  9. 仮想オブジェクトを現実世界に投影することができる端末における方法であって、
    識別情報及び現実世界における特徴量の少なくとも1つを用いた要求を、仮想オブジェクトを管理するシステムに送信する送信工程と、
    前記システムから、前記要求に応じて、仮想オブジェクトの情報を受信する受信工程と、
    前記受信した情報に基づき、前記仮想オブジェクトを現実世界に投影する投影工程と、を有し、
    前記受信した仮想オブジェクトの投影は、当該仮想オブジェクトに関連付けて前記システムで管理されるほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータに基づき制御されることを特徴とする方法。
  10. コンピューターを、
    識別情報及び現実世界における特徴量の少なくとも1つを用いた要求を、仮想オブジェクトを管理するシステムに送信する送信手段と、
    前記システムから、前記要求に応じて、仮想オブジェクトの情報を受信する受信手段と、
    前記受信した情報に基づき、前記仮想オブジェクトを現実世界に投影する投影手段、
    として機能させるためのプログラムであって、
    前記受信した仮想オブジェクトの投影は、当該仮想オブジェクトに関連付けて前記システムで管理されるほかの仮想オブジェクトとの相対的な表示の制御を行うためのパラメータに基づき制御されることを特徴とするプログラム。
JP2022039856A 2022-03-15 2022-03-15 システム、方法、端末、方法及びプログラム Pending JP2023134920A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022039856A JP2023134920A (ja) 2022-03-15 2022-03-15 システム、方法、端末、方法及びプログラム
US18/180,044 US20230298286A1 (en) 2022-03-15 2023-03-07 System, method for system, terminal, and method and storage medium for terminal
CN202310246712.0A CN116778365A (zh) 2022-03-15 2023-03-14 系统、系统的方法、终端及用于终端的方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022039856A JP2023134920A (ja) 2022-03-15 2022-03-15 システム、方法、端末、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023134920A true JP2023134920A (ja) 2023-09-28

Family

ID=87990356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022039856A Pending JP2023134920A (ja) 2022-03-15 2022-03-15 システム、方法、端末、方法及びプログラム

Country Status (3)

Country Link
US (1) US20230298286A1 (ja)
JP (1) JP2023134920A (ja)
CN (1) CN116778365A (ja)

Also Published As

Publication number Publication date
US20230298286A1 (en) 2023-09-21
CN116778365A (zh) 2023-09-19

Similar Documents

Publication Publication Date Title
US11195332B2 (en) Information interaction method based on virtual space scene, computer equipment and computer-readable storage medium
US20140152869A1 (en) Methods and Systems for Social Overlay Visualization
CN112074797A (zh) 用于将虚拟对象锚定到物理位置的系统和方法
EP2420946A2 (en) User terminal, remote terminal, and method for sharing augmented reality service
KR20150130558A (ko) 상황 로컬 이미지 인식 데이터세트
KR20150131358A (ko) 컨텐츠 생성 툴
TW202009682A (zh) 基於擴增實境的互動方法及裝置
JP5473025B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
JP7373823B2 (ja) 情報処理装置、情報システム、情報処理方法、およびプログラム
CN115917512A (zh) 人工智能请求和建议卡
JP6635573B2 (ja) 画像処理システム、画像処理方法、及びプログラム
JP2023134920A (ja) システム、方法、端末、方法及びプログラム
KR20140031540A (ko) Bim 기반 커뮤니케이션 시스템, bim 기반 커뮤니케이션 서버, 및 모바일 단말기에서의 bim 기반 커뮤니케이션 방법 및 그 기록매체
US10313827B2 (en) Server and method for providing content, and computer-readable storage medium for computer program
US11995868B2 (en) Image processing device, image providing server, image display method, and image provision method for navigating horizontally or vertically between floor images
US10542309B2 (en) Electronic device and operation method thereof
JP7500638B2 (ja) システム、方法、及びプログラム
US20240290028A1 (en) Non-transitory computer readable medium, information processing apparatus, and information processing method
JPWO2018225805A1 (ja) 情報管理システム、情報管理サーバ、情報管理方法、及びプログラム
JP7336780B1 (ja) プログラム、方法、情報処理装置、システム
JPWO2018225806A1 (ja) 情報管理システム及び情報管理方法
JP7357415B1 (ja) プログラム、情報処理装置および情報処理方法
JP7420428B1 (ja) プログラム、情報処理装置および情報処理方法
JP2022090849A (ja) 画像出力装置及びプログラム
JP2023170705A (ja) システムおよびシステムの制御方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213