JP2014203194A - Virtual object display control apparatus, virtual object display control method, and program - Google Patents
Virtual object display control apparatus, virtual object display control method, and program Download PDFInfo
- Publication number
- JP2014203194A JP2014203194A JP2013077688A JP2013077688A JP2014203194A JP 2014203194 A JP2014203194 A JP 2014203194A JP 2013077688 A JP2013077688 A JP 2013077688A JP 2013077688 A JP2013077688 A JP 2013077688A JP 2014203194 A JP2014203194 A JP 2014203194A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- user
- conversation
- display
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、仮想オブジェクト表示制御装置、仮想オブジェクト表示制御方法、およびプログラムに関する。 The present invention relates to a virtual object display control device, a virtual object display control method, and a program.
近年、実世界に付加的な情報を重畳してユーザに呈示するAR(AugumentedReality:拡張現実)技術を用いたシステムが開発・提供されている。例えば、セカイカメラ(登録商標)と呼ばれるシステムでは、現実空間の任意の位置に関連付けられる仮想的なタグが予めシステムに登録される。そして、ユーザが携帯する端末により撮像される画像内で、当該画像に映る位置に関連付けられているタグがシステムサーバから端末に送信されその位置に重畳して画当該画像内に表示される。 In recent years, systems using AR (Augmented Reality) technology that superimposes additional information on the real world and presents it to the user have been developed and provided. For example, in a system called Sekai Camera (registered trademark), a virtual tag associated with an arbitrary position in the real space is registered in the system in advance. Then, in the image captured by the terminal carried by the user, the tag associated with the position shown in the image is transmitted from the system server to the terminal, and is superimposed on the position and displayed in the image.
また、特許文献1に記載されたシステムでは、ヘッドアップディスプレイ装置に飛行経路が投影される。この飛行経路は、機体の位置および姿勢と、飛行経路データとに基づいて算出され、パイロットの前面に設けられるヘッドアップディスプレイ装置において前景と重畳して表示される。一方、着陸位置に近づき着陸位置が目視できる状態では、パイロットは通常有視界飛行で目視によって着地する。この場合にはヘッドアップディスプレイ装置の表示画像がかえって障害になる場合があるため、特許文献1では着地位置と機体との距離が所定の距離以下になる場合、重畳して表示される飛行経路をヘッドアップディスプレイ装置から消去する。
Moreover, in the system described in
AR技術を用いると、打ち合わせの場において、現実空間の任意の位置に仮想オブジェクトを配置することができる。これにより、それぞれの端末を通じて複数のユーザで同じ物を見ているかのように仮想オブジェクトを閲覧し、共有することが可能である。 When the AR technology is used, a virtual object can be arranged at an arbitrary position in the real space in a meeting place. Thereby, a virtual object can be browsed and shared as if a plurality of users are viewing the same object through each terminal.
しかし、現実空間の任意の位置に仮想オブジェクトを配置したままにしておくと、仮想オブジェクトは増える一方で、現実空間に仮想オブジェクトがあふれてしまい煩わしい。 However, if the virtual objects are arranged at arbitrary positions in the real space, the virtual objects increase, but the virtual objects overflow in the real space, which is troublesome.
前述の特許文献1の方法によれば、仮想オブジェクトを配置して表示する装置の位置に応じて仮想オブジェクトを消去できる。しかしながら複数の人物で同じ仮想オブジェクトを閲覧する場合、その仮想オブジェクトを配置して表示する装置の位置に応じて仮想オブジェクトを消去すると、その仮想オブジェクトを閲覧している他のユーザの装置で閲覧できなくなる場合がある。
According to the method of the above-mentioned
本発明に係る仮想オブジェクト表示制御装置は、仮想オブジェクトの表示通知を受信する受信手段と、前記表示通知の通知元ユーザの会話状況を取得する取得手段と、前記取得した会話状況に基づいて前記仮想オブジェクトの消去条件となる消去条件ユーザを決定する決定手段と、前記消去条件ユーザの位置と前記仮想オブジェクトの位置とに応じて前記仮想オブジェクトを消去する消去手段とを有することを特徴とする。 The virtual object display control apparatus according to the present invention includes a receiving unit that receives a display notification of a virtual object, an acquisition unit that acquires a conversation state of a notification source user of the display notification, and the virtual object based on the acquired conversation state. It has a determining means for determining an erasing condition user as an erasing condition for an object, and an erasing means for erasing the virtual object according to the position of the erasing condition user and the position of the virtual object.
本発明によれば、仮想オブジェクトが必要なくなった時点で仮想オブジェクトを消去することが可能となる。したがって、現実空間が仮想オブジェクトであふれて煩わしくなることが無く、使い勝手が向上する。 According to the present invention, a virtual object can be deleted when the virtual object is no longer needed. Therefore, the real space is not overwhelmed with virtual objects, and usability is improved.
以下、本発明を実施するための形態について図面を用いて説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.
(実施例1)
図1は、仮想オブジェクトを表示する表示装置100の構成を示すブロック図である。表示装置100の一例としては、ユーザの頭部に装着するHMD(Head‐mounted Display)が挙げられる。ユーザは、HMDをメガネのように装着することが可能であり、HMDの前面に取り付けられた撮像部101により、ユーザの視線方向の被写体を撮像することができる。また、HMDの前面に取り付けられた表示部105により、ユーザは、HMDを装着したまま撮像部101で撮像された被写体や被写体に関連付けられている仮想オブジェクトを見ることができる。なお、仮想オブジェクトとは、実世界の画像に重畳される付加的な情報のことである。例えば、前述のように情報を表すタグであってもよいし、テキスト、アイコン、マーク、写真、動画などであってもよい。また、表示装置100は、スマートフォンやタブレットのような携帯型の端末装置でもよい。
(Example 1)
FIG. 1 is a block diagram illustrating a configuration of a
表示装置100は、撮像部101、CPU102、発話検出部103、操作部104、表示部105、ROM106、RAM107、大容量記憶部108、ネットワークコントローラ109、自己位置方向取得部110および画像処理部111を有する。
The
CPU102は、ROM106に格納されたブートローダプログラム及び表示装置制御プログラムに基づいて表示装置100全体を制御する。また、自己位置方向取得部110は、大容量記憶部108に格納されたアプリケーションプログラムに基づいて自己位置方向を取得する。なお自己位置方向とは、表示装置100の位置および向きのことである。
The
撮像部101は、表示装置100を装着したユーザの見ている被写体を撮像して撮像画像データを取得する。撮像部101で取得される撮像画像データには、自己位置方向を計算するためのマーカ画像も含まれる。マーカ画像とは、現実空間の所定の位置に付加された所定のマークを示す画像である。
The
発話検出部103は、マイクロフォンなどを通じて表示装置100を装着した人の発した発話を検出して音声データを取得する。詳細については後述する。操作部104は、表示する仮想オブジェクトを選択するために用いる。画像処理部111は、操作部104で選択された仮想オブジェクトを解釈し、画像データを生成する。表示部105は、画像処理部で生成された画像データを表示する。ROM106は、ブートローダプログラム及び表示装置制御プログラムを格納する。RAM107は、CPU102のワークエリアとして機能する。ネットワークコントローラ109は、外部ネットワークに接続されている仮想オブジェクト表示制御装置200との通信を行う。大容量記憶部108は、アプリケーションプログラムを格納し、撮像部101で撮像した撮像画像データや発話検出部103で取得した音声データを一時的に格納する。
The
図2は、仮想オブジェクト表示制御装置200の構成を示すブロック図である。仮想オブジェクト表示制御装置200はデータベースサーバとして機能する。仮想オブジェクト表示制御装置200は、CPU201、ROM202、RAM203、大容量記憶部204、操作部205、表示部206、ネットワークコントローラ207、会話状況検出部208、消去条件設定部209および消去部210を有する。
FIG. 2 is a block diagram illustrating a configuration of the virtual object
図2において、CPU201は、ROM202に格納されたブートローダプログラム及びデータベースサーバ制御プログラムに基づいて仮想オブジェクト表示制御装置全体を制御する。会話状況検出部208は、大容量記憶部204に格納されたアプリケーションプログラムに基づいて会話状況の検出を行う。消去条件設定部209は大容量記憶部204に格納されたアプリケーションプログラムに基づいて仮想オブジェクトの消去条件の設定を行う。消去部210は、消去条件設定部209で設定された消去条件に基づいて仮想オブジェクトを消去する。RAM203は、CPU201のワークエリアとして機能する。大容量記憶部204は、アプリケーションプログラムを格納し、自己位置方向管理テーブル400と、発話管理テーブル600を格納する。これらのテーブルについての詳細は後述する。操作部205は、キーボードやポインティングデバイスなどの入力装置を制御する。表示部206は、CPU201でデータベースサーバ制御プログラムに基づく表示をする。
In FIG. 2, a
次に、表示装置100と仮想オブジェクト表示制御装置200とを用いた、ユーザが操作する表示装置100の自己位置方向取得方法を図3のフローチャートを用いて説明する。図3のフローチャートに示す処理は、所定のタイミング毎に繰り返し行われる。なお、自己位置方向取得方法としては様々な手法がある。例えば、撮像画像中の特徴点を用いた手法やマーカ画像から特徴点を抽出する手法などもある。本実施例ではマーカ画像を用いた技術として説明するが他の手法を用いてもよい。図3においてステップS301からステップS304は、表示装置100側の処理であり、ステップS351からステップS354は仮想オブジェクト表示制御装置200側の処理である。図3のフローチャートのステップS301からステップS304は、表示装置100のCPU102の制御によって実行される。なお、図3では説明を容易にするために表示装置100側の処理と仮想オブジェクト表示制御装置200側の処理をまとめて記載しているが、それぞれの処理は別個に独立して行われるものである。
Next, a self-position direction acquisition method of the
ステップS301において撮像部101は、表示装置100を装着しているユーザの視線方向の現実空間画像を撮像し、撮像画像データを取得する。撮像画像データはCPU102に所定の間隔で送出され、RAM107に格納される。所定の間隔は、毎秒5フレームにするなど、任意の値を設定できる。
In step S <b> 301, the
ステップS302において自己位置方向取得部110は、RAM107に格納された現実空間画像を示す撮像画像データからマーカ画像を検出する。マーカ画像は、現実空間内で3次元位置が既知な画像である。マーカ画像の検出は、例えば形状、色、面積などを予め指定されたマーカ画像と現実空間画像とをマッチングさせることで行う。
In step S <b> 302, the self-position
ステップS303において自己位置方向取得部110は、ステップS303で検出されたマーカ画像の歪みから自己位置方向を取得する。例えば、自己位置方向取得部110は、現実空間画像に含まれる既知のマーカ画像の撮像面上での2次元位置を、3次元位置に投影計算することなどにより自己位置方向を取得する。表示装置100の自己位置方向を示す情報は、空間のデカルト座標としての位置を表すX、Y、Z成分と、方位角と仰俯角を表す成分とを含む成分として取得される。なお、マーカ画像から自己位置方向を取得する方法は周知の技術(例えば、特開2005−33319号公報)を用いて行うことができるため、詳細な説明は割愛する。なお、本実施例では自己位置方向はマーカ画像の検出によって行うとして説明しているが、現実空間の物体の特徴点を検出することで行ってもよいし、各種のセンサやGPSなどと組み合わせることによって自己位置方向を取得する方法であってもよい。また、本例では、自己位置方向は、空間のデカルト座標としての位置を表すX、Y、Z成分と、方位角と仰俯角を表す成分とを含む成分の例を用いて説明する。しかしながら、空間のデカルト座標としての位置を表すX、Y、Z成分である自己位置のみを示す情報であってもよい。自己位置方向取得部110は、取得した自己位置方向に取得した時点の時刻情報を付加する。
In step S303, the self-position
ステップS304において、CPU102は、表示装置100を使用するユーザのユーザIDと共に、ステップS304で取得され時刻情報が付加された自己位置方向をネットワークコントローラ109を介して仮想オブジェクト表示制御装置200に送信する。なお、本実施例ではIDとしてユーザIDを用いる例を説明するが、表示装置100を識別するIDであってもよい。
In step S <b> 304, the
次に、仮想オブジェクト表示制御装置200側の処理をステップS351からステップS354を用いて説明する。ステップS351からステップS354は仮想オブジェクト表示制御装置200のCPU201の制御によって実行される。なお、CPU201はあらかじめ大容量記憶部204からRAM203に自己位置方向管理テーブルを読み出しておく。
Next, processing on the virtual object
ステップS351において、仮想オブジェクト表示制御装置200は、表示装置100から送信された自己位置方向を、ネットワークコントローラ207を介して受信する。前述したように、表示装置100から送信される自己位置方向には、時刻情報と表示装置100のユーザIDとが付加されている。受信した自己位置方向は、CPU201がRAM203に格納する。
In step S <b> 351, the virtual object
次にステップS352において、CPU201は受信した自己位置方向に付加されているユーザIDが、仮想オブジェクト表示制御装置200が管理する自己位置方向管理テーブルにあるかどうかを判定する。自己位置方向管理テーブルは、各表示装置から送信される自己位置方向を管理するテーブルである。ユーザIDが自己位置方向管理テーブルにないと判定した場合、CPU201は、ステップS353に処理を進める。ステップS353において、CPU201は、ステップS351で受信した自己位置方向とユーザIDと時刻情報とを自己位置方向管理テーブルに新規に登録する。一方、ユーザIDが自己位置方向管理テーブルにないと判定した場合、CPU201は、ステップS354に処理を進める。ステップS354において、CPU201は、自己位置方向管理テーブルの中で一致するユーザIDに関連付けられる自己位置方向と時刻情報とをステップS351で受信した情報で更新する。
In step S <b> 352, the
図4は、仮想オブジェクト表示制御装置200によって管理される自己位置方向管理テーブル400の例を示す図である。自己位置方向管理テーブル400は、各ユーザのユーザID、時刻情報、自己位置情報、自己向き情報とを含む。なお、ここでは位置の単位をミリメートルとして説明するが、メートルや他の距離を表す単位でも良い。また、ここでは向きの単位をdegreeとしたが、向きを表す単位はradianでも良い。なお、方位角は、0度を北方向とするならば、東、南、西はそれぞれ90度、180度、270度と表される。方位角は、任意の方位を0度にすることができ、全てのユーザの方向がその基準の方位から何度であるかが分かればよい。また、仰俯角は、0度が水平方向であり、90度が天頂方向、−90度が鉛直方向を表す。
FIG. 4 is a diagram illustrating an example of the self-position / direction management table 400 managed by the virtual object
次に、表示装置100と仮想オブジェクト表示制御装置200を用いた、ユーザの発話検出方法について図5のフローチャートを用いて説明する。図5のステップS501からステップS503は表示装置100側の処理であり、ステップS551からステップS554は仮想オブジェクト表示制御装置200側の処理である。なお、図5のフローチャートでは説明を容易にするために表示装置100と仮想オブジェクト表示制御装置200との処理をまとめて示しているが、それぞれの処理は別個に独立して行われるものである。図5に示すフローチャートの処理は所定のタイミング毎に繰り返し行われる。
Next, a user utterance detection method using the
まず、表示装置100側の処理を説明する。図5のステップS501からステップS504は、表示装置100のCPU102の制御によって実行される。ステップS501において、表示装置100の発話検出部103は、発話があるかどうかを判定する。具体的には、発話検出部103に集音される音声データの音量が一定レベルを超えたときに、発話があると判定する。発話があると判定した場合、ステップS502においてCPU102は、RAM107に管理している表示装置の発話ステータスを発話ありと設定する。ステップS503において、CPU102は、音声データをフーリエ変換する。そして、フーリエ変換された音声データにその時点の時刻情報とを付加する。
First, processing on the
一方、ステップS501において発話検出部が発話がないと判定した場合、ステップS504に処理を進める。ステップS504においてCPU102は、RAM107に管理している表示装置の発話ステータスを発話なしと設定する。
On the other hand, when the speech detection unit determines in step S501 that there is no speech, the process proceeds to step S504. In step S <b> 504, the
ステップS505で、CPU201は、ネットワークコントローラ109を介して仮想オブジェクト表示制御装置200に発話ステータスと、時刻情報と、表示装置100のユーザIDとを含む発話情報を送信する。ステップS501において発話があると判定されている場合には、ステップS503で変換された音声データも含めた発話情報を仮想オブジェクト表示制御装置200に送信する。
In step S <b> 505, the
次に、仮想オブジェクト表示制御装置200側の処理を、図5のステップS551からステップS554を用いて説明する。図5のフローチャートは、仮想オブジェクト表示制御装置200のCPU201によって実行される。CPU201はあらかじめ大容量記憶部204からRAM203に発話管理テーブル600を読み出しておく。
Next, processing on the virtual object
ステップS551において仮想オブジェクト表示制御装置200は、表示装置100から送信された発話情報を、ネットワークコントローラ207を介して受信する。受信した発話情報は、CPU201がRAM203に格納する。
In step S <b> 551, the virtual object
ステップS552において、CPU201は受信した発話情報に含まれるユーザIDが、仮想オブジェクト表示制御装置で管理する発話管理テーブル600にあるかどうかを判定する。ユーザIDが発話管理テーブル600にない場合は、ステップS553においてCPU201は発話管理テーブル600に発話情報に含まれるユーザIDと時刻情報と発話ステータスとを新規に登録する。ユーザIDが発話管理テーブル600にある場合は、ステップS554においてCPU201はユーザIDに関連付けられている時刻情報と発話ステータスとを受信した発話情報に含まれる時刻情報と発話ステータスとで更新する。
In step S552, the
なお、図5の発話検出方法の処理は、図3で示し自己位置方向取得処理と同時に行われてもよい。すなわち、表示装置100は発話検出結果と自己位置方向とを併せて仮想オブジェクト表示制御装置200に送信する処理であってもよい。
Note that the processing of the speech detection method of FIG. 5 may be performed simultaneously with the self-position direction acquisition processing shown in FIG. That is, the
図6は、仮想オブジェクト表示制御装置200が管理する発話管理テーブル600の例をに示す図である。発話管理テーブル600は、各ユーザのユーザID、時刻情報、発話ステータスを含む。
FIG. 6 is a diagram showing an example of the utterance management table 600 managed by the virtual object
次に、図4の自己位置方向管理テーブルから各ユーザの平面的な配置を示した図7と、と図6の発話管理テーブルと、図8のフローチャートとを用いて、会話状況検出処理の説明を行う。 Next, the conversation status detection process will be described with reference to FIG. 7 showing the planar arrangement of each user from the self-position direction management table of FIG. 4, the utterance management table of FIG. 6, and the flowchart of FIG. I do.
図7において、ユーザID0001とユーザID0004とは、ほぼ対面していることが分かる。また、図6から、ユーザID0001とユーザID0004は発話ステータスが発話ありとなっている。以上の点から、ユーザID0001とユーザID0004とは会話をしている可能性がある。ここで、会話をしているかどうかの判定処理を、図8のフローチャートを用いて説明する。
In FIG. 7, it can be seen that the
図8のフローチャートは、仮想オブジェクト表示制御装置200のCPU201の制御にしたがって会話状況検出部208によって実行される。図8のフローチャートに示す処理は所定のタイミング毎に繰り返し行われる。まず、ステップS801において会話状況検出部208は発話管理テーブル600から、発話ありのステータスを有するユーザIDを抽出する。図6の例では、ユーザID0001とユーザID0004が抽出される。次に、ステップS802において会話状況検出部208は、発話ありのユーザIDが2つ以上あるか判定する。1つしかない場合は、会話として成り立っていないと考えられるので、ステップS801に戻る。
The flowchart of FIG. 8 is executed by the conversation
発話ありのユーザIDが2つ以上ある場合、ステップS803において会話状況検出部208は、ステップS801で抽出した発話ありのユーザIDの中から任意のユーザIDを2つ選択する。そして、会話状況検出部208は、選択したユーザIDに関連付けられて表示装置から送信されているフーリエ変換済みの音声データを抽出する。そして会話状況検出部208は、抽出したフーリエ変換済み音声データの周波数情報を比較して類似度を求める。類似度の算出方法はフーリエ変換済みの1次元データの類似度を求める方法と同様の公知の方法を用いる。
If there are two or more user IDs with utterances, in step S803, the conversation
ステップS804において会話状況検出部208は、ステップS803で比較した結果、類似度が閾値以上であればステップS805に進む。ステップS805において会話状況検出部208は、2つのユーザIDで識別される音声データは類似しているので、2つのユーザIDで識別されるユーザ同士は会話をしていると決定する。一方、会話状況検出部208は、ステップS803で比較した結果が閾値未満であればステップS806に進む。ステップS806において会話状況検出部208は、2つのユーザIDで識別される音声データは類似していないので、2つのユーザIDで識別されるユーザ同士は会話をしていないと決定する。ステップS807において会話状況検出部208は発話ありのユーザIDの全ての組み合わせで音声データを比較した場合、処理を終了する。
In step S804, the conversation
次に、音声データの類似性から会話をしているかどうかを判定する方法について説明する。ここではユーザAとユーザBとが会話をしていると仮定する。ユーザAとユーザBとが会話をしているということは、ユーザAとユーザBとは近くに位置していると考えられる。ユーザAとユーザBとが近くに位置しているということは、ユーザAが喋った内容がユーザAの表示装置の発話検出部で検出されるとともに、ユーザBの表示装置の発話検出部でも検出されることになる。このことを利用して、ユーザAの表示装置からの音声データとユーザBの表示装置の発話検出部からの音声データとを比較することによってユーザAとユーザBとが会話をしているか否かを判定することができる。なお、音声データの類似性から会話をしているかどうかを判定する方法については本実施例の主眼ではなく、他の様々な公知の手法を用いて判定してもよい。また、上記の例では音声データの類似性に基づいて会話をしているか否かを判定する例を説明した。さらに、前述したようにユーザAとユーザBとが対面しているか否かに応じて会話をしているか否かを判定してもよい。例えば、図8のステップS805の前に、ユーザ同士が対面しているかを判定するステップを入れ、対面している場合にステップS805に進み2人のユーザは会話中であると決定する処理にしてもよい。 Next, a method for determining whether or not a conversation is performed based on the similarity of audio data will be described. Here, it is assumed that user A and user B are having a conversation. The fact that the user A and the user B are having a conversation is considered that the user A and the user B are located close to each other. The fact that the user A and the user B are located close to each other is detected by the speech detection unit of the display device of the user A as well as the speech detection unit of the display device of the user B. Will be. Whether or not the user A and the user B have a conversation by comparing the voice data from the display device of the user A and the voice data from the utterance detection unit of the user B display device by using this fact. Can be determined. It should be noted that the method for determining whether or not a conversation is made based on the similarity of voice data is not the main point of the present embodiment, but may be determined using various other known methods. In the above example, the example in which it is determined whether or not the conversation is performed based on the similarity of the voice data has been described. Further, as described above, whether or not the user A and the user B are conversing may be determined depending on whether or not the user A and the user B are facing each other. For example, before step S805 in FIG. 8, a step of determining whether or not the users are facing each other is included, and if they are facing, the process proceeds to step S805 to determine that the two users are in conversation. Also good.
図9は、仮想オブジェクト表示制御装置200が管理する会話状況検出処理の結果を格納する会話管理テーブル900を示す図である。会話管理テーブルは、各会話の会話ID、時刻情報、会話参加者のユーザIDとを含む。会話IDは、図8のステップS805で会話中であると決定された会話ごとに付与される。なお、3人以上が会話をしている場合の会話IDの付与の仕方は次の通りである。まず、ユーザAとユーザBとが会話をしていると判定された場合、新規に会話IDが付与され、会話参加者IDとしてユーザAとユーザBのIDがその会話IDに関連付けられて管理される。そして、次の比較においてユーザAとユーザCとが会話をしていると判定された場合、ユーザAが既に参加している会話IDがあるので、ユーザCのユーザIDが会話参加者IDに追加されることになる。
FIG. 9 is a diagram showing a conversation management table 900 that stores the result of the conversation state detection process managed by the virtual object
本実施例においては、一度会話中であるとされた組み合わせは、その後のあるタイミングで発話情報がなくても、会話中とする。前述したように、自己位置方向や発話情報については所定のタイミング毎に繰り返し仮想オブジェクト表示制御装置に送信される。したがって、あるタイミングではユーザAだけが喋っている場合にはユーザBの会話情報が送信されない場合も想定される。したがって、本実施例では会話中から会話中ではないと状態が変化する条件は、ユーザ間の距離が、会話中と決定された時の距離と比較して一定以上(例えば3メートル)離れた場合とする。ユーザ間の距離が離れたことの判定は、各ユーザの表示装置からの自己位置方向に基づいて仮想オブジェクト表示制御装置200のCPU201が行う。CPU201が会話中から会話中でないと状態を変更すると、CPU201は会話管理テーブル900から該当するユーザの参加している会話IDに関連付けられている会話参加者IDから該当するユーザのユーザIDを削除する。削除した結果、会話参加者IDが一つになった場合、その会話IDも削除する。また、CPU201は発話管理テーブル600内の該当するユーザの発話ステータスを「あり」から「なし」に変更する。
In this embodiment, a combination that is once in a conversation is in a conversation even if there is no utterance information at a certain timing thereafter. As described above, the self-position direction and the utterance information are repeatedly transmitted to the virtual object display control device at every predetermined timing. Therefore, when only the user A is speaking at a certain timing, the conversation information of the user B may not be transmitted. Therefore, in the present embodiment, the condition that the state changes when the conversation is not being performed is that the distance between the users is more than a certain distance (for example, 3 meters) compared to the distance when it is determined that the conversation is being performed. And The
次に、仮想オブジェクトの消去条件設定処理を説明する。本実施例は、仮想オブジェクト表示制御装置は、仮想オブジェクトとユーザとの距離によって、仮想オブジェクトを消去するかしないかを決定する。すなわち、各ユーザが使用する各表示装置において表示されている仮想オブジェクトを消去するか否かを決定する。仮想オブジェクトは仮想オブジェクト表示制御装置によって現実空間の任意の位置に関連付けられる仮想的なタグを用いることによって表示装置で表示される。したがって、この関連付けを仮想オブジェクト表示制御装置において解消することで、表示装置で表示される仮想オブジェクトを消去することができる。本実施例では、仮想オブジェクトを消去するか否かを仮想オブジェクトとユーザとの距離によって決定する。ここで、ユーザとは、会話をしていない場合は仮想オブジェクトを配置して表示したユーザであり、会話をしている場合は仮想オブジェクトを配置して表示したユーザと会話しているユーザである。会話をしている場合、仮想オブジェクトを配置して表示したユーザは会話相手のユーザにその仮想オブジェクトを見せるために表示することが想定される。そのような状況で、仮想オブジェクトを配置したユーザが中座する場合、残っているユーザがその仮想オブジェクトを閲覧し続けたいということは十分に考えられる。したがって、会話をしている場合には仮想オブジェクトを配置したユーザと会話しているユーザと、仮想オブジェクトの距離と、に応じて仮想オブジェクトを消去するか否かを決定する。 Next, the virtual object deletion condition setting process will be described. In this embodiment, the virtual object display control device determines whether or not to delete the virtual object according to the distance between the virtual object and the user. That is, it is determined whether or not to erase the virtual object displayed on each display device used by each user. The virtual object is displayed on the display device by using a virtual tag associated with an arbitrary position in the real space by the virtual object display control device. Therefore, the virtual object displayed on the display device can be erased by eliminating this association in the virtual object display control device. In this embodiment, whether or not to delete the virtual object is determined by the distance between the virtual object and the user. Here, the user is a user who has arranged and displayed a virtual object when not having a conversation, and a user who has a conversation with a user who has arranged and displayed a virtual object when having a conversation. . In a conversation, it is assumed that a user who has placed and displayed a virtual object displays the virtual object to show it to the conversation partner user. In such a situation, when the user who placed the virtual object is in the middle, it is fully conceivable that the remaining user wants to continue browsing the virtual object. Therefore, in the case of a conversation, whether to delete the virtual object is determined according to the user who is speaking with the user who has placed the virtual object and the distance of the virtual object.
なお、仮想オブジェクトを現実空間の所定位置に関連付けておくことで仮想オブジェクトを配置する手法、および配置した仮想オブジェクトをユーザの表示装置で表示する手法については周知であるので、説明を省略する。 Since a technique for arranging a virtual object by associating the virtual object with a predetermined position in the real space and a technique for displaying the arranged virtual object on a user's display device are well known, the description thereof will be omitted.
次に、例えば、図10のように仮想オブジェクトが配置された場合を考える。各ユーザの位置は図4の自己位置方向管理テーブル400の通りとする。また、ユーザID0004で識別されるユーザが仮想オブジェクトID0001を配置して表示し、ユーザID0002で識別されるユーザが仮想オブジェクトID0002を配置して表示したものとする。消去条件設定処理を、図11のフローチャートを用いて説明する。図11のフローチャートは、CPU201の制御に従い主に消去条件設定部209によって実行される。
Next, for example, consider a case where virtual objects are arranged as shown in FIG. The position of each user is assumed to be as shown in the self-position / direction management table 400 of FIG. Further, it is assumed that the user identified by the
ステップS1101において、仮想オブジェクト表示制御装置200は、表示装置100から送信された仮想オブジェクト表示通知を、ネットワークコントローラ207を介して受信する。仮想オブジェクト表示通知は、各表示装置において仮想オブジェクトを配置して表示したことの通知である。すなわち、表示装置のユーザが仮想オブジェクトを現実空間の任意の位置に関連付けたことを仮想オブジェクト表示制御装置に知らせる通知である。仮想オブジェクト表示通知には、仮想オブジェクトが表示される(貼り付けられる)位置と、仮想オブジェクトを特定する仮想オブジェクトIDと、通知元ユーザIDとが含まれる。なお、仮想オブジェクト表示通知には、時刻情報や仮想オブジェクト自体のデータや、仮想オブジェクトの向きなどのデータが含まれてもよい。なお、仮想オブジェクトが表示される位置と向きとは、上記の表示装置の位置を取得する処理と同様に、空間の特徴点やマーカ画像などから仮想オブジェクトが貼り付けられた位置や向きを特定することができる。受信した仮想オブジェクト表示通知は、CPU201がRAM203に格納する。
In step S <b> 1101, the virtual object
次に、ステップS1102において、消去条件設定部209は、ステップS1101で受信した仮想オブジェクト表示通知の通知元が、会話管理テーブル900の会話参加者IDに登録されているか判定する。登録されていると判定した場合、消去条件設定部209は仮想オブジェクト通知元のユーザが会話中であると判定し、処理をステップS1103に進める。仮想オブジェクト表示通知の通知元のユーザが会話中であるということは、その仮想オブジェクトは会話相手と共有して閲覧するために配置され表示されたと想定される。すなわち、会話相手がいなくなったらその仮想オブジェクトを表示する必要がないと考えることができる。したがって、ステップS1103において消去条件設定部209は、消去条件に会話相手のユーザIDを設定する。
Next, in step S1102, the erasure
一方、ステップS1102において登録されていないと判定した場合、消去条件設定部209は仮想オブジェクト通知元のユーザが会話中でないと判定し、処理をステップS1104に進める。仮想オブジェクト表示通知の通知元のユーザが会話中でないということは、表示者が自分だけで見るために仮想オブジェクトを配置して表示したと想定される。すなわち、表示者がいなくなったらその仮想オブジェクトを表示する必要が無いと考えることができる。したがって、ステップS1104において消去条件設定部209は、消去条件に表示者のユーザIDを設定する。
On the other hand, when it is determined in step S1102 that the user is not registered, the erasure
次に、ステップS1105において、消去条件設定部209は、消去条件に設定されたユーザと仮想オブジェクトとがどれだけ離れたら消去するのかを示す消去距離を算出する。本実施例では、仮想オブジェクト表示時の、仮想オブジェクトと消去条件に設定されたユーザとの距離から、さらに所定の距離(例えば3メートル)離れた距離を消去距離とする。すなわち、消去条件設定部209は。仮想オブジェクト表示通知の時刻情報と同じまたは近時した時刻情報を持つ、消去条件となっている通知元のユーザIDまたは会話相手のユーザIDの位置を、自己位置方位管理テーブル400から取得し、消去距離を設定する。その後、消去部210は、自己位置方位管理テーブル400の消去条件となっているユーザIDの位置と仮想オブジェクトの位置とを比較し、消去距離に達した場合に仮想オブジェクトを消去する。
In step S1105, the erasure
図12は、消去条件設定部209が設定した結果の消去条件テーブル1200を示す図である。消去条件テーブル1200は、仮想オブジェクトID、時刻情報、仮想オブジェクト位置、仮想オブジェクト向き、仮想オブジェクトを配置して表示したユーザID、消去条件に設定されたユーザID、消去距離を含む。なお、仮想オブジェクト位置と仮想オブジェクト向きとは仮想オブジェクト表示通知に含まれる情報により既知であるものとする。図12の例では、仮想オブジェクトID0001の消去距離は、次のように計算される。まず、仮想オブジェクトID0001と消去条件のユーザID0004との距離√((1506−3000)2+(1120−520)2+(1860−1500)2)≒1650ミリメートルを計算する。そして、その距離1650ミリメートルに3メートルを加算して4650ミリメートルとなる。すなわち、仮想オブジェクトID0001は、仮想オブジェクトID0001の距離と消去条件のユーザID0004との距離が4650ミリメートルより離れた場合に消去される。
FIG. 12 is a diagram showing an erase condition table 1200 as a result set by the erase
以上、本実施例について説明したが、上述した実施例に限定されるものではなく、要旨を逸脱しない範囲でさまざまに変形可能である。例えば、仮想オブジェクトは、消去条件設定部で設定した条件に合致した場合以外にも消去が可能である。例えば、ユーザが表示装置100の操作部104を通じて明示的に消去指示をCPU102に通知することで、仮想オブジェクトを消去することも可能である。また、一人で仮想オブジェクトを表示した場合は、表示者が仮想オブジェクトから一定距離離れたら消去するとしたが、表示者がその場から中座しただけで、すぐに戻ってきて仮想オブジェクトを見たいと言うことも考えられる。そのため、表示者が仮想オブジェクトから所定の距離離れたら一時消去し、そこから一定時間内に表示者が戻ってきたら再表示し、戻ってこなかったら消去する、ということも可能である。
Although the present embodiment has been described above, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention. For example, the virtual object can be deleted even when the condition set by the deletion condition setting unit is met. For example, the virtual object can be erased by the user explicitly notifying the
また、上記の例では、会話中である場合には消去条件のユーザとして会話相手を設定する例を説明したが、会話相手のほかに仮想オブジェクトを表示した表示者も消去条件に設定してもよい。すなわち、会話中の場合には、仮想オブジェクトを表示した表示者および会話相手のいずれもが仮想オブジェクトから一定距離離れた場合に仮想オブジェクトを消去するとしてもよい。 In the above example, the conversation partner is set as the user of the erasure condition when the conversation is in progress. However, in addition to the conversation partner, the display person who displayed the virtual object can also be set as the erasure condition. Good. That is, when a conversation is in progress, the virtual object may be deleted when both the display person who displayed the virtual object and the conversation partner are away from the virtual object by a certain distance.
(実施例2)
実施例1では、仮想オブジェクトを表示したときの会話状況検出部の検出結果に基づいて仮想オブジェクトの消去条件を設定した。しかし、会話状況は時々刻々と変化することが考えられる。例えば、始めは2人で会話を始めたが、3人、4人と増える場合もある。そこで、本実施例では、会話状況が変化した場合に消去条件を設定し直す処理について説明する。例えば、実施例1で説明したように、時刻が2012年12月12日15時0分0秒0の時点の自己位置方向管理テーブルを図4、発話管理テーブルを図6、とする。また、会話状況検出部の検出結果の会話管理テーブルを図9、消去条件設定部の設定結果の消去条件テーブルを図12とする。10分後にユーザID0002がユーザID0001とユーザID0004の会話に途中から参加した場合を考える。
(Example 2)
In the first embodiment, the virtual object deletion condition is set based on the detection result of the conversation state detection unit when the virtual object is displayed. However, the conversation situation can change from moment to moment. For example, two people started a conversation at first, but there are cases where the number increases to three and four. Therefore, in this embodiment, a process for resetting the erasure condition when the conversation state changes will be described. For example, as described in the first embodiment, FIG. 4 shows the self-position direction management table and FIG. 6 shows the utterance management table when the time is 12/12/2012 15:00:00. Further, FIG. 9 shows a conversation management table of detection results of the conversation status detection unit, and FIG. 12 shows an erase condition table of setting results of the erase condition setting unit. Consider a case where a
図13(a)は、この時点における自己位置方向管理テーブル1300を示す図である。また、図13(b)は会話管理テーブル1350を示す図である。この場合の消去条件設定部209の処理を、図14のフローチャートを用いて説明する。図14のフローチャートは、CPU201の制御にしたがって消去条件設定部209によって実行される。
FIG. 13A is a diagram showing the self-position direction management table 1300 at this time point. FIG. 13B is a diagram showing the conversation management table 1350. The processing of the erasure
ステップS1401において、CPU201は、会話管理テーブルに変化があったかを判定する。変化があると判定した場合、ステップS1402において消去条件設定部209は変化があった会話IDに関連付けられている会話参加者のユーザIDを特定する。そして、消去条件設定部209は、特定したユーザIDが関連付けられている仮想オブジェクトIDを消去条件テーブルから選択する。図13(b)を参照すると、変化があった会話ID0001に関連付けられている会話参加者IDとして、ユーザID0001,0002、0004が特定される。そして、これらのユーザIDが関連付けられている仮想オブジェクトIDを消去条件テーブルから選択する。より詳細には、これらのユーザIDが、仮想オブジェクトを配置して表示したユーザのユーザIDまたは消去条件に設定されたユーザのユーザIDのいずれかに一致するかを判定する。そして、一致したユーザIDに関連付けられている仮想オブジェクトIDを選択する。図12の場合は、仮想オブジェクトID0001と仮想オブジェクトID0002とが該当する。なお、以下では仮想オブジェクトを配置して表示したユーザを表示ユーザと称し、表示ユーザのユーザIDを表示ユーザIDと称する。同様に、消去条件に設定されたユーザを消去条件ユーザと称し、消去条件ユーザのユーザIDを消去条件ユーザIDと称する。
In step S1401, the
ステップS1403において、消去条件設定部209は、選択された仮想オブジェクトIDに関連付けられている表示ユーザIDと消去条件ユーザIDとが異なるかどうかを判定する。仮想オブジェクトID0001は、表示ユーザIDが0001、消去条件ユーザIDが0004なので異なる。従って、消去条件設定部209はステップS1404に処理を進める。ステップS1404において消去条件設定部209は、消去条件ユーザを再設定する。実施例1で説明したように、表示ユーザID0001の会話相手を消去条件ユーザに設定するので、消去条件ユーザIDが0002と0004に再設定される。次に、ステップS1405において、消去条件設定部209は、各消去条件ユーザIDに対して消去距離を再算出して、距離が一番遠いものを新しい消去距離とする。図13(a)の条件では、ユーザID0002と仮想オブジェクト0001との距離は√((2516−3000)2+(2311−520)2+(1550−1500)2)≒1856ミリメートルとなる。ユーザID0004と仮想オブジェクト0001との距離は1650ミリメートルなので、距離の遠い1856ミリメートルに3メートルを加算して、4856ミリメートルとなる。距離の遠いユーザIDに関連付けられている距離を用いて新しい消去距離を設定することで、会話の規模に応じて適切な消去を行うことができる。図15は、仮想オブジェクト0001の消去条件を変更した消去条件テーブルを示す。
In step S1403, the deletion
なお、ユーザID0002によって識別されるユーザが表示した仮想オブジェクトID0002に関しては、ステップS1403において表示ユーザと消去条件ユーザとが一致すると判定されるため、ステップS1404の再設定は行われない。また、ユーザID0002によって識別されるユーザが移動しても消去距離に満たないので、仮想オブジェクト0002はユーザID0002の表示装置においては表示されたままとなる。
Note that regarding the
以上説明した実施例2によれば、会話途中で他のユーザが会話に参加することによって会話状況が変化しても適切に消去条件を設定し直すことができる。 According to the second embodiment described above, it is possible to appropriately set the erasing condition even if the conversation situation changes due to another user participating in the conversation during the conversation.
(実施例3)
表示する仮想オブジェクトにはアクセス権が設定されることがある。アクセス権には、仮想オブジェクトを配置して表示のみ可能なRead、表示も編集も可能なRead/Writeがある。さらに、他のユーザがReadしている仮想オブジェクトを閲覧するだけのLookがある。例えば、ある部署Xに所属している人は仮想オブジェクトOに対するRead権限がある場合を想定する。この場合、部署Xに所属している人は仮想オブジェクトOを配置して表示できる。一方、それ以外の部署Yに所属している人はRead権限がないとする。この場合、部署Yに所属している人は仮想オブジェクトOを配置できないし表示することもできない。そのような条件でも、部署Xの人がそれ以外の部署Yの人と仮想オブジェクトOを閲覧しながら会話することはありうる。その場合、仮想オブジェクトOに対するLook権限を部署Yの人に付与する。この場合、仮想オブジェクトOは部署Xの人が配置して表示でき、部署Yの人はその部署Xの人が配置して表示した仮想オブジェクトOを閲覧するだけができる。このような状況下において、部署Xの人にとっては、元々Read権限の無い部署Yの人しかいない時に仮想オブジェクトOを表示したままにするのはセキュリティ上都合が悪い。なぜならば、Look権限ありの人だけでは、そもそもその仮想オブジェクトOを表示する(すなわち、Readする)ことは許されていないからである。したがって、部署Xの人が仮想オブジェクトOから一定距離離れて、仮想オブジェクトOの周りが部署Yの人だけになった場合、仮想オブジェクトOを消去することが好ましい。実施例3では、そのような場合の消去処理について説明する。なお、仮想オブジェクトの権限については、仮想オブジェクト表示制御装置200が管理する仮想オブジェクトデータに関連付けて記憶されているものとする。
Example 3
Access rights may be set for virtual objects to be displayed. The access right includes a read that can be displayed only by placing a virtual object, and a read / write that can be displayed and edited. Furthermore, there is a Look that only browses virtual objects that other users are reading. For example, it is assumed that a person belonging to a certain department X has a Read right for the virtual object O. In this case, a person who belongs to the department X can arrange and display the virtual object O. On the other hand, it is assumed that persons belonging to other departments Y do not have Read authority. In this case, a person who belongs to the department Y cannot arrange or display the virtual object O. Even under such conditions, a person in department X may have a conversation with another person in department Y while viewing virtual object O. In that case, the Look authority for the virtual object O is given to the person in the department Y. In this case, the virtual object O can be arranged and displayed by the person in the department X, and the person in the department Y can only browse the virtual object O arranged and displayed by the person in the department X. Under such circumstances, it is inconvenient for security for the person in department X to keep the virtual object O displayed when there is only a person in department Y who does not have Read authority. This is because only a person with the Look authority is not allowed to display (that is, read) the virtual object O in the first place. Therefore, when the person in the department X is away from the virtual object O by a certain distance and only the person in the department Y is around the virtual object O, it is preferable to delete the virtual object O. In the third embodiment, an erasing process in such a case will be described. The authority of the virtual object is assumed to be stored in association with the virtual object data managed by the virtual object
時刻が2012年12月13日13時0分0秒0の時点での自己位置方向管理テーブルを図16(a)に示す。図16(a)ではユーザID0001〜0004の4人が登録されている。また、同時点での会話管理テーブルを図16(b)に示す。図16(b)に示す通り、その時点ではユーザID0001〜0004の4人で会話中である。図17は、図16の示す状態においてユーザID0001が仮想オブジェクトを表示したときの平面的な配置図を示す図である。また、ユーザID0001と0002は仮想オブジェクトのRead権限を有しているとする。また、ユーザID0003と0004は仮想オブジェクトのRead権限がなく、Look権限のみを有しているとする。
FIG. 16A shows a self-position direction management table when the time is December 13, 2012, 13:00:00. In FIG. 16A, four
図18は、実施例3における消去条件設定処理のフローチャートを示す図である。図18のフローチャートは、CPU201の制御にしたがって、主に消去条件設定部209によって実行される。図18のフローチャートは図11のフローチャートとほぼ同様のため、同じ処理については同じ符号を付して説明は省略する。図18のステップS1102において消去条件設定部209はユーザが会話中と判定した場合、ステップS1803に処理を進める。ステップS1803において消去条件設定部209は、仮想オブジェクトを表示した表示者と、Read権限のある会話相手とを消去条件ユーザに設定する。ステップS1803においてはRead権限のある会話相手のほかに仮想オブジェクトを表示した表示者が消去条件に含まれている。これは、Read権限のある人が仮想オブジェクトを表示したが、会話相手が全員Read権限が無い場合に対処するためである。すなわち、Read権限のある表示者が席を離れてRead権限のない人だけが残っている場合、仮想オブジェクトが消去されないことを避けるためである。
FIG. 18 is a flowchart of the erasure condition setting process in the third embodiment. The flowchart in FIG. 18 is mainly executed by the erasing
図19は、図16に示す状況において図18のフローチャートの処理を行った結果作成された消去条件テーブルを示す図である。図19において、消去条件ユーザには、会話相手で仮想オブジェクトのRead権限のあるユーザID0002の他に、表示者であるユーザID0001が設定されている。
FIG. 19 is a diagram showing an erasing condition table created as a result of performing the processing of the flowchart of FIG. 18 in the situation shown in FIG. In FIG. 19, a
以上により、アクセス権の設定された仮想オブジェクトに対しての消去条件が適切に設定できる。 As described above, the erasure condition for the virtual object for which the access right is set can be appropriately set.
また、上述した例に限定されるものではなく、要旨を逸脱しない範囲でさまざまに変形可能である。例えば、会話参加者の中で、仮想オブジェクトへのRead権限のあるユーザが表示者だけの時に、表示者が中座することはありうる。その場合、表示者が中座する前に、会話参加者に対して一時的にRead権限を与えて、表示者の中座中も仮想オブジェクトが見えるようにすることも可能である。このときには、会話参加者に対するRead権限は一時的であるので、表示者が戻ってきたとき、または一定時間が経過すると、Read権限は無くなるようにしても良い。 Further, the present invention is not limited to the above-described example, and various modifications can be made without departing from the gist. For example, it is possible for the display person to sit in the middle of a conversation participant when the only user who has the Read permission to the virtual object is the display person. In that case, it is possible to temporarily give Read permission to the conversation participant before the display person is in the middle so that the virtual object can be seen even while the display person is in the middle. At this time, since the Read authority for the conversation participant is temporary, the Read authority may be lost when the display person returns or when a certain time elapses.
<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (18)
前記表示通知の通知元ユーザの会話状況を取得する取得手段と、
前記取得した会話状況に基づいて前記仮想オブジェクトの消去条件となる消去条件ユーザを決定する決定手段と、
前記消去条件ユーザの位置と前記仮想オブジェクトの位置とに応じて前記仮想オブジェクトを消去する消去手段と
を有する仮想オブジェクト表示制御装置。 Receiving means for receiving a display notification of a virtual object;
Acquisition means for acquiring a conversation status of a notification source user of the display notification;
Determining means for determining an erasure condition user to be an erasure condition of the virtual object based on the acquired conversation state;
A virtual object display control device comprising: erase means for erasing the virtual object according to the position of the erase condition user and the position of the virtual object.
前記管理手段は、会話しているユーザ間の距離に応じて、前記会話状況を会話ありから会話なしに変更することを特徴とする請求項1から8のいずれか一項に記載の仮想オブジェクト表示制御装置。 A management means for managing the conversation status;
9. The virtual object display according to claim 1, wherein the management unit changes the conversation state from conversation to no conversation according to a distance between users having conversation. Control device.
前記再表示手段は、前記消去手段によって消去された時刻から一定時間内に前記消去条件ユーザが前記仮想オブジェクトを表示していた位置に戻った場合に前記再表示をすることを特徴とする請求項1から9のいずれか一項に記載の仮想オブジェクト表示制御装置。 Re-displaying means for re-displaying the virtual object erased by the erasing means;
The re-display means performs the re-display when the erasing condition user returns to the position where the virtual object was displayed within a predetermined time from the time when the re-erasing means erased. The virtual object display control device according to any one of 1 to 9.
前記決定手段は、前記Read権限にさらに基づいて前記消去条件ユーザを決定することを特徴とする請求項1から10のいずれか一項に記載の仮想オブジェクト表示制御装置。 The virtual object is given Read authority, which is authority to arrange and display the virtual object,
The virtual object display control apparatus according to claim 1, wherein the determination unit determines the erasure condition user further based on the Read authority.
自己の位置情報と、集音した音声データとを送信する送信手段と、
前記撮像手段で撮像した撮像画像データと前記撮像画像データに重畳される仮想オブジェクトとを含む画像データを表示する表示手段と
を有する表示装置であって、
前記表示手段で表示される仮想オブジェクトは、前記位置情報と前記音声データとの送信に応じて、請求項1から14のいずれか一項に記載の仮想オブジェクト表示制御装置によって消去されることを特徴とする表示装置。 Imaging means;
Transmitting means for transmitting the position information of the user and the collected voice data;
A display device having display means for displaying image data including captured image data captured by the imaging means and a virtual object superimposed on the captured image data;
The virtual object displayed by the display means is erased by the virtual object display control device according to any one of claims 1 to 14 in response to transmission of the position information and the audio data. Display device.
前記表示通知の通知元ユーザの会話状況を取得する取得ステップと、
前記取得した会話状況に基づいて前記仮想オブジェクトの消去条件となる消去条件ユーザを決定する決定ステップと、
前記消去条件ユーザの位置と前記仮想オブジェクトの位置とに応じて前記仮想オブジェクトを消去する消去ステップと
を有する仮想オブジェクト表示制御方法。 A receiving step for receiving a display notification of the virtual object;
An acquisition step of acquiring a conversation state of a notification source user of the display notification;
A determination step of determining an erasure condition user as an erasure condition of the virtual object based on the acquired conversation state;
A virtual object display control method comprising: an erasing step of erasing the virtual object according to the position of the erasing condition user and the position of the virtual object.
自己の位置情報と、集音した音声データとを送信する送信ステップと、
前記撮像ステップで撮像した撮像画像データと前記撮像画像データに重畳される仮想オブジェクトとを含む画像データを表示する表示ステップと
を有する表示方法であって、
前記表示ステップで表示される仮想オブジェクトは、前記位置情報と前記音声データとの送信に応じて、請求項16に記載の仮想オブジェクト表示制御方法によって消去されることを特徴とする表示方法。 Imaging step;
A transmission step of transmitting the self location information and the collected voice data;
A display method including a display step of displaying image data including the captured image data captured in the imaging step and a virtual object superimposed on the captured image data,
The display method according to claim 16, wherein the virtual object displayed in the display step is erased by the virtual object display control method according to claim 16 in response to transmission of the position information and the audio data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013077688A JP2014203194A (en) | 2013-04-03 | 2013-04-03 | Virtual object display control apparatus, virtual object display control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013077688A JP2014203194A (en) | 2013-04-03 | 2013-04-03 | Virtual object display control apparatus, virtual object display control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014203194A true JP2014203194A (en) | 2014-10-27 |
Family
ID=52353598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013077688A Pending JP2014203194A (en) | 2013-04-03 | 2013-04-03 | Virtual object display control apparatus, virtual object display control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014203194A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057057A (en) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | Information processing apparatus, information processing system, and program |
JP2019153274A (en) * | 2018-02-28 | 2019-09-12 | 東芝デジタルソリューションズ株式会社 | Position calculation device, position calculation program, position calculation method, and content addition system |
WO2020184317A1 (en) * | 2019-03-13 | 2020-09-17 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
CN114461328A (en) * | 2022-02-10 | 2022-05-10 | 网易(杭州)网络有限公司 | Virtual article layout method and device and electronic equipment |
JP7500638B2 (en) | 2022-03-07 | 2024-06-17 | キヤノン株式会社 | System, method, and program |
-
2013
- 2013-04-03 JP JP2013077688A patent/JP2014203194A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057057A (en) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | Information processing apparatus, information processing system, and program |
US11108990B2 (en) | 2017-09-20 | 2021-08-31 | Fujifilm Business Innovation Corp. | Information processing apparatus, information processing system, and non-transitory computer readable medium storing program |
JP2019153274A (en) * | 2018-02-28 | 2019-09-12 | 東芝デジタルソリューションズ株式会社 | Position calculation device, position calculation program, position calculation method, and content addition system |
WO2020184317A1 (en) * | 2019-03-13 | 2020-09-17 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
US11908055B2 (en) | 2019-03-13 | 2024-02-20 | Sony Group Corporation | Information processing device, information processing method, and recording medium |
JP7468506B2 (en) | 2019-03-13 | 2024-04-16 | ソニーグループ株式会社 | Information processing device, information processing method, and recording medium |
CN114461328A (en) * | 2022-02-10 | 2022-05-10 | 网易(杭州)网络有限公司 | Virtual article layout method and device and electronic equipment |
CN114461328B (en) * | 2022-02-10 | 2023-07-25 | 网易(杭州)网络有限公司 | Virtual article layout method and device and electronic equipment |
JP7500638B2 (en) | 2022-03-07 | 2024-06-17 | キヤノン株式会社 | System, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11221726B2 (en) | Marker point location display method, electronic device, and computer-readable storage medium | |
KR102595150B1 (en) | Method for controlling multiple virtual characters, device, apparatus, and storage medium | |
JP7079231B2 (en) | Information processing equipment, information processing system, control method, program | |
US11212515B2 (en) | Information processing device and information processing method | |
JP6978701B2 (en) | Information processing system, its control method, and program, and information processing device, its control method, and program. | |
JP6409861B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP7060778B2 (en) | Information processing system, information processing system control method and program | |
JP2014203194A (en) | Virtual object display control apparatus, virtual object display control method, and program | |
JP6543924B2 (en) | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
JP2015153169A (en) | Terminal apparatus, information processing apparatus, display control method, and display control program | |
JP2017120650A (en) | Information processing system, control method thereof, program, information processor, control method thereof, and program | |
JP6725827B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP6730577B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP2017108356A (en) | Image management system, image management method and program | |
JP2014203175A (en) | Information processing device, information processing method, and program | |
KR102260193B1 (en) | Remote augmented reality communication method and system that provides security for 3d-space | |
JP2017010228A (en) | Information processing apparatus, information processing method, and program | |
KR20210085929A (en) | Method for augmented reality communication between multiple users | |
WO2019105002A1 (en) | Systems and methods for creating virtual 3d environment | |
JP2015072607A (en) | Information processing apparatus, information processing method, and program | |
KR20150090351A (en) | Video producing service device based on contents received from a plurality of user equipments, video producing method based on contents received from a plurality of user equipments and computer readable medium having computer program recorded therefor | |
US11740773B2 (en) | Information processing device and method | |
CN112312110B (en) | Non-transitory computer readable medium, image processing device and image processing method | |
JP6923608B2 (en) | Information processing equipment, information processing methods, and programs |