JP2014203194A - Virtual object display control apparatus, virtual object display control method, and program - Google Patents

Virtual object display control apparatus, virtual object display control method, and program Download PDF

Info

Publication number
JP2014203194A
JP2014203194A JP2013077688A JP2013077688A JP2014203194A JP 2014203194 A JP2014203194 A JP 2014203194A JP 2013077688 A JP2013077688 A JP 2013077688A JP 2013077688 A JP2013077688 A JP 2013077688A JP 2014203194 A JP2014203194 A JP 2014203194A
Authority
JP
Japan
Prior art keywords
virtual object
user
conversation
display
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013077688A
Other languages
Japanese (ja)
Inventor
澤野 靖明
Yasuaki Sawano
靖明 澤野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013077688A priority Critical patent/JP2014203194A/en
Publication of JP2014203194A publication Critical patent/JP2014203194A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that if virtual objects is arranged and kept at arbitrary positions in real space, while the virtual objects increase, the reality space is filled with the virtual objects, and the virtual objects is troublesome.SOLUTION: A user satisfying an erasure condition of a virtual object is determined on the basis of a conversation state when the virtual object is arranged and displayed. Then, the virtual object is erased on the basis of distance between the user satisfying the erasure condition and the virtual object.

Description

本発明は、仮想オブジェクト表示制御装置、仮想オブジェクト表示制御方法、およびプログラムに関する。   The present invention relates to a virtual object display control device, a virtual object display control method, and a program.

近年、実世界に付加的な情報を重畳してユーザに呈示するAR(AugumentedReality:拡張現実)技術を用いたシステムが開発・提供されている。例えば、セカイカメラ(登録商標)と呼ばれるシステムでは、現実空間の任意の位置に関連付けられる仮想的なタグが予めシステムに登録される。そして、ユーザが携帯する端末により撮像される画像内で、当該画像に映る位置に関連付けられているタグがシステムサーバから端末に送信されその位置に重畳して画当該画像内に表示される。   In recent years, systems using AR (Augmented Reality) technology that superimposes additional information on the real world and presents it to the user have been developed and provided. For example, in a system called Sekai Camera (registered trademark), a virtual tag associated with an arbitrary position in the real space is registered in the system in advance. Then, in the image captured by the terminal carried by the user, the tag associated with the position shown in the image is transmitted from the system server to the terminal, and is superimposed on the position and displayed in the image.

また、特許文献1に記載されたシステムでは、ヘッドアップディスプレイ装置に飛行経路が投影される。この飛行経路は、機体の位置および姿勢と、飛行経路データとに基づいて算出され、パイロットの前面に設けられるヘッドアップディスプレイ装置において前景と重畳して表示される。一方、着陸位置に近づき着陸位置が目視できる状態では、パイロットは通常有視界飛行で目視によって着地する。この場合にはヘッドアップディスプレイ装置の表示画像がかえって障害になる場合があるため、特許文献1では着地位置と機体との距離が所定の距離以下になる場合、重畳して表示される飛行経路をヘッドアップディスプレイ装置から消去する。   Moreover, in the system described in Patent Document 1, a flight path is projected on the head-up display device. This flight path is calculated based on the position and posture of the aircraft and flight path data, and is displayed superimposed on the foreground on a head-up display device provided in front of the pilot. On the other hand, in a state where the landing position is close to the landing position and the landing position can be visually observed, the pilot usually lands by visual observation flight. In this case, since the display image of the head-up display device may be an obstacle, in Patent Document 1, when the distance between the landing position and the aircraft is equal to or less than a predetermined distance, the flight path displayed in a superimposed manner is displayed. Erase from the head-up display device.

特開平11−268696号公報Japanese Patent Laid-Open No. 11-268696

AR技術を用いると、打ち合わせの場において、現実空間の任意の位置に仮想オブジェクトを配置することができる。これにより、それぞれの端末を通じて複数のユーザで同じ物を見ているかのように仮想オブジェクトを閲覧し、共有することが可能である。   When the AR technology is used, a virtual object can be arranged at an arbitrary position in the real space in a meeting place. Thereby, a virtual object can be browsed and shared as if a plurality of users are viewing the same object through each terminal.

しかし、現実空間の任意の位置に仮想オブジェクトを配置したままにしておくと、仮想オブジェクトは増える一方で、現実空間に仮想オブジェクトがあふれてしまい煩わしい。   However, if the virtual objects are arranged at arbitrary positions in the real space, the virtual objects increase, but the virtual objects overflow in the real space, which is troublesome.

前述の特許文献1の方法によれば、仮想オブジェクトを配置して表示する装置の位置に応じて仮想オブジェクトを消去できる。しかしながら複数の人物で同じ仮想オブジェクトを閲覧する場合、その仮想オブジェクトを配置して表示する装置の位置に応じて仮想オブジェクトを消去すると、その仮想オブジェクトを閲覧している他のユーザの装置で閲覧できなくなる場合がある。   According to the method of the above-mentioned patent document 1, a virtual object can be deleted according to the position of a device that arranges and displays the virtual object. However, when viewing the same virtual object by multiple persons, if the virtual object is deleted according to the position of the device on which the virtual object is arranged and displayed, it can be viewed on the device of another user who is viewing the virtual object. It may disappear.

本発明に係る仮想オブジェクト表示制御装置は、仮想オブジェクトの表示通知を受信する受信手段と、前記表示通知の通知元ユーザの会話状況を取得する取得手段と、前記取得した会話状況に基づいて前記仮想オブジェクトの消去条件となる消去条件ユーザを決定する決定手段と、前記消去条件ユーザの位置と前記仮想オブジェクトの位置とに応じて前記仮想オブジェクトを消去する消去手段とを有することを特徴とする。   The virtual object display control apparatus according to the present invention includes a receiving unit that receives a display notification of a virtual object, an acquisition unit that acquires a conversation state of a notification source user of the display notification, and the virtual object based on the acquired conversation state. It has a determining means for determining an erasing condition user as an erasing condition for an object, and an erasing means for erasing the virtual object according to the position of the erasing condition user and the position of the virtual object.

本発明によれば、仮想オブジェクトが必要なくなった時点で仮想オブジェクトを消去することが可能となる。したがって、現実空間が仮想オブジェクトであふれて煩わしくなることが無く、使い勝手が向上する。   According to the present invention, a virtual object can be deleted when the virtual object is no longer needed. Therefore, the real space is not overwhelmed with virtual objects, and usability is improved.

実施例1における表示装置のブロック図である。1 is a block diagram of a display device in Example 1. FIG. 実施例1における仮想オブジェクト表示制御装置のブロック図である。1 is a block diagram of a virtual object display control device in Embodiment 1. FIG. 実施例1における自己位置方向特定処理のフローチャートである。3 is a flowchart of self-position direction specifying processing in the first embodiment. 実施例1における自己位置方向管理テーブルの例を示す図である。It is a figure which shows the example of the self-position direction management table in Example 1. FIG. 実施例1における発話検出処理のフローチャートである。3 is a flowchart of speech detection processing in the first embodiment. 実施例1における発話管理テーブルの例を示す図である。It is a figure which shows the example of the speech management table in Example 1. FIG. 実施例1におけるユーザの平面的な配置図の例を示す図である。It is a figure which shows the example of the planar arrangement | positioning figure of the user in Example 1. FIG. 実施例1における会話状況検出処理のフローチャートである。3 is a flowchart of conversation state detection processing in the first embodiment. 実施例1における会話管理テーブルの例を示す図である。It is a figure which shows the example of the conversation management table in Example 1. FIG. 実施例1におけるユーザと仮想オブジェクトの平面的な配置図の例を示す図である。6 is a diagram illustrating an example of a planar arrangement diagram of a user and a virtual object in Embodiment 1. FIG. 実施例1における消去条件設定処理のフローチャートである。6 is a flowchart of an erasing condition setting process in Embodiment 1. 実施例1における消去条件テーブルの例を示す図である。6 is a diagram illustrating an example of an erasing condition table in Embodiment 1. FIG. 実施例2における自己位置方向管理テーブルと会話管理テーブルの例を示す図である。It is a figure which shows the example of the self-position direction management table and conversation management table in Example 2. FIG. 実施例2における消去条件設定処理のフローチャートである。9 is a flowchart of an erasing condition setting process in Embodiment 2. 実施例2における消去条件テーブルの例を示す図である。10 is a diagram illustrating an example of an erasing condition table in Embodiment 2. FIG. 実施例3における自己位置方向管理テーブルと会話管理テーブルの例を示す図である。It is a figure which shows the example of the self-position direction management table in Example 3, and a conversation management table. 実施例3におけるユーザと仮想オブジェクトの平面的な配置図の例を示すzうである。It is z which shows the example of the planar arrangement figure of the user in Example 3, and a virtual object. 実施例3における消去条件設定処理のフローチャートである。10 is a flowchart of an erasing condition setting process in Embodiment 3. 実施例3における消去条件テーブルの例を示す図である。FIG. 10 is a diagram illustrating an example of an erasing condition table in the third embodiment.

以下、本発明を実施するための形態について図面を用いて説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.

(実施例1)
図1は、仮想オブジェクトを表示する表示装置100の構成を示すブロック図である。表示装置100の一例としては、ユーザの頭部に装着するHMD(Head‐mounted Display)が挙げられる。ユーザは、HMDをメガネのように装着することが可能であり、HMDの前面に取り付けられた撮像部101により、ユーザの視線方向の被写体を撮像することができる。また、HMDの前面に取り付けられた表示部105により、ユーザは、HMDを装着したまま撮像部101で撮像された被写体や被写体に関連付けられている仮想オブジェクトを見ることができる。なお、仮想オブジェクトとは、実世界の画像に重畳される付加的な情報のことである。例えば、前述のように情報を表すタグであってもよいし、テキスト、アイコン、マーク、写真、動画などであってもよい。また、表示装置100は、スマートフォンやタブレットのような携帯型の端末装置でもよい。
(Example 1)
FIG. 1 is a block diagram illustrating a configuration of a display device 100 that displays a virtual object. An example of the display device 100 is an HMD (Head-Mounted Display) worn on the user's head. The user can wear the HMD like glasses, and the subject in the user's line-of-sight direction can be imaged by the imaging unit 101 attached to the front surface of the HMD. In addition, the display unit 105 attached to the front surface of the HMD allows the user to view the subject imaged by the imaging unit 101 and the virtual object associated with the subject while wearing the HMD. Note that a virtual object is additional information superimposed on a real-world image. For example, it may be a tag representing information as described above, or may be a text, an icon, a mark, a photograph, a moving image, or the like. The display device 100 may be a portable terminal device such as a smartphone or a tablet.

表示装置100は、撮像部101、CPU102、発話検出部103、操作部104、表示部105、ROM106、RAM107、大容量記憶部108、ネットワークコントローラ109、自己位置方向取得部110および画像処理部111を有する。   The display device 100 includes an imaging unit 101, a CPU 102, an utterance detection unit 103, an operation unit 104, a display unit 105, a ROM 106, a RAM 107, a large capacity storage unit 108, a network controller 109, a self-position / direction acquisition unit 110, and an image processing unit 111. Have.

CPU102は、ROM106に格納されたブートローダプログラム及び表示装置制御プログラムに基づいて表示装置100全体を制御する。また、自己位置方向取得部110は、大容量記憶部108に格納されたアプリケーションプログラムに基づいて自己位置方向を取得する。なお自己位置方向とは、表示装置100の位置および向きのことである。   The CPU 102 controls the entire display device 100 based on a boot loader program and a display device control program stored in the ROM 106. In addition, the self-position direction acquisition unit 110 acquires the self-position direction based on an application program stored in the large-capacity storage unit 108. The self-position direction refers to the position and orientation of the display device 100.

撮像部101は、表示装置100を装着したユーザの見ている被写体を撮像して撮像画像データを取得する。撮像部101で取得される撮像画像データには、自己位置方向を計算するためのマーカ画像も含まれる。マーカ画像とは、現実空間の所定の位置に付加された所定のマークを示す画像である。   The imaging unit 101 captures captured image data by capturing an image of a subject viewed by a user wearing the display device 100. The captured image data acquired by the imaging unit 101 includes a marker image for calculating the self-position direction. A marker image is an image showing a predetermined mark added to a predetermined position in the real space.

発話検出部103は、マイクロフォンなどを通じて表示装置100を装着した人の発した発話を検出して音声データを取得する。詳細については後述する。操作部104は、表示する仮想オブジェクトを選択するために用いる。画像処理部111は、操作部104で選択された仮想オブジェクトを解釈し、画像データを生成する。表示部105は、画像処理部で生成された画像データを表示する。ROM106は、ブートローダプログラム及び表示装置制御プログラムを格納する。RAM107は、CPU102のワークエリアとして機能する。ネットワークコントローラ109は、外部ネットワークに接続されている仮想オブジェクト表示制御装置200との通信を行う。大容量記憶部108は、アプリケーションプログラムを格納し、撮像部101で撮像した撮像画像データや発話検出部103で取得した音声データを一時的に格納する。   The utterance detection unit 103 detects an utterance uttered by a person wearing the display device 100 through a microphone or the like, and acquires voice data. Details will be described later. The operation unit 104 is used to select a virtual object to be displayed. The image processing unit 111 interprets the virtual object selected by the operation unit 104 and generates image data. The display unit 105 displays the image data generated by the image processing unit. The ROM 106 stores a boot loader program and a display device control program. The RAM 107 functions as a work area for the CPU 102. The network controller 109 communicates with the virtual object display control device 200 connected to the external network. The large-capacity storage unit 108 stores application programs, and temporarily stores captured image data captured by the imaging unit 101 and audio data acquired by the utterance detection unit 103.

図2は、仮想オブジェクト表示制御装置200の構成を示すブロック図である。仮想オブジェクト表示制御装置200はデータベースサーバとして機能する。仮想オブジェクト表示制御装置200は、CPU201、ROM202、RAM203、大容量記憶部204、操作部205、表示部206、ネットワークコントローラ207、会話状況検出部208、消去条件設定部209および消去部210を有する。   FIG. 2 is a block diagram illustrating a configuration of the virtual object display control apparatus 200. The virtual object display control device 200 functions as a database server. The virtual object display control apparatus 200 includes a CPU 201, ROM 202, RAM 203, large capacity storage unit 204, operation unit 205, display unit 206, network controller 207, conversation state detection unit 208, deletion condition setting unit 209, and deletion unit 210.

図2において、CPU201は、ROM202に格納されたブートローダプログラム及びデータベースサーバ制御プログラムに基づいて仮想オブジェクト表示制御装置全体を制御する。会話状況検出部208は、大容量記憶部204に格納されたアプリケーションプログラムに基づいて会話状況の検出を行う。消去条件設定部209は大容量記憶部204に格納されたアプリケーションプログラムに基づいて仮想オブジェクトの消去条件の設定を行う。消去部210は、消去条件設定部209で設定された消去条件に基づいて仮想オブジェクトを消去する。RAM203は、CPU201のワークエリアとして機能する。大容量記憶部204は、アプリケーションプログラムを格納し、自己位置方向管理テーブル400と、発話管理テーブル600を格納する。これらのテーブルについての詳細は後述する。操作部205は、キーボードやポインティングデバイスなどの入力装置を制御する。表示部206は、CPU201でデータベースサーバ制御プログラムに基づく表示をする。   In FIG. 2, a CPU 201 controls the entire virtual object display control device based on a boot loader program and a database server control program stored in a ROM 202. The conversation status detection unit 208 detects the conversation status based on the application program stored in the large capacity storage unit 204. An erasing condition setting unit 209 sets erasing conditions for a virtual object based on an application program stored in the large capacity storage unit 204. The erase unit 210 erases the virtual object based on the erase condition set by the erase condition setting unit 209. The RAM 203 functions as a work area for the CPU 201. The large-capacity storage unit 204 stores application programs, and stores a self-location direction management table 400 and an utterance management table 600. Details of these tables will be described later. The operation unit 205 controls an input device such as a keyboard and a pointing device. The display unit 206 performs display based on the database server control program by the CPU 201.

次に、表示装置100と仮想オブジェクト表示制御装置200とを用いた、ユーザが操作する表示装置100の自己位置方向取得方法を図3のフローチャートを用いて説明する。図3のフローチャートに示す処理は、所定のタイミング毎に繰り返し行われる。なお、自己位置方向取得方法としては様々な手法がある。例えば、撮像画像中の特徴点を用いた手法やマーカ画像から特徴点を抽出する手法などもある。本実施例ではマーカ画像を用いた技術として説明するが他の手法を用いてもよい。図3においてステップS301からステップS304は、表示装置100側の処理であり、ステップS351からステップS354は仮想オブジェクト表示制御装置200側の処理である。図3のフローチャートのステップS301からステップS304は、表示装置100のCPU102の制御によって実行される。なお、図3では説明を容易にするために表示装置100側の処理と仮想オブジェクト表示制御装置200側の処理をまとめて記載しているが、それぞれの処理は別個に独立して行われるものである。   Next, a self-position direction acquisition method of the display device 100 operated by the user using the display device 100 and the virtual object display control device 200 will be described with reference to the flowchart of FIG. The process shown in the flowchart of FIG. 3 is repeatedly performed at predetermined timings. There are various methods for acquiring the self-position direction. For example, there are a technique using a feature point in a captured image and a technique of extracting a feature point from a marker image. In this embodiment, a technique using a marker image will be described, but other techniques may be used. 3, steps S301 to S304 are processing on the display device 100 side, and steps S351 to S354 are processing on the virtual object display control device 200 side. Steps S301 to S304 in the flowchart of FIG. 3 are executed under the control of the CPU 102 of the display device 100. In FIG. 3, the processing on the display device 100 side and the processing on the virtual object display control device 200 side are collectively described for ease of explanation, but each processing is performed separately and independently. is there.

ステップS301において撮像部101は、表示装置100を装着しているユーザの視線方向の現実空間画像を撮像し、撮像画像データを取得する。撮像画像データはCPU102に所定の間隔で送出され、RAM107に格納される。所定の間隔は、毎秒5フレームにするなど、任意の値を設定できる。   In step S <b> 301, the imaging unit 101 captures a real space image in the line-of-sight direction of the user wearing the display device 100 and acquires captured image data. The captured image data is sent to the CPU 102 at predetermined intervals and stored in the RAM 107. The predetermined interval can be set to an arbitrary value such as 5 frames per second.

ステップS302において自己位置方向取得部110は、RAM107に格納された現実空間画像を示す撮像画像データからマーカ画像を検出する。マーカ画像は、現実空間内で3次元位置が既知な画像である。マーカ画像の検出は、例えば形状、色、面積などを予め指定されたマーカ画像と現実空間画像とをマッチングさせることで行う。   In step S <b> 302, the self-position direction acquisition unit 110 detects a marker image from captured image data indicating a real space image stored in the RAM 107. A marker image is an image whose three-dimensional position is known in real space. The marker image is detected by matching, for example, a marker image whose shape, color, area, etc. are designated in advance with a real space image.

ステップS303において自己位置方向取得部110は、ステップS303で検出されたマーカ画像の歪みから自己位置方向を取得する。例えば、自己位置方向取得部110は、現実空間画像に含まれる既知のマーカ画像の撮像面上での2次元位置を、3次元位置に投影計算することなどにより自己位置方向を取得する。表示装置100の自己位置方向を示す情報は、空間のデカルト座標としての位置を表すX、Y、Z成分と、方位角と仰俯角を表す成分とを含む成分として取得される。なお、マーカ画像から自己位置方向を取得する方法は周知の技術(例えば、特開2005−33319号公報)を用いて行うことができるため、詳細な説明は割愛する。なお、本実施例では自己位置方向はマーカ画像の検出によって行うとして説明しているが、現実空間の物体の特徴点を検出することで行ってもよいし、各種のセンサやGPSなどと組み合わせることによって自己位置方向を取得する方法であってもよい。また、本例では、自己位置方向は、空間のデカルト座標としての位置を表すX、Y、Z成分と、方位角と仰俯角を表す成分とを含む成分の例を用いて説明する。しかしながら、空間のデカルト座標としての位置を表すX、Y、Z成分である自己位置のみを示す情報であってもよい。自己位置方向取得部110は、取得した自己位置方向に取得した時点の時刻情報を付加する。   In step S303, the self-position direction acquisition unit 110 acquires the self-position direction from the distortion of the marker image detected in step S303. For example, the self-position direction acquisition unit 110 acquires the self-position direction by projecting a two-dimensional position on the imaging surface of a known marker image included in the real space image to a three-dimensional position. Information indicating the self-position direction of the display device 100 is acquired as a component including an X, Y, Z component representing a position as a Cartesian coordinate in space, and a component representing an azimuth angle and an elevation angle. Note that a method for acquiring the self-position direction from the marker image can be performed using a known technique (for example, Japanese Patent Application Laid-Open No. 2005-33319), and thus detailed description thereof is omitted. In this embodiment, the self-position direction is described as being detected by detecting a marker image. However, the self-position direction may be detected by detecting a feature point of an object in real space, or may be combined with various sensors or GPS. The method of acquiring the self-position direction may be used. In this example, the self-position direction will be described using an example of a component including an X, Y, and Z component representing a position as a Cartesian coordinate in space, and a component representing an azimuth angle and an elevation angle. However, it may be information indicating only a self-position that is an X, Y, Z component representing a position as a Cartesian coordinate of space. The self position direction acquisition unit 110 adds time information at the time of acquisition in the acquired self position direction.

ステップS304において、CPU102は、表示装置100を使用するユーザのユーザIDと共に、ステップS304で取得され時刻情報が付加された自己位置方向をネットワークコントローラ109を介して仮想オブジェクト表示制御装置200に送信する。なお、本実施例ではIDとしてユーザIDを用いる例を説明するが、表示装置100を識別するIDであってもよい。   In step S <b> 304, the CPU 102 transmits the self-position direction acquired in step S <b> 304 and the time information added to the virtual object display control device 200 via the network controller 109 together with the user ID of the user who uses the display device 100. In this embodiment, an example in which a user ID is used as an ID will be described, but an ID for identifying the display device 100 may be used.

次に、仮想オブジェクト表示制御装置200側の処理をステップS351からステップS354を用いて説明する。ステップS351からステップS354は仮想オブジェクト表示制御装置200のCPU201の制御によって実行される。なお、CPU201はあらかじめ大容量記憶部204からRAM203に自己位置方向管理テーブルを読み出しておく。   Next, processing on the virtual object display control apparatus 200 side will be described using steps S351 to S354. Steps S351 to S354 are executed under the control of the CPU 201 of the virtual object display control device 200. Note that the CPU 201 reads the self-position / direction management table from the large-capacity storage unit 204 to the RAM 203 in advance.

ステップS351において、仮想オブジェクト表示制御装置200は、表示装置100から送信された自己位置方向を、ネットワークコントローラ207を介して受信する。前述したように、表示装置100から送信される自己位置方向には、時刻情報と表示装置100のユーザIDとが付加されている。受信した自己位置方向は、CPU201がRAM203に格納する。   In step S <b> 351, the virtual object display control device 200 receives the self-position direction transmitted from the display device 100 via the network controller 207. As described above, the time information and the user ID of the display device 100 are added to the self-position direction transmitted from the display device 100. The CPU 201 stores the received self-position direction in the RAM 203.

次にステップS352において、CPU201は受信した自己位置方向に付加されているユーザIDが、仮想オブジェクト表示制御装置200が管理する自己位置方向管理テーブルにあるかどうかを判定する。自己位置方向管理テーブルは、各表示装置から送信される自己位置方向を管理するテーブルである。ユーザIDが自己位置方向管理テーブルにないと判定した場合、CPU201は、ステップS353に処理を進める。ステップS353において、CPU201は、ステップS351で受信した自己位置方向とユーザIDと時刻情報とを自己位置方向管理テーブルに新規に登録する。一方、ユーザIDが自己位置方向管理テーブルにないと判定した場合、CPU201は、ステップS354に処理を進める。ステップS354において、CPU201は、自己位置方向管理テーブルの中で一致するユーザIDに関連付けられる自己位置方向と時刻情報とをステップS351で受信した情報で更新する。   In step S <b> 352, the CPU 201 determines whether the received user ID added in the self-position direction is in the self-position direction management table managed by the virtual object display control device 200. The self position direction management table is a table for managing the self position direction transmitted from each display device. When determining that the user ID is not in the self-position / direction management table, the CPU 201 advances the processing to step S353. In step S353, the CPU 201 newly registers the self position direction, user ID, and time information received in step S351 in the self position direction management table. On the other hand, if it is determined that the user ID is not in the self-location direction management table, the CPU 201 advances the process to step S354. In step S354, the CPU 201 updates the self position direction and time information associated with the matching user ID in the self position direction management table with the information received in step S351.

図4は、仮想オブジェクト表示制御装置200によって管理される自己位置方向管理テーブル400の例を示す図である。自己位置方向管理テーブル400は、各ユーザのユーザID、時刻情報、自己位置情報、自己向き情報とを含む。なお、ここでは位置の単位をミリメートルとして説明するが、メートルや他の距離を表す単位でも良い。また、ここでは向きの単位をdegreeとしたが、向きを表す単位はradianでも良い。なお、方位角は、0度を北方向とするならば、東、南、西はそれぞれ90度、180度、270度と表される。方位角は、任意の方位を0度にすることができ、全てのユーザの方向がその基準の方位から何度であるかが分かればよい。また、仰俯角は、0度が水平方向であり、90度が天頂方向、−90度が鉛直方向を表す。   FIG. 4 is a diagram illustrating an example of the self-position / direction management table 400 managed by the virtual object display control apparatus 200. The self-position / direction management table 400 includes the user ID of each user, time information, self-position information, and self-direction information. Here, the unit of position is described as millimeters, but a unit representing a meter or other distance may be used. Here, the unit of orientation is set to degree, but the unit representing the orientation may be radian. Assuming that the azimuth angle is 0 degree north, the east, south, and west are represented as 90 degrees, 180 degrees, and 270 degrees, respectively. As the azimuth angle, an arbitrary azimuth can be set to 0 degree, and it is only necessary to know how many directions of all users are from the reference azimuth. The elevation angle is 0 degrees in the horizontal direction, 90 degrees in the zenith direction, and -90 degrees in the vertical direction.

次に、表示装置100と仮想オブジェクト表示制御装置200を用いた、ユーザの発話検出方法について図5のフローチャートを用いて説明する。図5のステップS501からステップS503は表示装置100側の処理であり、ステップS551からステップS554は仮想オブジェクト表示制御装置200側の処理である。なお、図5のフローチャートでは説明を容易にするために表示装置100と仮想オブジェクト表示制御装置200との処理をまとめて示しているが、それぞれの処理は別個に独立して行われるものである。図5に示すフローチャートの処理は所定のタイミング毎に繰り返し行われる。   Next, a user utterance detection method using the display device 100 and the virtual object display control device 200 will be described with reference to the flowchart of FIG. Steps S501 to S503 in FIG. 5 are processing on the display device 100 side, and steps S551 to S554 are processing on the virtual object display control device 200 side. In the flowchart of FIG. 5, the processing of the display device 100 and the virtual object display control device 200 is collectively shown for ease of explanation, but each processing is performed independently. The process of the flowchart shown in FIG. 5 is repeatedly performed at every predetermined timing.

まず、表示装置100側の処理を説明する。図5のステップS501からステップS504は、表示装置100のCPU102の制御によって実行される。ステップS501において、表示装置100の発話検出部103は、発話があるかどうかを判定する。具体的には、発話検出部103に集音される音声データの音量が一定レベルを超えたときに、発話があると判定する。発話があると判定した場合、ステップS502においてCPU102は、RAM107に管理している表示装置の発話ステータスを発話ありと設定する。ステップS503において、CPU102は、音声データをフーリエ変換する。そして、フーリエ変換された音声データにその時点の時刻情報とを付加する。   First, processing on the display device 100 side will be described. Steps S501 to S504 in FIG. 5 are executed under the control of the CPU 102 of the display device 100. In step S501, the utterance detection unit 103 of the display device 100 determines whether there is an utterance. Specifically, it is determined that there is an utterance when the volume of the voice data collected by the utterance detection unit 103 exceeds a certain level. When it is determined that there is an utterance, in step S502, the CPU 102 sets the utterance status of the display device managed in the RAM 107 as utterance. In step S503, the CPU 102 performs Fourier transform on the audio data. Then, time information at that time is added to the Fourier-transformed audio data.

一方、ステップS501において発話検出部が発話がないと判定した場合、ステップS504に処理を進める。ステップS504においてCPU102は、RAM107に管理している表示装置の発話ステータスを発話なしと設定する。   On the other hand, when the speech detection unit determines in step S501 that there is no speech, the process proceeds to step S504. In step S <b> 504, the CPU 102 sets the utterance status of the display device managed in the RAM 107 as “no utterance”.

ステップS505で、CPU201は、ネットワークコントローラ109を介して仮想オブジェクト表示制御装置200に発話ステータスと、時刻情報と、表示装置100のユーザIDとを含む発話情報を送信する。ステップS501において発話があると判定されている場合には、ステップS503で変換された音声データも含めた発話情報を仮想オブジェクト表示制御装置200に送信する。   In step S <b> 505, the CPU 201 transmits utterance information including the utterance status, time information, and the user ID of the display device 100 to the virtual object display control device 200 via the network controller 109. If it is determined in step S501 that there is an utterance, the utterance information including the voice data converted in step S503 is transmitted to the virtual object display control apparatus 200.

次に、仮想オブジェクト表示制御装置200側の処理を、図5のステップS551からステップS554を用いて説明する。図5のフローチャートは、仮想オブジェクト表示制御装置200のCPU201によって実行される。CPU201はあらかじめ大容量記憶部204からRAM203に発話管理テーブル600を読み出しておく。   Next, processing on the virtual object display control apparatus 200 side will be described using steps S551 to S554 in FIG. The flowchart in FIG. 5 is executed by the CPU 201 of the virtual object display control apparatus 200. The CPU 201 reads the utterance management table 600 from the large capacity storage unit 204 to the RAM 203 in advance.

ステップS551において仮想オブジェクト表示制御装置200は、表示装置100から送信された発話情報を、ネットワークコントローラ207を介して受信する。受信した発話情報は、CPU201がRAM203に格納する。   In step S <b> 551, the virtual object display control apparatus 200 receives the utterance information transmitted from the display apparatus 100 via the network controller 207. The received utterance information is stored in the RAM 203 by the CPU 201.

ステップS552において、CPU201は受信した発話情報に含まれるユーザIDが、仮想オブジェクト表示制御装置で管理する発話管理テーブル600にあるかどうかを判定する。ユーザIDが発話管理テーブル600にない場合は、ステップS553においてCPU201は発話管理テーブル600に発話情報に含まれるユーザIDと時刻情報と発話ステータスとを新規に登録する。ユーザIDが発話管理テーブル600にある場合は、ステップS554においてCPU201はユーザIDに関連付けられている時刻情報と発話ステータスとを受信した発話情報に含まれる時刻情報と発話ステータスとで更新する。   In step S552, the CPU 201 determines whether or not the user ID included in the received utterance information is in the utterance management table 600 managed by the virtual object display control device. If the user ID is not in the utterance management table 600, the CPU 201 newly registers the user ID, time information, and utterance status included in the utterance information in the utterance management table 600 in step S553. When the user ID is in the utterance management table 600, in step S554, the CPU 201 updates the time information associated with the user ID and the utterance status with the time information and utterance status included in the received utterance information.

なお、図5の発話検出方法の処理は、図3で示し自己位置方向取得処理と同時に行われてもよい。すなわち、表示装置100は発話検出結果と自己位置方向とを併せて仮想オブジェクト表示制御装置200に送信する処理であってもよい。   Note that the processing of the speech detection method of FIG. 5 may be performed simultaneously with the self-position direction acquisition processing shown in FIG. That is, the display device 100 may be a process of transmitting the utterance detection result and the self-position direction together to the virtual object display control device 200.

図6は、仮想オブジェクト表示制御装置200が管理する発話管理テーブル600の例をに示す図である。発話管理テーブル600は、各ユーザのユーザID、時刻情報、発話ステータスを含む。   FIG. 6 is a diagram showing an example of the utterance management table 600 managed by the virtual object display control apparatus 200. The utterance management table 600 includes the user ID, time information, and utterance status of each user.

次に、図4の自己位置方向管理テーブルから各ユーザの平面的な配置を示した図7と、と図6の発話管理テーブルと、図8のフローチャートとを用いて、会話状況検出処理の説明を行う。   Next, the conversation status detection process will be described with reference to FIG. 7 showing the planar arrangement of each user from the self-position direction management table of FIG. 4, the utterance management table of FIG. 6, and the flowchart of FIG. I do.

図7において、ユーザID0001とユーザID0004とは、ほぼ対面していることが分かる。また、図6から、ユーザID0001とユーザID0004は発話ステータスが発話ありとなっている。以上の点から、ユーザID0001とユーザID0004とは会話をしている可能性がある。ここで、会話をしているかどうかの判定処理を、図8のフローチャートを用いて説明する。   In FIG. 7, it can be seen that the user ID 0001 and the user ID 0004 substantially face each other. Further, from FIG. 6, the user ID 0001 and the user ID 0004 have an utterance status of utterance. From the above points, the user ID 0001 and the user ID 0004 may have a conversation. Here, the process for determining whether or not a conversation is in progress will be described with reference to the flowchart of FIG.

図8のフローチャートは、仮想オブジェクト表示制御装置200のCPU201の制御にしたがって会話状況検出部208によって実行される。図8のフローチャートに示す処理は所定のタイミング毎に繰り返し行われる。まず、ステップS801において会話状況検出部208は発話管理テーブル600から、発話ありのステータスを有するユーザIDを抽出する。図6の例では、ユーザID0001とユーザID0004が抽出される。次に、ステップS802において会話状況検出部208は、発話ありのユーザIDが2つ以上あるか判定する。1つしかない場合は、会話として成り立っていないと考えられるので、ステップS801に戻る。   The flowchart of FIG. 8 is executed by the conversation state detection unit 208 according to the control of the CPU 201 of the virtual object display control device 200. The process shown in the flowchart of FIG. 8 is repeatedly performed at predetermined timings. First, in step S <b> 801, the conversation status detection unit 208 extracts a user ID having an utterance status from the utterance management table 600. In the example of FIG. 6, user ID 0001 and user ID 0004 are extracted. Next, in step S802, the conversation state detection unit 208 determines whether there are two or more user IDs with speech. If there is only one, it is considered that the conversation does not hold, and the process returns to step S801.

発話ありのユーザIDが2つ以上ある場合、ステップS803において会話状況検出部208は、ステップS801で抽出した発話ありのユーザIDの中から任意のユーザIDを2つ選択する。そして、会話状況検出部208は、選択したユーザIDに関連付けられて表示装置から送信されているフーリエ変換済みの音声データを抽出する。そして会話状況検出部208は、抽出したフーリエ変換済み音声データの周波数情報を比較して類似度を求める。類似度の算出方法はフーリエ変換済みの1次元データの類似度を求める方法と同様の公知の方法を用いる。   If there are two or more user IDs with utterances, in step S803, the conversation state detection unit 208 selects two arbitrary user IDs from the user IDs with utterances extracted in step S801. Then, the conversation state detection unit 208 extracts the Fourier-transformed voice data transmitted from the display device in association with the selected user ID. Then, the conversation state detection unit 208 compares the frequency information of the extracted Fourier transformed voice data to obtain the similarity. As a method for calculating the similarity, a known method similar to the method for obtaining the similarity of the one-dimensional data after Fourier transform is used.

ステップS804において会話状況検出部208は、ステップS803で比較した結果、類似度が閾値以上であればステップS805に進む。ステップS805において会話状況検出部208は、2つのユーザIDで識別される音声データは類似しているので、2つのユーザIDで識別されるユーザ同士は会話をしていると決定する。一方、会話状況検出部208は、ステップS803で比較した結果が閾値未満であればステップS806に進む。ステップS806において会話状況検出部208は、2つのユーザIDで識別される音声データは類似していないので、2つのユーザIDで識別されるユーザ同士は会話をしていないと決定する。ステップS807において会話状況検出部208は発話ありのユーザIDの全ての組み合わせで音声データを比較した場合、処理を終了する。   In step S804, the conversation status detection unit 208 proceeds to step S805 if the degree of similarity is equal to or greater than the threshold value as a result of the comparison in step S803. In step S805, since the voice data identified by the two user IDs are similar, the conversation status detection unit 208 determines that the users identified by the two user IDs are having a conversation. On the other hand, if the result of comparison in step S803 is less than the threshold value, the conversation status detection unit 208 proceeds to step S806. In step S806, since the voice data identified by the two user IDs is not similar, the conversation status detection unit 208 determines that the users identified by the two user IDs are not in conversation. In step S807, when the conversation status detection unit 208 compares the voice data with all combinations of user IDs with speech, the process ends.

次に、音声データの類似性から会話をしているかどうかを判定する方法について説明する。ここではユーザAとユーザBとが会話をしていると仮定する。ユーザAとユーザBとが会話をしているということは、ユーザAとユーザBとは近くに位置していると考えられる。ユーザAとユーザBとが近くに位置しているということは、ユーザAが喋った内容がユーザAの表示装置の発話検出部で検出されるとともに、ユーザBの表示装置の発話検出部でも検出されることになる。このことを利用して、ユーザAの表示装置からの音声データとユーザBの表示装置の発話検出部からの音声データとを比較することによってユーザAとユーザBとが会話をしているか否かを判定することができる。なお、音声データの類似性から会話をしているかどうかを判定する方法については本実施例の主眼ではなく、他の様々な公知の手法を用いて判定してもよい。また、上記の例では音声データの類似性に基づいて会話をしているか否かを判定する例を説明した。さらに、前述したようにユーザAとユーザBとが対面しているか否かに応じて会話をしているか否かを判定してもよい。例えば、図8のステップS805の前に、ユーザ同士が対面しているかを判定するステップを入れ、対面している場合にステップS805に進み2人のユーザは会話中であると決定する処理にしてもよい。   Next, a method for determining whether or not a conversation is performed based on the similarity of audio data will be described. Here, it is assumed that user A and user B are having a conversation. The fact that the user A and the user B are having a conversation is considered that the user A and the user B are located close to each other. The fact that the user A and the user B are located close to each other is detected by the speech detection unit of the display device of the user A as well as the speech detection unit of the display device of the user B. Will be. Whether or not the user A and the user B have a conversation by comparing the voice data from the display device of the user A and the voice data from the utterance detection unit of the user B display device by using this fact. Can be determined. It should be noted that the method for determining whether or not a conversation is made based on the similarity of voice data is not the main point of the present embodiment, but may be determined using various other known methods. In the above example, the example in which it is determined whether or not the conversation is performed based on the similarity of the voice data has been described. Further, as described above, whether or not the user A and the user B are conversing may be determined depending on whether or not the user A and the user B are facing each other. For example, before step S805 in FIG. 8, a step of determining whether or not the users are facing each other is included, and if they are facing, the process proceeds to step S805 to determine that the two users are in conversation. Also good.

図9は、仮想オブジェクト表示制御装置200が管理する会話状況検出処理の結果を格納する会話管理テーブル900を示す図である。会話管理テーブルは、各会話の会話ID、時刻情報、会話参加者のユーザIDとを含む。会話IDは、図8のステップS805で会話中であると決定された会話ごとに付与される。なお、3人以上が会話をしている場合の会話IDの付与の仕方は次の通りである。まず、ユーザAとユーザBとが会話をしていると判定された場合、新規に会話IDが付与され、会話参加者IDとしてユーザAとユーザBのIDがその会話IDに関連付けられて管理される。そして、次の比較においてユーザAとユーザCとが会話をしていると判定された場合、ユーザAが既に参加している会話IDがあるので、ユーザCのユーザIDが会話参加者IDに追加されることになる。   FIG. 9 is a diagram showing a conversation management table 900 that stores the result of the conversation state detection process managed by the virtual object display control apparatus 200. The conversation management table includes a conversation ID of each conversation, time information, and user IDs of conversation participants. The conversation ID is assigned to each conversation determined to be in conversation in step S805 in FIG. The method of assigning a conversation ID when three or more people are having a conversation is as follows. First, when it is determined that the user A and the user B are having a conversation, a new conversation ID is assigned, and the IDs of the user A and the user B are managed in association with the conversation ID as conversation participant IDs. The If it is determined in the next comparison that the user A and the user C are talking, the user ID of the user C is added to the conversation participant ID because the user A already has a conversation ID. Will be.

本実施例においては、一度会話中であるとされた組み合わせは、その後のあるタイミングで発話情報がなくても、会話中とする。前述したように、自己位置方向や発話情報については所定のタイミング毎に繰り返し仮想オブジェクト表示制御装置に送信される。したがって、あるタイミングではユーザAだけが喋っている場合にはユーザBの会話情報が送信されない場合も想定される。したがって、本実施例では会話中から会話中ではないと状態が変化する条件は、ユーザ間の距離が、会話中と決定された時の距離と比較して一定以上(例えば3メートル)離れた場合とする。ユーザ間の距離が離れたことの判定は、各ユーザの表示装置からの自己位置方向に基づいて仮想オブジェクト表示制御装置200のCPU201が行う。CPU201が会話中から会話中でないと状態を変更すると、CPU201は会話管理テーブル900から該当するユーザの参加している会話IDに関連付けられている会話参加者IDから該当するユーザのユーザIDを削除する。削除した結果、会話参加者IDが一つになった場合、その会話IDも削除する。また、CPU201は発話管理テーブル600内の該当するユーザの発話ステータスを「あり」から「なし」に変更する。   In this embodiment, a combination that is once in a conversation is in a conversation even if there is no utterance information at a certain timing thereafter. As described above, the self-position direction and the utterance information are repeatedly transmitted to the virtual object display control device at every predetermined timing. Therefore, when only the user A is speaking at a certain timing, the conversation information of the user B may not be transmitted. Therefore, in the present embodiment, the condition that the state changes when the conversation is not being performed is that the distance between the users is more than a certain distance (for example, 3 meters) compared to the distance when it is determined that the conversation is being performed. And The CPU 201 of the virtual object display control device 200 performs the determination that the distance between the users is separated based on the self-position direction from the display device of each user. When the CPU 201 changes the state from a conversation to a conversation not being performed, the CPU 201 deletes the user ID of the corresponding user from the conversation participant ID associated with the conversation ID of the corresponding user from the conversation management table 900. . As a result of deletion, when the conversation participant ID becomes one, the conversation ID is also deleted. Further, the CPU 201 changes the utterance status of the corresponding user in the utterance management table 600 from “present” to “none”.

次に、仮想オブジェクトの消去条件設定処理を説明する。本実施例は、仮想オブジェクト表示制御装置は、仮想オブジェクトとユーザとの距離によって、仮想オブジェクトを消去するかしないかを決定する。すなわち、各ユーザが使用する各表示装置において表示されている仮想オブジェクトを消去するか否かを決定する。仮想オブジェクトは仮想オブジェクト表示制御装置によって現実空間の任意の位置に関連付けられる仮想的なタグを用いることによって表示装置で表示される。したがって、この関連付けを仮想オブジェクト表示制御装置において解消することで、表示装置で表示される仮想オブジェクトを消去することができる。本実施例では、仮想オブジェクトを消去するか否かを仮想オブジェクトとユーザとの距離によって決定する。ここで、ユーザとは、会話をしていない場合は仮想オブジェクトを配置して表示したユーザであり、会話をしている場合は仮想オブジェクトを配置して表示したユーザと会話しているユーザである。会話をしている場合、仮想オブジェクトを配置して表示したユーザは会話相手のユーザにその仮想オブジェクトを見せるために表示することが想定される。そのような状況で、仮想オブジェクトを配置したユーザが中座する場合、残っているユーザがその仮想オブジェクトを閲覧し続けたいということは十分に考えられる。したがって、会話をしている場合には仮想オブジェクトを配置したユーザと会話しているユーザと、仮想オブジェクトの距離と、に応じて仮想オブジェクトを消去するか否かを決定する。   Next, the virtual object deletion condition setting process will be described. In this embodiment, the virtual object display control device determines whether or not to delete the virtual object according to the distance between the virtual object and the user. That is, it is determined whether or not to erase the virtual object displayed on each display device used by each user. The virtual object is displayed on the display device by using a virtual tag associated with an arbitrary position in the real space by the virtual object display control device. Therefore, the virtual object displayed on the display device can be erased by eliminating this association in the virtual object display control device. In this embodiment, whether or not to delete the virtual object is determined by the distance between the virtual object and the user. Here, the user is a user who has arranged and displayed a virtual object when not having a conversation, and a user who has a conversation with a user who has arranged and displayed a virtual object when having a conversation. . In a conversation, it is assumed that a user who has placed and displayed a virtual object displays the virtual object to show it to the conversation partner user. In such a situation, when the user who placed the virtual object is in the middle, it is fully conceivable that the remaining user wants to continue browsing the virtual object. Therefore, in the case of a conversation, whether to delete the virtual object is determined according to the user who is speaking with the user who has placed the virtual object and the distance of the virtual object.

なお、仮想オブジェクトを現実空間の所定位置に関連付けておくことで仮想オブジェクトを配置する手法、および配置した仮想オブジェクトをユーザの表示装置で表示する手法については周知であるので、説明を省略する。   Since a technique for arranging a virtual object by associating the virtual object with a predetermined position in the real space and a technique for displaying the arranged virtual object on a user's display device are well known, the description thereof will be omitted.

次に、例えば、図10のように仮想オブジェクトが配置された場合を考える。各ユーザの位置は図4の自己位置方向管理テーブル400の通りとする。また、ユーザID0004で識別されるユーザが仮想オブジェクトID0001を配置して表示し、ユーザID0002で識別されるユーザが仮想オブジェクトID0002を配置して表示したものとする。消去条件設定処理を、図11のフローチャートを用いて説明する。図11のフローチャートは、CPU201の制御に従い主に消去条件設定部209によって実行される。   Next, for example, consider a case where virtual objects are arranged as shown in FIG. The position of each user is assumed to be as shown in the self-position / direction management table 400 of FIG. Further, it is assumed that the user identified by the user ID 0004 arranges and displays the virtual object ID 0001, and the user identified by the user ID 0002 arranges and displays the virtual object ID 0002. The erasing condition setting process will be described with reference to the flowchart of FIG. The flowchart of FIG. 11 is mainly executed by the erasing condition setting unit 209 under the control of the CPU 201.

ステップS1101において、仮想オブジェクト表示制御装置200は、表示装置100から送信された仮想オブジェクト表示通知を、ネットワークコントローラ207を介して受信する。仮想オブジェクト表示通知は、各表示装置において仮想オブジェクトを配置して表示したことの通知である。すなわち、表示装置のユーザが仮想オブジェクトを現実空間の任意の位置に関連付けたことを仮想オブジェクト表示制御装置に知らせる通知である。仮想オブジェクト表示通知には、仮想オブジェクトが表示される(貼り付けられる)位置と、仮想オブジェクトを特定する仮想オブジェクトIDと、通知元ユーザIDとが含まれる。なお、仮想オブジェクト表示通知には、時刻情報や仮想オブジェクト自体のデータや、仮想オブジェクトの向きなどのデータが含まれてもよい。なお、仮想オブジェクトが表示される位置と向きとは、上記の表示装置の位置を取得する処理と同様に、空間の特徴点やマーカ画像などから仮想オブジェクトが貼り付けられた位置や向きを特定することができる。受信した仮想オブジェクト表示通知は、CPU201がRAM203に格納する。   In step S <b> 1101, the virtual object display control apparatus 200 receives the virtual object display notification transmitted from the display apparatus 100 via the network controller 207. The virtual object display notification is a notification that a virtual object is arranged and displayed on each display device. That is, it is a notification informing the virtual object display control device that the user of the display device has associated the virtual object with an arbitrary position in the real space. The virtual object display notification includes a position where the virtual object is displayed (pasted), a virtual object ID that identifies the virtual object, and a notification source user ID. The virtual object display notification may include time information, data of the virtual object itself, and data such as the orientation of the virtual object. Note that the position and orientation in which the virtual object is displayed specify the position and orientation in which the virtual object is pasted from spatial feature points, marker images, and the like, as in the processing for obtaining the position of the display device. be able to. The received virtual object display notification is stored in the RAM 203 by the CPU 201.

次に、ステップS1102において、消去条件設定部209は、ステップS1101で受信した仮想オブジェクト表示通知の通知元が、会話管理テーブル900の会話参加者IDに登録されているか判定する。登録されていると判定した場合、消去条件設定部209は仮想オブジェクト通知元のユーザが会話中であると判定し、処理をステップS1103に進める。仮想オブジェクト表示通知の通知元のユーザが会話中であるということは、その仮想オブジェクトは会話相手と共有して閲覧するために配置され表示されたと想定される。すなわち、会話相手がいなくなったらその仮想オブジェクトを表示する必要がないと考えることができる。したがって、ステップS1103において消去条件設定部209は、消去条件に会話相手のユーザIDを設定する。   Next, in step S1102, the erasure condition setting unit 209 determines whether the notification source of the virtual object display notification received in step S1101 is registered in the conversation participant ID of the conversation management table 900. If it is determined that it is registered, the erasure condition setting unit 209 determines that the virtual object notification source user is in conversation and advances the process to step S1103. The fact that the user who is notified of the virtual object display notification is in a conversation is assumed that the virtual object is arranged and displayed for sharing and viewing with the conversation partner. That is, it can be considered that it is not necessary to display the virtual object when there is no conversation partner. Accordingly, in step S1103, the erasure condition setting unit 209 sets the conversation partner user ID in the erasure condition.

一方、ステップS1102において登録されていないと判定した場合、消去条件設定部209は仮想オブジェクト通知元のユーザが会話中でないと判定し、処理をステップS1104に進める。仮想オブジェクト表示通知の通知元のユーザが会話中でないということは、表示者が自分だけで見るために仮想オブジェクトを配置して表示したと想定される。すなわち、表示者がいなくなったらその仮想オブジェクトを表示する必要が無いと考えることができる。したがって、ステップS1104において消去条件設定部209は、消去条件に表示者のユーザIDを設定する。   On the other hand, when it is determined in step S1102 that the user is not registered, the erasure condition setting unit 209 determines that the virtual object notification source user is not in conversation and advances the process to step S1104. The fact that the user who is the notification source of the virtual object display notification is not in a conversation is assumed that the display object has arranged and displayed the virtual object so that it can be seen by itself. That is, it can be considered that it is not necessary to display the virtual object when there is no display person. Accordingly, in step S1104, the erasure condition setting unit 209 sets the display user ID in the erasure condition.

次に、ステップS1105において、消去条件設定部209は、消去条件に設定されたユーザと仮想オブジェクトとがどれだけ離れたら消去するのかを示す消去距離を算出する。本実施例では、仮想オブジェクト表示時の、仮想オブジェクトと消去条件に設定されたユーザとの距離から、さらに所定の距離(例えば3メートル)離れた距離を消去距離とする。すなわち、消去条件設定部209は。仮想オブジェクト表示通知の時刻情報と同じまたは近時した時刻情報を持つ、消去条件となっている通知元のユーザIDまたは会話相手のユーザIDの位置を、自己位置方位管理テーブル400から取得し、消去距離を設定する。その後、消去部210は、自己位置方位管理テーブル400の消去条件となっているユーザIDの位置と仮想オブジェクトの位置とを比較し、消去距離に達した場合に仮想オブジェクトを消去する。   In step S1105, the erasure condition setting unit 209 calculates an erasure distance indicating how far the user set in the erasure condition is away from the virtual object. In this embodiment, a distance that is further a predetermined distance (for example, 3 meters) away from the distance between the virtual object and the user set in the erasing condition when the virtual object is displayed is set as the erasing distance. That is, the erasing condition setting unit 209. The position of the notification source user ID or the conversation partner user ID that has the same or recent time information as the virtual object display notification and is the deletion condition is acquired from the self-position direction management table 400 and deleted. Set the distance. Thereafter, the erasure unit 210 compares the position of the user ID, which is an erasure condition in the self-position / azimuth management table 400, with the position of the virtual object, and erases the virtual object when the erasure distance is reached.

図12は、消去条件設定部209が設定した結果の消去条件テーブル1200を示す図である。消去条件テーブル1200は、仮想オブジェクトID、時刻情報、仮想オブジェクト位置、仮想オブジェクト向き、仮想オブジェクトを配置して表示したユーザID、消去条件に設定されたユーザID、消去距離を含む。なお、仮想オブジェクト位置と仮想オブジェクト向きとは仮想オブジェクト表示通知に含まれる情報により既知であるものとする。図12の例では、仮想オブジェクトID0001の消去距離は、次のように計算される。まず、仮想オブジェクトID0001と消去条件のユーザID0004との距離√((1506−3000)+(1120−520)+(1860−1500))≒1650ミリメートルを計算する。そして、その距離1650ミリメートルに3メートルを加算して4650ミリメートルとなる。すなわち、仮想オブジェクトID0001は、仮想オブジェクトID0001の距離と消去条件のユーザID0004との距離が4650ミリメートルより離れた場合に消去される。 FIG. 12 is a diagram showing an erase condition table 1200 as a result set by the erase condition setting unit 209. The deletion condition table 1200 includes a virtual object ID, time information, a virtual object position, a virtual object orientation, a user ID arranged and displayed on the virtual object, a user ID set in the deletion condition, and an deletion distance. It is assumed that the virtual object position and the virtual object direction are known from information included in the virtual object display notification. In the example of FIG. 12, the erase distance of the virtual object ID 0001 is calculated as follows. First, the distance √ ((1506−3000) 2 + (1120−520) 2 + (1860-1500) 2 ) ≈1650 millimeters between the virtual object ID 0001 and the user ID 0004 of the erasure condition is calculated. And 3 meters is added to the distance 1650 millimeters, and it becomes 4650 millimeters. That is, the virtual object ID 0001 is erased when the distance between the virtual object ID 0001 and the user ID 0004 in the erasing condition is more than 4650 millimeters.

以上、本実施例について説明したが、上述した実施例に限定されるものではなく、要旨を逸脱しない範囲でさまざまに変形可能である。例えば、仮想オブジェクトは、消去条件設定部で設定した条件に合致した場合以外にも消去が可能である。例えば、ユーザが表示装置100の操作部104を通じて明示的に消去指示をCPU102に通知することで、仮想オブジェクトを消去することも可能である。また、一人で仮想オブジェクトを表示した場合は、表示者が仮想オブジェクトから一定距離離れたら消去するとしたが、表示者がその場から中座しただけで、すぐに戻ってきて仮想オブジェクトを見たいと言うことも考えられる。そのため、表示者が仮想オブジェクトから所定の距離離れたら一時消去し、そこから一定時間内に表示者が戻ってきたら再表示し、戻ってこなかったら消去する、ということも可能である。   Although the present embodiment has been described above, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention. For example, the virtual object can be deleted even when the condition set by the deletion condition setting unit is met. For example, the virtual object can be erased by the user explicitly notifying the CPU 102 of an erase instruction through the operation unit 104 of the display device 100. In addition, when a virtual object is displayed alone, it is erased when the viewer moves away from the virtual object by a certain distance, but if the viewer just sits away from the spot and wants to return immediately and see the virtual object You can also say that. Therefore, it is also possible to temporarily erase when the display person is away from the virtual object, redisplay when the display person returns within a predetermined time, and delete when the display person does not return.

また、上記の例では、会話中である場合には消去条件のユーザとして会話相手を設定する例を説明したが、会話相手のほかに仮想オブジェクトを表示した表示者も消去条件に設定してもよい。すなわち、会話中の場合には、仮想オブジェクトを表示した表示者および会話相手のいずれもが仮想オブジェクトから一定距離離れた場合に仮想オブジェクトを消去するとしてもよい。   In the above example, the conversation partner is set as the user of the erasure condition when the conversation is in progress. However, in addition to the conversation partner, the display person who displayed the virtual object can also be set as the erasure condition. Good. That is, when a conversation is in progress, the virtual object may be deleted when both the display person who displayed the virtual object and the conversation partner are away from the virtual object by a certain distance.

(実施例2)
実施例1では、仮想オブジェクトを表示したときの会話状況検出部の検出結果に基づいて仮想オブジェクトの消去条件を設定した。しかし、会話状況は時々刻々と変化することが考えられる。例えば、始めは2人で会話を始めたが、3人、4人と増える場合もある。そこで、本実施例では、会話状況が変化した場合に消去条件を設定し直す処理について説明する。例えば、実施例1で説明したように、時刻が2012年12月12日15時0分0秒0の時点の自己位置方向管理テーブルを図4、発話管理テーブルを図6、とする。また、会話状況検出部の検出結果の会話管理テーブルを図9、消去条件設定部の設定結果の消去条件テーブルを図12とする。10分後にユーザID0002がユーザID0001とユーザID0004の会話に途中から参加した場合を考える。
(Example 2)
In the first embodiment, the virtual object deletion condition is set based on the detection result of the conversation state detection unit when the virtual object is displayed. However, the conversation situation can change from moment to moment. For example, two people started a conversation at first, but there are cases where the number increases to three and four. Therefore, in this embodiment, a process for resetting the erasure condition when the conversation state changes will be described. For example, as described in the first embodiment, FIG. 4 shows the self-position direction management table and FIG. 6 shows the utterance management table when the time is 12/12/2012 15:00:00. Further, FIG. 9 shows a conversation management table of detection results of the conversation status detection unit, and FIG. 12 shows an erase condition table of setting results of the erase condition setting unit. Consider a case where a user ID 0002 participates in a conversation between the user ID 0001 and the user ID 0004 after 10 minutes.

図13(a)は、この時点における自己位置方向管理テーブル1300を示す図である。また、図13(b)は会話管理テーブル1350を示す図である。この場合の消去条件設定部209の処理を、図14のフローチャートを用いて説明する。図14のフローチャートは、CPU201の制御にしたがって消去条件設定部209によって実行される。   FIG. 13A is a diagram showing the self-position direction management table 1300 at this time point. FIG. 13B is a diagram showing the conversation management table 1350. The processing of the erasure condition setting unit 209 in this case will be described using the flowchart of FIG. The flowchart of FIG. 14 is executed by the erasing condition setting unit 209 according to the control of the CPU 201.

ステップS1401において、CPU201は、会話管理テーブルに変化があったかを判定する。変化があると判定した場合、ステップS1402において消去条件設定部209は変化があった会話IDに関連付けられている会話参加者のユーザIDを特定する。そして、消去条件設定部209は、特定したユーザIDが関連付けられている仮想オブジェクトIDを消去条件テーブルから選択する。図13(b)を参照すると、変化があった会話ID0001に関連付けられている会話参加者IDとして、ユーザID0001,0002、0004が特定される。そして、これらのユーザIDが関連付けられている仮想オブジェクトIDを消去条件テーブルから選択する。より詳細には、これらのユーザIDが、仮想オブジェクトを配置して表示したユーザのユーザIDまたは消去条件に設定されたユーザのユーザIDのいずれかに一致するかを判定する。そして、一致したユーザIDに関連付けられている仮想オブジェクトIDを選択する。図12の場合は、仮想オブジェクトID0001と仮想オブジェクトID0002とが該当する。なお、以下では仮想オブジェクトを配置して表示したユーザを表示ユーザと称し、表示ユーザのユーザIDを表示ユーザIDと称する。同様に、消去条件に設定されたユーザを消去条件ユーザと称し、消去条件ユーザのユーザIDを消去条件ユーザIDと称する。   In step S1401, the CPU 201 determines whether there is a change in the conversation management table. If it is determined that there is a change, in step S1402, the erasure condition setting unit 209 identifies the user ID of the conversation participant associated with the conversation ID that has changed. Then, the erasure condition setting unit 209 selects a virtual object ID associated with the specified user ID from the erasure condition table. Referring to FIG. 13B, user IDs 0001, 0002, and 0004 are specified as conversation participant IDs associated with the conversation ID 0001 that has changed. Then, the virtual object ID associated with these user IDs is selected from the erasing condition table. More specifically, it is determined whether these user IDs match either the user ID of the user who placed and displayed the virtual object or the user ID of the user set in the deletion condition. Then, the virtual object ID associated with the matched user ID is selected. In the case of FIG. 12, the virtual object ID 0001 and the virtual object ID 0002 correspond. In the following, a user who arranges and displays a virtual object is referred to as a display user, and a user ID of the display user is referred to as a display user ID. Similarly, a user set as an erase condition is referred to as an erase condition user, and a user ID of the erase condition user is referred to as an erase condition user ID.

ステップS1403において、消去条件設定部209は、選択された仮想オブジェクトIDに関連付けられている表示ユーザIDと消去条件ユーザIDとが異なるかどうかを判定する。仮想オブジェクトID0001は、表示ユーザIDが0001、消去条件ユーザIDが0004なので異なる。従って、消去条件設定部209はステップS1404に処理を進める。ステップS1404において消去条件設定部209は、消去条件ユーザを再設定する。実施例1で説明したように、表示ユーザID0001の会話相手を消去条件ユーザに設定するので、消去条件ユーザIDが0002と0004に再設定される。次に、ステップS1405において、消去条件設定部209は、各消去条件ユーザIDに対して消去距離を再算出して、距離が一番遠いものを新しい消去距離とする。図13(a)の条件では、ユーザID0002と仮想オブジェクト0001との距離は√((2516−3000)+(2311−520)+(1550−1500))≒1856ミリメートルとなる。ユーザID0004と仮想オブジェクト0001との距離は1650ミリメートルなので、距離の遠い1856ミリメートルに3メートルを加算して、4856ミリメートルとなる。距離の遠いユーザIDに関連付けられている距離を用いて新しい消去距離を設定することで、会話の規模に応じて適切な消去を行うことができる。図15は、仮想オブジェクト0001の消去条件を変更した消去条件テーブルを示す。 In step S1403, the deletion condition setting unit 209 determines whether the display user ID associated with the selected virtual object ID is different from the deletion condition user ID. The virtual object ID 0001 is different because the display user ID is 0001 and the deletion condition user ID is 0004. Accordingly, the erasure condition setting unit 209 advances the process to step S1404. In step S1404, the erasure condition setting unit 209 resets the erasure condition user. As described in the first embodiment, since the conversation partner with the display user ID 0001 is set as the deletion condition user, the deletion condition user ID is reset to 0002 and 0004. Next, in step S1405, the erasure condition setting unit 209 recalculates the erasure distance for each erasure condition user ID, and sets the farthest distance as the new erasure distance. 13A, the distance between the user ID 0002 and the virtual object 0001 is √ ((2516-3000) 2 + (2311-520) 2 + (1550-1500) 2 ) ≈1856 millimeters. Since the distance between the user ID 0004 and the virtual object 0001 is 1650 millimeters, 3 meters is added to 1856 millimeters that are far away, resulting in 4856 millimeters. By setting a new erasure distance using a distance associated with a long-distance user ID, an appropriate erasure can be performed according to the conversation scale. FIG. 15 shows an erase condition table in which the erase condition of the virtual object 0001 is changed.

なお、ユーザID0002によって識別されるユーザが表示した仮想オブジェクトID0002に関しては、ステップS1403において表示ユーザと消去条件ユーザとが一致すると判定されるため、ステップS1404の再設定は行われない。また、ユーザID0002によって識別されるユーザが移動しても消去距離に満たないので、仮想オブジェクト0002はユーザID0002の表示装置においては表示されたままとなる。   Note that regarding the virtual object ID 0002 displayed by the user identified by the user ID 0002, since it is determined in step S1403 that the display user and the erasure condition user match, the resetting in step S1404 is not performed. Even if the user identified by the user ID 0002 moves, the virtual object 0002 remains displayed on the display device of the user ID 0002 because the erase distance is not reached.

以上説明した実施例2によれば、会話途中で他のユーザが会話に参加することによって会話状況が変化しても適切に消去条件を設定し直すことができる。   According to the second embodiment described above, it is possible to appropriately set the erasing condition even if the conversation situation changes due to another user participating in the conversation during the conversation.

(実施例3)
表示する仮想オブジェクトにはアクセス権が設定されることがある。アクセス権には、仮想オブジェクトを配置して表示のみ可能なRead、表示も編集も可能なRead/Writeがある。さらに、他のユーザがReadしている仮想オブジェクトを閲覧するだけのLookがある。例えば、ある部署Xに所属している人は仮想オブジェクトOに対するRead権限がある場合を想定する。この場合、部署Xに所属している人は仮想オブジェクトOを配置して表示できる。一方、それ以外の部署Yに所属している人はRead権限がないとする。この場合、部署Yに所属している人は仮想オブジェクトOを配置できないし表示することもできない。そのような条件でも、部署Xの人がそれ以外の部署Yの人と仮想オブジェクトOを閲覧しながら会話することはありうる。その場合、仮想オブジェクトOに対するLook権限を部署Yの人に付与する。この場合、仮想オブジェクトOは部署Xの人が配置して表示でき、部署Yの人はその部署Xの人が配置して表示した仮想オブジェクトOを閲覧するだけができる。このような状況下において、部署Xの人にとっては、元々Read権限の無い部署Yの人しかいない時に仮想オブジェクトOを表示したままにするのはセキュリティ上都合が悪い。なぜならば、Look権限ありの人だけでは、そもそもその仮想オブジェクトOを表示する(すなわち、Readする)ことは許されていないからである。したがって、部署Xの人が仮想オブジェクトOから一定距離離れて、仮想オブジェクトOの周りが部署Yの人だけになった場合、仮想オブジェクトOを消去することが好ましい。実施例3では、そのような場合の消去処理について説明する。なお、仮想オブジェクトの権限については、仮想オブジェクト表示制御装置200が管理する仮想オブジェクトデータに関連付けて記憶されているものとする。
Example 3
Access rights may be set for virtual objects to be displayed. The access right includes a read that can be displayed only by placing a virtual object, and a read / write that can be displayed and edited. Furthermore, there is a Look that only browses virtual objects that other users are reading. For example, it is assumed that a person belonging to a certain department X has a Read right for the virtual object O. In this case, a person who belongs to the department X can arrange and display the virtual object O. On the other hand, it is assumed that persons belonging to other departments Y do not have Read authority. In this case, a person who belongs to the department Y cannot arrange or display the virtual object O. Even under such conditions, a person in department X may have a conversation with another person in department Y while viewing virtual object O. In that case, the Look authority for the virtual object O is given to the person in the department Y. In this case, the virtual object O can be arranged and displayed by the person in the department X, and the person in the department Y can only browse the virtual object O arranged and displayed by the person in the department X. Under such circumstances, it is inconvenient for security for the person in department X to keep the virtual object O displayed when there is only a person in department Y who does not have Read authority. This is because only a person with the Look authority is not allowed to display (that is, read) the virtual object O in the first place. Therefore, when the person in the department X is away from the virtual object O by a certain distance and only the person in the department Y is around the virtual object O, it is preferable to delete the virtual object O. In the third embodiment, an erasing process in such a case will be described. The authority of the virtual object is assumed to be stored in association with the virtual object data managed by the virtual object display control apparatus 200.

時刻が2012年12月13日13時0分0秒0の時点での自己位置方向管理テーブルを図16(a)に示す。図16(a)ではユーザID0001〜0004の4人が登録されている。また、同時点での会話管理テーブルを図16(b)に示す。図16(b)に示す通り、その時点ではユーザID0001〜0004の4人で会話中である。図17は、図16の示す状態においてユーザID0001が仮想オブジェクトを表示したときの平面的な配置図を示す図である。また、ユーザID0001と0002は仮想オブジェクトのRead権限を有しているとする。また、ユーザID0003と0004は仮想オブジェクトのRead権限がなく、Look権限のみを有しているとする。   FIG. 16A shows a self-position direction management table when the time is December 13, 2012, 13:00:00. In FIG. 16A, four user IDs 0001 to 0004 are registered. In addition, FIG. 16B shows a conversation management table at the same time. As shown in FIG. 16 (b), at that time, four users with user IDs 0001 to 0004 are in conversation. FIG. 17 is a diagram showing a planar layout when the user ID 0001 displays a virtual object in the state shown in FIG. In addition, it is assumed that the user IDs 0001 and 0002 have the virtual object Read authority. Further, it is assumed that the user IDs 0003 and 0004 do not have the Read authority for the virtual object but have only the Look authority.

図18は、実施例3における消去条件設定処理のフローチャートを示す図である。図18のフローチャートは、CPU201の制御にしたがって、主に消去条件設定部209によって実行される。図18のフローチャートは図11のフローチャートとほぼ同様のため、同じ処理については同じ符号を付して説明は省略する。図18のステップS1102において消去条件設定部209はユーザが会話中と判定した場合、ステップS1803に処理を進める。ステップS1803において消去条件設定部209は、仮想オブジェクトを表示した表示者と、Read権限のある会話相手とを消去条件ユーザに設定する。ステップS1803においてはRead権限のある会話相手のほかに仮想オブジェクトを表示した表示者が消去条件に含まれている。これは、Read権限のある人が仮想オブジェクトを表示したが、会話相手が全員Read権限が無い場合に対処するためである。すなわち、Read権限のある表示者が席を離れてRead権限のない人だけが残っている場合、仮想オブジェクトが消去されないことを避けるためである。   FIG. 18 is a flowchart of the erasure condition setting process in the third embodiment. The flowchart in FIG. 18 is mainly executed by the erasing condition setting unit 209 according to the control of the CPU 201. The flowchart in FIG. 18 is substantially the same as the flowchart in FIG. 11, and thus the same processes are denoted by the same reference numerals and description thereof is omitted. When the erasure condition setting unit 209 determines in step S1102 in FIG. 18 that the user is in conversation, the process proceeds to step S1803. In step S1803, the erasure condition setting unit 209 sets the display person who displayed the virtual object and the conversation partner having the Read authority as the erasure condition user. In step S1803, in addition to the conversation partner having the Read authority, the display person who displayed the virtual object is included in the erasure condition. This is to cope with a case where a person with Read authority displays a virtual object but all conversation partners do not have Read authority. That is, in order to avoid the virtual object not being deleted when the display person with the Read authority leaves the seat and only the person without the Read authority remains.

図19は、図16に示す状況において図18のフローチャートの処理を行った結果作成された消去条件テーブルを示す図である。図19において、消去条件ユーザには、会話相手で仮想オブジェクトのRead権限のあるユーザID0002の他に、表示者であるユーザID0001が設定されている。   FIG. 19 is a diagram showing an erasing condition table created as a result of performing the processing of the flowchart of FIG. 18 in the situation shown in FIG. In FIG. 19, a user ID 0001 that is a display person is set for the deletion condition user, in addition to the user ID 0002 that has the read authority for the virtual object at the conversation partner.

以上により、アクセス権の設定された仮想オブジェクトに対しての消去条件が適切に設定できる。   As described above, the erasure condition for the virtual object for which the access right is set can be appropriately set.

また、上述した例に限定されるものではなく、要旨を逸脱しない範囲でさまざまに変形可能である。例えば、会話参加者の中で、仮想オブジェクトへのRead権限のあるユーザが表示者だけの時に、表示者が中座することはありうる。その場合、表示者が中座する前に、会話参加者に対して一時的にRead権限を与えて、表示者の中座中も仮想オブジェクトが見えるようにすることも可能である。このときには、会話参加者に対するRead権限は一時的であるので、表示者が戻ってきたとき、または一定時間が経過すると、Read権限は無くなるようにしても良い。   Further, the present invention is not limited to the above-described example, and various modifications can be made without departing from the gist. For example, it is possible for the display person to sit in the middle of a conversation participant when the only user who has the Read permission to the virtual object is the display person. In that case, it is possible to temporarily give Read permission to the conversation participant before the display person is in the middle so that the virtual object can be seen even while the display person is in the middle. At this time, since the Read authority for the conversation participant is temporary, the Read authority may be lost when the display person returns or when a certain time elapses.

<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (18)

仮想オブジェクトの表示通知を受信する受信手段と、
前記表示通知の通知元ユーザの会話状況を取得する取得手段と、
前記取得した会話状況に基づいて前記仮想オブジェクトの消去条件となる消去条件ユーザを決定する決定手段と、
前記消去条件ユーザの位置と前記仮想オブジェクトの位置とに応じて前記仮想オブジェクトを消去する消去手段と
を有する仮想オブジェクト表示制御装置。
Receiving means for receiving a display notification of a virtual object;
Acquisition means for acquiring a conversation status of a notification source user of the display notification;
Determining means for determining an erasure condition user to be an erasure condition of the virtual object based on the acquired conversation state;
A virtual object display control device comprising: erase means for erasing the virtual object according to the position of the erase condition user and the position of the virtual object.
前記決定手段は、前記会話状況が会話ありを示す場合、前記通知元ユーザの会話相手のユーザを消去条件ユーザとして決定することを特徴とする請求項1に記載の仮想オブジェクト表示制御装置。   The virtual object display control apparatus according to claim 1, wherein, when the conversation status indicates that there is a conversation, the determination unit determines the conversation partner user of the notification source user as an erasure condition user. 前記決定手段は、前記会話状況が会話ありを示す場合、前記通知元ユーザと前記通知元ユーザの会話相手のユーザとを消去条件ユーザとして決定することを特徴とする請求項1に記載の仮想オブジェクト表示制御装置。   2. The virtual object according to claim 1, wherein when the conversation status indicates that there is a conversation, the determination unit determines the notification source user and the conversation partner user of the notification source user as deletion condition users. Display control device. 前記決定手段は、前記会話状況が会話なしを示す場合、前記通知元ユーザを前記消去条件ユーザとして決定することを特徴とする請求項1から3のいずれか一項に記載の仮想オブジェクト表示制御装置。   4. The virtual object display control device according to claim 1, wherein when the conversation status indicates no conversation, the determination unit determines the notification source user as the erasure condition user. 5. . 前記決定手段は、会話に参加するユーザの会話状況の変化に応じて消去条件ユーザを再設定することを特徴とする請求項1から4のいずれか一項に記載の仮想オブジェクト表示制御装置。   5. The virtual object display control device according to claim 1, wherein the determination unit resets an erasure condition user according to a change in a conversation situation of a user who participates in a conversation. 6. 前記消去手段は、前記消去条件ユーザが前記仮想オブジェクトから一定の距離離れた場合、前記仮想オブジェクトを消去することを特徴とする請求項1から5のいずれか一項に記載の仮想オブジェクト表示制御装置。   6. The virtual object display control device according to claim 1, wherein the erasing unit erases the virtual object when the erasing condition user moves away from the virtual object by a certain distance. 6. . 前記取得手段は、仮想オブジェクトを表示する各表示装置から送信される音声データの類似度に基づいて前記会話状況を取得することを特徴とする請求項1から6のいずれか一項に記載の仮想オブジェクト表示制御装置。   7. The virtual according to claim 1, wherein the acquisition unit acquires the conversation state based on a similarity of audio data transmitted from each display device that displays a virtual object. 8. Object display control device. 前記取得手段は、各表示装置の位置と向きとに応じてさらに前記会話状況を取得することを特徴とする請求項7に記載の仮想オブジェクト表示制御装置。   The virtual object display control device according to claim 7, wherein the acquisition unit further acquires the conversation state according to a position and an orientation of each display device. 前記会話状況を管理する管理手段をさらに有し、
前記管理手段は、会話しているユーザ間の距離に応じて、前記会話状況を会話ありから会話なしに変更することを特徴とする請求項1から8のいずれか一項に記載の仮想オブジェクト表示制御装置。
A management means for managing the conversation status;
9. The virtual object display according to claim 1, wherein the management unit changes the conversation state from conversation to no conversation according to a distance between users having conversation. Control device.
前記消去手段によって消去された仮想オブジェクトを再表示する再表示手段をさらに有し、
前記再表示手段は、前記消去手段によって消去された時刻から一定時間内に前記消去条件ユーザが前記仮想オブジェクトを表示していた位置に戻った場合に前記再表示をすることを特徴とする請求項1から9のいずれか一項に記載の仮想オブジェクト表示制御装置。
Re-displaying means for re-displaying the virtual object erased by the erasing means;
The re-display means performs the re-display when the erasing condition user returns to the position where the virtual object was displayed within a predetermined time from the time when the re-erasing means erased. The virtual object display control device according to any one of 1 to 9.
前記仮想オブジェクトには仮想オブジェクトを配置して表示する権限であるRead権限が付与されており、
前記決定手段は、前記Read権限にさらに基づいて前記消去条件ユーザを決定することを特徴とする請求項1から10のいずれか一項に記載の仮想オブジェクト表示制御装置。
The virtual object is given Read authority, which is authority to arrange and display the virtual object,
The virtual object display control apparatus according to claim 1, wherein the determination unit determines the erasure condition user further based on the Read authority.
前記決定手段は、前記会話状況が会話ありを示す場合、前記通知元ユーザの会話相手のユーザであり、かつ前記仮想オブジェクトのRead権限を有するユーザと、前記通知元ユーザとを前記消去条件ユーザとして決定することを特徴とする請求項11に記載の仮想オブジェクト表示制御装置。   When the conversation status indicates that there is a conversation, the determining means sets the user who is the conversation partner of the notification source user and the read source user of the virtual object, and the notification source user as the deletion condition user. The virtual object display control device according to claim 11, wherein the virtual object display control device is determined. 前記決定手段で決定される消去条件ユーザが通知元ユーザのみである場合、前記通知元ユーザの会話相手のユーザに一時的にRead権限を付与する付与手段をさらに有することを特徴とする請求項12に記載の仮想オブジェクト表示制御装置。   13. The granting means for temporarily granting Read authority to a conversation partner user of the notification source user when the erasure condition user determined by the determination means is only the notification source user. The virtual object display control device according to 1. 前記消去手段は、現実空間の所定の位置に関連付けられている仮想オブジェクトの関連付けを削除することで前記仮想オブジェクトを消去することを特徴とする請求項1から13のいずれか一項に記載の仮想オブジェクト表示制御装置。   The virtual device according to any one of claims 1 to 13, wherein the erasing unit erases the virtual object by deleting the association of the virtual object associated with a predetermined position in the real space. Object display control device. 撮像手段と、
自己の位置情報と、集音した音声データとを送信する送信手段と、
前記撮像手段で撮像した撮像画像データと前記撮像画像データに重畳される仮想オブジェクトとを含む画像データを表示する表示手段と
を有する表示装置であって、
前記表示手段で表示される仮想オブジェクトは、前記位置情報と前記音声データとの送信に応じて、請求項1から14のいずれか一項に記載の仮想オブジェクト表示制御装置によって消去されることを特徴とする表示装置。
Imaging means;
Transmitting means for transmitting the position information of the user and the collected voice data;
A display device having display means for displaying image data including captured image data captured by the imaging means and a virtual object superimposed on the captured image data;
The virtual object displayed by the display means is erased by the virtual object display control device according to any one of claims 1 to 14 in response to transmission of the position information and the audio data. Display device.
仮想オブジェクトの表示通知を受信する受信ステップと、
前記表示通知の通知元ユーザの会話状況を取得する取得ステップと、
前記取得した会話状況に基づいて前記仮想オブジェクトの消去条件となる消去条件ユーザを決定する決定ステップと、
前記消去条件ユーザの位置と前記仮想オブジェクトの位置とに応じて前記仮想オブジェクトを消去する消去ステップと
を有する仮想オブジェクト表示制御方法。
A receiving step for receiving a display notification of the virtual object;
An acquisition step of acquiring a conversation state of a notification source user of the display notification;
A determination step of determining an erasure condition user as an erasure condition of the virtual object based on the acquired conversation state;
A virtual object display control method comprising: an erasing step of erasing the virtual object according to the position of the erasing condition user and the position of the virtual object.
撮像ステップと、
自己の位置情報と、集音した音声データとを送信する送信ステップと、
前記撮像ステップで撮像した撮像画像データと前記撮像画像データに重畳される仮想オブジェクトとを含む画像データを表示する表示ステップと
を有する表示方法であって、
前記表示ステップで表示される仮想オブジェクトは、前記位置情報と前記音声データとの送信に応じて、請求項16に記載の仮想オブジェクト表示制御方法によって消去されることを特徴とする表示方法。
Imaging step;
A transmission step of transmitting the self location information and the collected voice data;
A display method including a display step of displaying image data including the captured image data captured in the imaging step and a virtual object superimposed on the captured image data,
The display method according to claim 16, wherein the virtual object displayed in the display step is erased by the virtual object display control method according to claim 16 in response to transmission of the position information and the audio data.
コンピュータを、請求項1から15に記載の仮想オブジェクト表示制御装置として機能させるためのプログラム。   A program for causing a computer to function as the virtual object display control device according to claim 1.
JP2013077688A 2013-04-03 2013-04-03 Virtual object display control apparatus, virtual object display control method, and program Pending JP2014203194A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013077688A JP2014203194A (en) 2013-04-03 2013-04-03 Virtual object display control apparatus, virtual object display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013077688A JP2014203194A (en) 2013-04-03 2013-04-03 Virtual object display control apparatus, virtual object display control method, and program

Publications (1)

Publication Number Publication Date
JP2014203194A true JP2014203194A (en) 2014-10-27

Family

ID=52353598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013077688A Pending JP2014203194A (en) 2013-04-03 2013-04-03 Virtual object display control apparatus, virtual object display control method, and program

Country Status (1)

Country Link
JP (1) JP2014203194A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057057A (en) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
JP2019153274A (en) * 2018-02-28 2019-09-12 東芝デジタルソリューションズ株式会社 Position calculation device, position calculation program, position calculation method, and content addition system
WO2020184317A1 (en) * 2019-03-13 2020-09-17 ソニー株式会社 Information processing device, information processing method, and recording medium
CN114461328A (en) * 2022-02-10 2022-05-10 网易(杭州)网络有限公司 Virtual article layout method and device and electronic equipment
JP7500638B2 (en) 2022-03-07 2024-06-17 キヤノン株式会社 System, method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057057A (en) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
US11108990B2 (en) 2017-09-20 2021-08-31 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
JP2019153274A (en) * 2018-02-28 2019-09-12 東芝デジタルソリューションズ株式会社 Position calculation device, position calculation program, position calculation method, and content addition system
WO2020184317A1 (en) * 2019-03-13 2020-09-17 ソニー株式会社 Information processing device, information processing method, and recording medium
US11908055B2 (en) 2019-03-13 2024-02-20 Sony Group Corporation Information processing device, information processing method, and recording medium
JP7468506B2 (en) 2019-03-13 2024-04-16 ソニーグループ株式会社 Information processing device, information processing method, and recording medium
CN114461328A (en) * 2022-02-10 2022-05-10 网易(杭州)网络有限公司 Virtual article layout method and device and electronic equipment
CN114461328B (en) * 2022-02-10 2023-07-25 网易(杭州)网络有限公司 Virtual article layout method and device and electronic equipment
JP7500638B2 (en) 2022-03-07 2024-06-17 キヤノン株式会社 System, method, and program

Similar Documents

Publication Publication Date Title
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
KR102595150B1 (en) Method for controlling multiple virtual characters, device, apparatus, and storage medium
JP7079231B2 (en) Information processing equipment, information processing system, control method, program
US11212515B2 (en) Information processing device and information processing method
JP6978701B2 (en) Information processing system, its control method, and program, and information processing device, its control method, and program.
JP6409861B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP7060778B2 (en) Information processing system, information processing system control method and program
JP2014203194A (en) Virtual object display control apparatus, virtual object display control method, and program
JP6543924B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2015153169A (en) Terminal apparatus, information processing apparatus, display control method, and display control program
JP2017120650A (en) Information processing system, control method thereof, program, information processor, control method thereof, and program
JP6725827B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6730577B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2017108356A (en) Image management system, image management method and program
JP2014203175A (en) Information processing device, information processing method, and program
KR102260193B1 (en) Remote augmented reality communication method and system that provides security for 3d-space
JP2017010228A (en) Information processing apparatus, information processing method, and program
KR20210085929A (en) Method for augmented reality communication between multiple users
WO2019105002A1 (en) Systems and methods for creating virtual 3d environment
JP2015072607A (en) Information processing apparatus, information processing method, and program
KR20150090351A (en) Video producing service device based on contents received from a plurality of user equipments, video producing method based on contents received from a plurality of user equipments and computer readable medium having computer program recorded therefor
US11740773B2 (en) Information processing device and method
CN112312110B (en) Non-transitory computer readable medium, image processing device and image processing method
JP6923608B2 (en) Information processing equipment, information processing methods, and programs