JPWO2021024479A1 - Information processing equipment, information processing methods, and programs - Google Patents

Information processing equipment, information processing methods, and programs Download PDF

Info

Publication number
JPWO2021024479A1
JPWO2021024479A1 JP2019566704A JP2019566704A JPWO2021024479A1 JP WO2021024479 A1 JPWO2021024479 A1 JP WO2021024479A1 JP 2019566704 A JP2019566704 A JP 2019566704A JP 2019566704 A JP2019566704 A JP 2019566704A JP WO2021024479 A1 JPWO2021024479 A1 JP WO2021024479A1
Authority
JP
Japan
Prior art keywords
information processing
coordinate axis
predetermined space
processing device
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019566704A
Other languages
Japanese (ja)
Other versions
JP6736147B1 (en
Inventor
俊亨 森本
俊亨 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Graffity Inc
Original Assignee
Graffity Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Graffity Inc filed Critical Graffity Inc
Application granted granted Critical
Publication of JP6736147B1 publication Critical patent/JP6736147B1/en
Publication of JPWO2021024479A1 publication Critical patent/JPWO2021024479A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

複数の情報処理装置がARを利用したゲーム等の各種情報処理を空間を共有して適切に実行できること。子機1−Cは、親機1−Pとの間で所定空間を共有して情報の授受を行う。即ち、座標設定部71前記所定空間における第1座標軸を設定する。変換行列生成部73は、前記第1座標軸を、前記所定空間において前記他情報処理装置により利用される第2座標軸に変換するための規則を生成する。Multiple information processing devices can appropriately execute various information processing such as games using AR by sharing a space. The slave unit 1-C shares a predetermined space with the master unit 1-P to exchange information. That is, the coordinate setting unit 71 sets the first coordinate axis in the predetermined space. The transformation matrix generation unit 73 generates a rule for converting the first coordinate axis into a second coordinate axis used by the other information processing apparatus in the predetermined space.

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

従来、情報処理の著しい発展により、携帯端末において、AR(Augmented Reality)を利用したゲーム等の各種情報処理の実行が可能となっている(例えば特許文献1参照)。 Conventionally, due to the remarkable development of information processing, it has become possible to execute various information processing such as games using AR (Augmented Reality) on a mobile terminal (see, for example, Patent Document 1).

特許6417467号公報Japanese Patent No. 6417467

しかしながら、近年、複数人が複数の携帯端末の夫々を用いて、空間を共有してARを利用したゲームの実行等をしたいという要求がなされているが、特許文献1を含め従来の技術では、このような要望に十分に応えることができない状況である。 However, in recent years, there has been a demand for a plurality of people to share a space and execute a game using AR by using each of a plurality of mobile terminals. The situation is such that such requests cannot be fully met.

本発明は、このような状況に鑑みてなされたものであり、複数の情報処理装置がARを利用したゲーム等の各種情報処理を空間を共有して適切に実行できるようにすることを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to enable a plurality of information processing devices to appropriately execute various information processing such as games using AR by sharing a space. do.

上記目的を達成するため、本発明の一態様の情報処理装置は、
他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置において、
前記所定空間における第1座標軸を設定する座標設定手段と、
前記第1座標軸を、前記所定空間において前記他情報処理装置により利用される第2座標軸に変換するための規則を生成する変換規則生成手段と、
を備える。
In order to achieve the above object, the information processing device of one aspect of the present invention is
In an information processing device that shares a predetermined space with other information processing devices and exchanges information.
A coordinate setting means for setting the first coordinate axis in the predetermined space, and
A conversion rule generating means for generating a rule for converting the first coordinate axis into a second coordinate axis used by the other information processing apparatus in the predetermined space.
To be equipped.

前記所定空間における前記第2座標軸が設定された前記他情報処理装置に画像が表示されたとき、当該画像を読み取る読取手段、
をさらに備え、
前記変換規則生成手段は、
読み取られた前記画像に基づいて、前記第1座標軸での前記他情報処理装置の位置の推定をし、その推定の結果に基づいて前記規則として、前記所定空間における座標軸を前記第1座標軸から前記第2座標軸に変換する変換行列を生成する、
ことができる。
A reading means for reading an image when the image is displayed on the other information processing device in which the second coordinate axis is set in the predetermined space.
With more
The conversion rule generating means is
Based on the read image, the position of the other information processing device on the first coordinate axis is estimated, and based on the estimation result, the coordinate axis in the predetermined space is set from the first coordinate axis as the rule. Generate a transformation matrix to convert to the second coordinate axis,
be able to.

前記変換行列を用いて、前記所定空間における座標軸を前記第1座標軸から前記第2座標軸に変換する座標変換手段、
をさらに備えることができる。
A coordinate conversion means for converting a coordinate axis in the predetermined space from the first coordinate axis to the second coordinate axis using the transformation matrix.
Can be further prepared.

本発明の一態様の情報処理方法及びプログラムの夫々は、上述の本発明の一態様の情報処理方法及びプログラムの夫々である。 Each of the information processing methods and programs of one aspect of the present invention is each of the above-mentioned information processing methods and programs of one aspect of the present invention.

また、上記目的を達成するため、本発明の別の一態様の情報処理装置は、
他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置において、
前記所定空間における第1座標軸を設定する座標設定手段と、
前記所定空間における前記第2座標軸が設定された前記他情報処理装置において、読み込まれて、前記第2座標軸での前記情報処理装置の位置が推定され、その推定結果に基づいて、前記第2座標軸を前記第1座標軸に変換するための規則が生成されるために用いられる画像のデータを、前記第1座標軸に基づいて生成する画像生成手段と、
前記画像生成手段により前記データとして生成された前記画像を表示させる制御を実行する表示制御手段と、
を備える。
Further, in order to achieve the above object, the information processing device of another aspect of the present invention may be used.
In an information processing device that shares a predetermined space with other information processing devices and exchanges information.
A coordinate setting means for setting the first coordinate axis in the predetermined space, and
In the other information processing device in which the second coordinate axis is set in the predetermined space, the position of the information processing device on the second coordinate axis is estimated by being read, and the second coordinate axis is estimated based on the estimation result. An image generation means for generating image data used for generating a rule for converting the first coordinate axis into the first coordinate axis, and an image generation means for generating the image data based on the first coordinate axis.
A display control means for executing control to display the image generated as the data by the image generation means, and a display control means.
To be equipped.

本発明の別の一態様の情報処理方法及びプログラムの夫々は、上述の本発明の別の一態様の情報処理方法及びプログラムの夫々である。 Each of the information processing methods and programs of another aspect of the present invention is each of the above-mentioned information processing methods and programs of another aspect of the present invention.

本発明によれば、複数の情報処理装置がARを利用したゲーム等の各種情報処理を空間を共有して適切に実行できるようになる。 According to the present invention, a plurality of information processing devices can appropriately execute various information processing such as games using AR by sharing a space.

本発明の情報処理装置の一実施形態に係るハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition which concerns on one Embodiment of the information processing apparatus of this invention. 図1の複数台の情報処理装置が親機又は子機として夫々機能する場合における、親機と子機とのAR空間の共有の手法の一例を説明する図である。FIG. 5 is a diagram illustrating an example of a method of sharing an AR space between a master unit and a slave unit when the plurality of information processing devices of FIG. 1 function as a master unit or a slave unit, respectively. 図2の親機と子機との夫々における機能的構成のうち、AR空間を共有するまでの一連の処理が実行される際の機能的構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the functional configuration at the time of executing a series of processing until the AR space is shared among the functional configurations in each of the master unit and the slave unit of FIG. 図3の機能的構成を有する親機と子機との間で実行される、AR空間を共有するまでの一連の処理の一例を説明するアローチャートである。FIG. 5 is an arrow chart illustrating an example of a series of processes up to sharing the AR space, which are executed between the master unit and the slave unit having the functional configuration of FIG. 図1の情報処理装置が複数台存在する場合のAR空間の共有の手法の一例であって、図4とは異なる例を説明する図である。It is an example of the method of sharing an AR space when a plurality of information processing devices of FIG. 1 exist, and is a diagram for explaining an example different from that of FIG. 図1の情報処理装置が複数台存在する場合のAR空間の共有の手法の一例であって、図4や図5とは異なる例を説明する図である。It is an example of the method of sharing an AR space when a plurality of information processing devices of FIG. 1 exist, and is a diagram for explaining an example different from those of FIGS. 4 and 5.

以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の情報処理装置に係る一実施形態のハードウェア構成を示すブロック図である。 FIG. 1 is a block diagram showing a hardware configuration of an embodiment according to the information processing apparatus of the present invention.

情報処理装置1は、スマートフォン等で構成される。
情報処理装置1は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、タッチ操作入力部26と、表示部27と、撮像部28と、記憶部29と、通信部30と、ドライブ31と、を備えている。
The information processing device 1 is composed of a smartphone or the like.
The information processing device 1 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a bus 24, an input / output interface 25, a touch operation input unit 26, and the like. It includes a display unit 27, an image pickup unit 28, a storage unit 29, a communication unit 30, and a drive 31.

CPU21は、ROM22に記録されているプログラム、又は、記憶部29からRAM23にロードされたプログラムに従って各種の処理を実行する。
RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 21 executes various processes according to the program recorded in the ROM 22 or the program loaded from the storage unit 29 into the RAM 23.
Data and the like necessary for the CPU 21 to execute various processes are also appropriately stored in the RAM 23.

CPU21、ROM22及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェース25も接続されている。入出力インターフェース25には、タッチ操作入力部26、表示部27、撮像部28、記憶部29、通信部30及びドライブ31が接続されている。 The CPU 21, ROM 22 and RAM 23 are connected to each other via the bus 24. An input / output interface 25 is also connected to the bus 24. A touch operation input unit 26, a display unit 27, an imaging unit 28, a storage unit 29, a communication unit 30, and a drive 31 are connected to the input / output interface 25.

タッチ操作入力部26は、例えば表示部27に積層される静電容量式又は抵抗膜式(感圧式)の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。
ここで、タッチ操作とは、タッチ操作入力部26に対する物体の接触又は近接の操作をいう。タッチ操作入力部26に対して接触又は近接する物体は、例えばプレイヤーの指やタッチペン等である。なお、以下、タッチ操作がなされた位置を「タッチ位置」と呼び、タッチ位置の座標を「タッチ座標」と呼ぶ。
表示部27は、液晶等のディスプレイにより構成され、ゲームに関する画像等、各種画像を表示する。
このように、本実施形態では、タッチ操作入力部26と表示部27とにより、タッチパネルが構成されている。
The touch operation input unit 26 is composed of, for example, a capacitance type or resistance film type (pressure sensitive type) position input sensor laminated on the display unit 27, and detects the coordinates of the position where the touch operation is performed.
Here, the touch operation means an operation of contacting or approaching an object with respect to the touch operation input unit 26. An object that comes into contact with or is close to the touch operation input unit 26 is, for example, a player's finger or a touch pen. Hereinafter, the position where the touch operation is performed is referred to as a "touch position", and the coordinates of the touch position are referred to as "touch coordinates".
The display unit 27 is composed of a display such as a liquid crystal display, and displays various images such as an image related to a game.
As described above, in the present embodiment, the touch panel is composed of the touch operation input unit 26 and the display unit 27.

撮像部28は、プレイヤーの指示操作に応じて被写体を撮像し、その結果得られる撮像画像(例えば後述るマーカー画像)のデータを出力する。
記憶部29は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部30は、図示せぬインターネットを含むネットワークを介して他の装置(図示せぬサーバや図示せぬ他のプレイヤー端末)との間で行う通信を制御する。
The imaging unit 28 images a subject in response to an instruction operation by the player, and outputs data of an captured image (for example, a marker image described later) obtained as a result.
The storage unit 29 is composed of a DRAM (Dynamic Random Access Memory) or the like, and stores various data.
The communication unit 30 controls communication with other devices (a server (not shown) or another player terminal (not shown) via a network including the Internet (not shown).

ドライブ31は、必要に応じて設けられる。ドライブ31には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア32が適宜装着される。ドライブ31によってリムーバブルメディア32から読み出されたプログラムは、必要に応じて記憶部29にインストールされる。また、リムーバブルメディア32は、記憶部29に記憶されている各種データも、記憶部29と同様に記憶することができる。 The drive 31 is provided as needed. A removable media 32 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 31. The program read from the removable media 32 by the drive 31 is installed in the storage unit 29 as needed. Further, the removable media 32 can also store various data stored in the storage unit 29 in the same manner as the storage unit 29.

このような図1の情報処理装置1の各種ハードウェアと各種ソフトウェアとの協働により、2台以上の情報処理装置1の間でAR(Augmented Reality)を利用したゲーム等の各種情報処理の実行が可能になる。 Execution of various information processing such as games using AR (Augmented Reality) between two or more information processing devices 1 by the cooperation between various hardware of the information processing device 1 of FIG. 1 and various software. Becomes possible.

ここで、2台以上の情報処理装置1が、ARを利用したゲーム等の各種情報処理を実行するに際し、AR空間を共有する必要がある。
AR空間とは、情報処理装置1において処理される空間であって、実空間に対してオブジェクトの配置等何らかの情報が付加された空間(撮像された画像に基づいて情報処理装置1内で構築される空間)をいう。
AR空間内でのオブジェクト等の位置や姿勢は、情報処理装置1によって認識されたAR空間内で用いられる座標軸(原点を含む)に基づいて規定される。
複数の情報処理装置1の夫々において、AR空間内で用いられる座標軸をあわせることが、「AR空間を共有する」ことである。
Here, when two or more information processing devices 1 execute various information processing such as a game using AR, it is necessary to share the AR space.
The AR space is a space processed by the information processing device 1, and is a space to which some information such as the arrangement of objects is added to the real space (constructed in the information processing device 1 based on the captured image). Space).
The position and orientation of an object or the like in the AR space are defined based on the coordinate axes (including the origin) used in the AR space recognized by the information processing device 1.
Aligning the coordinate axes used in the AR space in each of the plurality of information processing devices 1 means "sharing the AR space".

本実施形態では、図2に示すように、複数の情報処理装置1(図2の例では後述の親機1−P及び子機1−C)は、AR空間内で用いられる座標軸を同一にあわせる(一緒にする)ことで、AR空間の共有を図っている。
ここで、親機1−Pとは、情報処理装置1のうち、基準となる座標軸(共有されたAR空間内で用いられる座標軸)が設定されたものをいう。また、子機1−Cとは、情報処理装置1のうち、親機1−P以外のものをいう。
In the present embodiment, as shown in FIG. 2, the plurality of information processing devices 1 (master unit 1-P and slave unit 1-C described later in the example of FIG. 2) have the same coordinate axes used in the AR space. By matching (making them together), we are trying to share the AR space.
Here, the master unit 1-P refers to an information processing device 1 in which a reference coordinate axis (coordinate axis used in a shared AR space) is set. Further, the slave unit 1-C refers to an information processing device 1 other than the master unit 1-P.

図2に示すように、親機1−Pと子機1−Cの夫々は、SLAM(Simultaneous Localization and Mapping)を動かして空間認識を行う。これにより、親機1−P側で、AS空間SPにおける軸axpが設定されるのに対して、子機1−C側で、AS空間SPにおける軸axc(軸axpとは異なる)が設定される。 As shown in FIG. 2, each of the master unit 1-P and the slave unit 1-C moves SLAM (Simultaneus Localization and Mapping) to perform spatial recognition. As a result, the axis axp in the AS space SP is set on the master unit 1-P side, while the axis axc (different from the axis app) in the AS space SP is set on the slave unit 1-C side. NS.

次に、親機1−Pは、軸axpを特定可能な情報を含むマーカーとしての画像GM(以下、「マーカ画像GM」と呼ぶ)のデータを生成し、そのマーカ画像GMを表示部27(図1)に表示させる。
子機1−Cは、撮像部28(図1)を用いてマーカ画像GMを読み取る。
Next, the master unit 1-P generates data of an image GM (hereinafter, referred to as “marker image GM”) as a marker including information capable of identifying the axis axp, and displays the marker image GM on the display unit 27 (hereinafter, referred to as “marker image GM”). It is displayed in Fig. 1).
The slave unit 1-C reads the marker image GM using the imaging unit 28 (FIG. 1).

子機1−Cは、マーカ画像GMを読み立った際に、当該子機1−Cからみた親機1−Pの位置及び姿勢(子機1−Cで設定された軸axcでの座標及びその座標を始点とするベクトル)を推定する。
子機1−Cは、その推定の結果に基づいて、軸axcの原点を軸axpの原点と一致させ、軸axcの向きを軸axpのに合わせる。換言すると、子機1−Cは、軸axcにおける座標及び姿勢を軸axpにおける座標及び姿勢に変換するための行列XC(以下、「変換行列XC」と呼ぶ)を生成する。
When the slave unit 1-C reads the marker image GM, the position and orientation of the master unit 1-P as seen from the slave unit 1-C (coordinates on the axis axc set by the slave unit 1-C and Estimate the vector starting from that coordinate.
Based on the estimation result, the slave unit 1-C aligns the origin of the axis axc with the origin of the axis axp and aligns the direction of the axis axc with that of the axis axp. In other words, the slave unit 1-C generates a matrix XC (hereinafter, referred to as "transformation matrix XC") for converting the coordinates and the posture on the axis axc into the coordinates and the posture on the axis axp.

子機1−Cと親機1−Pとは、これによりAR空間SPを共有する。即ち、親機1−Pは、最初に設定した座標軸axpの座標及び方向を用いて、AR空間SP内における各種情報を処理する。一方、子機1−Cは、最初に設定した座標軸axcの座標及び方向に対して変換行列XCで変換を施した座標軸(座標軸axpと同一)の座標及び方向を用いて、AR空間SP内における各種情報を処理する。
子機1−Cと親機1−Pとは、このようにして各種処理を施した各種情報を、P2P(peer−to−peer)で相互に授受する。
The slave unit 1-C and the master unit 1-P share the AR space SP. That is, the master unit 1-P processes various information in the AR space SP by using the coordinates and directions of the coordinate axis app set first. On the other hand, the slave unit 1-C uses the coordinates and directions of the coordinate axes (same as the coordinate axis axp) converted by the transformation matrix XC with respect to the coordinates and directions of the coordinate axis axc initially set in the AR space SP. Process various information.
The slave unit 1-C and the master unit 1-P mutually exchange various information subjected to various processing in this way by P2P (peer-to-peer).

以上説明した親機1−Pと子機1−CとにおけるAR空間SPを共有するまでの一連の処理は、親機1−Pと子機1−Cとの夫々におけるハードウェアとソフトウェアの協働により実現される。この場合、親機1−Pと子機1−Cとは、例えば図3に示す機能的構成を有することができる。
図3は、図2の親機と子機との夫々における機能的構成のうち、AR空間を共有するまでの一連の処理が実行される際の機能的構成の一例を示す機能ブロック図である。
The series of processes up to sharing the AR space SP between the master unit 1-P and the slave unit 1-C described above is the cooperation of hardware and software between the master unit 1-P and the slave unit 1-C, respectively. Realized by work. In this case, the master unit 1-P and the slave unit 1-C can have, for example, the functional configuration shown in FIG.
FIG. 3 is a functional block diagram showing an example of the functional configuration when a series of processes up to sharing the AR space are executed among the functional configurations of the master unit and the slave unit of FIG. 2. ..

図3に示すように、親機1−PのCPU21においては、親機処理部52と、通信制御部53とが機能する。なお、親機1−Pも状況に応じて子機1−Cとして機能する場合があり、この場合には子機処理部51が機能する。
親機処理部52には、座標設定部61と、マーカ画像生成部62と、マーカ画像表示制御部63とが設けられている。
As shown in FIG. 3, in the CPU 21 of the master unit 1-P, the master unit processing unit 52 and the communication control unit 53 function. The master unit 1-P may also function as the slave unit 1-C depending on the situation, and in this case, the slave unit processing unit 51 functions.
The master unit processing unit 52 is provided with a coordinate setting unit 61, a marker image generation unit 62, and a marker image display control unit 63.

子機1−CのCPU21においては、子機処理部51と、通信制御部53とが機能する。なお、子機1−Cも状況に応じて親機1−Pとして機能する場合があり、この場合には親機処理部52が機能する。
子機処理部52には、座標設定部71と、マーカ画像読取部72と、変換行列生成部73と、座標変換部74とが設けられている。
In the CPU 21 of the slave unit 1-C, the slave unit processing unit 51 and the communication control unit 53 function. The slave unit 1-C may also function as the master unit 1-P depending on the situation, and in this case, the master unit processing unit 52 functions.
The slave unit processing unit 52 is provided with a coordinate setting unit 71, a marker image reading unit 72, a conversion matrix generation unit 73, and a coordinate conversion unit 74.

以下、図4を適宜参照しつつ、親機1−Pと子機1−Cとの各機能ブロックの詳細について説明する。
図4は、図3の機能的構成を有する親機と子機との間で実行される、AR空間を共有するまでの一連の処理の一例を説明するアローチャートである。
Hereinafter, details of each functional block of the master unit 1-P and the slave unit 1-C will be described with reference to FIG. 4 as appropriate.
FIG. 4 is an arrow chart illustrating an example of a series of processes executed between the master unit and the slave unit having the functional configuration of FIG. 3 until the AR space is shared.

ステップS11において、親機1−Pの座標設定部61は、撮像部28により撮像された実空間の撮像画像のデータに基づいてSLAMで空間認識を行い、AR空間SPにおける座標軸axp(図2)を設定する。 In step S11, the coordinate setting unit 61 of the master unit 1-P performs spatial recognition by SLAM based on the data of the captured image in the real space captured by the imaging unit 28, and the coordinate axis axp in the AR space SP (FIG. 2). To set.

同様に、ステップS21において、子機1−Cの座標設定部71は、撮像部28により撮像された実空間の撮像画像のデータに基づいてSLAMで空間認識を行い、AR空間SPにおける座標軸axc(図2)を設定する。 Similarly, in step S21, the coordinate setting unit 71 of the slave unit 1-C performs spatial recognition by SLAM based on the data of the captured image in the real space captured by the imaging unit 28, and the coordinate axis axc in the AR space SP ( Figure 2) is set.

ステップS12において、親機1−Pのマーカ画像生成部62は、ステップS11の処理で設定された座標軸axpに基づいて、マーカ画像GM(図2)のデータを生成する。
ステップS13において、親機1−Pのマーカ画像表示制御部63は、ステップS12の処理で生成されたデータに対応するマーカ画像GMを、表示部27に表示させる制御を実行する。
In step S12, the marker image generation unit 62 of the master unit 1-P generates the data of the marker image GM (FIG. 2) based on the coordinate axis axp set in the process of step S11.
In step S13, the marker image display control unit 63 of the master unit 1-P executes control to display the marker image GM corresponding to the data generated in the process of step S12 on the display unit 27.

親機1−Pに表示されたマーカ画像GMが、子機1−Cの撮像部28により撮像されると、子機1−C側の処理はステップS22に進む。
ステップS22において、子機1−Cのマーカ画像読取部72は、マーカ画像GM(撮像部28の撮像画像のデータ)を読み取る。
When the marker image GM displayed on the master unit 1-P is imaged by the imaging unit 28 of the slave unit 1-C, the process on the slave unit 1-C side proceeds to step S22.
In step S22, the marker image reading unit 72 of the slave unit 1-C reads the marker image GM (data of the captured image of the imaging unit 28).

ステップS23において、子機1−Cの変換行列生成部73は、ステップS22のタイミング(マーカ画像GMが読み取られたタイミング)における当該子機1−Cからみた親機1−Pの位置及び姿勢(子機1−Cで設定された軸axcでの座標及びその座標を始点とするベクトル)を推定する。
ステップS24において、子機1−Cの変換行列生成部73は、ステップS23の処理で推定された親機1−Pの位置及び姿勢に基づいて、変換行列XC(図2)を生成する。
ステップS25において、子機1−Cの座標変換部74は、ステップS24の処理で生成された変換行列XCを用いて、座標軸を変換する(座標軸axpに一致させる)。
これにより、子機1−Cと親機1−Pとの間で、AR空間SPが共有される。
In step S23, the transformation matrix generation unit 73 of the slave unit 1-C has the position and orientation of the master unit 1-P as seen from the slave unit 1-C at the timing of step S22 (the timing when the marker image GM is read). Estimate the coordinates on the axis axc set by the slave unit 1-C and the vector starting from those coordinates).
In step S24, the transformation matrix generation unit 73 of the slave unit 1-C generates the transformation matrix XC (FIG. 2) based on the position and orientation of the master unit 1-P estimated in the process of step S23.
In step S25, the coordinate conversion unit 74 of the slave unit 1-C converts the coordinate axes (matches the coordinate axis axp) using the conversion matrix XC generated in the process of step S24.
As a result, the AR space SP is shared between the slave unit 1-C and the master unit 1-P.

ステップS14において、親機1−Pの通信制御部53は、座標設定部61により設定された(ステップS11の処理で設定された)座標軸axpを用いて、共有されたAR空間SPにて情報を、通信部30を介して子機1−Cとの間で授受する。
ステップS26において、子機1−Cの通信制御部53は、座標変換部74により変換された(ステップS25の処理で変換された)座標軸axpを用いて、共有されたAR空間SPにて情報を、通信部30を介して親機1−Pとの間で授受する。
In step S14, the communication control unit 53 of the master unit 1-P uses the coordinate axis axp (set in the process of step S11) set by the coordinate setting unit 61 to transmit information in the shared AR space SP. , Transfers to and from the slave unit 1-C via the communication unit 30.
In step S26, the communication control unit 53 of the slave unit 1-C uses the coordinate axis app converted by the coordinate conversion unit 74 (converted in the process of step S25) to transmit information in the shared AR space SP. , Transfers to and from the master unit 1-P via the communication unit 30.

以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention. be.

例えばAR空間SPの共有の手法は、上述の実施形態では親機1−Pの座標軸axpに一致させる手法(図2に示す手法)が採用されたが、特にこれに限定されず、例えば図5や図6に示す各手法を採用することができる。 For example, as a method of sharing the AR space SP, a method of matching the coordinate axes axp of the master unit 1-P (the method shown in FIG. 2) was adopted in the above-described embodiment, but the method is not particularly limited to this, and for example, FIG. And each method shown in FIG. 6 can be adopted.

図5は、図1の情報処理装置が複数台存在する場合のAR空間の共有の手法の一例であって、図4とは異なる例を説明する図である。
図5の例では、図4の例とは異なり、変換行列のみを共有する手法が採用されている。
即ち、子機1−C側でマーカ画像GMが読み取られる点は、図5の例は図4の例と同様である。しかしながら、図5の例では、親機1−P側の座標軸axpを子機1−C側の座標軸axcに変換するための変換行列XCCと、子機1−C側の座標軸axcを親機1−P側の座標軸axpに変換するための変換行列XCP(変換行列XCCの逆行列)とが、親機1−Pと子機1−Cとの間で共有されることで、AR空間SPの共有が図られる。
FIG. 5 is an example of a method of sharing an AR space when a plurality of information processing devices of FIG. 1 exist, and is a diagram for explaining an example different from that of FIG.
In the example of FIG. 5, unlike the example of FIG. 4, a method of sharing only the transformation matrix is adopted.
That is, the example of FIG. 5 is the same as the example of FIG. 4 in that the marker image GM is read on the slave unit 1-C side. However, in the example of FIG. 5, the transformation matrix XCC for converting the coordinate axis app on the master unit 1-P side to the coordinate axis axc on the slave unit 1-C side and the coordinate axis axc on the slave unit 1-C side are used as the master unit 1. The transformation matrix XCP (inverse matrix of the transformation matrix XCC) for converting to the coordinate axis axp on the −P side is shared between the master unit 1-P and the slave unit 1-C, so that the AR space SP Sharing is planned.

図6は、図1の情報処理装置が複数台存在する場合のAR空間の共有の手法の一例であって、図4や図5とは異なる例を説明する図である。
図6の例では、図4や図5の例とは異なり、情報処理装置1は、親機1−Pと子機1−Cというような区別はなされず対等である。
即ち、AR空間SPにおける基準となる座標軸は、図4や図5の例では親機1−P側の標軸axpと採用されたが、特にこれに限定されず、図6の例では予め設定されてクラウド(インターネット)上に保持された座標軸axsが採用されている。
具体的には例えば、AR空間SPに対応する実空間SFが既知であるならば、図6に示すように、その実空間SFを3次元で復元した結果得られる点群のデータPGと、そのデータPGに採用された座標軸axsとが対応付けられて、予めクラウド(インターネット上)に保持されているものとする。この座標軸axsが、実空間SFに対応するAR空間SPにおける基準となる座標軸である。
情報処理装置1−1及び1−2の夫々は、実空間SFに対応するAR空間SPの共有が必要なときは、その実空間SFを撮像し、その結果得られる撮像画像のデータに基づいて、座標軸axc1又は座標軸axc2の夫々を設定する。情報処理装置1−1及び1−2の夫々は、その撮像画像の特徴点を抽出し、クラウドに保持されているデータPGとマッチングをかけることにより、座標軸axc1又は座標軸axc2を、基準となる座標軸axsに一致させる。これにより、情報処理装置1−1及び1−2との間で実空間SFに対応するAR空間SPの共有が図られる。
FIG. 6 is an example of a method of sharing an AR space when a plurality of information processing devices of FIG. 1 exist, and is a diagram for explaining an example different from those of FIGS. 4 and 5.
In the example of FIG. 6, unlike the examples of FIGS. 4 and 5, the information processing apparatus 1 is equal without distinguishing between the master unit 1-P and the slave unit 1-C.
That is, the reference coordinate axis in the AR space SP is adopted as the reference axis axp on the master unit 1-P side in the examples of FIGS. 4 and 5, but is not particularly limited to this, and is set in advance in the example of FIG. The coordinate axis axes held on the cloud (Internet) is adopted.
Specifically, for example, if the real space SF corresponding to the AR space SP is known, as shown in FIG. 6, the point cloud data PG obtained as a result of restoring the real space SF in three dimensions and the data thereof. It is assumed that the coordinate axes ax used in the PG are associated with each other and are stored in the cloud (on the Internet) in advance. This coordinate axis axes is a reference coordinate axis in the AR space SP corresponding to the real space SF.
When it is necessary to share the AR space SP corresponding to the real space SF, each of the information processing devices 1-1 and 1-2 images the real space SF, and based on the data of the captured image obtained as a result, the information processing devices 1-1 and 1-2 are used. The coordinate axis axc1 or the coordinate axis axc2 is set respectively. Each of the information processing devices 1-1 and 1-2 extracts the feature points of the captured image and matches them with the data PG held in the cloud, so that the coordinate axis axc1 or the coordinate axis axc2 is used as a reference coordinate axis. Match to axes. As a result, the AR space SP corresponding to the real space SF can be shared between the information processing devices 1-1 and 1-2.

ここで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。また、機能ブロックの存在場所も、図3に特に限定されず、任意でよい。
具体的には例えば、図3に示す各機能ブロックは、上述の実施形態ではネイティブアプリケーションとして情報処理装置1に備えられていたが、HTMLとJavaScript(登録商標)を用いてWebアプリケーションとして実装することで、図示せぬサーバ等に備えることもできる。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
Here, the series of processes described above can be executed by hardware or software.
In other words, the functional configuration of FIG. 3 is merely an example and is not particularly limited. That is, it suffices if the information processing system is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. Further, the location of the functional block is not particularly limited to FIG. 3, and may be arbitrary.
Specifically, for example, each functional block shown in FIG. 3 is provided in the information processing device 1 as a native application in the above-described embodiment, but is implemented as a Web application using HTML and Javascript (registered trademark). Therefore, it is possible to prepare for a server or the like (not shown).
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When a series of processes are executed by software, the programs constituting the software are installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or a personal computer in addition to a server.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。 The recording medium containing such a program is not only composed of a removable medium (not shown) distributed separately from the device main body in order to provide the program to the user, but also is preliminarily incorporated in the device main body to the user. It is composed of the provided recording medium and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the steps for describing a program recorded on a recording medium are not necessarily processed in chronological order, but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed.
Further, in the present specification, the term of the system means an overall device composed of a plurality of devices, a plurality of means, and the like.

換言すると、本発明が適用される情報処理装置は、上述の図3、図5又は図6の実施形態としての情報処理装置を含め、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば図1の情報処理装置1、具体的には例えば図2等の子機1−C)は、
他情報処理装置(例えば図2等の親機1−P)との間で所定空間(例えば図2等のAR空間SP)を共有して情報の授受を行う情報処理装置において、
前記所定空間における第1座標軸(例えば図2や図4の座標軸axc、図6の座標軸axc1又は座標軸axc2)を設定する座標設定手段(例えば図3の座標設定部71)と、
前記第1座標軸を、前記所定空間において前記他情報処理装置により利用される第2座標軸(例えば図2や図4の座標軸axp、図5の座標軸axs)に変換するための規則(例えば図2の変換行列XC、図4の変換行列XCCや変換行列XCP)を生成する変換規則生成手段(例えば図3の変換行列生成部73)と、
を備える。
In other words, the information processing apparatus to which the present invention is applied takes various embodiments having the following configurations, including the information processing apparatus as the embodiment of FIG. 3, FIG. 5 or FIG. 6 described above. be able to.
That is, the information processing device to which the present invention is applied (for example, the information processing device 1 in FIG. 1, specifically, the slave unit 1-C in FIG. 2, etc.) is
In an information processing device that exchanges information by sharing a predetermined space (for example, AR space SP as shown in FIG. 2) with another information processing device (for example, the master unit 1-P as shown in FIG. 2).
A coordinate setting means (for example, the coordinate setting unit 71 of FIG. 3) for setting the first coordinate axis (for example, the coordinate axis axc of FIGS. 2 and 4, the coordinate axis axc1 of FIG. 6 or the coordinate axis axc2) in the predetermined space.
A rule for converting the first coordinate axis into a second coordinate axis used by the other information processing apparatus in the predetermined space (for example, the coordinate axis axp in FIGS. 2 and 4, and the coordinate axis ax in FIG. 5) (for example, FIG. 2). A transformation rule generating means (for example, a transformation matrix generation unit 73 in FIG. 3) for generating a transformation matrix XC, a transformation matrix XCC in FIG. 4 or a transformation matrix XCP), and
To be equipped.

この場合、
前記所定空間における前記第2座標軸が設定された前記他情報処理装置に画像(例えば図2のマーカ画像GM)が表示されたとき、当該画像を読み取る読取手段(例えば図3のマーカ画像読取部72)、
をさらに備え、
前記変換規則生成手段は、
読み取られた前記画像に基づいて、前記第1座標軸での前記他情報処理装置の位置の推定をし、その推定の結果に基づいて前記規則として、前記所定空間における座標軸を前記第1座標軸から前記第2座標軸に変換する変換行列(例えば図2の変換行列XC)を生成する、
ことができる。
さらに、前記変換行列を用いて、前記所定空間における座標軸を前記第1座標軸から前記第2座標軸に変換する座標変換手段(例えば図3の座標変換部74)を備えることができる。
in this case,
When an image (for example, the marker image GM of FIG. 2) is displayed on the other information processing device in which the second coordinate axis is set in the predetermined space, a reading means for reading the image (for example, the marker image reading unit 72 of FIG. 3). ),
With more
The conversion rule generating means is
Based on the read image, the position of the other information processing device on the first coordinate axis is estimated, and based on the estimation result, the coordinate axis in the predetermined space is set from the first coordinate axis as the rule. Generate a transformation matrix to be converted to the second coordinate axis (for example, the transformation matrix XC in FIG. 2).
be able to.
Further, a coordinate conversion means (for example, the coordinate conversion unit 74 in FIG. 3) that converts the coordinate axes in the predetermined space from the first coordinate axis to the second coordinate axis by using the conversion matrix can be provided.

また、本発明が適用される情報処理装置(例えば図1の情報処理装置1、具体的には例えば図2等の親機1−P)は、
他情報処理装置(例えば図2等の子機1−C)との間で所定空間を共有して情報の授受を行う情報処理装置において、
前記所定空間における第1座標軸(例えば図2の座標軸axp)を設定する座標設定手段(例えば図3の座標設定部61)と、
前記所定空間における前記第2座標軸(例えば図2の座標軸axc)が設定された前記他情報処理装置において、読み込まれて、前記第2座標軸での前記情報処理装置の位置が推定され、その推定結果に基づいて、前記第2座標軸を前記第1座標軸に変換するための規則(例えば図2の変換行列XC)が生成されるために用いられる画像(例えば図2のマーカ画像GM)のデータを、前記第1座標軸に基づいて生成する画像生成手段(例えば図3のマーカ画像生成部62)と、
前記画像生成手段により前記データとして生成された前記画像を表示させる制御を実行する表示制御手段(例えば図3のマーカ画像表示制御部63)と、
を備える。
Further, the information processing device to which the present invention is applied (for example, the information processing device 1 in FIG. 1, specifically, the master unit 1-P in FIG. 2, etc.) is
In an information processing device that shares a predetermined space with another information processing device (for example, slave unit 1-C shown in FIG. 2) to exchange information.
A coordinate setting means (for example, the coordinate setting unit 61 in FIG. 3) for setting the first coordinate axis (for example, the coordinate axis axp in FIG. 2) in the predetermined space, and
In the other information processing device in which the second coordinate axis (for example, the coordinate axis axc in FIG. 2) is set in the predetermined space, the information processing device is read and the position of the information processing device on the second coordinate axis is estimated, and the estimation result thereof. Based on the data of the image (for example, the marker image GM of FIG. 2) used for generating the rule for converting the second coordinate axis to the first coordinate axis (for example, the transformation matrix XC of FIG. 2). An image generation means (for example, a marker image generation unit 62 in FIG. 3) generated based on the first coordinate axis, and
A display control means (for example, the marker image display control unit 63 in FIG. 3) that executes control for displaying the image generated as the data by the image generation means, and
To be equipped.

1・・・情報処理装置、1−P・・・親機、1−C・・・子機、21・・・CPU、51・・・子機処理部、親機処理部、52・・・子機処理部、親機処理部、53・・・通信制御部、61・・・座標設定部、62・・・マーカ画像生成部、63・・・マーカ画像表示制御部、71・・・座標設定部、72・・・マーカ画像読取部、73・・・変換行列生成部、74・・・座標変換部 1 ... Information processing device, 1-P ... Master unit, 1-C ... Slave unit, 21 ... CPU, 51 ... Slave unit processing unit, Master unit processing unit, 52 ... Slave unit processing unit, master unit processing unit, 53 ... communication control unit, 61 ... coordinate setting unit, 62 ... marker image generation unit, 63 ... marker image display control unit, 71 ... coordinates Setting unit, 72 ... Marker image reading unit, 73 ... Conversion matrix generation unit, 74 ... Coordinate conversion unit

Claims (8)

他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置において、
前記所定空間における第1座標軸を設定する座標設定手段と、
前記第1座標軸を、前記所定空間において前記他情報処理装置により利用される第2座標軸に変換するための規則を生成する変換規則生成手段と、
を備える情報処理装置。
In an information processing device that shares a predetermined space with other information processing devices and exchanges information.
A coordinate setting means for setting the first coordinate axis in the predetermined space, and
A conversion rule generating means for generating a rule for converting the first coordinate axis into a second coordinate axis used by the other information processing apparatus in the predetermined space.
Information processing device equipped with.
前記所定空間における前記第2座標軸が設定された前記他情報処理装置に画像が表示されたとき、当該画像を読み取る読取手段、
をさらに備え、
前記変換規則生成手段は、
読み取られた前記画像に基づいて、前記第1座標軸での前記他情報処理装置の位置の推定をし、その推定の結果に基づいて前記規則として、前記所定空間における座標軸を前記第1座標軸から前記第2座標軸に変換する変換行列を生成する、
請求項1に記載の情報処理装置。
A reading means for reading an image when the image is displayed on the other information processing device in which the second coordinate axis is set in the predetermined space.
With more
The conversion rule generating means is
Based on the read image, the position of the other information processing device on the first coordinate axis is estimated, and based on the estimation result, the coordinate axis in the predetermined space is set from the first coordinate axis as the rule. Generate a transformation matrix to convert to the second coordinate axis,
The information processing device according to claim 1.
前記変換行列を用いて、前記所定空間における座標軸を前記第1座標軸から前記第2座標軸に変換する座標変換手段、
をさらに備える請求項2に記載の情報処理装置。
A coordinate conversion means for converting a coordinate axis in the predetermined space from the first coordinate axis to the second coordinate axis using the transformation matrix.
The information processing apparatus according to claim 2.
他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置が実行する情報処理方法において、
前記所定空間における第1座標軸を設定する座標設定ステップと、
前記第1座標軸を、前記所定空間において前記他情報処理装置により利用される第2座標軸に変換するための規則を生成する変換規則生成ステップと、
を含む情報処理方法。
In the information processing method executed by an information processing device that exchanges information by sharing a predetermined space with another information processing device.
A coordinate setting step for setting the first coordinate axis in the predetermined space, and
A conversion rule generation step for generating a rule for converting the first coordinate axis into a second coordinate axis used by the other information processing apparatus in the predetermined space, and a conversion rule generation step.
Information processing methods including.
他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置を制御するコンピュータに、
前記所定空間における第1座標軸を設定する座標設定ステップと、
前記第1座標軸を、前記所定空間において前記他情報処理装置により利用される第2座標軸に変換するための規則を生成する変換規則生成ステップと、
を含む制御処理を実行させるプログラム。
A computer that controls an information processing device that exchanges information by sharing a predetermined space with other information processing devices.
A coordinate setting step for setting the first coordinate axis in the predetermined space, and
A conversion rule generation step for generating a rule for converting the first coordinate axis into a second coordinate axis used by the other information processing apparatus in the predetermined space, and a conversion rule generation step.
A program that executes control processing including.
他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置において、
前記所定空間における第1座標軸を設定する座標設定手段と、
前記所定空間における前記第2座標軸が設定された前記他情報処理装置において、読み込まれて、前記第2座標軸での前記情報処理装置の位置が推定され、その推定結果に基づいて、前記第2座標軸を前記第1座標軸に変換するための規則が生成されるために用いられる画像のデータを、前記第1座標軸に基づいて生成する画像生成手段と、
前記画像生成手段により前記データとして生成された前記画像を表示させる制御を実行する表示制御手段と、
を備える情報処理装置。
In an information processing device that shares a predetermined space with other information processing devices and exchanges information.
A coordinate setting means for setting the first coordinate axis in the predetermined space, and
In the other information processing device in which the second coordinate axis is set in the predetermined space, the position of the information processing device on the second coordinate axis is estimated by being read, and the second coordinate axis is estimated based on the estimation result. An image generation means for generating image data used for generating a rule for converting the first coordinate axis into the first coordinate axis, and an image generation means for generating the image data based on the first coordinate axis.
A display control means for executing control to display the image generated as the data by the image generation means, and a display control means.
Information processing device equipped with.
他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置が実行する情報処理方法において、
前記所定空間における第1座標軸を設定する座標設定ステップと、
前記所定空間における前記第2座標軸が設定された前記他情報処理装置において、読み込まれて、前記第2座標軸での前記情報処理装置の位置が推定され、その推定結果に基づいて、前記第2座標軸を前記第1座標軸に変換するための規則(例えば変換行列)が生成されるために用いられる画像のデータを、前記第1座標軸に基づいて生成する画像生成ステップと、
前記画像生成ステップの処理において前記データとして生成された前記画像を表示させる制御を実行する表示制御ステップと、
を含む情報処理方法。
In the information processing method executed by an information processing device that exchanges information by sharing a predetermined space with another information processing device.
A coordinate setting step for setting the first coordinate axis in the predetermined space, and
In the other information processing device in which the second coordinate axis is set in the predetermined space, the position of the information processing device on the second coordinate axis is estimated by being read, and the second coordinate axis is estimated based on the estimation result. An image generation step of generating image data used for generating a rule (for example, a transformation matrix) for converting the first coordinate axis based on the first coordinate axis.
A display control step that executes control for displaying the image generated as the data in the processing of the image generation step, and a display control step.
Information processing methods including.
他情報処理装置との間で所定空間を共有して情報の授受を行う情報処理装置を制御するコンピュータに、
前記所定空間における第1座標軸を設定する座標設定ステップと、
前記所定空間における前記第2座標軸が設定された前記他情報処理装置において、読み込まれて、前記第2座標軸での前記情報処理装置の位置が推定され、その推定結果に基づいて、前記第2座標軸を前記第1座標軸に変換するための規則が生成されるために用いられる画像のデータを、前記第1座標軸に基づいて生成する画像生成ステップと、
前記画像生成ステップの処理において前記データとして生成された前記画像を表示させる制御を実行する表示制御ステップと、
を含む制御処理を実行させるプログラム。
A computer that controls an information processing device that exchanges information by sharing a predetermined space with other information processing devices.
A coordinate setting step for setting the first coordinate axis in the predetermined space, and
In the other information processing device in which the second coordinate axis is set in the predetermined space, the position of the information processing device on the second coordinate axis is estimated by being read, and the second coordinate axis is estimated based on the estimation result. The image generation step of generating the image data used for generating the rule for converting the first coordinate axis into the first coordinate axis based on the first coordinate axis.
A display control step that executes control for displaying the image generated as the data in the processing of the image generation step, and a display control step.
A program that executes control processing including.
JP2019566704A 2019-08-08 2019-08-08 Information processing apparatus, information processing method, and program Active JP6736147B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/031478 WO2021024479A1 (en) 2019-08-08 2019-08-08 Information processing device, information processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020118597A Division JP2021026770A (en) 2020-07-09 2020-07-09 Information processor, method for processing information, and program

Publications (2)

Publication Number Publication Date
JP6736147B1 JP6736147B1 (en) 2020-08-05
JPWO2021024479A1 true JPWO2021024479A1 (en) 2021-09-13

Family

ID=71892399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019566704A Active JP6736147B1 (en) 2019-08-08 2019-08-08 Information processing apparatus, information processing method, and program

Country Status (2)

Country Link
JP (1) JP6736147B1 (en)
WO (1) WO2021024479A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021193538A (en) * 2020-06-09 2021-12-23 ソニーグループ株式会社 Information processing device, mobile device, information processing system and method, and program
JP6785025B1 (en) * 2020-08-18 2020-11-18 Graffity株式会社 Information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4816789B2 (en) * 2009-11-16 2011-11-16 ソニー株式会社 Information processing apparatus, information processing method, program, and information processing system
JP6329343B2 (en) * 2013-06-13 2018-05-23 任天堂株式会社 Image processing system, image processing apparatus, image processing program, and image processing method
CN109952599A (en) * 2016-11-21 2019-06-28 索尼公司 Information processing equipment, information processing method and program

Also Published As

Publication number Publication date
JP6736147B1 (en) 2020-08-05
WO2021024479A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
US10949158B2 (en) Screenshot method and apparatus
WO2019205852A1 (en) Method and apparatus for determining pose of image capture device, and storage medium therefor
CN112889091A (en) Camera pose estimation using fuzzy features
JP2019114227A (en) Method and device for processing image interaction, learning method, learning device, and computer program
JP2013506170A (en) System and method for the field of pervasive computing
US20180158243A1 (en) Collaborative manipulation of objects in virtual reality
WO2021024479A1 (en) Information processing device, information processing method, and program
US9569161B2 (en) Remote visualization and control for virtual mobile infrastructure
CN110555798B (en) Image deformation method, device, electronic equipment and computer readable storage medium
CN110111241B (en) Method and apparatus for generating dynamic image
CN105335309A (en) Data transmission method and computer
US11967146B2 (en) Normal estimation for a planar surface
CN107463261B (en) Three-dimensional interaction system and method
JP7082713B2 (en) Rolling Shutter Correction for images / videos using convolutional neural networks in applications for image / video SFM / SLAM
WO2022025565A1 (en) System and method for generating bokeh image for dslr quality depth-of-field rendering and refinement and training method for the same
WO2021164712A1 (en) Pose tracking method, wearable device, mobile device, and storage medium
JP2021026770A (en) Information processor, method for processing information, and program
US20190378335A1 (en) Viewer position coordination in simulated reality
US10290151B2 (en) AR/VR device virtualisation
US11430150B2 (en) Method and apparatus for processing sparse points
Zhang et al. Application of traditional Chinese elements in visual communication design based on somatosensory interaction parameterisation
TW202108219A (en) Information processing apparatus, information processing method and program sharing a specific space between a sub-computer 1-C and a host computer 1-P so as to be used for giving and receiving information
US11663752B1 (en) Augmented reality processing device and method
KR102494412B1 (en) Electronic device for performing frequency conversion of image data using single instruction multiple data and method for the same
WO2022181252A1 (en) Joint detection device, training model generation device, joint detection method, training model generation method, and computer-readable recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191129

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191226

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200709

R150 Certificate of patent or registration of utility model

Ref document number: 6736147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250