JP6785025B1 - Information processing method - Google Patents

Information processing method Download PDF

Info

Publication number
JP6785025B1
JP6785025B1 JP2020137934A JP2020137934A JP6785025B1 JP 6785025 B1 JP6785025 B1 JP 6785025B1 JP 2020137934 A JP2020137934 A JP 2020137934A JP 2020137934 A JP2020137934 A JP 2020137934A JP 6785025 B1 JP6785025 B1 JP 6785025B1
Authority
JP
Japan
Prior art keywords
information processing
point cloud
space
coordinate axis
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020137934A
Other languages
Japanese (ja)
Other versions
JP2022034234A (en
Inventor
俊亨 森本
俊亨 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Graffity Inc
Original Assignee
Graffity Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Graffity Inc filed Critical Graffity Inc
Priority to JP2020137934A priority Critical patent/JP6785025B1/en
Priority to JP2020175515A priority patent/JP2022034493A/en
Application granted granted Critical
Publication of JP6785025B1 publication Critical patent/JP6785025B1/en
Priority to PCT/JP2021/030206 priority patent/WO2022039197A1/en
Publication of JP2022034234A publication Critical patent/JP2022034234A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Abstract

【課題】複数の情報処理装置が空間を共有することができるようにする。【解決手段】情報処理方法であって、第1の情報処理装置が所定空間において第1の座標軸を設定し、第2の情報処理装置が所定空間において第2の座標軸を設定し、第2の情報処理装置が、第2の座標軸を第1の座標軸に変換する変換規則を生成し、第1及び第2の情報処理装置のそれぞれが、所定空間を撮影した画像から第1の座標軸で表現される点群を取得し、取得した点群を共有し、共有した点群を用いて環境地図を作成すること、を特徴とする。【選択図】図1PROBLEM TO BE SOLVED: To enable a plurality of information processing devices to share a space. SOLUTION: In the information processing method, a first information processing device sets a first coordinate axis in a predetermined space, a second information processing device sets a second coordinate axis in a predetermined space, and a second The information processing device generates a conversion rule for converting the second coordinate axis to the first coordinate axis, and each of the first and second information processing devices is represented by the first coordinate axis from an image of a predetermined space. It is characterized by acquiring a group of points, sharing the acquired point group, and creating an environmental map using the shared point group. [Selection diagram] Fig. 1

Description

本発明は、情報処理方法に関する。 The present invention relates to an information processing method.

従来、情報処理の著しい発展により、携帯端末において、AR(Augmented Reality)を利用したゲーム等の各種情報処理の実行が可能となっている(例えば特許文献1参照)。 Conventionally, with the remarkable development of information processing, it has become possible to execute various information processing such as games using AR (Augmented Reality) on a mobile terminal (see, for example, Patent Document 1).

特許第6417467号公報Japanese Patent No. 6417467

しかしながら、特許文献1を含め従来の技術では、複数人が複数の携帯端末の夫々を用いて、空間を共有してARを利用したゲームの実行等をすることが難しい。 However, in the conventional techniques including Patent Document 1, it is difficult for a plurality of people to share a space and execute a game using AR by using each of the plurality of mobile terminals.

本発明はこのような背景を鑑みてなされたものであり、複数の情報処理装置が空間を共有することができるようにすることを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to enable a plurality of information processing devices to share a space.

上記課題を解決するための本発明の主たる発明は、情報処理方法であって、第1の情報処理装置が所定空間において第1の座標軸を設定し、第2の情報処理装置が前記所定空間において第2の座標軸を設定し、前記第2の情報処理装置が、前記第2の座標軸を前記第1の座標軸に変換する変換規則を生成し、前記第1及び第2の情報処理装置のそれぞれが、前記所定空間を撮影した画像から前記第1の座標軸で表現される点群を取得し、取得した前記点群を共有し、共有した前記点群を用いて環境地図を作成すること、を特徴とする。 The main invention of the present invention for solving the above problems is an information processing method, in which a first information processing device sets a first coordinate axis in a predetermined space and a second information processing device sets the first coordinate axis in the predetermined space. A second coordinate axis is set, the second information processing device generates a conversion rule for converting the second coordinate axis into the first coordinate axis, and each of the first and second information processing devices It is characterized in that a point group represented by the first coordinate axis is acquired from an image obtained by capturing the predetermined space, the acquired point group is shared, and an environment map is created using the shared point group. And.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed in the present application and solutions thereof will be clarified in the columns and drawings of the embodiments of the invention.

本発明によれば、複数の情報処理装置が空間を共有することができる。 According to the present invention, a plurality of information processing devices can share a space.

AR空間の共有方法の例を示す図である。It is a figure which shows the example of the sharing method of AR space. 誤差の修正方法の例を示す図である。It is a figure which shows the example of the error correction method. 誤差修正方法の概要を説明する図である。It is a figure explaining the outline of the error correction method. 初期設定処理の流れを説明する図である。It is a figure explaining the flow of the initial setting process. 途中参加時の処理の流れを説明する図である。It is a figure explaining the flow of processing at the time of participation in the middle.

<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
第1の情報処理装置が所定空間において第1の座標軸を設定し、
第2の情報処理装置が前記所定空間において第2の座標軸を設定し、
前記第2の情報処理装置が、前記第2の座標軸を前記第1の座標軸に変換する変換規則を生成し、
前記第1及び第2の情報処理装置のそれぞれが、
前記所定空間を撮影した画像から前記第1の座標軸で表現される点群を取得し、
取得した前記点群を共有し、
共有した前記点群を用いて環境地図を作成すること、
を特徴とする情報処理方法。
[項目2]
項目1に記載の情報処理方法であって、
第3の情報処理装置が、
前記第1及び第2の情報処理装置の少なくともいずれかより前記点群である第1の点群の共有を受け、
前記所定空間を撮影した画像を取得し、
取得した前記画像から第2の点群を特定し、
前記第1及び第2の点群とを比較して、前記第1の座標軸を設定すること、
を特徴とする情報処理方法。
[項目3]
項目1に記載の情報処理方法であって、
前記第1及び第2の情報処理の少なくともいずれかは、
第1の前記点群を共有した後に第2の前記点群を取得し、
前記第1の点群から抽出した第1の特徴量と、前記第2の点群から抽出した第2の特徴量との類似度が所定値以上である場合に、前記第1の点群の位置と前記第2の点群の位置との間の距離を計算し、前記距離だけ前記第1及び第2の座標軸のすくなくともいずれかの原点を移動させること、
を特徴とする情報処理方法。
<Outline of the invention>
The contents of the embodiments of the present invention will be described in a list. The present invention includes, for example, the following configuration.
[Item 1]
The first information processing device sets the first coordinate axis in a predetermined space,
The second information processing device sets the second coordinate axis in the predetermined space,
The second information processing apparatus generates a conversion rule for converting the second coordinate axis into the first coordinate axis.
Each of the first and second information processing devices
A point cloud represented by the first coordinate axis is acquired from an image obtained by capturing the predetermined space.
Share the acquired point cloud and
Creating an environmental map using the shared point cloud,
An information processing method characterized by.
[Item 2]
The information processing method according to item 1.
The third information processing device
The first point cloud, which is the point cloud, is shared by at least one of the first and second information processing devices.
An image of the predetermined space is acquired and
The second point cloud was identified from the acquired image, and
To set the first coordinate axis by comparing with the first and second point clouds.
An information processing method characterized by.
[Item 3]
The information processing method according to item 1.
At least one of the first and second information processing
After sharing the first point cloud, the second point cloud is acquired and
When the similarity between the first feature amount extracted from the first point cloud and the second feature amount extracted from the second point group is equal to or more than a predetermined value, the first point group To calculate the distance between the position and the position of the second point cloud and move at least one of the origins of the first and second coordinate axes by the distance.
An information processing method characterized by.

本発明の一実施形態に係る拡張現実システムは、拡張現実システムは、現実空間を撮影した現実画像に、仮想空間の画像を重畳させた拡張現実(AR;Augmented Reality)を提供する。なお、仮想空間に現実画像を反映させた複合現実(MR;Mixed Reality)や仮想空間の画像のみの仮想現実(VR;Virtual Reality)を提供するようにしてもよい。 In the augmented reality system according to the embodiment of the present invention, the augmented reality system provides augmented reality (AR) in which an image of a virtual space is superimposed on a real image of a real space. It should be noted that mixed reality (MR; Mixed Reality) in which a real image is reflected in a virtual space or virtual reality (VR; Virtual Reality) in which only an image of a virtual space is displayed may be provided.

本実施形態の拡張現実システムは、例えば、通信機能及び撮影機能を備えるスマートフォンなどの情報処理装置を2台以上含んで構成することができる。情報処理装置は、CPU、メモリ、記憶装置、通信インタフェース、入力装置、出力装置、カメラを備える。記憶装置は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェースは、通信ネットワークに接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。コンピュータは、通信ネットワークを介して他のコンピュータと通信することができる。入力装置は、データを入力する、例えばキーボードやマウス、タッチパネル、ボタン、マイクロフォンなどである。出力装置は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。カメラは、二次元画像を撮像するカメラであってもよいし、深度を測定するライダーであってもよいし、複眼カメラであってもよい。後述する情報処理装置の各機能部は、CPUが記憶装置に記憶されているプログラムをメモリに読み出して実行することにより実現され、情報処理装置の各記憶部は、メモリ及び記憶装置が提供する記憶領域の一部として実現される。 The augmented reality system of the present embodiment can be configured to include, for example, two or more information processing devices such as a smartphone having a communication function and a shooting function. The information processing device includes a CPU, a memory, a storage device, a communication interface, an input device, an output device, and a camera. The storage device stores various data and programs, such as a hard disk drive, a solid state drive, and a flash memory. The communication interface is an interface for connecting to a communication network, for example, an adapter for connecting to Ethernet (registered trademark), a modem for connecting to a public telephone network, a wireless communication device for wireless communication, and a serial. It is a USB (Universal Serial Bus) connector or RS232C connector for communication. A computer can communicate with other computers via a communication network. The input device is, for example, a keyboard, a mouse, a touch panel, a button, a microphone, or the like for inputting data. The output device is, for example, a display, a printer, a speaker, or the like that outputs data. The camera may be a camera that captures a two-dimensional image, a rider that measures depth, or a compound eye camera. Each functional unit of the information processing device, which will be described later, is realized by the CPU reading the program stored in the storage device into the memory and executing the program, and each storage unit of the information processing device is the memory and the storage provided by the storage device. Realized as part of the realm.

このような情報処理装置の各種ハードウェアと各種ソフトウェアとの協働により、2台以上の情報処理装置の間でAR(Augmented Reality)を利用したゲーム等の種情報処理の実行が可能になる。 By collaborating with various hardwares of such information processing devices and various software, it becomes possible to execute seed information processing such as a game using AR (Augmented Reality) between two or more information processing devices.

ここで、2台以上の情報処理装置が、ARを利用したゲーム等の各種情報処理を実行するに際し、AR空間を共有する必要がある。AR空間とは、情報処理装置において処理される空間であって、実空間に対してオブジェクトの配置等何らかの情報が付加された空間(撮像された画像に基づいて情報処理装置内で構築される空間)をいう。AR空間内でのオブジェクト等の位置や姿勢は、情報処理装置によって認識されたAR空間内で用いられる座標軸(原点を含む)に基づいて規定される。複数の情報処理装置の夫々において、AR空間内で用いられる座標軸をあわせることが、「AR空間を共有する」ことである。 Here, when two or more information processing devices execute various information processing such as a game using AR, it is necessary to share the AR space. The AR space is a space processed by the information processing device, and is a space in which some information such as the arrangement of objects is added to the real space (a space constructed in the information processing device based on the captured image). ). The position and orientation of an object or the like in the AR space are defined based on the coordinate axes (including the origin) used in the AR space recognized by the information processing device. Aligning the coordinate axes used in the AR space in each of the plurality of information processing devices is "sharing the AR space".

本実施形態では、複数の情報処理装置(例えば、親機1−P及び子機1−C)は、AR空間内で用いられる座標軸を同一にあわせる(一緒にする)ことで、AR空間の共有を図っている。ここで、親機1−Pとは、情報処理装置のうち、基準となる座標軸(共有されたAR空間内で用いられる座標軸)が設定されたものをいう。また、子機1−Cとは、情報処理装置のうち、親機1−P以外のものをいう。 In the present embodiment, a plurality of information processing devices (for example, master unit 1-P and slave unit 1-C) share the AR space by aligning (combining) the coordinate axes used in the AR space. I am trying to. Here, the master unit 1-P refers to an information processing device in which a reference coordinate axis (coordinate axis used in the shared AR space) is set. Further, the slave unit 1-C refers to an information processing device other than the master unit 1-P.

図1は、AR空間の共有方法の例を示す図である。AR空間を共有する方法としては、マーカーを使ったもの(マーカーベース)、マーカーに限らない一般的な画像を使ったもの(画像ベース)、画像から抽出した点群を使ったもの(点群ベース)が存在する。それぞれ、実空間上には物を配置せずにスマートフォン(スマホ)等の情報処理装置のみで実現する場合と、実空間上に配置されたものを利用する場合とが存在する。本実施形態では、最初の位置合わせ(空間共有)は、マーカーベース又は画像ベースで行い、空間共有後の位置の誤差修正と、追加のユーザの参加時における空間共有とを点群ベースで行う。 FIG. 1 is a diagram showing an example of a method of sharing an AR space. As a method of sharing the AR space, a marker is used (marker base), a general image that is not limited to the marker is used (image base), and a point cloud extracted from the image is used (point cloud base). ) Exists. In each case, there are cases where an object is not placed in the real space and is realized only by an information processing device such as a smartphone (smartphone), and there are cases where an object placed in the real space is used. In the present embodiment, the initial alignment (spatial sharing) is performed on a marker basis or an image basis, and the position error correction after the spatial sharing and the spatial sharing when an additional user participates are performed on a point cloud basis.

情報処理装置(親機1−Pと子機1−Cの夫々)は、
AR空間を認識する空間認識部と、
AR空間の共有を行う空間共有部と、
他の情報処理装置との間で情報処理装置の位置の共有を行う情報共有部と、
空間認識部が取得した点群を他の情報処理装置と共有する点群共有部と、
点群を記憶する環境地図記憶部と、
情報処理装置の位置(座標軸の原点)のズレを修正する誤差修正部と、
を備える。
The information processing device (master unit 1-P and slave unit 1-C, respectively)
A space recognition unit that recognizes AR space,
A space sharing section that shares AR space,
An information sharing unit that shares the position of the information processing device with other information processing devices,
A point cloud sharing unit that shares the point cloud acquired by the space recognition unit with other information processing devices,
An environmental map storage unit that stores point clouds and
An error correction unit that corrects the deviation of the position (origin of the coordinate axes) of the information processing device,
To be equipped.

空間認識部は、SLAM(Simultaneous Localization and Mapping)を動かして空間認識を行うことができる。本実施形態では、空間認識部は、カメラが撮影した画像を解析して3次元の点群を取得し、取得した点群を用いて環境地図を作成するとともに、環境地図の座標軸における自己位置を推定する、いわゆるVisual SLAMを実行する。親機1−P側で、AR空間における軸axpが設定されるのに対して、子機1−C側で、AR空間における軸axc(軸axpとは異なる)が設定される。 The space recognition unit can perform space recognition by moving SLAM (Simultaneus Localization and Mapping). In the present embodiment, the space recognition unit analyzes the image taken by the camera, acquires a three-dimensional point cloud, creates an environmental map using the acquired point cloud, and determines its own position on the coordinate axes of the environmental map. Perform a so-called Visual SLAM to estimate. The axis axp in the AR space is set on the master unit 1-P side, while the axis axc (different from the axis app) in the AR space is set on the slave unit 1-C side.

環境地図記憶部は、空間認識部が設定した座標軸と、点群とを記憶する。点群は、各点(X,Y,Z)のみを格納するようにしてもよいが、本実施形態では、環境地図記憶部には、点群から抽出した特徴量も記憶するものとする。特徴量は、例えば、ひとまとまりの点群に基づいて解析することができる。 The environment map storage unit stores the coordinate axes set by the space recognition unit and the point cloud. The point cloud may store only each point (X, Y, Z), but in the present embodiment, the feature amount extracted from the point cloud is also stored in the environment map storage unit. The feature quantity can be analyzed based on, for example, a group of point clouds.

空間共有部は、例えば、マーカーベースで空間共有を行うことができる。例えば、親機1−Pの空間共有部は、軸axpを特定可能な情報を含むマーカーとしての画像(以下、「マーカ画像」と呼ぶ)のデータを生成し、そのマーカ画像を出力装置に表示させる。子機1−Cの空間共有部は、カメラを用いてマーカ画像を読み取る。子機1−Cの空間共有部は、マーカ画像を読み立った際に、当該子機1−Cからみた親機1−Pの位置及び姿勢(子機1−Cで設定された軸axcでの座標及びその座標を始点とするベクトル)を推定する。子機1−Cの空間共有部は、その推定の結果に基づいて、軸axcの原点を軸axpの原点と一致させ、軸axcの向きを軸axpのに合わせる。換言すると、子機1−Cの空間共有部は、軸axcにおける座標及び姿勢を軸axpにおける座標及び姿勢に変換するための行列XC(以下、「変換行列XC」と呼ぶ)を生成する。子機1−Cと親機1−Pとは、これによりAR空間を共有することができる。 The space sharing unit can share space on a marker basis, for example. For example, the space sharing unit of the master unit 1-P generates data of an image as a marker (hereinafter, referred to as “marker image”) including information that can identify the axis axp, and displays the marker image on the output device. Let me. The space sharing unit of the slave unit 1-C reads a marker image using a camera. When the marker image is read, the space sharing portion of the slave unit 1-C is the position and orientation of the master unit 1-P as seen from the slave unit 1-C (with the axis axc set by the slave unit 1-C). And the vector starting from that coordinate) is estimated. Based on the estimation result, the space sharing unit of the slave unit 1-C aligns the origin of the axis axc with the origin of the axis axp and aligns the direction of the axis axc with that of the axis axp. In other words, the space sharing unit of the slave unit 1-C generates a matrix XC (hereinafter, referred to as "transformation matrix XC") for converting the coordinates and the posture on the axis axc into the coordinates and the posture on the axis axp. As a result, the slave unit 1-C and the master unit 1-P can share the AR space.

親機1−Pは、最初に設定した座標軸axpの座標及び方向を用いて、AR空間内における各種情報を処理することができる。一方、子機1−Cは、最初に設定した座標軸axcの座標及び方向に対して変換行列XCで変換を施した座標軸(座標軸axpと同一)の座標及び方向を用いて、AR空間内における各種情報を処理することができる。 The master unit 1-P can process various information in the AR space by using the coordinates and directions of the coordinate axis app set at the beginning. On the other hand, the slave unit 1-C uses various coordinates and directions in the AR space by using the coordinates and directions of the coordinate axes (same as the coordinate axis axp) converted by the transformation matrix XC with respect to the coordinates and directions of the coordinate axis axc initially set. Information can be processed.

情報共有部は、このようにして各種処理を施した各種情報を、P2P(peer−to−peer)で相互に授受することができる。各種情報には、位置情報の他に、例えば、ゲームにより攻撃を発した方向なども含まれる。 The information sharing unit can exchange various information subjected to various processing in this way to and from each other by P2P (peer-to-peer). In addition to the position information, the various information includes, for example, the direction in which the attack was issued by the game.

点群共有部は、例えば、P2P通信により点群を他の情報処理装置との間で送受信して、点群を共有することができる。点群共有部は、特徴量も共有することができる。 The point cloud sharing unit can share the point cloud by transmitting and receiving the point cloud to and from another information processing device by, for example, P2P communication. The point cloud sharing unit can also share features.

ここで、情報処理装置の位置が変化した場合に、SLAMを用いて自己位置を推定したときには、その推定誤差が蓄積していくところ、プレイの途中で位置誤差を調整することが難しい。本実施形態では、誤差修正部が、点群を用いて位置の誤差を修正する。上述したように、本実施形態では、他の情報処理装置からも点群が共有されるため、自身が収集した画像以外の画像から取得した点群も利用することができる。したがって、誤差の修正精度の向上が期待される。 Here, when the position of the information processing apparatus changes and the self-position is estimated using SLAM, the estimation error accumulates, and it is difficult to adjust the position error in the middle of play. In the present embodiment, the error correction unit corrects the position error using the point cloud. As described above, in the present embodiment, since the point cloud is shared by other information processing devices, it is possible to use the point cloud acquired from an image other than the image collected by itself. Therefore, it is expected that the accuracy of error correction will be improved.

図2は、誤差の修正方法の例を示す図である。マーカーベースの場合、情報処理装置上に再度マーカー画像を表示し再度読み込んだり、実空間上のマーカーを再度認識したりする必要がある。画像ベースでも同様に、画像を表示して再度読み込んだり、実空間上の画像を再度認識したりする必要がある。しかしながら、このようなアプローチはUXが良くない。点群ベースの場合、UWBが利用可能である場合には、障害物のない範囲で、お互いのスマホが向かい合っていると修正可能であるが、その他の条件の場合に修正することが難しい。実空間上では、ARCloudが構築されていれば、ARCloudの環境地図との照合により誤差を修正することができるが、ARCloudが構築されていない場合には、特定の点群(特徴量)を発見できたときに修正をすることができる。本実施形態では、共有された点群を用いて、特定の特徴量を検出して誤差を修正することができる。 FIG. 2 is a diagram showing an example of an error correction method. In the case of the marker base, it is necessary to display the marker image again on the information processing device and read it again, or to recognize the marker in the real space again. Similarly, in the image base, it is necessary to display the image and reload it, or to recognize the image in the real space again. However, such an approach is not good for UX. In the case of point cloud base, if UWB is available, it can be corrected if the smartphones are facing each other within the range without obstacles, but it is difficult to correct under other conditions. In the real space, if the ARCloud is constructed, the error can be corrected by collating with the ARCloud's environment map, but if the ARCloud is not constructed, a specific point cloud (feature amount) is found. You can make corrections when you can. In the present embodiment, the shared point cloud can be used to detect a specific feature amount and correct the error.

図3は、誤差修正方法の概要を説明する図である。 FIG. 3 is a diagram illustrating an outline of an error correction method.

(1)初期設定
相対的な位置を取得し原点を合わせる。
その際に周りの点群の位置を保存して、お互い共有しておく。その点群を認識した際にその座標を元に自己位置を決定し原点を調整する。
(1) Initial setting Obtain the relative position and align the origin.
At that time, save the position of the surrounding point cloud and share it with each other. When the point cloud is recognized, the self-position is determined based on the coordinates and the origin is adjusted.

(2)途中参加の場合
プレイの途中で参加したい場合、情報処理装置に保存されている点群を共有してもらう。その点群を見た際に自己位置を決定し原点を調整することができる。
(2) Participation in the middle If you want to participate in the middle of the play, ask them to share the point cloud stored in the information processing device. When looking at the point cloud, the self-position can be determined and the origin can be adjusted.

図4は、初期設定処理の流れを説明する図である。
1.空間共有部は、上述したようにして相対的な位置を取得し原点を合わせる。
2.それ以降、空間認識部は、点群を継続的に収集し保存しておく。
3.点群は、特徴点の位置情報(X,Y,Z)と特徴量を環境地図記憶部に保存する。
4.点群共有部は、その点群はP2Pで通信し、それぞれの情報処理装置で保存する。
5.空間認識部は、その後リアルタイムに点群を認識する。
6.位置誤差が小さいとき(例えば、空間認識部による位置推定の信頼度が所定の閾値以上である場合とすることができる。)
6−1.誤差修正部は、空間上でどの位置でどの方向を向いているか判断できる。したがって、誤差修正部は、点群を認識した際に、その点群が保存されている可能性があるかどうかを判断することができる。
6−2.誤差修正部は、端末に保存されている点群から、マッチングしそうな点群のみをピックアップすることができる。例えば、情報処理装置が向いている方向から上下左右に所定角度以内に含まれる点群のみをピックアップすることができる。
6−3.誤差修正部は、リアルタイムに取得した点群と保存された点群の特徴量の類似度を測定する。
6−4.誤差修正部は、類似度が近い(所定値以下の)場合は、リアルタイムに取得した点群と保存された点群の位置の距離を測定する。
6−5.誤差修正部は、点群同士の平均位置が定数Rを超える場合、誤差の距離だけ端末の原点の位置を調整する。
7.位置誤差が大きい時(例えば、空間認識部による位置推定の信頼度が所定の閾値未満である場合とすることができる。)
7−1.誤差修正部は、リアルタイムに取得した点群と保存された点群の特徴量の類似度を測定する。
7−2.誤差修正部は、類似度が近い場合は、リアルタイムに取得した点群と保存された点群の位置の距離を測定する。
7−3.誤差修正部は、点群同士の平均距離だけ端末の原点の位置を調整する。
FIG. 4 is a diagram illustrating a flow of initial setting processing.
1. 1. The space sharing unit acquires a relative position and aligns the origin as described above.
2. After that, the spatial recognition unit continuously collects and stores the point cloud.
3. 3. The point cloud stores the position information (X, Y, Z) of the feature points and the feature amount in the environment map storage unit.
4. The point cloud sharing unit communicates the point cloud by P2P and stores it in each information processing device.
5. The space recognition unit then recognizes the point cloud in real time.
6. When the position error is small (for example, the reliability of the position estimation by the space recognition unit may be equal to or higher than a predetermined threshold value).
6-1. The error correction unit can determine at which position and in which direction in space. Therefore, when the point cloud is recognized, the error correction unit can determine whether or not the point cloud may be preserved.
6-2. The error correction unit can pick up only the point cloud that is likely to match from the point cloud stored in the terminal. For example, it is possible to pick up only a point cloud included within a predetermined angle in the vertical and horizontal directions from the direction in which the information processing device is facing.
6-3. The error correction unit measures the similarity between the feature amount of the point cloud acquired in real time and the stored point cloud.
6-4. When the similarity is close (less than or equal to a predetermined value), the error correction unit measures the distance between the position of the point cloud acquired in real time and the position of the stored point cloud.
6-5. When the average position between the point clouds exceeds the constant R, the error correction unit adjusts the position of the origin of the terminal by the distance of the error.
7. When the position error is large (for example, the reliability of the position estimation by the space recognition unit may be less than a predetermined threshold value).
7-1. The error correction unit measures the similarity between the feature amount of the point cloud acquired in real time and the stored point cloud.
7-2. When the similarity is close, the error correction unit measures the distance between the position of the point cloud acquired in real time and the position of the stored point cloud.
7-3. The error correction unit adjusts the position of the origin of the terminal by the average distance between the point clouds.

図5は、途中参加時の処理の流れを説明する図である。相対的な位置を取得し原点を合わせた既存の情報処理装置において、点群を継続的に収集し保存しておくことを前提とする。
6.新たに参加する情報処理装置による自己位置の決定方法
6−1.誤差修正部は、リアルタイムに取得した点群と保存された点群の特徴量の類似度を測定する。
6−2.誤差修正部は、類似度が近い場合は、リアルタイムに取得した点群と保存された点群の位置の距離を測定する。
6−3.誤差修正部は、点群同士の平均距離だけ端末の原点の位置を調整する。
FIG. 5 is a diagram for explaining the flow of processing at the time of participation in the middle. It is premised that the point cloud is continuously collected and saved in the existing information processing device that acquires the relative position and aligns the origin.
6. Method of determining self-position by newly participating information processing device 6-1. The error correction unit measures the similarity between the feature amount of the point cloud acquired in real time and the stored point cloud.
6-2. When the similarity is close, the error correction unit measures the distance between the position of the point cloud acquired in real time and the position of the stored point cloud.
6-3. The error correction unit adjusts the position of the origin of the terminal by the average distance between the point clouds.

以上のようにして、本実施形態の拡張現実システムによれば、情報処理装置のみを用いて(親機1−Pが表示した画像を子機1−Cが撮影することで、親機1−Pの座標軸に子機1−Cの座標軸を変換することができる。そして、このような位置(原点)合わせ後、各情報処理装置が収集した点群を互いに共有することができる。これにより、より多くの点群が収集される。そして、その蓄積した点群を用いて自己位置の誤差修正を行うことができる。また、後から参加する、親機1−P及び子機1−C以外の第3の情報処理装置は、親機1−P及び子機1−Cが共有していた点群(環境地図)を用いて自身の座標軸を親機1−Pのものに合わせるとともに、当該座標軸における自己位置を推定することができる。 As described above, according to the augmented reality system of the present embodiment, the slave unit 1-C captures the image displayed by the master unit 1-P using only the information processing device, so that the master unit 1- The coordinate axes of the slave units 1-C can be converted to the coordinate axes of P. Then, after such position (origin) alignment, the point group collected by each information processing device can be shared with each other. A larger number of points are collected, and the accumulated points can be used to correct the self-position error. Also, other than the master unit 1-P and the slave unit 1-C, which will participate later. The third information processing device of No. 3 uses the point group (environmental map) shared by the master unit 1-P and the slave unit 1-C to adjust its own coordinate axis to that of the master unit 1-P, and also concerned. The self-position on the coordinate axes can be estimated.

以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。 Although the present embodiment has been described above, the above embodiment is for facilitating the understanding of the present invention, and is not for limiting and interpreting the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes equivalents thereof.

Claims (3)

第1の情報処理装置が所定空間において第1の座標軸を設定し、
第2の情報処理装置が前記所定空間において第2の座標軸を設定し、
前記第2の情報処理装置が、前記第2の座標軸を前記第1の座標軸に変換する変換規則を生成し、
前記第1及び第2の情報処理装置のそれぞれが、
前記所定空間を撮影した画像から前記第1の座標軸で表現される点群を取得し、
取得した前記点群を共有し、
共有した前記点群を用いて環境地図を作成すること、
を特徴とする情報処理方法。
The first information processing device sets the first coordinate axis in a predetermined space,
The second information processing device sets the second coordinate axis in the predetermined space,
The second information processing apparatus generates a conversion rule for converting the second coordinate axis into the first coordinate axis.
Each of the first and second information processing devices
A point cloud represented by the first coordinate axis is acquired from an image obtained by capturing the predetermined space.
Share the acquired point cloud and
Creating an environmental map using the shared point cloud,
An information processing method characterized by.
請求項1に記載の情報処理方法であって、
第3の情報処理装置が、
前記第1及び第2の情報処理装置の少なくともいずれかより前記点群である第1の点群の共有を受け、
前記所定空間を撮影した画像を取得し、
取得した前記画像から第2の点群を特定し、
前記第1及び第2の点群とを比較して、前記第1の座標軸を設定すること、
を特徴とする情報処理方法。
The information processing method according to claim 1.
The third information processing device
The first point cloud, which is the point cloud, is shared by at least one of the first and second information processing devices.
An image of the predetermined space is acquired and
The second point cloud was identified from the acquired image, and
To set the first coordinate axis by comparing with the first and second point clouds.
An information processing method characterized by.
請求項1に記載の情報処理方法であって、
前記第1及び第2の情報処理装置の少なくともいずれかは、
第1の前記点群を共有した後に第2の前記点群を取得し、
前記第1の点群から抽出した第1の特徴量と、前記第2の点群から抽出した第2の特徴量との類似度が所定値以上である場合に、前記第1の点群の位置と前記第2の点群の位置との間の距離を計算し、前記距離だけ前記第1及び第2の座標軸のすくなくともいずれかの原点を移動させること、
を特徴とする情報処理方法。
The information processing method according to claim 1.
At least one of the first and second information processing devices
After sharing the first point cloud, the second point cloud is acquired and
When the similarity between the first feature amount extracted from the first point cloud and the second feature amount extracted from the second point group is equal to or more than a predetermined value, the first point group To calculate the distance between the position and the position of the second point cloud and move at least one of the origins of the first and second coordinate axes by the distance.
An information processing method characterized by.
JP2020137934A 2020-08-18 2020-08-18 Information processing method Active JP6785025B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020137934A JP6785025B1 (en) 2020-08-18 2020-08-18 Information processing method
JP2020175515A JP2022034493A (en) 2020-08-18 2020-10-19 Method for processing information
PCT/JP2021/030206 WO2022039197A1 (en) 2020-08-18 2021-08-18 Information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020137934A JP6785025B1 (en) 2020-08-18 2020-08-18 Information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020175515A Division JP2022034493A (en) 2020-08-18 2020-10-19 Method for processing information

Publications (2)

Publication Number Publication Date
JP6785025B1 true JP6785025B1 (en) 2020-11-18
JP2022034234A JP2022034234A (en) 2022-03-03

Family

ID=73220081

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020137934A Active JP6785025B1 (en) 2020-08-18 2020-08-18 Information processing method
JP2020175515A Pending JP2022034493A (en) 2020-08-18 2020-10-19 Method for processing information

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020175515A Pending JP2022034493A (en) 2020-08-18 2020-10-19 Method for processing information

Country Status (2)

Country Link
JP (2) JP6785025B1 (en)
WO (1) WO2022039197A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7057821B2 (en) * 2018-03-01 2022-04-20 株式会社ソニー・インタラクティブエンタテインメント Position estimation device, position estimation method and program
US20200125846A1 (en) * 2018-10-23 2020-04-23 The Boeing Company Augmented Reality System for Manufacturing Composite Parts
JP6736147B1 (en) * 2019-08-08 2020-08-05 Graffity株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
WO2022039197A1 (en) 2022-02-24
JP2022034493A (en) 2022-03-03
JP2022034234A (en) 2022-03-03

Similar Documents

Publication Publication Date Title
CN108028871B (en) Label-free multi-user multi-object augmented reality on mobile devices
US11145083B2 (en) Image-based localization
CN104380338B (en) Information processor and information processing method
US11928800B2 (en) Image coordinate system transformation method and apparatus, device, and storage medium
JP7386255B2 (en) Relative spatial positioning of mobile devices
US20150071524A1 (en) 3D Feature Descriptors with Camera Pose Information
US20130328763A1 (en) Multiple sensor gesture recognition
JP6609640B2 (en) Managing feature data for environment mapping on electronic devices
WO2021082801A1 (en) Augmented reality processing method and apparatus, system, storage medium and electronic device
WO2014124062A1 (en) Aligning virtual camera with real camera
US11127193B2 (en) System and method for determining an approximate transformation between coordinate systems
CN108430032A (en) A kind of method and apparatus for realizing that VR/AR device locations are shared
TW202244680A (en) Pose acquisition method, electronic equipment and storage medium
JP6785025B1 (en) Information processing method
JP2016021096A (en) Image processing device, image processing method, and program
JP2020042575A (en) Information processing apparatus, positioning method, and program
US11914614B2 (en) System and method for generating a collection of approximately coordinated region maps
US20200042821A1 (en) Interactive method and interactive system
CN115388882A (en) Method and apparatus for depth-assisted visual inertial ranging
CN112750164A (en) Lightweight positioning model construction method, positioning method and electronic equipment
CN111368675A (en) Method, device and equipment for processing gesture depth information and storage medium
JP2018200175A (en) Information processing apparatus, information processing method and program
WO2022009723A1 (en) Information processing system, information processing device, information processing method, and program
KR102090533B1 (en) Method of camera posture estimation for augmented reality system based on multi-marker
KR20240064332A (en) Method and system for automatically acquiring ground feature point matching points between road view images using 3d models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200818

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200818

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201019

R150 Certificate of patent or registration of utility model

Ref document number: 6785025

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250