JP2021047516A - Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program - Google Patents

Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program Download PDF

Info

Publication number
JP2021047516A
JP2021047516A JP2019168453A JP2019168453A JP2021047516A JP 2021047516 A JP2021047516 A JP 2021047516A JP 2019168453 A JP2019168453 A JP 2019168453A JP 2019168453 A JP2019168453 A JP 2019168453A JP 2021047516 A JP2021047516 A JP 2021047516A
Authority
JP
Japan
Prior art keywords
marker
coordinate
real space
coordinate system
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019168453A
Other languages
Japanese (ja)
Inventor
賢志 近藤
Kenji Kondo
賢志 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2019168453A priority Critical patent/JP2021047516A/en
Publication of JP2021047516A publication Critical patent/JP2021047516A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing device, a coordinate conversion system, a coordinate conversion method, and a coordinate conversion program capable of accurately aligning a coordinate system in a real space and a coordinate system possessed by a device by using a marker arranged in the real space.SOLUTION: In a system where a plurality of AR devices 12 are connected with a server via a network, the AR device estimates a position and an attitude of a coordinate marker viewed from the AR device 12 which has photographed the coordinate marker, on the basis of the photographed image obtained by a camera 24 photographing the coordinate marker as a set of plurality of markers 32A and 32B arranged in a real space with respectively different directions. The AR device 12 converts the coordinate system in the real space to a unique coordinate system possessed by the AR device on the basis of the position of the coordinate marker in the real space and the position and the attitude of the coordinate marker viewed from the AR device 12.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラムに関する。 The present invention relates to an information processing device, a coordinate conversion system, a coordinate conversion method, and a coordinate conversion program.

昨今、カメラで撮像された現実の空間(以下「実空間」という。)を示す画像と仮想の空間(以下「仮想空間」という。)に存在する仮想物体とを重畳し、実空間内に仮想物体が存在するかのようにディスプレイに表示させる拡張現実(AR:Augmented Reality)に関する技術開発が進んでいる。 Nowadays, an image showing a real space (hereinafter referred to as "real space") captured by a camera and a virtual object existing in a virtual space (hereinafter referred to as "virtual space") are superimposed to be virtual in the real space. Technological development related to Augmented Reality (AR), which makes an object appear on the display as if it exists, is in progress.

ARを実現するためには、AR機器が存在する実空間の座標系と仮想物体が存在する仮想空間の座標系とを一致させる必要がある。この仮想空間の座標系とは、すなわち、AR機器が有する座標系(以下「独自座標系」という。)である。 In order to realize AR, it is necessary to match the coordinate system of the real space where the AR device exists and the coordinate system of the virtual space where the virtual object exists. The coordinate system of this virtual space is, that is, the coordinate system of the AR device (hereinafter referred to as "unique coordinate system").

しかしながら、複数のAR機器で同じARを同時に実行する場合において、異なるAR機器やプラットフォーム間で簡易に座標系を共有することが難しい。例えば、特定のプラットフォームでは、実空間内の画像特徴点(以下「空間認識特徴点」という。)を定めてサーバ上に登録し、同じプラットフォームを使用する他のAR機器は、自身が認識したが空間認識特徴点が登録済みの空間認識特徴点と一致するか否かを判定することで、ARを行うための空間座標系を共有する。 However, when the same AR is executed simultaneously by a plurality of AR devices, it is difficult to easily share the coordinate system between different AR devices and platforms. For example, on a specific platform, image feature points in real space (hereinafter referred to as "spatial recognition feature points") are defined and registered on the server, and other AR devices that use the same platform are recognized by themselves. The spatial coordinate system for performing AR is shared by determining whether or not the spatial recognition feature point matches the registered spatial recognition feature point.

ところが、これらの空間認識特徴点の検出方法や、登録処理、類似データの検索など、空間座標系を共有する手法は、どのような機器でも共通して利用可能なものではない。異なるAR機器やプラットフォームでは各々独自座標系が異なるため、上記手法を共通して用いることができない場合がある。 However, methods for sharing the spatial coordinate system, such as detection methods for these spatial recognition feature points, registration processing, and search for similar data, cannot be commonly used by any device. Since different AR devices and platforms have different unique coordinate systems, the above methods may not be used in common.

ここで、空間認識特徴点として実空間にマーカーを配置し、このマーカーを基準として実空間の座標系と独自座標系を一致させる方法がある。 Here, there is a method of arranging a marker in the real space as a space recognition feature point and matching the coordinate system of the real space with the original coordinate system with the marker as a reference.

例えば特許文献1に開示されているように、実空間の原点に配置され、原点及び座標軸の方向を示すマーカーを検知し、検知したマーカーの仮想空間における座標系における座標値及びマーカーの向きにより、実空間の空間データにおける座標系を仮想空間における座標系(独自座標系)に変換する手法が開示されている。 For example, as disclosed in Patent Document 1, a marker arranged at the origin of the real space and indicating the direction of the origin and the coordinate axis is detected, and the coordinate value and the orientation of the marker in the coordinate system in the virtual space of the detected marker are determined. A method of converting a coordinate system in spatial data in real space into a coordinate system in virtual space (original coordinate system) is disclosed.

特開2019−79439号公報Japanese Unexamined Patent Publication No. 2019-79439

特許文献1に開示されている手法において、実空間に配置されているマーカーはAR機器に搭載されるカメラによって撮像されて、その位置や姿勢が推定される。しかしながら、AR機器に搭載される一般的なカメラは単眼カメラであり、マーカーとAR機器(カメラ)との位置関係によっては、単眼カメラでは正確に検知し難いマーカーの位置や姿勢が存在する。例えば、単眼カメラは、被写体の奥行き方向の距離を検知することは難しい。また、マーカーとAR機器とのなす角度によっては、単眼カメラではマーカーの姿勢(ロール角、ピッチ角、ヨー角)を正しく検知することが難しい場合もある。 In the method disclosed in Patent Document 1, a marker arranged in a real space is imaged by a camera mounted on an AR device, and its position and posture are estimated. However, a general camera mounted on an AR device is a monocular camera, and depending on the positional relationship between the marker and the AR device (camera), there are positions and orientations of the markers that are difficult to accurately detect with the monocular camera. For example, it is difficult for a monocular camera to detect a distance in the depth direction of a subject. Further, depending on the angle formed by the marker and the AR device, it may be difficult for the monocular camera to correctly detect the posture (roll angle, pitch angle, yaw angle) of the marker.

このため、単眼カメラでの撮像によるマーカーの位置や姿勢の推定精度が十分ではなく、実空間の座標系と独自座標系との位置合わせを精度高くできない場合があった。また、実空間に配置されたマーカーを用いて、実空間の座標系と独自座標系との位置合わせを精度高く行うことができれば、複数のAR機器で同じARを同時に実行することも可能となる。 For this reason, the accuracy of estimating the position and orientation of the marker by imaging with a monocular camera is not sufficient, and there are cases where the alignment between the coordinate system in the real space and the original coordinate system cannot be made highly accurate. In addition, if the markers placed in the real space can be used to accurately align the coordinate system in the real space with the original coordinate system, it is possible to execute the same AR on a plurality of AR devices at the same time. ..

そこで本発明は、上記背景に鑑み、実空間に配置されたマーカーを用いて、実空間の座標系と機器が有する座標系との位置合わせを精度高く行うことを可能とする、情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラムを提供することを目的とする。 Therefore, in view of the above background, the present invention makes it possible to accurately align the coordinate system of the real space with the coordinate system of the device by using the markers arranged in the real space. It is an object of the present invention to provide a coordinate conversion system, a coordinate conversion method, and a coordinate conversion program.

本発明の情報処理装置は、実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーを撮像手段が撮像した撮像画像に基づいて、前記座標マーカーを撮像した機器から見た前記座標マーカーの位置及び姿勢を推定する推定手段と、実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する変換手段と、を備える。 The information processing apparatus of the present invention is viewed from an apparatus that has imaged the coordinate markers based on an image captured by the imaging means with a set of coordinate markers arranged in different directions in a real space. Based on the estimation means for estimating the position and orientation of the coordinate marker, the position of the coordinate marker in the coordinate system in real space, and the position and orientation of the coordinate marker as seen from the device, the coordinate system in real space is determined. A conversion means for converting to the coordinate system of the device is provided.

本構成によれば、複数のマーカーが実空間内に異なる向きで配置されて一組の座標マーカーとされる。そして、機器が有する座標系と実空間の座標系との座標変換を行うために撮像手段によって座標マーカーが撮像される。このため、撮像画像から姿勢又は位置の正確な検知が難しいマーカーが存在しても、向きが異なる他のマーカーが撮像されることにより、上記検知の難しい姿勢又は位置を他のマーカーで検知することが可能となる。すなわち、座標マーカーとなる複数のマーカーは、マーカーの位置及び姿勢を精度良く推定するために、各々が補完関係にある。従って、本構成によれば、実空間に配置されたマーカーを用いて、機器が有する座標系と実空間の座標系との位置合わせをより精度高く行うことができる。 According to this configuration, a plurality of markers are arranged in the real space in different directions to form a set of coordinate markers. Then, the coordinate marker is imaged by the imaging means in order to perform coordinate conversion between the coordinate system of the device and the coordinate system of the real space. Therefore, even if there is a marker whose posture or position is difficult to be accurately detected from the captured image, the posture or position which is difficult to detect can be detected by another marker by capturing another marker having a different orientation. Is possible. That is, the plurality of markers that serve as coordinate markers are in a complementary relationship with each other in order to accurately estimate the position and orientation of the markers. Therefore, according to this configuration, it is possible to more accurately align the coordinate system of the device with the coordinate system of the real space by using the markers arranged in the real space.

本発明の情報処理装置によれば、前記マーカー毎に、前記座標マーカーの位置及び姿勢のパラメーターのうちのどのパラメーターの推定に用いられるかが定められてもよい。 According to the information processing apparatus of the present invention, it may be determined for each of the markers which of the parameters of the position and orientation of the coordinate marker is used for estimation.

座標マーカーの位置及び姿勢を規定する距離、ロール角、ピッチ角、ヨー角等のパラメーターは、マーカーの向きによって推定のし易さが異なる。本構成によれば、抽出されるマーカー毎にどのパラメーターの推定に用いられるかが定められているので、座標マーカーの位置及び姿勢をより精度高く推定できる。 Parameters such as the distance, roll angle, pitch angle, and yaw angle that define the position and orientation of the coordinate marker differ in ease of estimation depending on the orientation of the marker. According to this configuration, which parameter is used for estimation is determined for each extracted marker, so that the position and orientation of the coordinate marker can be estimated with higher accuracy.

本発明の情報処理装置によれば、前記座標マーカーは、水平面に配置された前記マーカー、及び前記水平面に直交する垂直面に配置された前記マーカーを含んでもよい。 According to the information processing apparatus of the present invention, the coordinate marker may include the marker arranged in a horizontal plane and the marker arranged in a vertical plane orthogonal to the horizontal plane.

本構成によれば、マーカーを水平面及び垂直面に配置することで向きが約90°異なり、座標マーカーの位置及び姿勢を推定する際にマーカーが適切な補完関係となるので、実空間に配置されたマーカーを用いた機器が有する座標系と実空間の座標系との位置合わせをより精度高く行うことを可能となる。 According to this configuration, by arranging the markers on the horizontal plane and the vertical plane, the orientations differ by about 90 °, and the markers have an appropriate complementary relationship when estimating the position and orientation of the coordinate markers, so that they are arranged in the real space. It is possible to more accurately align the coordinate system of the device using the marker with the coordinate system in the real space.

本発明の情報処理装置によれば、前記マーカーは、天地方向を示す識別子が表記されてもよい。 According to the information processing apparatus of the present invention, the marker may be represented by an identifier indicating the top-bottom direction.

本構成によれば、マーカーの天地が簡易に認識可能となる。 According to this configuration, the top and bottom of the marker can be easily recognized.

本発明の情報処理装置によれば、前記マーカーは、前記実空間の座標系における位置を示す識別子が表記されてもよい。 According to the information processing apparatus of the present invention, the marker may be represented by an identifier indicating a position in the coordinate system in the real space.

本構成によれば、マーカーを認識することでマーカーの実空間内の位置が判別できるので、マーカーの位置を判別するためにサーバ等の他の情報処理装置にマーカーの位置を記憶させる必要がない。 According to this configuration, since the position of the marker in the real space can be determined by recognizing the marker, it is not necessary to store the position of the marker in another information processing device such as a server in order to determine the position of the marker. ..

本発明の座標変換システムによれば、実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーと、前記座標マーカーを撮像する撮像手段を備える機器と、を備え、撮像手段が撮像した撮像画像に基づいて、前記機器から見た前記座標マーカーの位置及び姿勢を推定する推定手段と、実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する変換手段と、を備える。 According to the coordinate conversion system of the present invention, a coordinate marker in which a plurality of markers arranged in different directions in a real space are set, and a device including an imaging means for imaging the coordinate marker are provided, and the imaging means is provided. An estimation means for estimating the position and orientation of the coordinate marker as seen from the device based on the captured image captured by the device, the position of the coordinate marker in the coordinate system in real space, and the coordinate marker as seen from the device. A conversion means for converting the coordinate system in the real space into the coordinate system possessed by the device based on the position and the orientation is provided.

本発明の座標変換方法は、実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーを撮像手段が撮像した撮像画像に基づいて、前記座標マーカーを撮像した機器から見た前記座標マーカーの位置及び姿勢を推定する第1工程と、実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する第2工程と、を有する。 The coordinate conversion method of the present invention is viewed from a device that has imaged the coordinate markers based on an image captured by the imaging means with a set of a plurality of markers arranged in different directions in the real space. The coordinate system in the real space is based on the first step of estimating the position and orientation of the coordinate marker, the position of the coordinate marker in the coordinate system in real space, and the position and orientation of the coordinate marker as seen from the device. Has a second step of converting the device into the coordinate system of the device.

本発明の座標変換プログラムは、コンピュータを、実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーを撮像手段が撮像した撮像画像に基づいて、前記座標マーカーを撮像した機器から見た前記座標マーカーの位置及び姿勢を推定する推定手段と、実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する変換手段と、して機能させる。 The coordinate conversion program of the present invention is a device that captures the coordinate markers based on an image captured by the imaging means with the computer as a set of a plurality of markers arranged in different directions in the real space. Based on the estimation means for estimating the position and orientation of the coordinate marker as seen from the above, the position of the coordinate marker in the coordinate system in real space, and the position and orientation of the coordinate marker as seen from the device, the real space It functions as a conversion means for converting the coordinate system into the coordinate system possessed by the device.

本発明によれば、実空間に配置されたマーカーを用いて、実空間の座標系と機器が有する座標系との位置合わせを精度高く行うことができる。 According to the present invention, it is possible to accurately align the coordinate system in the real space with the coordinate system possessed by the device by using the markers arranged in the real space.

本実施形態のARシステムの概略構成図である。It is a schematic block diagram of the AR system of this embodiment. 本実施形態の座標マーカーを示す模式図である。It is a schematic diagram which shows the coordinate marker of this embodiment. 本実施形態のマーカーを示す図である。It is a figure which shows the marker of this embodiment. 本実施形態のカメラに対する水平マーカー及び垂直マーカーの位置や姿勢を示す模式図である。It is a schematic diagram which shows the position and posture of the horizontal marker and the vertical marker with respect to the camera of this embodiment. 本実施形態の座標変換機能に関する機能ブロック図である。It is a functional block diagram concerning the coordinate conversion function of this embodiment. 本実施形態の座標変換処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the coordinate conversion process of this embodiment. 他の実施形態の座標マーカーの配置位置を示す模式図である。It is a schematic diagram which shows the arrangement position of the coordinate marker of another embodiment.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below show an example of the case where the present invention is carried out, and the present invention is not limited to the specific configuration described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.

図1は、本実施形態のAR(Augmented Reality)システム10の概略構成図である。 FIG. 1 is a schematic configuration diagram of the AR (Augmented Reality) system 10 of the present embodiment.

図1に示されるように、ARシステム10は、複数のAR機器12とサーバ14によって構成される。複数のAR機器12とサーバ14とは、通信回線16を介して情報の送受信が可能とされている。なお、通信回線16は、電気事業者によって提供される広域通信回線又はLAN(Local Area Network)等の構内通信網等であり、有線回線又は無線回線の何れであってもよい。 As shown in FIG. 1, the AR system 10 is composed of a plurality of AR devices 12 and a server 14. Information can be transmitted and received between the plurality of AR devices 12 and the server 14 via the communication line 16. The communication line 16 is a wide area communication line provided by an electric power company, a premises communication network such as a LAN (Local Area Network), or the like, and may be either a wired line or a wireless line.

AR機器12は、演算処理部20、ディスプレイ22、及びカメラ24を備える携帯型の情報処理装置であり、例えば、スマートフォン、ラップトップ型パソコン、ヘッドマウントディスプレイ等である。複数のAR機器12は、各々、異なる情報処理装置であってもよい。また、ARシステム10は、AR機器12が一つであってもよい。 The AR device 12 is a portable information processing device including a calculation processing unit 20, a display 22, and a camera 24, and is, for example, a smartphone, a laptop computer, a head-mounted display, or the like. The plurality of AR devices 12 may be different information processing devices. Further, the AR system 10 may have one AR device 12.

演算処理部20は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及びコンピュータ読み取り可能な記憶媒体(例えば半導体メモリ)等から構成されている。そして、各種機能を実現するための一連の処理は、一例として、プログラムの形式で記憶媒体等に記憶されており、このプログラムをCPUがRAM等に読み出して、情報の加工・演算処理を実行することにより、各種機能が実現される。なお、プログラムは、ROMやその他の記憶媒体に予めインストールしておく形態や、コンピュータ読み取り可能な記憶媒体に記憶された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等が適用されてもよい。なお、本実施形態の記憶媒体には、ARを実現するためのプログラム(以下「ARアプリ」という。)が記憶されている。 The arithmetic processing unit 20 is composed of a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), a computer-readable storage medium (for example, a semiconductor memory), and the like. Then, as an example, a series of processes for realizing various functions are stored in a storage medium or the like in the form of a program, and the CPU reads this program into a RAM or the like to execute information processing / arithmetic processing. As a result, various functions are realized. The program is installed in a ROM or other storage medium in advance, is provided in a state of being stored in a computer-readable storage medium, or is distributed via a wired or wireless communication means. Etc. may be applied. The storage medium of the present embodiment stores a program for realizing AR (hereinafter referred to as "AR application").

ディスプレイ22は、演算処理部20による画像処理に応じた画像を表示するものであり、例えば、タッチパネルディスプレイでもよい。 The display 22 displays an image corresponding to the image processing by the arithmetic processing unit 20, and may be, for example, a touch panel display.

カメラ24は、一例として単眼カメラであり、AR機器12のユーザによる操作に応じて被写体を撮像する。カメラ24による撮像画像は、演算処理部20が備えるRAM又は記憶媒体に適宜記憶され、ディスプレイ22に表示される。また、AR機器12がARを実行している間、カメラ24は撮像を連続して行っており、撮像画像をディスプレイ22に連続して表示させる。 The camera 24 is, for example, a monocular camera, and images a subject according to an operation by a user of the AR device 12. The image captured by the camera 24 is appropriately stored in the RAM or storage medium included in the arithmetic processing unit 20 and displayed on the display 22. Further, while the AR device 12 is executing AR, the camera 24 continuously captures images, and the captured images are continuously displayed on the display 22.

また、AR機器12は、加速度センサやGPS(Global Positioning System)センサ等の各種センサを備えている。そして、AR機器12は、これらのセンサにより自己の姿勢や位置を推定(モーション推定)して推定結果に基づく自己の位置及び姿勢を記憶、更新する。また、AR機器12は、ユーザによる操作を受け付ける操作入力手段を備える。なお、操作入力手段は、例えば、上述のタッチパネルディスプレイでもよい。 Further, the AR device 12 includes various sensors such as an acceleration sensor and a GPS (Global Positioning System) sensor. Then, the AR device 12 estimates its own posture and position (motion estimation) by these sensors, and stores and updates its own position and posture based on the estimation result. Further, the AR device 12 includes an operation input means for accepting an operation by the user. The operation input means may be, for example, the touch panel display described above.

サーバ14は、AR機器12との間でARを実現するための各種データの送受信を行う。サーバ14は、例えば、AR機器12のディスプレイ22に表示される仮想物体等を示すデータをAR機器12へ送信する。 The server 14 transmits and receives various data for realizing AR to and from the AR device 12. The server 14 transmits, for example, data indicating a virtual object or the like displayed on the display 22 of the AR device 12 to the AR device 12.

なお、本実施形態のARシステム10は、システムを構成する複数のAR機器12に対して、同じタイミングで同じ仮想物体を各AR機器12のディスプレイ22に表示させ、表示されている仮想物体をユーザが操作することを可能とする。そして、あるユーザがAR機器12に表示されている仮想物体を操作した場合、この仮想物体に対する操作が他のユーザのAR機器12にも反映される。 In the AR system 10 of the present embodiment, the same virtual object is displayed on the display 22 of each AR device 12 at the same timing for the plurality of AR devices 12 constituting the system, and the displayed virtual object is displayed by the user. Allows you to operate. Then, when a certain user operates a virtual object displayed on the AR device 12, the operation on the virtual object is also reflected in the AR device 12 of another user.

ここで、ARを実行する場合、カメラ24による撮像画像に仮想物体を重畳させてディスプレイ22に表示されるため、仮想空間と実空間との座標変換が行われる必要がある。そこで、本実施形態のARシステム10では、画像マーカーであるARマーカーを実空間に配置し、当該ARマーカーの位置を示す座標に基づいて、仮想空間と実空間との座標変換を行う。 Here, when AR is executed, since the virtual object is superimposed on the image captured by the camera 24 and displayed on the display 22, it is necessary to perform coordinate conversion between the virtual space and the real space. Therefore, in the AR system 10 of the present embodiment, the AR marker, which is an image marker, is arranged in the real space, and the coordinates of the virtual space and the real space are converted based on the coordinates indicating the position of the AR marker.

ここで、カメラ24が単眼カメラの場合は、ARマーカーとAR機器(カメラ24)との位置関係によっては、単眼カメラでは正確な検知し難いARマーカーの位置や姿勢(向き)が存在する。そこで、本実施形態では、各々が補完し合う複数のマーカーを一組としてARマーカーの位置や姿勢を精度良く推定する。 Here, when the camera 24 is a monocular camera, there is a position or orientation (orientation) of the AR marker that is difficult to accurately detect with the monocular camera depending on the positional relationship between the AR marker and the AR device (camera 24). Therefore, in the present embodiment, the position and orientation of the AR marker are estimated with high accuracy by using a plurality of markers that complement each other as a set.

図2は、本実施形態のARマーカーである座標マーカー30を示す模式図である。本実施形態の座標マーカー30は、実空間内に異なる向きで配置された複数のマーカー32A,32Bを一組としたものである。一例として、座標マーカー30は、水平面に配置された水平マーカー32A及び水平面に直交する垂直面に配置された垂直マーカー32Bで構成される。以下、各マーカー32A,32Bを区別する必要がないときは、単に「マーカー32」という。 FIG. 2 is a schematic view showing a coordinate marker 30 which is an AR marker of the present embodiment. The coordinate marker 30 of the present embodiment is a set of a plurality of markers 32A and 32B arranged in different directions in the real space. As an example, the coordinate marker 30 is composed of a horizontal marker 32A arranged on a horizontal plane and a vertical marker 32B arranged on a vertical plane orthogonal to the horizontal plane. Hereinafter, when it is not necessary to distinguish between the markers 32A and 32B, it is simply referred to as "marker 32".

座標マーカー30を屋内に配置する場合、例えば、水平面は床面34又は床面34に平行な面であり、垂直面は床面34に立設する壁面36又は壁面36に平行な面である。本実施形態の水平マーカー32Aは一例として床面34に配置され、垂直マーカー32Bは一例として床面34に対して垂直方向に立設する支持部38に支持されて配置される。 When the coordinate marker 30 is arranged indoors, for example, the horizontal plane is a plane parallel to the floor surface 34 or the floor surface 34, and the vertical plane is a wall surface 36 or a plane parallel to the wall surface 36 erected on the floor surface 34. The horizontal marker 32A of the present embodiment is arranged on the floor surface 34 as an example, and the vertical marker 32B is arranged by being supported by a support portion 38 standing vertically with respect to the floor surface 34 as an example.

複数のマーカー32が異なる向きで配置されるとは、マーカー32の表面に対する法線39が各々交差するように配置されることである。一例として、水平マーカー32Aの法線39と垂直マーカー32Bの法線39とは90°で交差する。 The arrangement of the plurality of markers 32 in different directions means that the normals 39 with respect to the surface of the markers 32 are arranged so as to intersect each other. As an example, the normal line 39 of the horizontal marker 32A and the normal line 39 of the vertical marker 32B intersect at 90 °.

本実施形態の水平マーカー32A及び垂直マーカー32Bは、一例として各々同じ画像が表記されるが、詳細を後述するように、実空間内に配置された場合にその位置や姿勢が画像認識によって判別可能な画像であれば異なる画像が表記されてもよい。なお、点対称のような画像、上下や左右が鏡像のような画像等は、その姿勢(向き)の判別が困難であるため好ましくない。すなわち、各マーカー32は、撮像された場合に天地方向(上下方向や左右方向)が認識可能な画像が表記される。 The horizontal marker 32A and the vertical marker 32B of the present embodiment each have the same image as an example, but as will be described in detail later, their positions and postures can be determined by image recognition when they are arranged in the real space. A different image may be displayed as long as it is a simple image. It should be noted that an image having point symmetry, an image having a mirror image vertically or horizontally, or the like is not preferable because it is difficult to determine the posture (orientation). That is, each marker 32 is represented by an image in which the top-bottom direction (vertical direction or horizontal direction) can be recognized when an image is taken.

図3は、マーカー32の一例を示す図である。マーカー32は周縁を矩形状に黒く縁取りした黒枠部40が表記されている。AR機器12は、マーカー32を撮像して黒枠部40の大きさや形を判別することで、座標マーカー30の位置及び姿勢を推定する。黒枠部40の内側に表記されている数字は、マーカー32であることを認識させるためのマーカー識別子42である。なお、図3に示されるマーカー識別子42は一例であり、マーカー32を識別可能であれば、数字である必要はなく、数も一つでよい。また、マーカー32の中心位置は、例えば十字で示される中心識別子43によって表記される。 FIG. 3 is a diagram showing an example of the marker 32. The marker 32 has a black frame portion 40 having a rectangular black border on the periphery. The AR device 12 estimates the position and orientation of the coordinate marker 30 by imaging the marker 32 and determining the size and shape of the black frame portion 40. The number written inside the black frame portion 40 is a marker identifier 42 for recognizing that it is a marker 32. The marker identifier 42 shown in FIG. 3 is an example, and if the marker 32 can be identified, it does not have to be a number, and the number may be one. Further, the center position of the marker 32 is represented by, for example, the center identifier 43 indicated by a cross.

また、本実施形態のマーカー32には、その天地方向を示す方向識別子44が表記される。図3の例では、方向識別子44として黒枠部40の内側角部の一つに三角形状が表記される。図3の例では、方向識別子44の表記された方向がマーカー32の左上方向であると認識される。なお、図3に示される方向識別子44の形状は一例であり、これに限られない。 Further, on the marker 32 of the present embodiment, a direction identifier 44 indicating the vertical direction thereof is written. In the example of FIG. 3, a triangular shape is represented as a direction identifier 44 at one of the inner corners of the black frame portion 40. In the example of FIG. 3, the direction in which the direction identifier 44 is written is recognized as the upper left direction of the marker 32. The shape of the direction identifier 44 shown in FIG. 3 is an example, and is not limited to this.

また、本実施形態の座標マーカー30には、実空間の座標系における位置(以下「実空間位置」という。)を示す識別子である位置識別子46が表記される。実空間位置とは、例えば、予め定められた基準原点(0,0,0)に基づく座標マーカー30の位置であり、座標マーカー30の配置位置を基準原点としてもよい。位置識別子は、座標マーカー30の撮像画像に基づいて認識可能な表記であればよく、例えば、QRコード(登録商標)等の2次元コードとして表記されてもよいし、実空間内の座標(x,y,z)が表記されてもよい。 Further, in the coordinate marker 30 of the present embodiment, a position identifier 46, which is an identifier indicating a position in the coordinate system in the real space (hereinafter, referred to as “real space position”), is described. The real space position is, for example, the position of the coordinate marker 30 based on a predetermined reference origin (0, 0, 0), and the arrangement position of the coordinate marker 30 may be used as the reference origin. The position identifier may be expressed as a two-dimensional code such as a QR code (registered trademark) as long as it can be recognized based on the captured image of the coordinate marker 30, or the coordinates (x) in the real space. , Y, z) may be written.

本実施形態の座標マーカー30は、複数のマーカー32毎に位置識別子46が表記されるものの、位置識別子46が示す実空間位置は同じである。すなわち、座標マーカー30は複数のマーカー32で構成されているものの、座標マーカー30として設定される実空間位置は一つである。 In the coordinate marker 30 of the present embodiment, although the position identifier 46 is indicated for each of the plurality of markers 32, the real space position indicated by the position identifier 46 is the same. That is, although the coordinate marker 30 is composed of a plurality of markers 32, there is only one real space position set as the coordinate marker 30.

また、座標マーカー30が配置される実空間では基準方向が予め定められている。座標マーカー30には、当該基準方向に対する向きが設定される。より具体的には、座標マーカー30は、垂直マーカー32Bの表面に対する垂直方向が正面方向とされ、この正面方向の基準方向に対する向き(上面方向と基準方向とのなす角度)が設定される。 Further, in the real space where the coordinate marker 30 is arranged, the reference direction is predetermined. The coordinate marker 30 is set to have an orientation with respect to the reference direction. More specifically, in the coordinate marker 30, the direction perpendicular to the surface of the vertical marker 32B is set as the front direction, and the direction (the angle formed by the upper surface direction and the reference direction) with respect to the reference direction in the front direction is set.

このように、座標マーカー30の配置位置は、実空間における基準位置からの距離と向きで特定されており、これらが位置識別子46として座標マーカー30に表記されている。 As described above, the arrangement position of the coordinate marker 30 is specified by the distance and the direction from the reference position in the real space, and these are indicated on the coordinate marker 30 as the position identifier 46.

図4は、カメラ24に対する水平マーカー32A及び垂直マーカー32Bの位置や姿勢を示す模式図である。図4において、床面に垂直な方向がz軸、z軸に垂直で座標マーカー30からカメラ24に向かう方向がx軸、x軸とz軸の両方に垂直で紙面奥に向かう方向がy軸である。 FIG. 4 is a schematic view showing the positions and orientations of the horizontal marker 32A and the vertical marker 32B with respect to the camera 24. In FIG. 4, the direction perpendicular to the floor surface is the z-axis, the direction perpendicular to the z-axis and from the coordinate marker 30 toward the camera 24 is the x-axis, and the direction perpendicular to both the x-axis and the z-axis and toward the back of the paper is the y-axis. Is.

マーカー32がz軸回りにどれだけ回転して撮像されたか、また、x軸回りまたはy軸周りにどれだけ回転して撮像されたかによって、マーカー32に対するカメラ24の位置および姿勢が特定される。なお、x軸回りの回転をロール回転、y軸回りの回転をピッチ回転、z軸回りの回転をヨー回転ともいう。また、カメラ24と座標マーカー30との距離Lによって、カメラ24に対する座標マーカー30の相対位置が特定される。 The position and orientation of the camera 24 with respect to the marker 32 are specified by how much the marker 32 is rotated about the z-axis and imaged, and how much the marker 32 is rotated about the x-axis or the y-axis. The rotation around the x-axis is also called a roll rotation, the rotation around the y-axis is also called a pitch rotation, and the rotation around the z-axis is also called a yaw rotation. Further, the relative position of the coordinate marker 30 with respect to the camera 24 is specified by the distance L between the camera 24 and the coordinate marker 30.

すなわち、本実施形態の座標マーカー30の位置及び姿勢は、一例として、x座標位置,y座標位置,z座標位置、ロール角、ピッチ角、及びヨー角によって特定される。床面34が歪みのない水平であると仮定すると、例えば、水平マーカー32Aのロール回転とピッチ回転や、垂直マーカー32Bのピッチ回転は生じていないとしてもよい。 That is, the position and orientation of the coordinate marker 30 of the present embodiment are specified by, for example, the x-coordinate position, the y-coordinate position, the z-coordinate position, the roll angle, the pitch angle, and the yaw angle. Assuming that the floor surface 34 is horizontal without distortion, for example, the roll rotation and pitch rotation of the horizontal marker 32A and the pitch rotation of the vertical marker 32B may not occur.

そして、本実施形態では、詳細を後述するように、座標マーカー30を撮像したAR機器12(カメラ24)から見た座標マーカー30の位置及び姿勢を推定する。 Then, in the present embodiment, as will be described in detail later, the position and orientation of the coordinate marker 30 as seen from the AR device 12 (camera 24) that has imaged the coordinate marker 30 are estimated.

ここで、単眼カメラは、正面に存在する被写体の位置(奥行き方向)を正確に検知することが難しい。すなわち、カメラ24の正面に位置する垂直マーカー32Bに基づいて距離Lを正確に推定することが難しい。一方で、カメラ24に対して角度をもって配置される水平マーカー32Aに基づく推定した距離Lの方がより正確となる。なお、高さHは、水平面から垂直マーカー32Bの中心位置までの長さとされ、垂直マーカー32Bにより推定される。 Here, it is difficult for the monocular camera to accurately detect the position (depth direction) of the subject existing in front. That is, it is difficult to accurately estimate the distance L based on the vertical marker 32B located in front of the camera 24. On the other hand, the estimated distance L based on the horizontal marker 32A arranged at an angle with respect to the camera 24 is more accurate. The height H is the length from the horizontal plane to the center position of the vertical marker 32B, and is estimated by the vertical marker 32B.

また、カメラ24に対するマーカー32の姿勢は、ヨー角は水平マーカー32Aに基づく推定の方がより正確となる一方、ピッチ角は垂直マーカー32Bに基づく推定の方がより正確となる。また、ロール角は水平マーカー32Aに基づく推定の方がより正確となる。このように、座標マーカー30の位置及び姿勢の推定に抽出する距離Lやロール角、ピッチ角、及びヨー角度等のパラメーターは、マーカー32の配置位置に応じてその適性が異なる。 Further, regarding the posture of the marker 32 with respect to the camera 24, the yaw angle is more accurate in the estimation based on the horizontal marker 32A, while the pitch angle is more accurate in the estimation based on the vertical marker 32B. Further, the roll angle is more accurate when estimated based on the horizontal marker 32A. As described above, the parameters such as the distance L, the roll angle, the pitch angle, and the yaw angle extracted for estimating the position and orientation of the coordinate marker 30 differ in their suitability depending on the arrangement position of the marker 32.

そこで本実施形態では、異なる向きで配置されたマーカー32毎に、座標マーカー30の位置及び姿勢のパラメーターのうちのどのパラメーターの推定に用いられるかが定められる。なお、座標マーカー30が配置される場所(水平度の程度や背景の配色や特徴)によっても、パラメーターの推定に抽出するマーカー32は定められてもよい。 Therefore, in the present embodiment, for each of the markers 32 arranged in different directions, which of the parameters of the position and orientation of the coordinate marker 30 is used for estimation is determined. The marker 32 to be extracted may be determined depending on the place where the coordinate marker 30 is arranged (the degree of horizontality, the color scheme and the feature of the background).

図5は、AR機器12が有する座標変換機能に関する機能ブロック図である。AR機器12は、カメラ制御部50、マーカー認識部52、位置姿勢推定部54、座標変換部56、及び画像表示制御部58を備える。なお、以下の説明では、仮想空間の座標系をAR機器12が各々有する座標系である独自座標系ともいう。 FIG. 5 is a functional block diagram relating to the coordinate conversion function of the AR device 12. The AR device 12 includes a camera control unit 50, a marker recognition unit 52, a position / orientation estimation unit 54, a coordinate conversion unit 56, and an image display control unit 58. In the following description, the coordinate system of the virtual space is also referred to as a unique coordinate system which is a coordinate system of each AR device 12.

カメラ制御部50は、AR機器12に搭載されているカメラ24の起動及び撮像画像の取得を、ユーザ操作やAR機器12にインストールされているアプリケーションからの指示に基づいて実行する。 The camera control unit 50 executes the activation of the camera 24 mounted on the AR device 12 and the acquisition of the captured image based on a user operation or an instruction from an application installed on the AR device 12.

マーカー認識部52は、カメラ24によって取得された撮像画像から、画像処理によってマーカー32を認識する。マーカー32の認識手法は、従来既知の手法でよく、例えば撮像画像を二値化して、各種識別子に基づいてマーカー32であると認識された画像領域を抽出する。また、マーカー認識部52は、マーカー32を認識すると共に、マーカー32の実空間における基準原点からの位置や向きをマーカー32に表記されている位置識別子46に基づいて認識する。 The marker recognition unit 52 recognizes the marker 32 by image processing from the captured image acquired by the camera 24. The recognition method of the marker 32 may be a conventionally known method. For example, the captured image is binarized and the image region recognized as the marker 32 is extracted based on various identifiers. Further, the marker recognition unit 52 recognizes the marker 32 and recognizes the position and orientation of the marker 32 from the reference origin in the real space based on the position identifier 46 indicated on the marker 32.

さらに、マーカー認識部52は、方向識別子44に基づいて、撮像画像に含まれるマーカー32が水平マーカー32Aであるか、垂直マーカー32Bであるかを認識する。例えば、マーカー認識部52は、方向識別子44が上方向に位置しているマーカー32を垂直マーカー32Bでると認識し、方向識別子44が撮像画像の奥行き方向に位置しているマーカー32を水平マーカー32Aであると認識する。 Further, the marker recognition unit 52 recognizes whether the marker 32 included in the captured image is the horizontal marker 32A or the vertical marker 32B based on the direction identifier 44. For example, the marker recognition unit 52 recognizes that the marker 32 whose direction identifier 44 is located upward is the vertical marker 32B, and the marker 32 whose direction identifier 44 is located in the depth direction of the captured image is the horizontal marker 32A. Recognize that.

位置姿勢推定部54は、水平マーカー32A及び垂直マーカー32Bをカメラ24が撮像した撮像画像に基づいて、座標マーカー30を撮像したAR機器12から見た座標マーカー30の位置及び姿勢を推定する。推定手法は、従来既知の方法でよく、例えば、水平マーカー32A及び垂直マーカー32Bの黒枠部40の大きさや形状に基づいて、座標マーカー30とカメラ24との相対位置や相対姿勢を推定する。 The position / orientation estimation unit 54 estimates the position and orientation of the coordinate marker 30 as seen from the AR device 12 in which the coordinate marker 30 is imaged, based on the image captured by the camera 24 of the horizontal marker 32A and the vertical marker 32B. The estimation method may be a conventionally known method. For example, the relative position and the relative posture of the coordinate marker 30 and the camera 24 are estimated based on the size and shape of the black frame portion 40 of the horizontal marker 32A and the vertical marker 32B.

なお、本実施形態では、上述のように水平マーカー32A及び垂直マーカー32B毎に座標マーカー30の位置及び姿勢を推定するために抽出するパラメーター(x座標位置,y座標位置,z座標位置、ロール角、ピッチ角、及びヨー角)が定められている。このため、本実施形態の位置姿勢推定部54は、水平マーカー32A及び垂直マーカー32Bから定められているパラメーターを抽出する。なお、位置姿勢推定部54は、AR機器12と座標マーカー30の相対位置や相対姿勢を独自座標系で取得する。 In the present embodiment, as described above, the parameters (x-coordinate position, y-coordinate position, z-coordinate position, roll angle) to be extracted for estimating the position and orientation of the coordinate marker 30 for each of the horizontal marker 32A and the vertical marker 32B , Pitch angle, and yaw angle). Therefore, the position / orientation estimation unit 54 of the present embodiment extracts the parameters defined from the horizontal marker 32A and the vertical marker 32B. The position / orientation estimation unit 54 acquires the relative position and relative orientation of the AR device 12 and the coordinate marker 30 in its own coordinate system.

座標変換部56は、実空間の座標系における座標マーカー30の位置と、AR機器12から見た座標マーカー30の位置及び姿勢に基づいて、実空間の座標系をAR機器が有する座標系(独自座標系)に変換する。より具体的には、座標変換部56は、独自座標系における座標マーカー30の座標と、座標マーカー30に設定されている実空間位置に基づいて、実空間の座標系を独自座標系に変換するための設定値(以下「座標変換設定値」)を算出する。 The coordinate conversion unit 56 has a coordinate system (original) in which the AR device has a real space coordinate system based on the position of the coordinate marker 30 in the real space coordinate system and the position and orientation of the coordinate marker 30 as seen from the AR device 12. Convert to coordinate system). More specifically, the coordinate conversion unit 56 converts the real space coordinate system into the original coordinate system based on the coordinates of the coordinate marker 30 in the original coordinate system and the real space position set in the coordinate marker 30. (Hereinafter, "coordinate conversion setting value") is calculated.

画像表示制御部58は、ディスプレイ22における画像表示を制御する。本実施形態の画像表示制御部58は、カメラ24で撮像した実空間の画像に仮想物体を重畳して表示する機能を有する。このとき、画像表示制御部58は、座標変換設定値を用いて実空間の座標系を独自座標系に変換し、カメラ24によって撮像された実空間の画像に対して仮想物体をディスプレイ22に重畳表示する。 The image display control unit 58 controls the image display on the display 22. The image display control unit 58 of the present embodiment has a function of superimposing and displaying a virtual object on a real space image captured by the camera 24. At this time, the image display control unit 58 converts the coordinate system in the real space into the original coordinate system using the coordinate conversion set value, and superimposes the virtual object on the display 22 with respect to the image in the real space captured by the camera 24. indicate.

このような処理により、AR機器12のディスプレイ22に仮想物体をカメラ24の撮像画像に重畳表示させ、表示されている仮想物体をユーザが操作する指示を、AR機器12毎の独自座標系に置き換えて仮想物体に対する操作を行うことが可能となる。また、異なるAR機器12同士であっても、実空間の基準原点を同一とすることで、同一の仮想空間において同一の仮想物体を同時に扱うことが可能となる。 By such processing, the virtual object is superimposed and displayed on the image captured by the camera 24 on the display 22 of the AR device 12, and the instruction for the user to operate the displayed virtual object is replaced with the original coordinate system for each AR device 12. It becomes possible to perform operations on virtual objects. Further, even if different AR devices 12 are used, the same virtual object can be handled at the same time in the same virtual space by making the reference origin in the real space the same.

図6は、本実施形態の座標変換処理の流れを示すフローチャートである。座標変換処理は、例えば、AR機器12でARアプリを起動させた場合に演算処理部20によって実行される。 FIG. 6 is a flowchart showing the flow of the coordinate conversion process of the present embodiment. The coordinate conversion process is executed by the arithmetic processing unit 20 when, for example, the AR application is started by the AR device 12.

まず、ステップ100では、カメラ制御部50がカメラ24を起動させ、カメラ24による撮像を開始する。カメラ24によって撮像されている画像は、AR機器12のディスプレイ22に表示され、ユーザが確認可能とされる。 First, in step 100, the camera control unit 50 activates the camera 24 and starts imaging by the camera 24. The image captured by the camera 24 is displayed on the display 22 of the AR device 12, and can be confirmed by the user.

次のステップ102では、カメラ24が撮像している画角(図4参照)に座標マーカー30が含まれているか否かをマーカー認識部52が判定し、肯定判定の場合はステップ104へ移行し、否定判定の場合は座標マーカー30が画角に含まれるまで待ち状態となる。 In the next step 102, the marker recognition unit 52 determines whether or not the coordinate marker 30 is included in the angle of view (see FIG. 4) imaged by the camera 24, and in the case of an affirmative determination, the process proceeds to step 104. In the case of a negative determination, the state waits until the coordinate marker 30 is included in the angle of view.

なお、ステップ102で肯定判定となる場合は、水平マーカー32A及び垂直マーカー32Bが共に同じ画角内に含まれる場合である。このためユーザは、水平マーカー32A及び垂直マーカー32Bが同じ画角内に含まれるように移動する。また、水平マーカー32A及び垂直マーカー32Bが同じ画角内に含まれたとしても、ユーザとの距離Lが遠い場合には、マーカー認識部52がそれを水平マーカー32A及び垂直マーカー32Bであると認識できない場合がある。そのような場合には、ユーザは、マーカー認識部52が水平マーカー32A及び垂直マーカー32Bを認識できるように、水平マーカー32A及び垂直マーカー32Bに近づく方向に移動する。 When the affirmative determination is made in step 102, the horizontal marker 32A and the vertical marker 32B are both included in the same angle of view. Therefore, the user moves so that the horizontal marker 32A and the vertical marker 32B are included in the same angle of view. Further, even if the horizontal marker 32A and the vertical marker 32B are included in the same angle of view, if the distance L from the user is long, the marker recognition unit 52 recognizes the horizontal marker 32A and the vertical marker 32B. It may not be possible. In such a case, the user moves in a direction approaching the horizontal marker 32A and the vertical marker 32B so that the marker recognition unit 52 can recognize the horizontal marker 32A and the vertical marker 32B.

ステップ104では、カメラ制御部50が撮像画像を取得するようにカメラ24を制御し、撮像画像を記憶部に記憶させる。 In step 104, the camera 24 is controlled so that the camera control unit 50 acquires the captured image, and the captured image is stored in the storage unit.

次のステップ106では、記憶した撮像画像に基づいて位置姿勢推定部54がAR機器12と座標マーカー30の相対位置や相対姿勢を独自座標系で取得する。 In the next step 106, the position / orientation estimation unit 54 acquires the relative position and relative orientation of the AR device 12 and the coordinate marker 30 in the original coordinate system based on the stored captured image.

次のステップ108では、座標マーカー30の独自座標系における座標と、座標マーカー30に設定されている実空間における基準原点とに基づいて、実空間の座標を独自座標系に変換するための座標変換設定値を座標変換部56が算出する。 In the next step 108, coordinate conversion for converting the coordinates in the real space to the original coordinate system based on the coordinates in the original coordinate system of the coordinate marker 30 and the reference origin in the real space set in the coordinate marker 30. The coordinate conversion unit 56 calculates the set value.

以上説明したように、本実施形態の座標マーカー30は、複数のマーカー32が実空間内に異なる向きで配置される。そして、本実施形態のAR機器12は、AR機器12の独自座標系と実空間の座標系との座標変換を行うためにカメラ24によって座標マーカー30を撮像する。このため、撮像画像から姿勢又は位置の正確な検知が難しいマーカー32が存在しても、向きが異なる他のマーカー32が撮像されることにより、上記検知の難しい姿勢又は位置を他のマーカー32で検知することが可能となる。従って、本実施形態のAR機器12によれば、実空間に配置された座標マーカー30を用いて、AR機器12の独自座標系と実空間の座標系との位置合わせをより精度高く行うことができる。 As described above, in the coordinate marker 30 of the present embodiment, a plurality of markers 32 are arranged in different directions in the real space. Then, the AR device 12 of the present embodiment captures the coordinate marker 30 by the camera 24 in order to perform coordinate conversion between the original coordinate system of the AR device 12 and the coordinate system in the real space. Therefore, even if there is a marker 32 whose posture or position is difficult to be accurately detected from the captured image, another marker 32 having a different orientation is imaged, so that the posture or position which is difficult to detect can be detected by the other marker 32. It becomes possible to detect. Therefore, according to the AR device 12 of the present embodiment, the coordinate marker 30 arranged in the real space can be used to more accurately align the original coordinate system of the AR device 12 with the coordinate system in the real space. it can.

また、これにより、ARシステム10を構成する各AR機器12が共通の座標マーカー30に基づいて実空間と独自座標空間との座標変換を行い、それが精度のよい座標変換となるので、ARシステム10を構成する各AR機器12が異なる機器であったとしても機器の構成に関係なく、各AR機器12のユーザは同一の仮想空間を共有できる。 Further, as a result, each AR device 12 constituting the AR system 10 performs coordinate conversion between the real space and the original coordinate space based on the common coordinate marker 30, which results in accurate coordinate conversion. Therefore, the AR system Even if each AR device 12 constituting the 10 is a different device, the user of each AR device 12 can share the same virtual space regardless of the device configuration.

以上、本発明を、上記実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、該変更または改良を加えた形態も本発明の技術的範囲に含まれる。 Although the present invention has been described above using the above-described embodiment, the technical scope of the present invention is not limited to the scope described in the above-described embodiment. Various changes or improvements can be made to the above embodiments without departing from the gist of the invention, and the modified or improved forms are also included in the technical scope of the present invention.

例えば、水平マーカー32A及び垂直マーカー32Bには、マーカー32毎に抽出するパラメーターを示した識別子が表記されてもよい。 For example, the horizontal marker 32A and the vertical marker 32B may be represented by an identifier indicating a parameter to be extracted for each marker 32.

また、上記実施形態では、実空間位置や実空間における向きを示す位置識別子46を座標マーカー30に表記する形態について説明したが、本発明はこれに限定されない。例えば、座標マーカー30の実空間位置や実空間における向きを示す位置識別情報がサーバ14に記憶され、AR機器12が座標マーカー30を認識すると、サーバ14から当該位置識別情報を読み出してもよい。 Further, in the above-described embodiment, the mode in which the position identifier 46 indicating the real space position or the orientation in the real space is indicated on the coordinate marker 30 has been described, but the present invention is not limited thereto. For example, when the server 14 stores the position identification information indicating the real space position of the coordinate marker 30 and the orientation in the real space and the AR device 12 recognizes the coordinate marker 30, the position identification information may be read from the server 14.

また、上記実施形態ではマーカー32に表記されている方向識別子44に基づいて、水平マーカー32Aであるか垂直マーカー32Bであるかを認識する形態について説明したが、本発明はこれに限定されない。例えば、各マーカー32に水平マーカー32Aであるか垂直マーカー32Bであるかを示す識別情報が表記されてもよい。 Further, in the above embodiment, the mode of recognizing whether the marker 32A is the horizontal marker or the vertical marker 32B is described based on the direction identifier 44 written on the marker 32, but the present invention is not limited thereto. For example, each marker 32 may be labeled with identification information indicating whether it is a horizontal marker 32A or a vertical marker 32B.

また、AR機器12の動きによってマーカー32の配置位置を推定されてもよい。例えば、AR機器12を下方向に向けてマーカー32を撮像した場合には、当該マーカー32は水平マーカー32Aであると推定される。また、AR機器12を水平方向に向けてマーカー32を撮像した場合には、当該マーカー32は垂直マーカー32Bであると推定される。 Further, the placement position of the marker 32 may be estimated by the movement of the AR device 12. For example, when the marker 32 is imaged with the AR device 12 facing downward, the marker 32 is presumed to be the horizontal marker 32A. Further, when the marker 32 is imaged with the AR device 12 oriented in the horizontal direction, the marker 32 is presumed to be the vertical marker 32B.

また、本実施形態ではマーカー認識部52、位置姿勢推定部54、及び座標変換部56をAR機器12が備える形態について説明したが、本発明はこれに限定されない。例えば、マーカー認識部52、位置姿勢推定部54、及び座標変換部56をサーバ14が備える形態としてもよい。この形態の場合、AR機器12が備えるカメラ24によって撮像された座標マーカー30を含む撮像画像がAR機器12からサーバ14へ送信される。そして、サーバ14が備えるマーカー認識部52、位置姿勢推定部54、及び座標変換部56によって座標変換設定値が算出され、当該座標変換設定値がサーバ14からAR機器12へ送信される。 Further, in the present embodiment, the form in which the AR device 12 includes the marker recognition unit 52, the position / orientation estimation unit 54, and the coordinate conversion unit 56 has been described, but the present invention is not limited thereto. For example, the server 14 may include a marker recognition unit 52, a position / orientation estimation unit 54, and a coordinate conversion unit 56. In the case of this form, the captured image including the coordinate marker 30 captured by the camera 24 included in the AR device 12 is transmitted from the AR device 12 to the server 14. Then, the marker recognition unit 52, the position / orientation estimation unit 54, and the coordinate conversion unit 56 included in the server 14 calculate the coordinate conversion set value, and the coordinate conversion set value is transmitted from the server 14 to the AR device 12.

また、AR機器12がディスプレイ22とカメラ24とを備えるヘッドマウントディスプレイであり、当該ヘッドマウントディスプレイが他の情報処理装置(例えばデスクトップ型パソコン等)に接続され、当該情報処理装置がマーカー認識部52、位置姿勢推定部54、及び座標変換部56等の機能を有してもよい。この形態の場合、情報処理装置とサーバ14とが適宜データの送受信を行う。 Further, the AR device 12 is a head-mounted display including a display 22 and a camera 24, the head-mounted display is connected to another information processing device (for example, a desktop personal computer or the like), and the information processing device is the marker recognition unit 52. , The position / orientation estimation unit 54, the coordinate conversion unit 56, and the like may be provided. In this form, the information processing device and the server 14 appropriately transmit and receive data.

また、上記実施形態では、座標マーカー30を水平マーカー32A及び垂直マーカー32Bで構成する形態について説明したが、本発明はこれに限定されない。例えば、図7に示されるように、座標マーカー30を水平マーカー32A、垂直マーカー32B、及び垂直マーカー32Cとのように3つのマーカー32で構成する形態としてもよい。なお、垂直マーカー32Cは、水平マーカー32Aが配置される水平面と垂直マーカー32Bが配置される垂直面とに対して直交する面、例えば壁面36Aに90°で直交する壁面36Bに配置される。これにより、座標マーカー30の位置及び姿勢の推定に用いるパラメーター毎により適切なマーカー32の選択が可能となり、座標マーカー30の位置及び姿勢の推定精度をより高くできる。 Further, in the above embodiment, the embodiment in which the coordinate marker 30 is composed of the horizontal marker 32A and the vertical marker 32B has been described, but the present invention is not limited thereto. For example, as shown in FIG. 7, the coordinate marker 30 may be composed of three markers 32 such as the horizontal marker 32A, the vertical marker 32B, and the vertical marker 32C. The vertical marker 32C is arranged on a surface orthogonal to the horizontal plane on which the horizontal marker 32A is arranged and the vertical surface on which the vertical marker 32B is arranged, for example, a wall surface 36B orthogonal to the wall surface 36A at 90 °. As a result, an appropriate marker 32 can be selected for each parameter used for estimating the position and orientation of the coordinate marker 30, and the estimation accuracy of the position and orientation of the coordinate marker 30 can be further improved.

さらに、本実施形態では本発明をARに適用する形態について説明したが、本発明はこれに限定されず、MR(Mixed Reality:複合現実)に適用されてもよい。 Further, in the present embodiment, the embodiment in which the present invention is applied to AR has been described, but the present invention is not limited to this, and may be applied to MR (Mixed Reality).

例えば、実空間と仮想空間とを組み合わせてディスプレイに表示させるAR技術やMR技術に適用する技術として有用である。 For example, it is useful as a technology applied to AR technology and MR technology in which a real space and a virtual space are combined and displayed on a display.

12 AR機器(情報処理装置)
24 カメラ(撮像手段)
30 座標マーカー
32A 水平マーカー
32B 垂直マーカー
54 位置姿勢推定部(推定手段)
56 座標変換部(変換手段)
12 AR equipment (information processing equipment)
24 camera (imaging means)
30 Coordinate marker 32A Horizontal marker 32B Vertical marker 54 Position / orientation estimation unit (estimation means)
56 Coordinate conversion unit (conversion means)

Claims (8)

実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーを撮像手段が撮像した撮像画像に基づいて、前記座標マーカーを撮像した機器から見た前記座標マーカーの位置及び姿勢を推定する推定手段と、
実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する変換手段と、
を備える情報処理装置。
Based on the image captured by the imaging means with a set of coordinate markers arranged in different directions in the real space, the position and orientation of the coordinate markers as seen from the device that imaged the coordinate markers. Estimating means to estimate and
A conversion means for converting the real space coordinate system into the coordinate system possessed by the device based on the position of the coordinate marker in the real space coordinate system and the position and orientation of the coordinate marker as seen from the device.
Information processing device equipped with.
前記マーカー毎に、前記座標マーカーの位置及び姿勢のパラメーターのうちのどのパラメーターの推定に用いられるかが定められている、請求項1記載の情報処理装置。 The information processing apparatus according to claim 1, wherein for each of the markers, which of the parameters of the position and orientation of the coordinate marker is used for estimation is determined. 前記座標マーカーは、水平面に配置された前記マーカー、及び前記水平面に直交する垂直面に配置された前記マーカーを含む、請求項1又は請求項2記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the coordinate marker includes the marker arranged on a horizontal plane and the marker arranged on a vertical plane orthogonal to the horizontal plane. 前記マーカーは、天地方向を示す識別子が表記される、請求項1から請求項3の何れか1項記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, wherein the marker is an identifier indicating the top-bottom direction. 前記マーカーは、前記実空間の座標系における位置を示す識別子が表記される、請求項1から請求項4の何れか1項記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, wherein the marker is represented by an identifier indicating a position in the coordinate system in the real space. 実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーと、
前記座標マーカーを撮像する撮像手段を備える機器と、
を備え、
撮像手段が撮像した撮像画像に基づいて、前記機器から見た前記座標マーカーの位置及び姿勢を推定する推定手段と、
実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する変換手段と、
を備える座標変換システム。
A coordinate marker that is a set of multiple markers arranged in different directions in the real space,
A device including an imaging means for imaging the coordinate marker, and
With
An estimation means for estimating the position and orientation of the coordinate marker as seen from the device based on the captured image captured by the imaging means, and an estimation means.
A conversion means for converting the real space coordinate system into the coordinate system possessed by the device based on the position of the coordinate marker in the real space coordinate system and the position and orientation of the coordinate marker as seen from the device.
Coordinate conversion system with.
実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーを撮像手段が撮像した撮像画像に基づいて、前記座標マーカーを撮像した機器から見た前記座標マーカーの位置及び姿勢を推定する第1工程と、
実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する第2工程と、
を有する座標変換方法。
Based on the image captured by the imaging means with a set of coordinate markers arranged in different directions in the real space, the position and orientation of the coordinate markers as seen from the device that imaged the coordinate markers. The first step to estimate and
A second step of converting the real space coordinate system into the coordinate system of the device based on the position of the coordinate marker in the real space coordinate system and the position and orientation of the coordinate marker as seen from the device.
Coordinate transformation method having.
コンピュータを、
実空間内に異なる向きで配置された複数のマーカーを一組とした座標マーカーを撮像手段が撮像した撮像画像に基づいて、前記座標マーカーを撮像した機器から見た前記座標マーカーの位置及び姿勢を推定する推定手段と、
実空間の座標系における前記座標マーカーの位置と、前記機器から見た前記座標マーカーの位置及び姿勢に基づいて、前記実空間の座標系を前記機器が有する座標系に変換する変換手段と、
して機能させる座標変換プログラム。
Computer,
Based on the image captured by the imaging means with a set of coordinate markers arranged in different directions in the real space, the position and orientation of the coordinate markers as seen from the device that imaged the coordinate markers. Estimating means to estimate and
A conversion means for converting the real space coordinate system into the coordinate system possessed by the device based on the position of the coordinate marker in the real space coordinate system and the position and orientation of the coordinate marker as seen from the device.
A coordinate conversion program that works.
JP2019168453A 2019-09-17 2019-09-17 Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program Pending JP2021047516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019168453A JP2021047516A (en) 2019-09-17 2019-09-17 Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019168453A JP2021047516A (en) 2019-09-17 2019-09-17 Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program

Publications (1)

Publication Number Publication Date
JP2021047516A true JP2021047516A (en) 2021-03-25

Family

ID=74878452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019168453A Pending JP2021047516A (en) 2019-09-17 2019-09-17 Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program

Country Status (1)

Country Link
JP (1) JP2021047516A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113899377A (en) * 2021-08-23 2022-01-07 武汉光庭信息技术股份有限公司 Camera-based automatic parking terminal relative coordinate measuring method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113899377A (en) * 2021-08-23 2022-01-07 武汉光庭信息技术股份有限公司 Camera-based automatic parking terminal relative coordinate measuring method and system
CN113899377B (en) * 2021-08-23 2023-10-27 武汉光庭信息技术股份有限公司 Method and system for measuring relative coordinates of automatic parking end point based on camera

Similar Documents

Publication Publication Date Title
JP6507730B2 (en) Coordinate transformation parameter determination device, coordinate transformation parameter determination method, and computer program for coordinate transformation parameter determination
JP6237326B2 (en) Posture estimation apparatus, posture estimation method, and computer program for posture estimation
JP5248806B2 (en) Information processing apparatus and information processing method
US20160117824A1 (en) Posture estimation method and robot
US20170337701A1 (en) Method and system for 3d capture based on structure from motion with simplified pose detection
US20150235367A1 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
WO2016199605A1 (en) Image processing device, method, and program
KR102354299B1 (en) Camera calibration method using single image and apparatus therefor
US10433119B2 (en) Position determination device, position determining method, and storage medium
JP2014013146A5 (en)
JP2008204384A (en) Image pickup device, object detection method and posture parameter calculation method
CN107037403B (en) Augmented reality-based object relative positioning method
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
JP2018524657A (en) Managing feature data for environment mapping on electronic devices
JP2017120551A (en) Autonomous traveling device
US20240071016A1 (en) Mixed reality system, program, mobile terminal device, and method
JP2008309595A (en) Object recognizing device and program used for it
JP2010128608A (en) Stereo matching processing system, stereo matching processing method, and program
JP2018173882A (en) Information processing device, method, and program
JP2020042575A (en) Information processing apparatus, positioning method, and program
JP2021047516A (en) Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program
US11935286B2 (en) Method and device for detecting a vertical planar surface
JP6512058B2 (en) Projector, video projection method, and computer program for video projection
WO2021111613A1 (en) Three-dimensional map creation device, three-dimensional map creation method, and three-dimensional map creation program
US20220254109A1 (en) Information processing apparatus, display system, display method, and non-transitory computer readable medium storing program