JP6820821B2 - Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images - Google Patents

Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images Download PDF

Info

Publication number
JP6820821B2
JP6820821B2 JP2017202220A JP2017202220A JP6820821B2 JP 6820821 B2 JP6820821 B2 JP 6820821B2 JP 2017202220 A JP2017202220 A JP 2017202220A JP 2017202220 A JP2017202220 A JP 2017202220A JP 6820821 B2 JP6820821 B2 JP 6820821B2
Authority
JP
Japan
Prior art keywords
line
similarity
camera
sight
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017202220A
Other languages
Japanese (ja)
Other versions
JP2019075018A (en
Inventor
翔一郎 三原
翔一郎 三原
加藤 晴久
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017202220A priority Critical patent/JP6820821B2/en
Publication of JP2019075018A publication Critical patent/JP2019075018A/en
Application granted granted Critical
Publication of JP6820821B2 publication Critical patent/JP6820821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のカメラの位置姿勢における類似度を算出する技術に関する。 The present invention relates to a technique for calculating the degree of similarity in the position and orientation of a plurality of cameras.

従来、撮影対象物とカメラとの相対的な位置姿勢に応じて、撮影画像に別のコンテンツをリアルタイムに表示する技術がある(例えば特許文献1参照)。
この技術によれば、撮影対象物に、参照対象としての「マーカ」が貼り付けられており、そのマーカが映る撮影画像を用いて、カメラの位置姿勢を推定する。また、参照対象が映る参照画像毎に、そのカメラの位置姿勢に応じたコンテンツ(提示情報)を予め記憶している。ここでのコンテンツとは、拡張現実(Augmented Reality)画像として、撮影画像に重畳的に表示可能なものである。
そして、参照対象が映り込む撮影画像から、そのカメラの位置姿勢と、予め記憶された複数の参照対象が映る参照画像の位置姿勢とを、「距離関数」に基づいて比較する。距離が短い(位置姿勢が類似する)と推定された参照対象に紐づく提示情報を、撮影画像に重畳的に表示する。
Conventionally, there is a technique of displaying another content on a photographed image in real time according to the relative position and orientation of the object to be photographed and the camera (see, for example, Patent Document 1).
According to this technique, a "marker" as a reference target is attached to an object to be photographed, and the position and orientation of the camera are estimated using a photographed image in which the marker is reflected. In addition, for each reference image in which the reference target is displayed, the content (presentation information) corresponding to the position and orientation of the camera is stored in advance. The content here can be displayed as an Augmented Reality image superimposed on the captured image.
Then, from the captured image in which the reference object is reflected, the position and orientation of the camera and the position and orientation of the reference image in which the plurality of reference objects stored in advance are reflected are compared based on the "distance function". The presentation information associated with the reference target estimated to have a short distance (similar in position and orientation) is superposed on the captured image.

尚、カメラと参照対象との相対的な位置姿勢(並進ベクトルt及び回転ベクトルθ)を推定する技術もある(例えば非特許文献1参照)。この技術によれば、参照対象となるマーカの参照画像を予め記憶しており、撮影画像からその参照画像をマッチングによって位置姿勢を推定する。 There is also a technique for estimating the relative position / orientation (translation vector t and rotation vector θ) between the camera and the reference object (see, for example, Non-Patent Document 1). According to this technique, the reference image of the marker to be referred to is stored in advance, and the position and orientation are estimated by matching the reference image from the captured image.

特開2016−71496号公報Japanese Unexamined Patent Publication No. 2016-71496

加藤, M. Billinghurst, 浅野, 橘, "マーカー追跡に基づく拡張現実感システムとそのキャリブレーション", 日本バーチャルリアリティ学会論文誌, vol.4, 20 no.4, pp.607-617, 1999.、[online]、[平成29年10月7日検索]、インターネット<URL:http://intron.kz.tsukuba.ac.jp/tvrsj/4.4/kato/p-99_VRSJ4_4.pdf>Kato, M. Billinghurst, Asano, Tachibana, "Augmented Reality System Based on Marker Tracking and Its Calibration", Journal of the Virtual Reality Society of Japan, vol.4, 20 no.4, pp.607-617, 1999., [online], [Search on October 7, 2017], Internet <URL: http://intron.kz.tsukuba.ac.jp/tvrsj/4.4/kato/p-99_VRSJ4_4.pdf> D.G.Lowe, Distinctive image features from scale-invariant key points, Proc. of Int. Journal of Computer Vision (IJCV), 60(2) pp.91-110 (2004)D.G.Lowe, Distinctive image features from scale-invariant key points, Proc. Of Int. Journal of Computer Vision (IJCV), 60 (2) pp.91-110 (2004) H.Bay, T.Tuytelaars, and L.V.Gool, SURF: Speed Up Robust Features, Proc. of Int. Conf. of ECCV, (2006)H.Bay, T.Tuytelaars, and L.V.Gool, SURF: Speed Up Robust Features, Proc. Of Int. Conf. Of ECCV, (2006) Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571.Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571.

図1は、従来技術における位置姿勢の評価を表す説明図である。 FIG. 1 is an explanatory diagram showing an evaluation of position and posture in the prior art.

例えば以下のような距離関数を用いて、この距離が短いほど、カメラの位置姿勢は類似する(近い)と判定される。
位置姿勢ベクトルに基づく第1の距離関数
画像特徴量に基づく第2の距離関数
For example, using the following distance function, it is determined that the shorter the distance, the more similar (closer) the positions and orientations of the cameras are.
First distance function based on position-orientation vector Second distance function based on image features

<位置姿勢ベクトルに基づく第1の距離関数>
第1の距離関数として、カメラと参照対象との相対的な位置姿勢を表す並進ベクトルt及び回転ベクトルθのユークリッド距離を用いる。
<First distance function based on position-attitude vector>
As the first distance function, the Euclidean distance of the translation vector t and the rotation vector θ representing the relative positions and orientations of the camera and the reference object is used.

図1(a)によれば、世界座標系上で、カメラCAMに対して、カメラcam1又はcam2のいずれの位置姿勢が近いか、を判定している。
CAMとcam1との並進の差:Δt1=100mm
CAMとcam1との回転の差:Δθ1=45°
CAMとcam2との並進の差:Δt2=120mm
CAMとcam1との回転の差:Δθ2=10°
重みw(=1)を付けて、回転tと並進θとを加算すると、例えば以下のようになる。
1=Δt1+w・Δθ1=100+1*45=145
2=Δt2+wvΔθ2=120+1*10=130
この場合、D1>D2となり、カメラCAMの位置姿勢には、カメラcam2の位置姿勢の方が近いと推定される。
一方で、撮影環境のスケールが変わって、例えば並進tが10000mmオーダとなった場合、以下のようになる。
1=Δt1+w・Δθ1=10000+45=10045
2=Δt2+w・Δθ2=12000+10=12010
この場合、D1<D2となり、カメラCAMの位置姿勢には、カメラcam1の位置姿勢の方が近いと推定される。
According to FIG. 1A, it is determined which of the camera cam1 and the camera2 is closer to the camera CAM on the world coordinate system.
Translational difference between CAM and cam 1 : Δt 1 = 100 mm
Difference in rotation between CAM and cam 1 : Δθ 1 = 45 °
Translational difference between CAM and cam2: Δt 2 = 120mm
Difference in rotation between CAM and cam 1: Δθ 2 = 10 °
Adding the weight w (= 1) and adding the rotation t and the translation θ gives, for example, the following.
D 1 = Δt 1 + w · Δθ 1 = 100 + 1 * 45 = 145
D 2 = Δt 2 + wvΔθ 2 = 120 + 1 * 10 = 130
In this case, D 1 > D 2 , and it is estimated that the position and orientation of the camera cam 2 is closer to the position and orientation of the camera CAM.
On the other hand, when the scale of the shooting environment changes, for example, when the translation t is on the order of 10000 mm, the result is as follows.
D 1 = Δt 1 + w · Δθ 1 = 10000 + 45 = 10045
D 2 = Δt 2 + w ・ Δθ 2 = 12000 + 10 = 12010
In this case, D 1 <D 2 , and it is estimated that the position and orientation of the camera cam 1 is closer to the position and orientation of the camera CAM.

このように、撮影環境の並進t及び回転θのスケールに応じて、パラメータに与える相対的な重みwを調整する必要がある。また、そもそも、重みwをどのように適切に決定するかも不明となる。 In this way, it is necessary to adjust the relative weight w given to the parameter according to the scale of the translation t and the rotation θ of the shooting environment. In addition, it is unclear how to appropriately determine the weight w in the first place.

<画像特徴量に基づく第2の距離関数>
第2の距離関数として、局所領域(画像特徴量)同士の画像座標のユークリッド距離を用いる。
<Second distance function based on image features>
As the second distance function, the Euclidean distance of the image coordinates between the local regions (image features) is used.

画像座標でのユークリッド距離と、世界座標でのユークリッド距離との関係は、非線形となる。画像特徴量の画像座標での距離が小さいにも関わらず、世界座標での位置姿勢が大きく異なる場合がある。即ち、撮影画像における横ずれや拡大縮小の変化があると、距離が遠い(類似度が低い)と推定される。 The relationship between the Euclidean distance in image coordinates and the Euclidean distance in world coordinates is non-linear. Even though the distance of the image feature amount in the image coordinates is small, the position and orientation in the world coordinates may be significantly different. That is, if there is a lateral shift or a change in enlargement / reduction in the captured image, it is estimated that the distance is long (the degree of similarity is low).

図1(b)によれば、カメラCAMの位置姿勢に最も近い(類似度が高い)カメラを推定しようとしている。
カメラcam1は、画像内での拡大による影響で、画像特徴量間の距離が長い(類似度が低い)と推定される。
カメラcam2は、画像内での平行移動による影響で、画像特徴量間の距離が長い(類似度が低い)と推定される。
一方で、カメラcam3は、画像内で画像特徴量が幾何的に大きく歪んでいるにも関わらず、画像特徴量間の距離が短い(類似度が高い)と推定される。
結果的に、図1(b)によれば、カメラCAMには、カメラcam3が、位置姿勢としては最も近いと推定される。このとき、実際の位置姿勢から乖離した形で、提示情報(コンテンツ)を撮影画像に重畳させた場合、ユーザに対して不自然な印象を与えてしまう。
According to FIG. 1B, an attempt is made to estimate the camera closest to the position and orientation of the camera CAM (high degree of similarity).
It is presumed that the camera cam1 has a long distance (low similarity) between image features due to the influence of enlargement in the image.
It is presumed that the camera cam2 has a long distance (low similarity) between image features due to the effect of translation in the image.
On the other hand, in the camera cam3, it is estimated that the distance between the image features is short (high degree of similarity) even though the image features are geometrically greatly distorted in the image.
As a result, according to FIG. 1B, it is estimated that the camera cam3 is the closest to the camera CAM in terms of position and orientation. At this time, if the presented information (content) is superimposed on the captured image in a form deviating from the actual position / posture, it gives an unnatural impression to the user.

これに対し、本願の発明者らは、カメラの位置姿勢の類似度評価について、以下の2点の問題点を除去することができないか、と考えた。
(1)撮影対象物との相対的なカメラの位置姿勢を表すベクトルのユークリッド距離を用いる場合に、撮影環境における並進及び回転のスケールへの依存性の問題
(2)画像特徴量の画像座標でのユークリッド距離を用いる場合に、世界座標系における距離との非線形の問題
On the other hand, the inventors of the present application wondered if the following two problems could be eliminated in the evaluation of the similarity between the positions and orientations of the cameras.
(1) When using the Euclidean distance of the vector representing the position and orientation of the camera relative to the object to be photographed, the problem of dependence on the scale of translation and rotation in the photographing environment (2) In the image coordinates of the image feature amount Problem of non-linearity with distance in the world coordinate system when using the Euclidean distance of

そこで、本発明は、撮影環境における並進及び回転のスケールに依存することなく、世界座標系における距離との線形性を維持して、撮影画像からカメラの位置姿勢の類似度を算出する装置、プログラム及び方法を提供することを目的とする。 Therefore, the present invention is a device and a program for calculating the similarity between the position and orientation of the camera from the captured image while maintaining the linearity with the distance in the world coordinate system without depending on the scale of translation and rotation in the photographing environment. And to provide a method.

本発明によれば、世界座標値Ptargetを既知とする参照対象が映る撮影画像から、異なるカメラの位置姿勢の類似度を算出する装置であって、
参照対象が映る参照画像と、当該参照対象の参照世界座標値とを対応付けて予め記憶した参照対象記憶手段と、
参照対象が映る撮影画像の画像座標値と当該参照対象の参照画像の参照世界座標値との座標変換に基づいて、当該撮影画像におけるカメラと参照対象との相対的な撮影位置姿勢ベクトル(並進t及び回転θ)を推定する撮影位置姿勢推定手段と、
撮影位置姿勢ベクトルを用いて、カメラの世界座標値を表すカメラ視点Pcam(x,y,z)から、参照対象の世界座標値Ptargetに対するカメラ注視点Plookat(u,v,w)に向けた撮影視線分ベクトルを算出する撮影視線分算出手段と、
異なる撮影画像における撮影視線分ベクトルの類似度を、カメラの位置姿勢の類似度として算出する類似度算出手段と
を有することを特徴とする。
According to the present invention, it is a device that calculates the similarity of the position and orientation of different cameras from a captured image in which a reference target having a known world coordinate value Ptarget is displayed.
A reference target storage means in which a reference image showing a reference target and a reference world coordinate value of the reference target are associated and stored in advance, and
Based on the coordinate transformation between the image coordinate value of the captured image in which the reference target is reflected and the reference world coordinate value of the reference image of the reference target, the relative shooting position / orientation vector (translation t) between the camera and the reference target in the captured image. And the shooting position / orientation estimation means for estimating the rotation θ),
Shooting from the camera viewpoint Pcam (x, y, z), which represents the world coordinate values of the camera, to the camera gazing point Plookat (u, v, w) with respect to the world coordinate value Ptarget to be referenced, using the shooting position / orientation vector. A shooting line-of-sight calculation means for calculating the line-of-sight vector,
It is characterized by having a similarity calculation means for calculating the similarity of shooting line-of-sight vectors in different captured images as the similarity of the position and orientation of the camera.

本発明の装置における他の実施形態によれば、
提示情報と、当該提示情報の提示視線分ベクトルとを対応付けて予め記憶した提示視線分記憶手段と、
類似度算出手段で検索された提示視線分ベクトルに対応する提示情報を、撮影画像に重畳的に表示する提示情報表示手段と
を更に有し、
類似度算出手段は、撮影位置姿勢推定手段で用いられた参照対象について、撮影視線分ベクトルに最も類似する提示視線分ベクトルを、提示視線分記憶手段から検索することも好ましい。
According to other embodiments of the apparatus of the present invention.
A presentation line-of-sight storage means that stores the presentation information in advance by associating the presentation information with the presentation line-of-sight vector of the presentation information.
It further has a presentation information display means for displaying the presentation information corresponding to the presentation line-of-sight vector searched by the similarity calculation means in a superimposed manner on the captured image.
It is also preferable that the similarity calculation means searches the presentation line-of-sight storage means for the presentation line-of-sight vector that is most similar to the shooting line-of-sight vector for the reference target used in the shooting position / orientation estimation means.

本発明の装置における他の実施形態によれば、
提示視線分記憶手段は、同一の参照対象について異なる複数の提示情報それぞれに提示視線分ベクトルを予め記憶していることも好ましい。
According to other embodiments of the apparatus of the present invention.
It is also preferable that the presented line-of-sight storage means previously stores the presented line-of-sight vector in each of a plurality of different presentation information for the same reference object.

本発明の装置における他の実施形態によれば、
撮影視線分算出手段は、カメラ視点Pcamと、当該カメラ視点Pcamからの撮影方向に伸びる半直線に対して参照対象の世界座標値Ptargetから下した垂線との交点であるカメラ注視点Plookatとを結ぶ撮影視線分ベクトルを算出することも好ましい。
According to other embodiments of the apparatus of the present invention.
The shooting line-of-sight calculation means connects the camera viewpoint Pcam and the camera gazing point Plookat, which is the intersection of the camera viewpoint Pcam and the perpendicular line drawn from the reference target world coordinate value Ptarget with respect to the half line extending in the shooting direction from the camera viewpoint Pcam. It is also preferable to calculate the shooting line-of-sight vector.

本発明の装置における他の実施形態によれば、
参照画像の世界座標値Ptargetは、対称面Stargetに基づくものであり、
撮影視線分算出手段は、カメラ視点Pcamと、当該カメラ視点Pcamからの撮影方向に伸びる半直線と対称面Stargetとの交点であるカメラ注視点Plookatとを結ぶ撮影視線分ベクトルを算出することも好ましい。
According to other embodiments of the apparatus of the present invention.
The world coordinate value Ptarget of the reference image is based on the plane of symmetry Starget.
It is also preferable that the shooting line-of-sight calculation means calculates the shooting line-of-sight vector connecting the camera viewpoint Pcam and the camera gazing point Plookat which is the intersection of the half line extending in the shooting direction from the camera viewpoint Pcam and the plane of symmetry Starget. ..

本発明の装置における他の実施形態によれば、
類似度算出手段における撮影視線分ベクトルの類似度は、視線分ベクトルにおけるカメラ視点(x,y,z)間の距離とカメラ注視点(u,v,w)間の距離との和であることも好ましい。
According to other embodiments of the apparatus of the present invention.
The similarity of the photographed line-of-sight vector in the similarity calculation means is the sum of the distance between the camera viewpoints (x, y, z) and the distance between the camera gazing points (u, v, w) in the line-of-sight vector. Is also preferable.

本発明の装置における他の実施形態によれば、
類似度算出手段における撮影視線分ベクトルの類似度は、視線分ベクトル間のユークリッド距離であることも好ましい。
According to other embodiments of the apparatus of the present invention.
It is also preferable that the similarity of the photographing line-of-sight vector in the similarity calculation means is the Euclidean distance between the line-of-sight vectors.

本発明の装置における他の実施形態によれば、
類似度算出手段における撮影視線分ベクトルの類似度は、異なるカメラ視点Pcam(x,y,z)間のユークリッド距離と、異なるカメラ注視点Plookat(u,v,w)間のユークリッド距離との和であることも好ましい。
According to other embodiments of the apparatus of the present invention.
The similarity of the shooting line-of-sight vector in the similarity calculation means is the sum of the Euclidean distance between different camera viewpoints Pcam (x, y, z) and the Euclidean distance between different camera gazing points Plookat (u, v, w). Is also preferable.

本発明の装置における他の実施形態によれば、
撮影画像は、時間軸上の所定フレームレートにおける連続的なものであり、
類似度算出手段は、時刻tの撮影画像の撮影視線分ベクトルと、類似度算出対象となる提示視線分ベクトルとの類似度に、時刻tの撮影画像の撮影視線分ベクトルと、時刻t-1の撮影画像によって検索された提示視線分ベクトルとの類似度を重み付けて算出することも好ましい。
According to other embodiments of the apparatus of the present invention.
The captured image is continuous at a predetermined frame rate on the time axis.
The similarity calculation means is the similarity between the captured line-of-sight vector of the captured image at time t and the presented line-of-sight vector for which the similarity is calculated, the captured line-of-sight vector of the captured image at time t, and the time t-1. It is also preferable to weight the similarity with the presentation line-of-sight vector searched by the captured image of.

本発明の装置における他の実施形態によれば、
撮影画像は、時間軸上の所定フレームレートにおける連続的なものであり、
類似度算出手段は、時刻tの撮影画像の撮影視線分ベクトルと、類似度算出対象となる提示視線分ベクトルとの類似度に、時刻t-1の撮影画像の撮影視線分ベクトルと、時刻tの撮影画像の撮影視線分ベクトルとの移動量を、時刻t-1の撮影画像によって検索された提示視線分ベクトルに加算して得られる時刻tの提示視線分ベクトルの予想値と、類似度算出対象となる提示視線分ベクトルとの類似度を重み付けて算出することも好ましい。
According to other embodiments of the apparatus of the present invention.
The captured image is continuous at a predetermined frame rate on the time axis.
The similarity calculation means is the similarity between the captured line-of-sight vector of the captured image at time t and the presented line-of-sight vector for which the similarity is calculated, the captured line-of-sight vector of the captured image at time t-1, and the time t. Calculation of similarity with the predicted value of the presented line-of-sight vector at time t obtained by adding the amount of movement of the captured image with the shot line-of-sight vector to the presented line-of-sight vector searched by the captured image at time t-1. It is also preferable to weight the similarity with the target presented line-of-sight vector.

本発明によれば、世界座標値Ptargetを既知とする参照対象が映る撮影画像から、異なるカメラの位置姿勢の類似度を算出するようにコンピュータを機能させるプログラムであって、
参照対象が映る参照画像と、当該参照対象の参照世界座標値とを対応付けて予め記憶した参照対象記憶手段と、
参照対象が映る撮影画像の画像座標値と当該参照対象の参照画像の参照世界座標値との座標変換に基づいて、当該撮影画像におけるカメラと参照対象との相対的な撮影位置姿勢ベクトルを推定する撮影位置姿勢推定手段と、
撮影位置姿勢ベクトルを用いて、カメラの世界座標値を表すカメラ視点Pcam(x,y,z)から、参照対象の世界座標値Ptargetに対するカメラ注視点Plookat(u,v,w)に向けた撮影視線分ベクトルを算出する撮影視線分算出手段と、
異なる撮影画像における撮影視線分ベクトルの類似度を、カメラの位置姿勢の類似度として算出する類似度算出手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, it is a program that causes a computer to function so as to calculate the degree of similarity between the positions and orientations of different cameras from captured images showing a reference target having a known world coordinate value Ptarget.
A reference target storage means in which a reference image showing a reference target and a reference world coordinate value of the reference target are associated and stored in advance, and
Based on the coordinate transformation between the image coordinate value of the captured image in which the reference target is reflected and the reference world coordinate value of the reference image of the reference target, the relative shooting position / orientation vector between the camera and the reference target in the captured image is estimated. Shooting position / orientation estimation means and
Shooting from the camera viewpoint Pcam (x, y, z), which represents the world coordinate values of the camera, to the camera gazing point Plookat (u, v, w) with respect to the world coordinate value Ptarget to be referenced, using the shooting position / orientation vector. A shooting line-of-sight calculation means for calculating the line-of-sight vector,
It is characterized in that a computer functions as a similarity calculation means for calculating the similarity of shooting line-of-sight vectors in different captured images as the similarity of the position and orientation of the camera.

本発明によれば、世界座標値Ptargetを既知とする参照対象が映る撮影画像から、異なるカメラの位置姿勢の類似度を算出する装置の位置姿勢類似度算出方法であって、
装置は、
参照対象が映る参照画像と、当該参照対象の参照世界座標値とを対応付けて予め記憶した参照対象記憶部を有し、
参照対象が映る撮影画像の画像座標値と当該参照対象の参照画像の参照世界座標値との座標変換に基づいて、当該撮影画像におけるカメラと参照対象との相対的な撮影位置姿勢ベクトルを推定する第1のステップと、
撮影位置姿勢ベクトルを用いて、カメラの世界座標値を表すカメラ視点Pcam(x,y,z)から、参照対象の世界座標値Ptargetに対するカメラ注視点Plookat(u,v,w)に向けた撮影視線分ベクトルを算出する第2のステップと、
異なる撮影画像における撮影視線分ベクトルの類似度を、カメラの位置姿勢の類似度として算出する第3のステップと
を実行することを特徴とする。
According to the present invention, there is a method for calculating the position-posture similarity of a device that calculates the similarity between the positions and orientations of different cameras from a captured image showing a reference object having a known world coordinate value Ptarget.
The device is
It has a reference target storage unit that stores in advance a reference image in which a reference target is displayed and a reference world coordinate value of the reference target in association with each other.
Based on the coordinate conversion between the image coordinate value of the captured image in which the reference target is reflected and the reference world coordinate value of the reference image of the reference target, the relative shooting position / orientation vector between the camera and the reference target in the captured image is estimated. The first step and
Shooting from the camera viewpoint Pcam (x, y, z), which represents the world coordinate values of the camera, to the camera gazing point Plookat (u, v, w) with respect to the world coordinate value Ptarget to be referenced, using the shooting position / orientation vector. The second step of calculating the line-of-sight vector and
It is characterized in that the third step of calculating the similarity of the captured line-of-sight vectors in different captured images as the similarity of the position and orientation of the camera is executed.

本発明の装置、プログラム及び方法によれば、撮影環境における並進及び回転のスケールに依存することなく、世界座標系における距離との線形性を維持して、撮影画像からカメラの位置姿勢の類似度を算出することができる。 According to the apparatus, program and method of the present invention, the similarity of the position and orientation of the camera from the captured image is maintained while maintaining the linearity with the distance in the world coordinate system without depending on the scale of translation and rotation in the imaging environment. Can be calculated.

従来技術における位置姿勢の評価を表す説明図である。It is explanatory drawing which shows the evaluation of the position | posture in the prior art. 本発明における仮想現実の提示情報を表示する説明図である。It is explanatory drawing which displays the presentation information of the virtual reality in this invention. 本発明における装置の機能構成図である。It is a functional block diagram of the apparatus in this invention. 本発明におけるフローチャートである。It is a flowchart in this invention. 本発明におけるカメラ注視点の決定方法を表す説明図である。It is explanatory drawing which shows the method of determining the camera gaze point in this invention. 図1に対応した本発明の位置姿勢の類似度を表す説明図である。It is explanatory drawing which shows the similarity of the position | position | posture of this invention corresponding to FIG. 斜方撮影における本発明の位置姿勢の類似度を表す説明図である。It is explanatory drawing which shows the similarity of the position | posture of this invention in orthorhombic photography.

以下では、図面を用いて、本発明を実施するための形態について詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

図2は、本発明における仮想現実の提示情報を表示する説明図である。 FIG. 2 is an explanatory diagram for displaying the presentation information of the virtual reality in the present invention.

図2(a)によれば、撮影対象物に、マーカ(参照対象)が貼り付けられている。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。その撮影対象物は、位置姿勢が異なる4台のカメラcam1、cam2、cam3、cam4によって撮影されている。
図2(b)によれば、各カメラの撮影画像が表されている。撮影画像にマーカが映り込む場合、そのマーカは、カメラ毎に異なる角度から映る。本発明によれば、マーカが映り込む撮影画像から、そのカメラの位置姿勢が抽出される。
図2(c)によれば、カメラの位置姿勢に応じた提示情報(コンテンツ)が表されている。コンテンツが立体形状の場合、カメラの位置姿勢に応じて、異なる形状の提示情報が選択される。
図2(d)によれば、仮想現実画像には、撮影画像に映るマーカの上に、例えば直方体のコンテンツが重畳的に表示される。
図2(e)によれば、ユーザは、カメラcam1,cam2,cam4によって撮影された撮影画像について、撮影対象物にコンテンツが重畳されているように視認することができる。
According to FIG. 2A, a marker (reference target) is attached to the object to be photographed. The marker may be, for example, a two-dimensional QR code (registered trademark). The object to be photographed is photographed by four cameras cam1, cam2, cam3, and cam4 having different positions and orientations.
According to FIG. 2B, images taken by each camera are shown. When a marker is reflected in the captured image, the marker is reflected from a different angle for each camera. According to the present invention, the position and orientation of the camera are extracted from the captured image in which the marker is reflected.
According to FIG. 2C, presentation information (content) corresponding to the position and orientation of the camera is represented. When the content has a three-dimensional shape, presentation information having a different shape is selected according to the position and orientation of the camera.
According to FIG. 2D, in the virtual reality image, for example, rectangular parallelepiped content is superimposed and displayed on the marker displayed in the captured image.
According to FIG. 2E, the user can visually recognize the captured images captured by the cameras cam1, cam2, and cam4 as if the content is superimposed on the captured object.

図3は、本発明における装置の機能構成図である。
図4は、本発明におけるフローチャートである。
FIG. 3 is a functional configuration diagram of the device according to the present invention.
FIG. 4 is a flowchart of the present invention.

図3(a)によれば、本発明の装置1は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末として表されている。勿論、スマートフォンに限られず、タブレットやパーソナルコンピュータであってもよい。
図3(b)によれば、本発明の装置1は、サーバとして表されている。サーバは、通信インタフェースを介して、ユーザ端末のカメラによって撮影された撮影画像を受信し、提示情報(コンテンツ)を重畳した仮想現実画像をそのユーザ端末へ返信する。
尚、本発明を1台の装置のみで実現することなく、本発明の機能を区分して、ネットワークを介したサーバ及び端末のシステムとして構成することもできる。
According to FIG. 3A, the device 1 of the present invention is represented as a terminal equipped with a camera and a display, such as a smartphone. Of course, it is not limited to smartphones, but may be tablets or personal computers.
According to FIG. 3B, the device 1 of the present invention is represented as a server. The server receives the captured image captured by the camera of the user terminal via the communication interface, and returns the virtual reality image on which the presentation information (content) is superimposed to the user terminal.
It should be noted that, without realizing the present invention with only one device, the functions of the present invention can be divided and configured as a system of a server and a terminal via a network.

装置1は、参照対象記憶部101と、提示視線分記憶部102と、撮影位置姿勢推定部11と、撮影視線分算出部12と、類似度算出部13と、提示情報表示部14とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、カメラの位置姿勢の類似度を算出する方法としても理解できる。 The device 1 includes a reference target storage unit 101, a presentation line-of-sight storage unit 102, a shooting position / orientation estimation unit 11, a shooting line-of-sight calculation unit 12, a similarity calculation unit 13, and a presentation information display unit 14. .. These functional components are realized by executing a program that makes the computer mounted on the device function. In addition, the processing flow of these functional components can be understood as a method of calculating the degree of similarity between the positions and orientations of the cameras.

[参照対象記憶部101]
参照対象記憶部101は、参照対象が映る「参照画像」と、当該参照対象の「参照世界座標値」とを対応付けて予め記憶したものである。
図4によれば、参照対象記憶部101のテーブルには、参照画像と参照世界座標とが対応付けて記憶されている。
[Reference target storage unit 101]
The reference target storage unit 101 stores in advance the "reference image" in which the reference target is displayed and the "reference world coordinate value" of the reference target in association with each other.
According to FIG. 4, the reference image and the reference world coordinates are stored in association with each other in the table of the reference target storage unit 101.

参照画像は、回転やスケールの変化にロバストな、例えばSIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)の特徴量であってもよいしコンパクトな局所特徴を高速に抽出するORB(Oriented FAST and Rotated BRIEF)の特徴量であってもよい(例えば非特許文献2、3、4参照)。
例えばSIFTの場合、1枚の画像からは128次元の局所特徴の集合が抽出される。SIFTとは、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる局所特徴を記述する技術である。
また、SURFの場合、SIFTよりも高速処理が可能であって、1枚の画像から64次元の局所特徴の集合が抽出される。SIFTは、処理コストが高く且つリアルタイムマッチングが困難であるのに対し、SURFは、積分画像を利用することによって処理を高速化している。
更に、ORBの場合、スマートフォンやタブレットのようなモバイル端末が普及する中で、拡張現実感の用途について、省メモリ化及び高速マッチング化に適する。
The reference image may be a feature quantity of SIFT (Scale-Invariant Feature Transform) or SURF (Speeded Up Robust Features) that is robust to rotation and scale change, or an ORB (ORB) that extracts compact local features at high speed. It may be a feature quantity of Oriented FAST and Rotated BRIEF) (see, for example, Non-Patent Documents 2, 3 and 4).
For example, in the case of SIFT, a set of 128-dimensional local features is extracted from one image. SIFT is a technique for analyzing a characteristic local region using a scale space and describing a local feature that is invariant to the scale change and rotation.
Further, in the case of SURF, faster processing than SIFT is possible, and a set of 64-dimensional local features is extracted from one image. While SIFT has a high processing cost and difficult real-time matching, SURF speeds up processing by using an integrated image.
Further, in the case of ORB, as mobile terminals such as smartphones and tablets become widespread, it is suitable for memory saving and high-speed matching for augmented reality applications.

[撮影位置姿勢推定部11]
撮影位置姿勢推定部11は、最初に、カメラで撮影された撮影画像から、局所特徴量抽出アルゴリズムによって、参照対象記憶部101に記憶された参照画像を抽出する。
局所特徴量抽出アルゴリズムは、前述したSIFT、SURF、ORBのような周知の既存技術である。具体的には、撮影画像の中から、相対的な輝度勾配に基づく局所特徴量を用いて、参照画像の特徴量に類似する局所領域を抽出する。抽出される局所領域は、回転、拡大縮小、射影変化(射影変換による歪み)のいずれか又はその任意の組み合わせに対して、不変な性質を有する。
但し、参照画像を抽出できない場合、その撮影画像に重畳的に表示される提示情報(コンテンツ)はなく、提示情報表示部14からその撮影画像のままで出力される。
[Shooting position / orientation estimation unit 11]
The shooting position / orientation estimation unit 11 first extracts the reference image stored in the reference target storage unit 101 from the shot image taken by the camera by the local feature amount extraction algorithm.
The local feature extraction algorithm is a well-known existing technique such as SIFT, SURF, and ORB described above. Specifically, a local region similar to the feature amount of the reference image is extracted from the captured image by using the local feature amount based on the relative luminance gradient. The extracted local region has properties that are invariant to any or any combination of rotation, scaling, projective change (distortion due to projective transformation).
However, when the reference image cannot be extracted, there is no presentation information (content) superimposed on the captured image, and the captured image is output as it is from the presentation information display unit 14.

そして、撮影位置姿勢推定部11は、参照対象が映る「撮影画像の画像座標値」と、当該参照対象の「参照世界座標値」との座標変換に基づいて、当該撮影画像におけるカメラと参照対象との相対的な「撮影位置姿勢ベクトル」を推定する。
「撮影位置姿勢ベクトル」は、撮影対象物に貼り付けられたマーカ(参照対象)を基準として、カメラの相対的な位置姿勢(並進t及び回転θ)である。
そして、撮影位置姿勢ベクトルは、撮影視線分算出部12へ出力される。
Then, the shooting position / orientation estimation unit 11 determines the camera and the reference target in the shot image based on the coordinate conversion between the “image coordinate value of the shot image” in which the reference target is projected and the “reference world coordinate value” of the reference target. Estimate the "shooting position / orientation vector" relative to.
The “shooting position / orientation vector” is the relative position / orientation (translation t and rotation θ) of the camera with reference to the marker (reference target) attached to the shooting object.
Then, the shooting position / posture vector is output to the shooting line-of-sight calculation unit 12.

[撮影視線分算出部12]
撮影視線分算出部12は、マーカ(参照対象)の世界座標値Ptargetを、ユーザによって又は別途の機能によって予め登録している。
そして、撮影視線分算出部12は、撮影位置姿勢ベクトルを用いて、カメラの世界座標値を表すカメラ視点Pcam(x,y,z)から、参照対象の世界座標値Ptargetに対するカメラ注視点Plookat(u,v,w)に向けた「撮影視線分ベクトル」を算出する。視線分ベクトルは、(x,y,z,u,v,w)の6要素からなる。
そして、撮影視線分算出部12は、算出した視線分ベクトル(x,y,z,u,v,w)を、類似度算出部13へ出力する。
[Shooting line-of-sight calculation unit 12]
The shooting line-of-sight calculation unit 12 registers the world coordinate value Ptarget of the marker (reference target) in advance by the user or by another function.
Then, the shooting line-of-sight calculation unit 12 uses the shooting position / orientation vector from the camera viewpoint Pcam (x, y, z) representing the world coordinate value of the camera to the camera gazing point Plookat (x, y, z) with respect to the reference target world coordinate value Ptarget. Calculate the "shooting line-of-sight vector" for u, v, w). The line-of-sight vector consists of 6 elements (x, y, z, u, v, w).
Then, the photographing line-of-sight calculation unit 12 outputs the calculated line-of-sight vector (x, y, z, u, v, w) to the similarity calculation unit 13.

図5は、本発明におけるカメラ注視点の決定方法を表す説明図である。 FIG. 5 is an explanatory diagram showing a method of determining a camera gaze point in the present invention.

<カメラ注視点の第1の決定方法>
図5(a)によれば、撮影視線分算出部12は、カメラ視点Pcam(x,y,z)と、当該カメラ視点Pcam(x,y,z)からの撮影方向に伸びる半直線に対して参照対象の世界座標値Ptarget(u,v,w)から下した垂線との交点であるカメラ注視点Plookat(u,v,w)とを結ぶ「撮影視線分ベクトル(x,y,z,u,v,w)」を算出する。
<カメラ注視点の第2の決定方法>
図5(b)によれば、参照画像の世界座標値Ptargetは、対称面Starget(平面)に基づくものであるとする。ここで、撮影視線分算出部12は、カメラ視点Pcam(x,y,z)と、当該カメラ視点Pcam(x,y,z)からの撮影方向に伸びる半直線と対称面Stargetとの交点であるカメラ注視点Plookat(u,v,w)とを結ぶ「撮影視線分ベクトル(x,y,z,u,v,w)」を算出する。
<First method of determining the camera gaze point>
According to FIG. 5A, the shooting line-of-sight calculation unit 12 refers to the camera viewpoint Pcam (x, y, z) and the half straight line extending in the shooting direction from the camera viewpoint Pcam (x, y, z). The camera gaze point Plookat (u, v, w), which is the intersection with the perpendicular line drawn from the world coordinate value Ptarget (u, v, w) of the reference target, is connected to the "shooting line-of-sight vector (x, y, z, u, v, w) ”is calculated.
<Second method for determining the camera gaze point>
According to FIG. 5B, it is assumed that the world coordinate value Ptarget of the reference image is based on the plane of symmetry Starget (plane). Here, the shooting line-of-sight calculation unit 12 is at the intersection of the camera viewpoint Pcam (x, y, z) and the half straight line extending in the shooting direction from the camera viewpoint Pcam (x, y, z) and the plane of symmetry Starget. The "shooting line-of-sight vector (x, y, z, u, v, w)" connecting a certain camera gaze point Plookat (u, v, w) is calculated.

[提示視線分記憶部102]
提示視線分記憶部102は、「提示視線分ベクトル」と、「提示情報」とを予め記憶したものである。
図4によれば、提示視線分記憶部102は、同一の参照対象について異なる複数の提示情報それぞれに提示視線分ベクトルを予め記憶している
「提示視線分ベクトル」は、提示情報(コンテンツ)に対する、カメラの視線分ベクトルである。これは、提示情報について、前述した撮影視線分算出部12と同様に算出されたものである。
[Present line-of-sight storage unit 102]
The presentation line-of-sight storage unit 102 stores the "presentation line-of-sight vector" and the "presentation information" in advance.
According to FIG. 4, the presentation line-of-sight storage unit 102 stores the presentation line-of-sight vector in advance for each of a plurality of different presentation information for the same reference target. The “presentation line-of-sight vector” is for the presentation information (content). , The line-of-sight vector of the camera. This is the information presented in the same manner as in the above-described photographing line-of-sight calculation unit 12.

[類似度算出部13]
類似度算出部13は、異なる撮影画像における撮影視線分ベクトルの類似度を、カメラの位置姿勢の類似度として算出する。
類似度算出部13は、撮影位置姿勢推定部11で用いられた参照対象について、撮影視線分ベクトルに最も類似する提示視線分ベクトルを、提示視線分記憶部102から検索する。このとき、類似度算出部13は、撮影視線分ベクトルCと提示視線分ベクトルCi'との類似度d(Ci',C)を算出する。
i_min=argimin d(Ci',C)
C:撮影視線分ベクトル
Ci':検索対象となる提示視線分ベクトル(i∈N、検索対象となる総数)
Ci_min':撮影視線分ベクトルに最も類似する提示視線分ベクトル
argimin d :dを最小化するiの集合
そして、類似度算出部13は、検索された提示視線分ベクトルCi_min'に対応する提示情報を、提示情報表示部14へ出力する。
[Similarity calculation unit 13]
The similarity calculation unit 13 calculates the similarity of the captured line-of-sight vectors in different captured images as the similarity of the position and orientation of the camera.
The similarity calculation unit 13 searches the presentation line-of-sight storage unit 102 for a presentation line-of-sight vector that is most similar to the shooting line-of-sight vector for the reference target used in the shooting position / orientation estimation unit 11. At this time, the similarity calculation unit 13 calculates the similarity d (C i ', C) between the photographed line-of-sight vector C and the presented line-of-sight vector C i '.
i_min = arg i min d (C i ', C)
C: Shooting line-of-sight vector
C i ': Present line-of-sight vector to be searched (i ∈ N, total number to be searched)
C i_min ': Present line-of-sight vector most similar to the shooting line-of-sight vector
arg i min d: A set of i that minimizes d The similarity calculation unit 13 outputs the presentation information corresponding to the searched presentation line-of-sight vector C i_min'to the presentation information display unit 14.

撮影画像は、時間軸上の所定フレームレートにおける連続的なものであってもよい。この場合、時刻範囲Δt毎に、カメラの撮影画像I(t)が入力され、その都度、リアルタイムに、撮影位置姿勢推定部11、撮影視線分算出部12、類似度算出部13及び提示情報表示部14が実行される。
i_min(t)=argimin d(Ci',C(t))
The captured image may be continuous at a predetermined frame rate on the time axis. In this case, the captured image I (t) of the camera is input for each time range Δt, and each time, the shooting position / orientation estimation unit 11, the shooting line-of-sight calculation unit 12, the similarity calculation unit 13, and the presentation information display are performed in real time. Part 14 is executed.
i_min (t) = arg i min d (C i ', C (t))

ここで、類似度算出における異なる実施形態について説明する。
<類似度算出の第1の実施形態>
類似度算出部13における撮影視線分ベクトルの類似度は、視線分ベクトルにおけるカメラ視点(x,y,z)間の距離とカメラ注視点(u,v,w)間の距離との和である。
d(C',C)=r+g
=|P'cam(x,y,z)−Pcam(x,y,z)|
+|P'lookat(u,v,w)−Plookat(u,v,w)|
r:カメラ視点(x,y,z)間の距離|P'cam(x,y,z)−Pcam(x,y,z)|
g:カメラ注視点(u,v,w)間の距離|P'lookat(u,v,w)−Plookat(u,v,w)|
Here, different embodiments in the similarity calculation will be described.
<First Embodiment of similarity calculation>
The similarity of the photographed line-of-sight vector in the similarity calculation unit 13 is the sum of the distance between the camera viewpoints (x, y, z) and the distance between the camera gazing points (u, v, w) in the line-of-sight vector. ..
d (C', C) = r + g
= | P'cam (x, y, z) -Pcam (x, y, z) |
+ | P'lookat (u, v, w) -Plookat (u, v, w) |
r: Distance between camera viewpoints (x, y, z) | P'cam (x, y, z) -Pcam (x, y, z) |
g: Distance between camera gaze points (u, v, w) | P'lookat (u, v, w) -Plookat (u, v, w) |

<類似度算出の第2の実施形態>
類似度算出部13における撮影視線分ベクトルの類似度は、視線分ベクトル間のユークリッド距離である。即ち、6次元空間における距離として算出することができる。
d(C',C)=√((x'-x)2+(y'-y)2+(z'-z)2+(u'-u)2+(v'-v)2+(w'-w)2)
<Second embodiment of similarity calculation>
The similarity of the photographed line-of-sight vector in the similarity calculation unit 13 is the Euclidean distance between the line-of-sight vectors. That is, it can be calculated as a distance in a six-dimensional space.
d (C ', C) = √ ((x'-x) 2 + (y'-y) 2 + (z'-z) 2 + (u'-u) 2 + (v'-v) 2 + (w'-w) 2 )

<類似度算出の第3の実施形態>
類似度算出部13における撮影視線分ベクトルの類似度は、異なるカメラ視点Pcam(x,y,z)間のユークリッド距離と、異なるカメラ注視点Plookat(u,v,w)間のユークリッド距離との和である。
d(C',C)=√((x'-x)2+(y'-y)2+(z'-z)2)+√((u'-u)2+(v'-v)2+(w'-w)2)
<Third embodiment of similarity calculation>
The similarity of the shooting line-of-sight vector in the similarity calculation unit 13 is the Euclidean distance between different camera viewpoints Pcam (x, y, z) and the Euclidean distance between different camera gazing points Plookat (u, v, w). It is a sum.
d (C ', C) = √ ((x'-x) 2 + (y'-y) 2 + (z'-z) 2) + √ ((u'-u) 2 + (v'-v ) 2 + (w'-w) 2 )

<類似度算出の第4の実施形態>
撮影画像が、時間軸上の所定フレームレートにおける連続的なものである場合、類似度算出部13は、時刻tの撮影画像の撮影視線分ベクトルと、類似度算出対象となる提示視線分ベクトルとの類似度に、時刻tの撮影画像の撮影視線分ベクトルと、時刻t-1によって検索された提示視線分ベクトルとの類似度を重み付けて算出する。
<Fourth Embodiment of Similarity Calculation>
When the captured image is continuous at a predetermined frame rate on the time axis, the similarity calculation unit 13 sets the captured line-of-sight vector of the captured image at time t and the presented line-of-sight vector to be calculated for the similarity. Is calculated by weighting the similarity between the photographed line-of-sight vector of the captured image at time t and the presented line-of-sight vector searched by time t-1.

時系列の撮影画像をリアルタイムに処理する場合、時刻t毎に、撮影画像の撮影視線分ベクトルC(t)に最も類似する提示視線分ベクトルCi_min(t)'を検索する。一方で、提示視線分ベクトルCi'は、不規則かつ離散的な位置姿勢に基づいて予め記憶されたものである。そのために、最も類似すると判定された提示視線分ベクトルCi_min(t)'は、直近の過去時刻t-1における既に判定された提示視線分ベクトルCi_min(t-1)'から大きく変動したものとなる可能性がある。そのような突発的な変動は、時刻tにおける過去の撮影視線分ベクトルC(t-1)から、突発的に乖離した形で提示視線分ベクトルCi_min(t)'を選択することとなる。このとき、時系列上で連続してリアルタイムに提示視線分ベクトルを選択する場合、鋸歯状に変動する選択結果となってしまうこともある。 When processing time-series captured images in real time, the presented line-of-sight vector C i_min (t) 'that most closely resembles the captured line-of-sight vector C (t) of the captured image is searched for every time t. On the other hand, presents visual line portion vector C i 'are those that are stored in advance based on irregular and discrete position and orientation. Therefore, the presented line-of-sight vector C i_min (t) 'determined to be the most similar is significantly different from the already determined presented line-of-sight vector C i_min (t-1) ' at the latest past time t-1. There is a possibility that Such a sudden fluctuation causes the presentation line-of-sight vector C i_min (t) 'to be selected in a form that suddenly deviates from the past shooting line-of-sight vector C (t-1) at time t. At this time, when the presented line-of-sight vector is continuously selected in real time on the time series, the selection result may fluctuate in a sawtooth shape.

そのために、時刻t毎に判定される提示視線分ベクトルCi_min(t)'が、時間軸上で滑らかに変動するように、直近の過去時刻t-1における既に判定された提示視線分ベクトルCi_min(t-1)'から、時刻tにおける提示視線分ベクトルCi_min(t)'が極端に変動することを抑制するべく、コスト項を追加した以下のような式とする。
i_min(t)=argimin{αd(Ci',C(t))+(1-α)d(Ci',Ci_min(t-1)')}
α:0<α<1
Therefore, the presented line-of-sight vector C i_min (t) 'determined at each time t fluctuates smoothly on the time axis, so that the presented line-of-sight vector C already determined at the latest past time t-1 From i_min (t-1) ', the following equation with a cost term added is used to prevent the presented line-of-sight vector C i_min (t) 'at time t from fluctuating extremely.
i_min (t) = arg i min {αd (C i ', C (t)) + (1-α) d (C i ', C i_min (t-1) ')}
α: 0 <α <1

<類似度算出の第5の実施形態>
類似度算出部13は、時刻t毎に判定される提示視線分ベクトルCi_min(t)'が、時間軸上で滑らかに変動するように、直近の過去時刻t-1における既に判定された提示視線分ベクトルCi_min(t-1)'から、時刻tにおける提示視線分ベクトルCi_min(t)'が極端に変動することを抑制するべく、時刻t-1の撮影画像の撮影視線分ベクトルC(t-1)と、時刻tの撮影画像の撮影視線分ベクトルC(t)との移動量(C(t)-C(t-1))を、Ci_min(t-1)'に加算して得られるCi_min(t)'の予想値と、類似度算出対象となる提示視線分ベクトルとの類似度を、コスト項として追加した以下のような式とする。
i_min(t)=argimin{αd(Ci',C(t))+
(1−α)d(Ci',Ci_min(t-1)'+{C(t)−C(t-1)})}
α:0<α<1
これによって、時刻tの提示視線分ベクトルCi_min(t)'の変動を平滑化することができる。この場合、提示視線分記憶部102の中で、平滑化された提示視線分ベクトルCi_min(t)'に対応する提示情報が選択される。
<Fifth Embodiment of similarity calculation>
The similarity calculation unit 13 has already determined the presentation at the latest past time t-1 so that the presentation line-of-sight vector C i_min (t) 'determined at each time t fluctuates smoothly on the time axis. In order to suppress the extreme fluctuation of the presented line-of-sight vector C i_min (t) 'at time t from the line-of-sight vector C i_min (t-1) ', the line-of-sight vector C of the captured image at time t-1 Add the amount of movement (C (t) -C (t-1)) between (t-1) and the shooting line-of-sight vector C (t) of the shot image at time t to C i_min (t-1) '. The similarity between the predicted value of C i_min (t) 'obtained by the above and the presented line-of-sight vector to be calculated for the similarity is added as a cost term to the following equation.
i_min (t) = arg i min {αd (C i ', C (t)) +
(1−α) d (C i ', C i_min (t-1) ' + {C (t) −C (t-1)})}
α: 0 <α <1
As a result, the fluctuation of the presentation line-of-sight vector C i_min (t) 'at time t can be smoothed. In this case, the presentation information corresponding to the smoothed presentation line-of-sight vector C i_min (t) 'is selected in the presentation line-of-sight storage unit 102.

[提示情報表示部14]
提示情報表示部14は、類似度算出部13で検索された提示視線分ベクトルに対応する提示情報を、撮影画像に重畳的に表示する。
これによって、撮影画像にコンピュータグラフィックでコンテンツを描画することによって、高品位な仮想現実画像をユーザに提供することができる。
[Presentation information display unit 14]
The presentation information display unit 14 superimposes and displays the presentation information corresponding to the presentation line-of-sight vector searched by the similarity calculation unit 13 on the captured image.
As a result, a high-quality virtual reality image can be provided to the user by drawing the content on the captured image by computer graphics.

図6は、図1に対応した本発明の位置姿勢の類似度を表す説明図である。 FIG. 6 is an explanatory diagram showing the degree of similarity of the position and orientation of the present invention corresponding to FIG.

図6(a)は、図1(a)と比較して、回転を、カメラ注視点の座標として扱うことによって、回転と並進との間の重み付けが不要となる。
カメラCAMの視線分ベクトルとカメラcam1の視線分ベクトルとの類似度は、例えば以下のように算出される。
1=r1+g1=100mm+300mm=400mm
カメラCAMの視線分ベクトルとカメラcam2の視線分ベクトルとの類似度は、例えば以下のように算出される。
2=r2+g2=120mm+100mm=220mm
この場合も、D1>D2となり、カメラcam2の位置姿勢の方が近いと推定される。
一方で、撮影環境のスケールが変わって、例えば並進tが10000mmオーダとなっても、以下のようになる。
1=r1+g1=10000+30000=40000
2=r2+g2=12000+10000=22000
この場合も、D1>D2となり、カメラcam2の位置姿勢の方が近いと推定され、位置姿勢の比較に変化がなく、スケールを考慮しなくても、カメラcam2の位置姿勢の方が近いと推定される。
In FIG. 6A, as compared with FIG. 1A, the rotation is treated as the coordinates of the camera gazing point, so that the weighting between the rotation and the translation becomes unnecessary.
The similarity between the line-of-sight vector of the camera CAM and the line-of-sight vector of the camera cam1 is calculated as follows, for example.
D 1 = r 1 + g 1 = 100mm + 300mm = 400mm
The similarity between the line-of-sight vector of the camera CAM and the line-of-sight vector of the camera cam2 is calculated as follows, for example.
D 2 = r 2 + g 2 = 120mm + 100mm = 220mm
In this case as well, D 1 > D 2 and it is estimated that the position and orientation of the camera cam 2 are closer.
On the other hand, even if the scale of the shooting environment changes, for example, the translation t is on the order of 10000 mm, the result is as follows.
D 1 = r 1 + g 1 = 10000 + 30000 = 40000
D 2 = r 2 + g 2 = 12000 + 10000 = 22000
In this case as well, D 1 > D 2 and it is estimated that the position and orientation of the camera cam2 are closer, there is no change in the comparison of the position and orientation, and the position and orientation of the camera cam2 is closer without considering the scale. It is estimated to be.

図6(b)は、図1(b)と比較して、カメラCAMに対して、cam1及びcam2が同程度の類似度であり、cam3は類似度が低い(距離が長い)と判定される。本発明によれば、拡大縮小、横ずれ、視線軸に対する回転の影響によって、位置姿勢の類似度が低くなることがない。 In FIG. 6B, as compared with FIG. 1B, it is determined that cam1 and cam2 have the same degree of similarity to the camera CAM, and cam3 has a low degree of similarity (long distance). .. According to the present invention, the similarity of position and orientation is not lowered due to the influence of enlargement / reduction, lateral displacement, and rotation with respect to the line-of-sight axis.

図7は、斜方撮影における本発明の位置姿勢の類似度を表す説明図である。 FIG. 7 is an explanatory diagram showing the degree of similarity between the positions and postures of the present invention in orthorhombic photography.

図7によれば、カメラCAMとカメラcam1、cam2、cam3の類似度の変化は、回転角の変化に対して、線形に近い関係となる。カメラのアングルによって回転の類似度への寄与率が変わりづらく、正対していても回転変化への感度が悪くならない。 According to FIG. 7, the change in the similarity between the camera CAM and the cameras cam1, cam2, and cam3 has a nearly linear relationship with the change in the angle of rotation. The contribution rate to the similarity of rotation does not change easily depending on the angle of the camera, and the sensitivity to the change in rotation does not deteriorate even when facing the camera.

以上、詳細に説明したように、本発明の装置、プログラム及び方法によれば、撮影環境における並進及び回転のスケールに依存することなく、世界座標系における距離との線形性を維持して、撮影画像からカメラの位置姿勢の類似度を算出することができる。 As described in detail above, according to the apparatus, program and method of the present invention, imaging is performed while maintaining linearity with the distance in the world coordinate system without depending on the scale of translation and rotation in the imaging environment. The degree of similarity between the position and orientation of the camera can be calculated from the image.

前述した本発明における種々の実施形態によれば、当業者は、本発明の技術思想及び見地の範囲における種々の変更、修正及び省略を容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 According to the various embodiments of the present invention described above, those skilled in the art can easily make various changes, modifications and omissions within the scope of the technical idea and viewpoint of the present invention. The above explanation is just an example and does not attempt to restrict anything. The present invention is limited only to the scope of claims and their equivalents.

1 装置
101 参照対象記憶部
102 提示視線分記憶部
11 撮影位置姿勢推定部
12 撮影視線分算出部
13 類似度算出部
14 提示情報表示部
1 Device 101 Reference target storage unit 102 Presented line-of-sight storage unit 11 Shooting position / posture estimation unit 12 Photographed line-of-sight calculation unit 13 Similarity calculation unit 14 Presented information display unit

Claims (12)

世界座標値Ptargetを既知とする参照対象が映る撮影画像から、異なるカメラの位置姿勢の類似度を算出する装置であって、
参照対象が映る参照画像と、当該参照対象の参照世界座標値とを対応付けて予め記憶した参照対象記憶手段と、
参照対象が映る撮影画像の画像座標値と当該参照対象の参照画像の参照世界座標値との座標変換に基づいて、当該撮影画像におけるカメラと参照対象との相対的な撮影位置姿勢ベクトル(並進t及び回転θ)を推定する撮影位置姿勢推定手段と、
前記撮影位置姿勢ベクトルを用いて、前記カメラの世界座標値を表すカメラ視点Pcam(x,y,z)から、参照対象の世界座標値Ptargetに対するカメラ注視点Plookat(u,v,w)に向けた撮影視線分ベクトルを算出する撮影視線分算出手段と、
異なる撮影画像における撮影視線分ベクトルの類似度を、カメラの位置姿勢の類似度として算出する類似度算出手段と
を有することを特徴とする装置。
It is a device that calculates the similarity of the position and orientation of different cameras from the captured image showing the reference target whose world coordinate value Ptarget is known.
A reference target storage means in which a reference image showing a reference target and a reference world coordinate value of the reference target are associated and stored in advance, and
Based on the coordinate transformation between the image coordinate value of the captured image in which the reference target is reflected and the reference world coordinate value of the reference image of the reference target, the relative shooting position / orientation vector (translation t) between the camera and the reference target in the captured image. And the shooting position / orientation estimation means for estimating the rotation θ),
Using the shooting position / orientation vector, the camera viewpoint Pcam (x, y, z) representing the world coordinate value of the camera is directed toward the camera gazing point Plookat (u, v, w) with respect to the world coordinate value Ptarget to be referenced. The shooting line-of-sight calculation means for calculating the shooting line-of-sight vector,
An apparatus characterized by having a similarity calculation means for calculating the similarity of shooting line-of-sight vectors in different captured images as the similarity of the position and orientation of a camera.
提示情報と、当該提示情報の提示視線分ベクトルとを対応付けて予め記憶した提示視線分記憶手段と、
前記類似度算出手段で検索された提示視線分ベクトルに対応する提示情報を、前記撮影画像に重畳的に表示する提示情報表示手段と
を更に有し、
前記類似度算出手段は、前記撮影位置姿勢推定手段で用いられた参照対象について、前記撮影視線分ベクトルに最も類似する提示視線分ベクトルを、前記提示視線分記憶手段から検索する
ことを特徴とする請求項1に記載の装置。
A presentation line-of-sight storage means that stores the presentation information in advance by associating the presentation information with the presentation line-of-sight vector of the presentation information.
Further, it has a presentation information display means for displaying the presentation information corresponding to the presentation line-of-sight vector searched by the similarity calculation means superimposed on the captured image.
The similarity calculation means is characterized in that, with respect to the reference target used in the shooting position / orientation estimation means, a presentation line-of-sight vector most similar to the shooting line-of-sight vector is searched from the presentation line-of-sight storage means. The device according to claim 1.
前記提示視線分記憶手段は、同一の参照対象について異なる複数の提示情報それぞれに提示視線分ベクトルを予め記憶している
ことを特徴とする請求項2に記載の装置。
The apparatus according to claim 2, wherein the presented line-of-sight storage means stores a presented line-of-sight vector in advance for each of a plurality of different presentation information for the same reference object.
前記撮影視線分算出手段は、カメラ視点Pcamと、当該カメラ視点Pcamからの撮影方向に伸びる半直線に対して前記参照対象の世界座標値Ptargetから下した垂線との交点であるカメラ注視点Plookatとを結ぶ撮影視線分ベクトルを算出する
ことを特徴とする請求項1から3のいずれか1項に記載の装置。
The shooting line-of-sight calculation means includes a camera gazing point Plookat, which is an intersection of the camera viewpoint Pcam and a perpendicular line drawn from the world coordinate value Ptarget of the reference target with respect to a half straight line extending in the shooting direction from the camera viewpoint Pcam. The apparatus according to any one of claims 1 to 3, wherein the photographing line-of-sight vector connecting the two is calculated.
前記参照画像の世界座標値Ptargetは、対称面Stargetに基づくものであり、
前記撮影視線分算出手段は、カメラ視点Pcamと、当該カメラ視点Pcamからの撮影方向に伸びる半直線と前記対称面Stargetとの交点であるカメラ注視点Plookatとを結ぶ撮影視線分ベクトルを算出する
ことを特徴とする請求項1から3のいずれか1項に記載の装置。
The world coordinate value Ptarget of the reference image is based on the plane of symmetry Starget.
The shooting line-of-sight calculation means calculates a shooting line-of-sight vector connecting the camera viewpoint Pcam and the camera gazing point Plookat, which is the intersection of the half line extending in the shooting direction from the camera viewpoint Pcam and the symmetry plane Starget. The apparatus according to any one of claims 1 to 3, wherein the apparatus is characterized by.
前記類似度算出手段における前記撮影視線分ベクトルの類似度は、視線分ベクトルにおけるカメラ視点(x,y,z)間の距離とカメラ注視点(u,v,w)間の距離との和である
ことを特徴とする請求項1から5のいずれか1項に記載の装置。
The similarity of the photographed line-of-sight vector in the similarity calculation means is the sum of the distance between the camera viewpoints (x, y, z) and the distance between the camera gazing points (u, v, w) in the line-of-sight vector. The device according to any one of claims 1 to 5, wherein the device is provided.
前記類似度算出手段における前記撮影視線分ベクトルの類似度は、視線分ベクトル間のユークリッド距離である
ことを特徴とする請求項1から5のいずれか1項に記載の装置。
The apparatus according to any one of claims 1 to 5, wherein the similarity of the photographed line-of-sight vector in the similarity calculation means is an Euclidean distance between the line-of-sight vectors.
前記類似度算出手段における前記撮影視線分ベクトルの類似度は、異なるカメラ視点Pcam(x,y,z)間のユークリッド距離と、異なるカメラ注視点Plookat(u,v,w)間のユークリッド距離との和である
ことを特徴とする請求項1から5のいずれか1項に記載の装置。
The similarity of the photographing line-of-sight vector in the similarity calculation means is the Euclidean distance between different camera viewpoints Pcam (x, y, z) and the Euclidean distance between different camera gazing points Plookat (u, v, w). The apparatus according to any one of claims 1 to 5, wherein the device is the sum of the above.
前記撮影画像は、時間軸上の所定フレームレートにおける連続的なものであり、
前記類似度算出手段は、時刻tの撮影画像の撮影視線分ベクトルと、類似度算出対象となる提示視線分ベクトルとの類似度に、時刻tの撮影画像の撮影視線分ベクトルと、時刻t-1の撮影画像によって検索された提示視線分ベクトルとの類似度を重み付けて算出する
ことを特徴とする請求項1から8のいずれか1項に記載の装置。
The captured image is continuous at a predetermined frame rate on the time axis.
The similarity calculation means sets the similarity between the captured line-of-sight vector of the captured image at time t and the presented line-of-sight vector to be calculated for the similarity, the captured line-of-sight vector of the captured image at time t, and the time t-. The apparatus according to any one of claims 1 to 8, wherein the similarity with the presented line-of-sight vector searched by the captured image of 1 is weighted and calculated.
前記撮影画像は、時間軸上の所定フレームレートにおける連続的なものであり、
前記類似度算出手段は、時刻tの撮影画像の撮影視線分ベクトルと、類似度算出対象となる提示視線分ベクトルとの類似度に、時刻t-1の撮影画像の撮影視線分ベクトルと、時刻tの撮影画像の撮影視線分ベクトルとの移動量を、時刻t-1の撮影画像によって検索された提示視線分ベクトルに加算して得られる時刻tの提示視線分ベクトルの予想値と、類似度算出対象となる提示視線分ベクトルとの類似度を重み付けて算出する
ことを特徴とする請求項1から8のいずれか1項に記載の装置。
The captured image is continuous at a predetermined frame rate on the time axis.
The similarity calculation means sets the similarity between the captured line-of-sight vector of the captured image at time t and the presented line-of-sight vector to be calculated for the similarity, the captured line-of-sight vector of the captured image at time t-1, and the time. Similarity with the predicted value of the presented line-of-sight vector at time t obtained by adding the amount of movement of the captured image at t with the captured line-of-sight vector to the presented line-of-sight vector searched by the captured image at time t-1. The apparatus according to any one of claims 1 to 8, wherein the degree of similarity with the presentation line-of-sight vector to be calculated is weighted and calculated.
世界座標値Ptargetを既知とする参照対象が映る撮影画像から、異なるカメラの位置姿勢の類似度を算出するようにコンピュータを機能させるプログラムであって、
参照対象が映る参照画像と、当該参照対象の参照世界座標値とを対応付けて予め記憶した参照対象記憶手段と、
参照対象が映る撮影画像の画像座標値と当該参照対象の参照画像の参照世界座標値との座標変換に基づいて、当該撮影画像におけるカメラと参照対象との相対的な撮影位置姿勢ベクトルを推定する撮影位置姿勢推定手段と、
前記撮影位置姿勢ベクトルを用いて、前記カメラの世界座標値を表すカメラ視点Pcam(x,y,z)から、参照対象の世界座標値Ptargetに対するカメラ注視点Plookat(u,v,w)に向けた撮影視線分ベクトルを算出する撮影視線分算出手段と、
異なる撮影画像における撮影視線分ベクトルの類似度を、カメラの位置姿勢の類似度として算出する類似度算出手段と
してコンピュータを機能させることを特徴とするプログラム。
It is a program that makes a computer function to calculate the similarity of the position and orientation of different cameras from the captured image showing the reference target whose world coordinate value Ptarget is known.
A reference target storage means in which a reference image showing a reference target and a reference world coordinate value of the reference target are associated and stored in advance, and
Based on the coordinate transformation between the image coordinate value of the captured image in which the reference target is reflected and the reference world coordinate value of the reference image of the reference target, the relative shooting position / orientation vector between the camera and the reference target in the captured image is estimated. Shooting position / orientation estimation means and
Using the shooting position / orientation vector, the camera viewpoint Pcam (x, y, z) representing the world coordinate value of the camera is directed toward the camera gazing point Plookat (u, v, w) with respect to the world coordinate value Ptarget to be referenced. The shooting line-of-sight calculation means for calculating the shooting line-of-sight vector,
A program characterized in that a computer functions as a similarity calculation means for calculating the similarity of shooting line-of-sight vectors in different captured images as the similarity of the position and orientation of a camera.
世界座標値Ptargetを既知とする参照対象が映る撮影画像から、異なるカメラの位置姿勢の類似度を算出する装置の位置姿勢類似度算出方法であって、
前記装置は、
参照対象が映る参照画像と、当該参照対象の参照世界座標値とを対応付けて予め記憶した参照対象記憶部を有し、
参照対象が映る撮影画像の画像座標値と当該参照対象の参照画像の参照世界座標値との座標変換に基づいて、当該撮影画像におけるカメラと参照対象との相対的な撮影位置姿勢ベクトルを推定する第1のステップと、
前記撮影位置姿勢ベクトルを用いて、前記カメラの世界座標値を表すカメラ視点Pcam(x,y,z)から、参照対象の世界座標値Ptargetに対するカメラ注視点Plookat(u,v,w)に向けた撮影視線分ベクトルを算出する第2のステップと、
異なる撮影画像における撮影視線分ベクトルの類似度を、カメラの位置姿勢の類似度として算出する第3のステップと
を実行することを特徴とする装置の位置姿勢類似度算出方法。
It is a method of calculating the position / orientation similarity of a device that calculates the similarity of the position / orientation of different cameras from a photographed image showing a reference target whose world coordinate value Ptarget is known.
The device
It has a reference target storage unit that stores in advance a reference image in which a reference target is displayed and a reference world coordinate value of the reference target in association with each other.
Based on the coordinate conversion between the image coordinate value of the captured image in which the reference target is reflected and the reference world coordinate value of the reference image of the reference target, the relative shooting position / orientation vector between the camera and the reference target in the captured image is estimated. The first step and
Using the shooting position / orientation vector, the camera viewpoint Pcam (x, y, z) representing the world coordinate value of the camera is directed toward the camera gazing point Plookat (u, v, w) with respect to the world coordinate value Ptarget to be referenced. The second step of calculating the shooting line-of-sight vector
A method for calculating the position / orientation similarity of an apparatus, which comprises executing a third step of calculating the similarity of the captured line-of-sight vectors in different captured images as the similarity of the position / orientation of the camera.
JP2017202220A 2017-10-18 2017-10-18 Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images Active JP6820821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017202220A JP6820821B2 (en) 2017-10-18 2017-10-18 Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202220A JP6820821B2 (en) 2017-10-18 2017-10-18 Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images

Publications (2)

Publication Number Publication Date
JP2019075018A JP2019075018A (en) 2019-05-16
JP6820821B2 true JP6820821B2 (en) 2021-01-27

Family

ID=66545126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202220A Active JP6820821B2 (en) 2017-10-18 2017-10-18 Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images

Country Status (1)

Country Link
JP (1) JP6820821B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583965B2 (en) * 2005-02-22 2010-11-17 エヌ・ティ・ティ・コミュニケーションズ株式会社 Image composition system, image composition method, and image composition program
JP5925757B2 (en) * 2013-12-27 2016-05-25 ヤフー株式会社 Image processing apparatus, image processing method, and image processing program
WO2016002656A1 (en) * 2014-06-30 2016-01-07 凸版印刷株式会社 Line-of-sight measurement system, line-of-sight measurement method, and program
JP6341540B2 (en) * 2014-09-29 2018-06-13 Kddi株式会社 Information terminal device, method and program

Also Published As

Publication number Publication date
JP2019075018A (en) 2019-05-16

Similar Documents

Publication Publication Date Title
CN107330439B (en) Method for determining posture of object in image, client and server
US11443445B2 (en) Method and apparatus for depth estimation of monocular image, and storage medium
Nakhmani et al. A new distance measure based on generalized image normalized cross-correlation for robust video tracking and image recognition
US8144238B2 (en) Image processing apparatus and method
JP6491517B2 (en) Image recognition AR device, posture estimation device, and posture tracking device
JP2011008687A (en) Image processor
US20100283778A1 (en) Frame by frame, pixel by pixel matching of model-generated graphics images to camera frames for computer vision
JP6384856B2 (en) Information device, program, and method for drawing AR object based on predicted camera posture in real time
CN112771572B (en) Object tracking based on user-specified initialization points
JP6420605B2 (en) Image processing device
Kawai et al. Augmented reality marker hiding with texture deformation
Wang et al. Panoramic image mosaic based on SURF algorithm using OpenCV
KR20160146567A (en) Method and device for detecting variable and fast moving object
JP2016005263A (en) Image generation system, terminal, program, and method that generate panoramic image from plurality of photographed images
CN115705651A (en) Video motion estimation method, device, equipment and computer readable storage medium
JP6931267B2 (en) A program, device and method for generating a display image obtained by transforming the original image based on the target image.
Ha et al. Embedded panoramic mosaic system using auto-shot interface
JP6820821B2 (en) Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images
JP6154759B2 (en) Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program
CN111260544B (en) Data processing method and device, electronic equipment and computer storage medium
JP2008203538A (en) Image display system
CN112241967B (en) Target tracking method, device, medium and equipment
JP6341540B2 (en) Information terminal device, method and program
Miyano et al. Camera pose estimation of a smartphone at a field without interest points
CN112615993A (en) Depth information acquisition method, binocular camera module, storage medium and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210105

R150 Certificate of patent or registration of utility model

Ref document number: 6820821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150