JP6931267B2 - A program, device and method for generating a display image obtained by transforming the original image based on the target image. - Google Patents

A program, device and method for generating a display image obtained by transforming the original image based on the target image. Download PDF

Info

Publication number
JP6931267B2
JP6931267B2 JP2018118339A JP2018118339A JP6931267B2 JP 6931267 B2 JP6931267 B2 JP 6931267B2 JP 2018118339 A JP2018118339 A JP 2018118339A JP 2018118339 A JP2018118339 A JP 2018118339A JP 6931267 B2 JP6931267 B2 JP 6931267B2
Authority
JP
Japan
Prior art keywords
image
vector
target
rotation
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018118339A
Other languages
Japanese (ja)
Other versions
JP2019220032A (en
Inventor
翔一郎 三原
翔一郎 三原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018118339A priority Critical patent/JP6931267B2/en
Publication of JP2019220032A publication Critical patent/JP2019220032A/en
Application granted granted Critical
Publication of JP6931267B2 publication Critical patent/JP6931267B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、原画像を、目標画像に基づいて変形させる技術に関する。 The present invention relates to a technique for transforming an original image based on a target image.

従来、撮影対象物に対するカメラの相対的な位置姿勢に応じて、撮影画像にコンテンツをリアルタイムに表示する技術がある(例えば特許文献1、非特許文献1参照)。このコンテンツとは、拡張現実(Augmented Reality)画像として、撮影画像に重畳的に表示可能な仮想画像である。 Conventionally, there is a technique for displaying contents in a photographed image in real time according to the relative position and orientation of the camera with respect to the object to be photographed (see, for example, Patent Document 1 and Non-Patent Document 1). This content is a virtual image that can be displayed superimposed on the captured image as an Augmented Reality image.

図1は、撮影画像に拡張現実の仮想画像を重畳的に表示する説明図である。 FIG. 1 is an explanatory diagram for displaying an augmented reality virtual image superimposed on a captured image.

図1(a)によれば、撮影対象物に、マーカ(参照対象)が貼り付けられている。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。その撮影対象物は、位置姿勢が異なる4台のカメラcam1、cam2、cam3、cam4によって撮影されている。
図1(b)によれば、各カメラの撮影画像が表されている。撮影画像にマーカが映り込む場合、そのマーカは、カメラの向きに応じて異なる角度から映る。撮影画像に映り込むマーカの参照画像の形状から、その位置姿勢が抽出される。
図1(c)によれば、参照対象が映る参照画像毎に、その位置姿勢(参照世界座標値)に応じた仮想画像が予め記憶されている。そして、撮影画像における参照画像の位置姿勢と、予め記憶された複数の参照対象が映る参照画像の位置姿勢ベクトルとを、「距離関数」に基づいて比較する。距離が短い(位置姿勢が類似する)と推定された参照対象に紐づく仮想画像を、撮影画像に重畳的に表示する。コンテンツが立体形状の場合、カメラの視線分ベクトルに応じて、異なる形状の仮想画像が選択される。
図1(d)によれば、表示画像は、目標撮影画像に映るマーカの上に、例えば直方体の仮想画像が重畳的に表示される。
このような処理によって、比較的低い処理負荷で、高品位な仮想画像をリアルタイム表示することができる。
According to FIG. 1A, a marker (reference target) is attached to the object to be photographed. The marker may be, for example, a two-dimensional QR code (registered trademark). The object to be photographed is photographed by four cameras cam1, cam2, cam3, and cam4 having different positions and orientations.
According to FIG. 1B, images taken by each camera are shown. When a marker appears in the captured image, the marker appears from a different angle depending on the orientation of the camera. The position and orientation are extracted from the shape of the reference image of the marker reflected in the captured image.
According to FIG. 1C, a virtual image corresponding to the position / orientation (reference world coordinate value) is stored in advance for each reference image in which the reference object is displayed. Then, the position / orientation of the reference image in the captured image and the position / orientation vector of the reference image in which a plurality of reference objects stored in advance are reflected are compared based on the “distance function”. A virtual image associated with a reference target estimated to have a short distance (similar position / orientation) is displayed superimposed on the captured image. When the content has a three-dimensional shape, virtual images having different shapes are selected according to the line-of-sight vector of the camera.
According to FIG. 1D, for the display image, for example, a rectangular parallelepiped virtual image is superimposed and displayed on the marker displayed on the target captured image.
By such processing, a high-quality virtual image can be displayed in real time with a relatively low processing load.

特開2016−71496号公報 Japanese Unexamined Patent Publication No. 2016-71496

「複雑な光学特性をもつ実物体の写実的な再現のための事前撮影画像による拡張現実システム」、情報処理学会第100回AVM研究会 講演番号No.13、[online]、[平成30年6月13日検索]、インターネット<URL:https://www.ipsj.or.jp/kenkyukai/event/avm100.html>"Augmented Reality System with Pre-Captured Images for Realistic Reproduction of Real Objects with Complex Optical Characteristics", IPSJ 100th AVM Workshop Lecture No.13, [online], [2018 6 Search on March 13], Internet <URL: https://www.ipsj.or.jp/kenkyukai/event/avm100.html> 加藤, M. Billinghurst, 浅野, 橘, "マーカー追跡に基づく拡張現実感システムとそのキャリブレーション", 日本バーチャルリアリティ学会論文誌, vol.4, 20 no.4, pp.607-617, 1999.、[online]、[平成30年6月13日検索]、インターネット<URL:http://intron.kz.tsukuba.ac.jp/tvrsj/4.4/kato/p-99_VRSJ4_4.pdf>Kato, M. Billinghurst, Asano, Tachibana, "Augmented Reality System Based on Marker Tracking and Its Calibration", Journal of The Virtual Reality Society of Japan, vol.4, 20 no.4, pp.607-617, 1999., [online], [Search on June 13, 2018], Internet <URL: http://intron.kz.tsukuba.ac.jp/tvrsj/4.4/kato/p-99_VRSJ4_4.pdf> D.G.Lowe, Distinctive image features from scale-invariant key points, Proc. of Int. Journal of Computer Vision (IJCV), 60(2) pp.91-110 (2004)、[online]、[平成30年6月13日検索]、インターネット<URL:https://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf>DGLowe, Distinctive image features from scale-invariant key points, Proc. Of Int. Journal of Computer Vision (IJCV), 60 (2) pp.91-110 (2004), [online], [June 13, 2018 Day search], Internet <URL: https://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf> H.Bay, T.Tuytelaars, and L.V.Gool, SURF: Speed Up Robust Features, Proc. of Int. Conf. of ECCV, (2006)、[online]、[平成30年6月13日検索]、インターネット<URL:http://www.vision.ee.ethz.ch/~surf/eccv06.pdf>H.Bay, T.Tuytelaars, and LVGool, SURF: Speed Up Robust Features, Proc. Of Int. Conf. Of ECCV, (2006), [online], [Search June 13, 2018], Internet < URL: http://www.vision.ee.ethz.ch/~surf/eccv06.pdf > Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571.、[online]、[平成30年6月13日検索]、インターネット<URL:http://www.willowgarage.com/sites/default/files/orb_final.pdf>Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571., [Online], [Search June 13, 2018], Internet <URL : http://www.willowgarage.com/sites/default/files/orb_final.pdf >

前述した従来技術によれば、選択された仮想画像について、予め記憶された仮想画像の所定平面の位置姿勢が、撮影画像の所定平面の位置姿勢と一致するように、仮想画像を更に射影変換している。これによって、登録された仮想情報に紐づく位置姿勢と、撮影画像の位置姿勢との間のズレを補正している。
しかしながら、仮想画像に含まれる全ての画素を所定平面上の点として扱い、その所定平面の位置姿勢を補正する射影変換を、その所定平面上でない空間に位置する立体物に対しても適用してしまうために、立体物として表現される仮想画像は、その形状が歪んだように変換される。
この課題は、撮影画像と仮想画像との間の位置姿勢のズレに関わらず、一般的な原画像を目的画像に変換しようとした際にも同様である。
According to the above-mentioned prior art, the virtual image is further projected and transformed so that the position / orientation of the predetermined plane of the virtual image stored in advance matches the position / orientation of the predetermined plane of the captured image for the selected virtual image. ing. As a result, the deviation between the position and orientation associated with the registered virtual information and the position and orientation of the captured image is corrected.
However, all the pixels included in the virtual image are treated as points on a predetermined plane, and the projective transformation that corrects the position and orientation of the predetermined plane is applied to a three-dimensional object located in a space other than the predetermined plane. Therefore, the virtual image represented as a three-dimensional object is transformed so that its shape is distorted.
This problem is also the same when trying to convert a general original image into a target image regardless of the difference in position and orientation between the captured image and the virtual image.

図2は、従来技術における原画像を目標画像に基づいて射影変換した説明図である。 FIG. 2 is an explanatory diagram in which the original image in the prior art is projected and transformed based on the target image.

図2によれば、3次元空間を表現する原画像には、参照対象に基づく参照画像と、参照対象以外の立体物とが映り込んでいる。また、目標画像にも、少なくとも参照対象に基づく参照画像が映り込んでいる。
図2からも明らかなとおり、原画像を、所定平面を基準とする射影変換によって、目標画像の視点からの位置姿勢に変換した場合、特に立体物はその形状が歪んだように変換されてしまう。
また、目標画像が、時系列的に変化する映像である場合、射影変換による歪み方も時系列的に変化することとなる。そのために、原画像に剛体立体物が含まれる場合、本来変化しないはずの立体物の形状も時系列的に変化するように見えてしまう。これは、ユーザに対して不自然な印象を与えることとなる。
According to FIG. 2, the reference image based on the reference object and the three-dimensional object other than the reference object are reflected in the original image representing the three-dimensional space. In addition, at least a reference image based on the reference target is reflected in the target image.
As is clear from FIG. 2, when the original image is transformed into the position and orientation of the target image from the viewpoint by the projective transformation based on the predetermined plane, the shape of the three-dimensional object is transformed as if it were distorted. ..
Further, when the target image is an image that changes in time series, the distortion method due to the projective transformation also changes in time series. Therefore, when the original image contains a rigid three-dimensional object, the shape of the three-dimensional object, which should not change originally, seems to change in time series. This gives the user an unnatural impression.

そこで、本発明は、原画像に映る立体物の幾何形状に歪みを生じさせることなく、目標画像の位置姿勢に整合させて変形させた表示画像を生成するプログラム、装置及び方法を提供することを目的とする。 Therefore, the present invention provides a program, an apparatus, and a method for generating a displayed image that is deformed to match the position and orientation of a target image without causing distortion in the geometric shape of a three-dimensional object reflected in the original image. The purpose.

本発明によれば、参照対象が映り込んだ原画像を、当該参照対象が映り込んだ目標画像に基づいて変形した表示画像を生成する装置に搭載されたコンピュータを機能させるプログラムであって、
原画像及び目標画像それぞれについて、当該参照対象が映る参照画像に基づく所定の単位ベクトルを、位置姿勢ベクトルとして推定する位置姿勢推定手段と、
原画像の位置姿勢ベクトルを、目標画像の位置姿勢ベクトルへ整合させる変換行列を算出する変換行列算出手段と、
原画像を変換行列によって変形した表示画像を生成する表示画像生成手段と
してコンピュータを機能させることを特徴とする。
また、本発明のプログラムにおける他の実施形態によれば、
位置姿勢推定手段は、位置姿勢ベクトルを、
世界座標系の鉛直方向の単位ベクトル、
世界座標系の任意の水平方向の単位ベクトル、又は
ユーザによって設定された任意の単位ベクトル
を透視投影変換によって算出したベクトルとする
ようにコンピュータを機能させることも好ましい。
According to the present invention, it is a program that functions a computer mounted on a device that generates a display image in which an original image in which a reference object is reflected is deformed based on a target image in which the reference object is reflected.
For each original image and the target image, the position and orientation estimation means a certain unit vector based on the reference image in which the reference object is reflected, estimated as the position and orientation vector,
A transformation matrix calculation means for calculating a transformation matrix that matches the position / orientation vector of the original image with the position / orientation vector of the target image.
It is characterized in that a computer functions as a display image generation means for generating a display image obtained by transforming an original image by a transformation matrix.
Also, according to other embodiments in the program of the present invention.
The position-posture estimation means uses the position-posture vector,
Vertical unit vector of the world coordinate system,
Any horizontal unit vector in the world coordinate system, or
Any unit vector set by the user
Is a vector calculated by perspective projection transformation.
It is also preferable to make the computer function as such.

本発明のプログラムにおける他の実施形態によれば、
位置姿勢推定手段は、
参照対象が映る参照画像と、当該参照対象の参照世界座標とを対応付けて予め記憶しており、
原画像及び目標画像から、参照画像の局所特徴に基づく特徴点を抽出し、
参照画像の特徴点座標と当該参照対象の参照世界座標との透視投影変換によって、参照対象の相対的な位置姿勢ベクトルを推定する
ようにコンピュータを機能させることも好ましい。
また、本発明のプログラムにおける他の実施形態によれば、
位置姿勢推定手段は、位置姿勢ベクトルの始点を、
ユーザによって設定された任意の点、又は、
カメラ視点の世界座標値から撮影方向に伸びる直線と、参照対象の世界座標値の所定周辺との交点
とするようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
Position and orientation estimation means
The reference image showing the reference object and the reference world coordinates of the reference object are stored in advance in association with each other.
From the original image and the target image, feature points based on the local features of the reference image are extracted.
It is also preferable to make the computer function to estimate the relative position / orientation vector of the reference object by the perspective projection transformation between the feature point coordinates of the reference image and the reference world coordinates of the reference object.
Also, according to other embodiments in the program of the present invention.
The position / orientation estimation means uses the starting point of the position / orientation vector as the starting point.
Any point set by the user, or
The intersection of a straight line extending in the shooting direction from the world coordinate value of the camera viewpoint and a predetermined periphery of the world coordinate value of the reference target.
It is also preferable to make the computer function so as to.

本発明のプログラムにおける他の実施形態によれば、
換行列は、回転θ、並進t及びスケールsによって表され、
変換行列算出手段は、回転θ及び並進tに含まれる誤差を除去し、スケールsにのみ誤差が含まれるように位置姿勢ベクトルを整合した変換行列を算出する
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
Transformation matrix is represented by the rotational theta, translation t and scale s,
It is also preferable that the transformation matrix calculation means causes the computer to function so as to remove the error included in the rotation θ and the translation t and calculate the transformation matrix in which the position / orientation vector is matched so that the error is included only in the scale s.

本発明のプログラムにおける他の実施形態によれば、
変換行列算出手段は、
画像平面内の回転方向を整合させる回転整合手段と、
画像平面内の並進方向を整合させる並進整合手段と、
画像平面内のスケールを整合させるスケール整合手段と
を含むようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
The transformation matrix calculation means is
Rotational alignment means that aligns the rotation direction in the image plane,
A translational alignment means that aligns the translational directions in the image plane,
It is also preferable to have the computer function to include scale matching means for matching the scales in the image plane.

本発明のプログラムにおける他の実施形態によれば、
回転整合手段に続いて並進整合手段を機能させるものであり、
回転整合手段は、画像平面内について原画像の位置姿勢ベクトルの回転方向を、目標画像の位置姿勢ベクトルの回転方向と一致するように回転整合させる回転行列と、当該回転行列に基づいた回転整合後の原画像とを、並進整合手段へ出力し、
並進整合手段は、画像平面内について回転整合後の原画像の位置姿勢ベクトルの並進方向を、目標画像の位置姿勢ベクトルの並進方向と一致するように並進整合させる並進ベクトルと、回転行列と、回転行列及び並進ベクトルに基づいた回転並進整合後の原画像とを、スケール整合手段へ出力する
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
It is intended to function the translational matching means following the rotational matching means.
The rotation matching means rotates and matches the rotation direction of the position / orientation vector of the original image in the image plane so as to match the rotation direction of the position / orientation vector of the target image, and after rotation matching based on the rotation matrix. Output the original image of the above to the translational matching means,
The translational alignment means translates and aligns the translational direction of the position-orientation vector of the original image after rotational alignment in the image plane so as to match the translational direction of the position-orientation vector of the target image, a rotation matrix, and rotation. It is also preferable to make the computer function so as to output the original image after the rotation translation matching based on the matrix and the translation vector to the scale matching means.

本発明のプログラムにおける他の実施形態によれば、
並進整合手段に続いて回転整合手段を機能させるものであり、
並進整合手段は、画像平面内について原画像の位置姿勢ベクトルの並進方向を、目標画像の位置姿勢ベクトルの並進方向と一致するように並進整合させる並進ベクトルと、当該並進ベクトルに基づいた並進整合後の原画像とを、回転整合手段へ出力し、
回転整合手段は、画像平面内について並進整合後の原画像の位置姿勢ベクトルの回転方向を、目標画像の位置姿勢ベクトルの回転方向と一致するように回転整合させる回転行列と、並進ベクトルと、回転行列及び並進ベクトルに基づいた回転並進整合後の原画像とを、スケール整合手段へ出力する
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
The translational matching means is followed by the rotational matching means.
The translational alignment means has a translational vector that translates and aligns the translational direction of the position and orientation vector of the original image in the image plane so as to coincide with the translational direction of the position and orientation vector of the target image, and after translational alignment based on the translational alignment. The original image of is output to the rotation matching means,
The rotation matching means rotates and matches the rotation direction of the position / orientation vector of the original image after translational alignment in the image plane so as to match the rotation direction of the position / orientation vector of the target image, and the translation vector and rotation. It is also preferable to make the computer function so as to output the original image after the rotation translation matching based on the matrix and the translation vector to the scale matching means.

本発明のプログラムにおける他の実施形態によれば、
スケール整合手段は、回転並進整合後の原画像のスケールが目標画像のスケールと一致するように回転並進整合後の原画像をスケール整合させる
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
It is also preferable that the scale matching means causes the computer to function so as to scale-match the original image after the rotation-translation matching so that the scale of the original image after the rotation-translation matching matches the scale of the target image.

本発明のプログラムにおける他の実施形態によれば、
目標画像は、所定フレームレートで時系列的に変化する画像であり、
スケール整合手段は、時系列的に連続して算出されるスケール変換値を平滑化する
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
The target image is an image that changes in time series at a predetermined frame rate.
It is also preferable that the scale matching means causes the computer to function so as to smooth the scale conversion values calculated continuously in time series.

本発明のプログラムにおける他の実施形態によれば、
参照対象は、所定物体又は所定マーカであり、
原画像は、カメラによって事前に撮影された原撮影画像であり、
目標画像は、カメラによってリアルタイムに撮影された目標撮影画像である
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
The reference target is a predetermined object or a predetermined marker.
The original image is an original image taken in advance by the camera.
It is also preferable to make the computer function so that the target image is a target captured image captured in real time by the camera.

本発明のプログラムにおける他の実施形態によれば、
原撮影画像に参照対象が映る参照画像に基づく所定位置に、仮想画像を重畳させた原拡張現実画像から、目標撮影画像に対する目標拡張現実画像を、表示画像として生成するために、
表示画像生成手段は、仮想画像を変換行列によって変形させて、目標撮影画像に映り込んだ参照画像の所定位置に重畳させた目標拡張現実画像を、表示画像として生成する
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
In order to generate a target augmented reality image for the target captured image as a display image from the original augmented reality image in which a virtual image is superimposed on a predetermined position based on the reference image in which the reference target appears in the original captured image.
The display image generation means causes the computer to function so as to transform the virtual image by a transformation matrix and generate a target augmented reality image superimposed on a predetermined position of the reference image reflected in the target captured image as a display image. Is also preferable.

本発明のプログラムにおける他の実施形態によれば、
原拡張現実画像における仮想画像は、原撮影画像に参照対象が映る参照画像に対して、3次元的にカメラ視点から見た形状のものである
ようにコンピュータを機能させることも好ましい。
According to other embodiments in the program of the present invention
It is also preferable to make the computer function so that the virtual image in the original augmented reality image has a shape viewed from the camera viewpoint three-dimensionally with respect to the reference image in which the reference object appears in the original captured image.

本発明によれば、参照対象が映り込んだ原画像を、当該参照対象が映り込んだ目標画像に基づいて変形した表示画像を生成する表示画像生成装置であって、
原画像及び目標画像それぞれについて、当該参照対象が映る参照画像に基づく所定の単位ベクトルを、位置姿勢ベクトルとして推定する位置姿勢推定手段と、
原画像の位置姿勢ベクトルを、目標画像の位置姿勢ベクトルへ整合させる変換行列を算出する変換行列算出手段と、
原画像を変換行列によって変形した表示画像を生成する表示画像生成手段と
を有することを特徴とする。
According to the present invention, it is a display image generation device that generates a display image obtained by transforming an original image in which a reference object is reflected based on a target image in which the reference object is reflected.
For each original image and the target image, the position and orientation estimation means a certain unit vector based on the reference image in which the reference object is reflected, estimated as the position and orientation vector,
A transformation matrix calculation means for calculating a transformation matrix that matches the position / orientation vector of the original image with the position / orientation vector of the target image.
It is characterized by having a display image generation means for generating a display image obtained by transforming the original image by a transformation matrix.

本発明によれば、参照対象が映り込んだ原画像を、当該参照対象が映り込んだ目標画像に基づいて変形した表示画像を生成する装置の表示画像生成方法であって、
装置は、
原画像及び目標画像それぞれについて、当該参照対象が映る参照画像に基づく所定の単位ベクトルを、位置姿勢ベクトルとして推定する第1のステップと、
原画像の位置姿勢ベクトルを、目標画像の位置姿勢ベクトルへ整合させる変換行列を算出する第2のステップと、
原画像を変換行列によって変形した表示画像を生成する第3のステップと
を実行することを特徴とする。
According to the present invention, there is a display image generation method of an apparatus for generating a display image obtained by transforming an original image in which a reference object is reflected based on a target image in which the reference object is reflected.
The device is
For each original image and the target image, a first step of estimating the predetermined unit vector based on the reference image in which the reference object is reflected, as the position and orientation vector,
The second step of calculating the transformation matrix that matches the position / orientation vector of the original image with the position / orientation vector of the target image, and
It is characterized by executing the third step of generating a display image obtained by transforming the original image by a transformation matrix.

本発明のプログラム、装置及び方法によれば、原画像に映る立体物の幾何形状に歪みを生じさせることなく、目標画像の位置姿勢に整合させて変形させた表示画像を生成することができる。 According to the program, apparatus and method of the present invention, it is possible to generate a display image deformed to match the position and orientation of the target image without causing distortion in the geometric shape of the three-dimensional object displayed in the original image.

撮影画像に拡張現実の仮想画像を重畳的に表示する説明図である。It is explanatory drawing which superimposes and displays the virtual image of augmented reality on the photographed image. 従来技術における原画像を目標画像に基づいて射影変換した説明図である。It is explanatory drawing which projected-transformed the original image in the prior art based on a target image. 本発明における原画像を目標画像に基づいて変形した説明図である。It is explanatory drawing which deformed the original image in this invention based on the target image. 本発明における装置の機能構成図である。It is a functional block diagram of the apparatus in this invention. 位置姿勢ベクトルの単位ベクトルを注視点とした説明図である。It is explanatory drawing which made the unit vector of a position-posture vector a gaze point. 透視投影変換によって算出した原画像及び目標画像の位置姿勢ベクトルを表す説明図である。It is explanatory drawing which shows the position | posture vector of the original image and the target image calculated by perspective projection transformation. 原画像を目標画像に基づいて変形した説明図である。It is explanatory drawing which deformed the original image based on the target image. 仮想画像を含む原画像を、目標画像に基づいて変形した説明図である。It is explanatory drawing which deformed the original image including a virtual image based on a target image.

以下では、図面を用いて、本発明を実施するための形態について詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

図3は、本発明における原画像を目標画像に基づいて変形した説明図である。 FIG. 3 is an explanatory view obtained by deforming the original image in the present invention based on the target image.

図3によれば、図2と比較して、原画像に映る立体物の幾何形状に歪みを生じさせることなく、目標画像の位置姿勢に整合させて変形させた表示画像が表されている。このように、原画像を目標画像に対応して変換することによって、本来変化しないはずの立体物の形状について、ユーザが不自然な印象を持つことがないようにする。 According to FIG. 3, as compared with FIG. 2, a displayed image is shown which is deformed to match the position and orientation of the target image without causing distortion in the geometric shape of the three-dimensional object reflected in the original image. By converting the original image corresponding to the target image in this way, the user does not have an unnatural impression about the shape of the three-dimensional object that should not change originally.

図4は、本発明における表示画像生成装置の機能構成図である。 FIG. 4 is a functional configuration diagram of the display image generator according to the present invention.

図4によれば、本発明の表示画像生成装置1は、参照対象が映り込んだ原画像を、当該参照対象が映り込んだ目標画像に基づいて変形した表示画像を生成する。ここで、表示画像生成装置は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末1として表されている。スマートフォンに限られず、タブレットやパーソナルコンピュータであってもよい。
勿論、本発明の機能を、ネットワークを介したサーバに搭載するものであってもよい。例えば、サーバは、通信インタフェースを介して、ユーザのスマートフォンのカメラによって撮影された撮影画像(目標画像)を受信し、原画像をその目標画像に基づいて変形した表示画像を、そのユーザのスマートフォンへ返信するものであってもよい。
尚、本発明を1台の装置のみで実現することなく、本発明の機能を区分して、ネットワークを介したサーバ及び端末のシステムとして構成することもできる。
According to FIG. 4, the display image generation device 1 of the present invention generates a display image obtained by deforming an original image in which a reference object is reflected based on a target image in which the reference object is reflected. Here, the display image generation device is represented as a terminal 1 equipped with a camera and a display, such as a smartphone. It is not limited to a smartphone, but may be a tablet or a personal computer.
Of course, the function of the present invention may be mounted on a server via a network. For example, the server receives a captured image (target image) taken by the camera of the user's smartphone via the communication interface, and displays a display image obtained by transforming the original image based on the target image to the user's smartphone. It may be a reply.
It should be noted that, without realizing the present invention with only one device, the functions of the present invention can be divided and configured as a system of a server and a terminal via a network.

図4によれば、端末1は、位置姿勢推定部11と、変換行列算出部12と、表示画像生成部13とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、装置の表示画像生成方法としても理解できる。
尚、図4よれば、端末1は、参照対象の参照画像が映り込んだ原画像を保持しており、カメラから、参照対象の参照画像が映り込んだ目標画像を取得したとする。このとき原画像を目標画像に変形させた表示画像を生成する。
According to FIG. 4, the terminal 1 has a position / orientation estimation unit 11, a transformation matrix calculation unit 12, and a display image generation unit 13. These functional components are realized by executing a program that makes the computer mounted on the device function. Further, the processing flow of these functional components can be understood as a display image generation method of the device.
According to FIG. 4, it is assumed that the terminal 1 holds the original image in which the reference image of the reference target is reflected, and acquires the target image in which the reference image of the reference target is reflected from the camera. At this time, a display image obtained by transforming the original image into a target image is generated.

[位置姿勢推定部11]
位置姿勢推定部11は、原画像及び目標画像それぞれについて、当該参照対象が映る参照画像に基づく位置姿勢ベクトルを推定する。
「位置姿勢ベクトル」は、カメラから見て、例えば撮影対象物に貼り付けられたマーカ(参照対象)を基準とした相対的な位置姿勢(並進t及び回転θ)である(例えば非特許文献2参照)。
[Position / Posture Estimating Unit 11]
The position / orientation estimation unit 11 estimates the position / orientation vector based on the reference image in which the reference target is reflected for each of the original image and the target image.
The "position / orientation vector" is, for example, a relative position / orientation (translation t and rotation θ) with reference to a marker (reference object) attached to the object to be photographed when viewed from the camera (for example, Non-Patent Document 2). reference).

位置姿勢推定部11は、参照対象が映る参照画像と、当該参照対象の参照世界座標とを対応付けて予め記憶する(例えば非特許文献2におけるマーカ等)。その上で、以下のステップによって、位置姿勢ベクトルを推定する。
(S1)原画像及び目標画像から、局所特徴抽出アルゴリズムによって、参照画像の局所特徴(例えば相対的な輝度勾配)に基づく特徴点を抽出する。
(S2)原画像及び目標画像それぞれについて、参照画像の特徴点座標と当該参照対象の参照世界座標との座標変換に基づいて、参照対象の相対的な位置姿勢ベクトルを推定する。
そして、原画像及び目標画像と、それぞれの位置姿勢ベクトルとを、変換行列算出部12へ出力する。
The position / orientation estimation unit 11 stores in advance the reference image in which the reference object is displayed and the reference world coordinates of the reference object in association with each other (for example, a marker in Non-Patent Document 2). Then, the position / orientation vector is estimated by the following steps.
(S1) From the original image and the target image, feature points based on the local features (for example, relative luminance gradient) of the reference image are extracted by the local feature extraction algorithm.
(S2) For each of the original image and the target image, the relative position / orientation vector of the reference object is estimated based on the coordinate conversion between the feature point coordinates of the reference image and the reference world coordinates of the reference object.
Then, the original image, the target image, and the respective position / orientation vectors are output to the transformation matrix calculation unit 12.

尚、例えば、目標画像に参照対象が映り込んでいない場合や、目標画像のノイズ等の影響によって参照対象の参照画像を抽出できない場合、処理を終了する。そのような場合、カメラによって撮影された目標画像をそのまま、表示画像として、端末1のディスプレイに表示する。 In addition, for example, when the reference target is not reflected in the target image or when the reference image of the reference target cannot be extracted due to the influence of noise of the target image or the like, the process is terminated. In such a case, the target image captured by the camera is displayed as it is on the display of the terminal 1 as a display image.

参照画像の特徴情報は、回転やスケールの変化にロバストな、例えばSIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)の特徴量であってもよいし、コンパクトな局所特徴を高速に抽出するORB(Oriented FAST and Rotated BRIEF)の特徴量であってもよい(例えば非特許文献3、4、5参照)。
例えばSIFTの場合、1枚の画像からは128次元の局所特徴の集合が抽出される。SIFTとは、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる局所特徴を記述する技術である。
また、SURFの場合、SIFTよりも高速処理が可能であって、1枚の画像から64次元の局所特徴の集合が抽出される。SIFTは、処理コストが高く且つリアルタイムマッチングが困難であるのに対し、SURFは、積分画像を利用することによって処理を高速化している。
更に、ORBの場合、スマートフォンやタブレットのようなモバイル端末が普及する中で、拡張現実感の用途について、省メモリ化及び高速マッチング化に適する。
The feature information of the reference image may be a feature quantity of SIFT (Scale-Invariant Feature Transform) or SURF (Speeded Up Robust Features), which is robust to rotation and scale change, or compact local feature at high speed. It may be a feature amount of ORB (Oriented FAST and Rotated BRIEF) to be extracted (see, for example, Non-Patent Documents 3, 4, and 5).
For example, in the case of SIFT, a set of 128-dimensional local features is extracted from one image. SIFT is a technique for analyzing a characteristic local region using a scale space and describing a local feature that is invariant to the scale change and rotation.
Further, in the case of SURF, faster processing than SIFT is possible, and a set of 64-dimensional local features is extracted from one image. While SIFT has a high processing cost and difficult real-time matching, SURF speeds up processing by using an integrated image.
Further, in the case of ORB, as mobile terminals such as smartphones and tablets become widespread, it is suitable for memory saving and high-speed matching for augmented reality applications.

位置姿勢推定部11は、世界座標系の位置姿勢ベクトルgwldを算出する。位置姿勢ベクトルは少なくとも、長さをもつ3次元ベクトルであり、所定の単位ベクトルとする。
位置姿勢ベクトルは、例えば以下のいずれかの単位ベクトルを、透視投影変換によって算出したベクトルをいう。
(1)世界座標系の鉛直方向の単位ベクトル
(2)世界座標系の任意の水平方向の単位ベクトル
(3)ユーザによって設定された任意の単位ベクトル
The position / orientation estimation unit 11 calculates the position / attitude vector gwld in the world coordinate system. The position / orientation vector is at least a three-dimensional vector having a length, and is a predetermined unit vector.
The position / orientation vector refers to a vector obtained by, for example, any of the following unit vectors calculated by a perspective projection transformation.
(1) Vertical unit vector of the world coordinate system (2) Arbitrary horizontal unit vector of the world coordinate system (3) Arbitrary unit vector set by the user

また、世界座標系の位置姿勢ベクトルgwldの始点(世界基準点Gwld)は、参照対象の3次元空間上のいずれの点でもよい。例えば以下のいずれかの点であってもよい。
(1)ユーザによって設定された、原画像と目標画像との両方に含まれる任意の点
(2)カメラ視点の世界座標値から撮影方向に伸びる直線(視線分ベクトル)と、参照対象の世界座標値の所定周辺との交点
Further, the starting point (world reference point Gwld) of the position / orientation vector gwld in the world coordinate system may be any point on the three-dimensional space of the reference target. For example, it may be any of the following points.
(1) Arbitrary point set by the user and included in both the original image and the target image (2) A straight line (line-of-sight vector) extending from the world coordinate value of the camera viewpoint in the shooting direction and the world coordinate of the reference target The intersection with the specified periphery of the value

図5は、位置姿勢ベクトルの単位ベクトルを注視点とした説明図である。 FIG. 5 is an explanatory diagram with the unit vector of the position / orientation vector as the gazing point.

図5によれば、カメラの世界座標値を用いて、カメラ視点Pcam(x,y,z)から参照対象に向けた「撮影視線分ベクトル」が表されている。カメラ視点Pcam(x,y,z)から撮影方向に伸びる半直線と、参照対象に基づく対称面との交点Plookat(u,v,w)を、注視点とし、その注視点を単位ベクトルの始点としている。 According to FIG. 5, the “shooting line-of-sight vector” from the camera viewpoint Pcam (x, y, z) toward the reference target is represented by using the world coordinate values of the camera. The intersection Plookat (u, v, w) between the half line extending from the camera viewpoint Pcam (x, y, z) in the shooting direction and the plane of symmetry based on the reference object is the gazing point, and the gazing point is the starting point of the unit vector. It is supposed to be.

図6は、透視投影変換によって算出した原画像及び目標画像の位置姿勢ベクトルを表す説明図である。 FIG. 6 is an explanatory diagram showing the position / orientation vectors of the original image and the target image calculated by the perspective projection conversion.

図6によれば、原画像Isについて、世界座標系の位置姿勢ベクトルgwldを、透視投影変換によって原画像Isの平面に射影して、原画像Isの位置姿勢ベクトルgs(始点Gs)を算出する。
同様に、目標画像Idについても、世界座標系の位置姿勢ベクトルgwldを、透視投影変換によって目標画像Idの平面に射影して、目標画像の位置姿勢ベクトルgd(始点Gd)を算出する。
そして、位置姿勢推定部11は、原画像Isの位置姿勢ベクトルgsと、目標画像Idの位置姿勢ベクトルgdとを、変換行列算出部12へ出力する。
According to FIG. 6, for the original image Is, the position / orientation vector gwld of the world coordinate system is projected onto the plane of the original image Is by fluoroscopic projection conversion, and the position / orientation vector gs (start point Gs) of the original image Is is calculated. ..
Similarly, for the target image Id, the position / orientation vector gwld in the world coordinate system is projected onto the plane of the target image Id by fluoroscopic projection conversion to calculate the position / orientation vector gd (start point Gd) of the target image.
Then, the position / orientation estimation unit 11 outputs the position / orientation vector gs of the original image Is and the position / orientation vector gd of the target image Id to the transformation matrix calculation unit 12.

[変換行列算出部12]
変換行列算出部12は、原画像Isの位置姿勢ベクトルgsを、目標画像Idの位置姿勢ベクトルgdへ整合させる変換行列を算出する。
[Transformation matrix calculation unit 12]
The transformation matrix calculation unit 12 calculates a transformation matrix that matches the position / orientation vector gs of the original image Is with the position / orientation vector gd of the target image Id.

図7は、原画像を目標画像に基づいて変形した説明図である。
図7(a)によれば、原画像の参照画像に基づく位置姿勢ベクトルを、目標画像の参照画像に基づく位置姿勢ベクトルへ、回転並進整合させること表している。
FIG. 7 is an explanatory view obtained by deforming the original image based on the target image.
According to FIG. 7A, the position / orientation vector based on the reference image of the original image is rotationally translated and matched with the position / orientation vector based on the reference image of the target image.

ここで、変換行列を算出するために、以下の2つの方法がある。
<<相似変換に基づく位置姿勢の整合>>
<<回転及び並進の誤差を除去し、スケールのみに誤差を含める位置姿勢の整合>>
Here, there are the following two methods for calculating the transformation matrix.
<< Matching of position and orientation based on similarity transformation >>
<< Position-orientation matching that eliminates rotation and translation errors and includes errors only in the scale >>

<<相似変換に基づく位置姿勢の整合>>
変換行列算出部12は、原画像Isに映る参照画像の特徴点座標(xi,yi)(i∈I、Iは特徴点の添字集合)から、目標画像Idに映る参照画像の特徴点座標(Xi,Yi)への相似変換行列を、変換行列として算出する。相似変換を、以下のように定義する。

Figure 0006931267
<< Matching of position and orientation based on similarity transformation >>
The transformation matrix calculation unit 12 starts from the feature point coordinates (xi, yi) of the reference image reflected in the original image Is (i ∈ I, I is a subscript set of feature points) to the feature point coordinates of the reference image reflected in the target image Id. The similarity conversion matrix to Xi, Yi) is calculated as a conversion matrix. The similarity transformation is defined as follows.
Figure 0006931267

ここで、以下のようにおく。

Figure 0006931267
原画像Isと目標画像Idとから抽出された特徴点のうち、対応の存在する特徴点の添字集合をJ={j0,・・・,jN}とすると、前述の式[1]は、以下のように書き換えられる。
Figure 0006931267
Here, it is set as follows.
Figure 0006931267
Of the feature points extracted from the original image Is and the target image Id, if the index set of the feature points having a correspondence is J = {j 0 , ..., j N }, the above equation [1] is , Is rewritten as follows.
Figure 0006931267

次に、式[3]をAx=bとおくと、xは最小二乗法によって、以下のように算出される。
x=(ATA)-1Tb 式[4]
パラメータa,b,c,dによって、以下の相似変換行列Mが算出される。

Figure 0006931267
Next, assuming that the equation [3] is Ax = b, x is calculated by the least squares method as follows.
x = (A T A) -1 A T b equation [4]
The following similarity transformation matrix M is calculated by the parameters a, b, c, and d.
Figure 0006931267

前述した図3のように、3次元空間の立体物が映る原画像を、目標画像に合わせて、平面を基準とする相似変換で異なる視点から見えるように変換する。これによって、画像内の立体物の幾何形状を保ったまま、所定平面の位置姿勢が凡そ一致するように位置姿勢を整合させることができる。 As shown in FIG. 3 described above, the original image in which a three-dimensional object in the three-dimensional space is reflected is converted so that it can be seen from different viewpoints by a homothety conversion based on a plane according to the target image. As a result, the positions and orientations can be aligned so that the positions and orientations of the predetermined planes are approximately the same while maintaining the geometric shape of the three-dimensional object in the image.

ここで、前述した式[5]によれば、誤差を最小化する近似解を算出するために、並進、回転及びスケールの3要素全てに誤差が含まれる。一方で、前述した非特許文献1のように、位置姿勢を整合した仮想画像を代置してユーザに提示する場合、当該仮想画像のスケールに含まれる誤差は、カメラの画角の影響として知覚されるために、不自然な印象を与えることはない。しかしながら、回転及び並進に含まれる誤差は、実世界とのズレとして知覚されるため、ユーザに不自然な印象を与えてしまう。 Here, according to the above-mentioned equation [5], an error is included in all three elements of translation, rotation, and scale in order to calculate an approximate solution that minimizes the error. On the other hand, as in Non-Patent Document 1 described above, when a virtual image whose position and orientation are matched is presented to the user in place, the error included in the scale of the virtual image is perceived as the influence of the angle of view of the camera. Because it is done, it does not give an unnatural impression. However, the error included in the rotation and translation is perceived as a deviation from the real world, which gives the user an unnatural impression.

<<回転及び並進の誤差を除去し、スケールのみに誤差を含める位置姿勢の整合>>
変換行列算出部12は、回転θ及び並進tに含まれる誤差を除去し、スケールsにのみ誤差が含まれるように、位置姿勢を整合させる変換行列を算出する。
<< Position-orientation matching that eliminates rotation and translation errors and includes errors only in the scale >>
The transformation matrix calculation unit 12 removes the error included in the rotation θ and the translation t, and calculates the transformation matrix that matches the position and orientation so that the error is included only in the scale s.

変換行列算出部12は、以下の3つの機能からなる。
画像平面内の回転方向を整合させる回転整合部
画像平面内の並進方向を整合させる並進整合部
画像平面内のスケールを整合させるスケール整合部
本発明によれば、変換行列算出部12は、回転整合部及び並進整合部を、スケール整合部よりも優先的に機能させる。
The transformation matrix calculation unit 12 has the following three functions.
Rotational matching unit that aligns the rotation directions in the image plane Translational matching unit that aligns the translational directions in the image plane Scale matching unit that aligns the scales in the image plane According to the present invention, the transformation matrix calculation unit 12 is a rotational matching unit. The part and the translation matching part are made to function preferentially over the scale matching part.

変換行列算出部は、回転整合部と並進整合部とは、以下のような順序で機能させる。
<回転整合部1211->並進整合部1222>
<並進整合部1221->回転整合部1212>
In the transformation matrix calculation unit, the rotation matching unit and the translation matching unit function in the following order.
<Rotation matching unit 1211-> Translation matching unit 1222>
<Translation matching part 1221-> Rotation matching part 1212>

<回転整合部1211->並進整合部1222>
[回転整合部1211]
回転整合部は、画像平面内について原画像の位置姿勢ベクトルgsの回転方向を、目標画像の位置姿勢ベクトルgdの回転方向と一致するように回転整合させる回転行列Rと、当該回転行列Rに基づいた回転整合後の原画像Is(R)とを、並進整合部へ出力する。
この回転角θは、反時計回りの回転方向を正として、以下のように算出される。
θ=sgn(gs×gd)arccos((gs・gd)/(|gs||gd|)) 式[6]
<Rotation matching unit 1211-> Translation matching unit 1222>
[Rotation matching unit 1211]
The rotation matching unit is based on a rotation matrix R that rotationally aligns the rotation direction of the position / orientation vector gs of the original image in the image plane so as to coincide with the rotation direction of the position / orientation vector gd of the target image, and the rotation matrix R. The original image Is (R) after rotation matching is output to the translation matching section.
This rotation angle θ is calculated as follows, with the counterclockwise rotation direction as positive.
θ = sgn (gs × gd) arccos ((gs · gd) / (| gs || gd |)) Equation [6]

回転整合部は、回転行列Rを、以下のように算出する。

Figure 0006931267
これは、原画像Isの中心座標値(cx,cy)を用いて、原画像Isの同次座標系に積算したものである。
これによって、回転整合部は、回転角θを用いて原画像Isを回転整合し、回転整合後の原画像Is(R)を算出する。
そして、回転整合部は、回転行列Rと回転整合後の原画像Is(R)とを、並進整合部へ出力する。 The rotation matching unit calculates the rotation matrix R as follows.
Figure 0006931267
This is integrated into the homogeneous coordinate system of the original image Is using the center coordinate values (cx, cy) of the original image Is.
As a result, the rotation matching unit rotates and matches the original image Is using the rotation angle θ, and calculates the original image Is (R) after the rotation matching.
Then, the rotation matching unit outputs the rotation matrix R and the original image Is (R) after the rotation matching to the translation matching unit.

[並進整合部1222]
次に、並進整合部は、画像平面内について回転整合後の原画像Is(R)の位置姿勢ベクトルの並進方向を、目標画像Idの位置姿勢ベクトルの並進方向と一致するように並進整合させる並進ベクトルTと、回転行列R及び並進ベクトルTに基づいた回転並進整合後の原画像Is(RT)とを、スケール整合部へ出力する。
[Translation matching unit 1222]
Next, the translational matching unit translates and aligns the translational direction of the position-orientation vector of the original image Is (R) after rotation-matching in the image plane so as to coincide with the translational direction of the position-orientation vector of the target image Id. The vector T and the original image Is (RT) after the rotation translation matching based on the rotation matrix R and the translation vector T are output to the scale matching unit.

並進整合部は、原画像Isの点Gsから目標画像Idの点GdまでのベクトルGsGdを、回転整合部から入力された回転行列Rを用いて回転させ、並進ベクトルTとして算出する。点Oを原点として、以下のように表される。
T=R(GsGd)=R(OGd−OGs) 式[8]
この並進ベクトルTを、回転整合部から入力された回転整合後の原画像Is(R)の座標系に加算することによって並進整合し、その回転並進整合後の原画像Is(RT)を算出する。
そして、並進整合部は、回転並進整合後の原画像Is(RT)と、回転行列R及び並進ベクトルTを、スケール整合部へ出力する。
The translation matching unit rotates the vector GsGd from the point Gs of the original image Is to the point Gd of the target image Id using the rotation matrix R input from the rotation matching unit, and calculates it as the translation vector T. It is expressed as follows with the point O as the origin.
T = R (GsGd) = R (OGd-OGs) Equation [8]
By adding this translation vector T to the coordinate system of the original image Is (R) after rotation matching input from the rotation matching unit, translation matching is performed, and the original image Is (RT) after the rotation translation matching is calculated. ..
Then, the translation matching unit outputs the original image Is (RT) after the rotation translation matching, the rotation matrix R, and the translation vector T to the scale matching unit.

<並進整合部1221->回転整合部1212>
[並進整合部1221]
並進整合部は、画像平面内について原画像の位置姿勢ベクトルgsの並進方向を、目標画像の位置姿勢ベクトルgdの並進方向と一致するように並進整合させる並進ベクトルTと、当該並進ベクトルTに基づいた並進整合後の原画像Is(T)とを、回転整合部へ出力する。
この並進ベクトルTは、点Oを原点として、以下のように表される。
T=GsGd=OGd−OGs 式[9]
この並進ベクトルTを、原画像Isの座標系に加算することによって並進整合し、その並進整合後の画像Is(T)と、並進ベクトルTとを、回転整合部へ出力する。
<Translation matching part 1221-> Rotation matching part 1212>
[Translation matching part 1221]
The translation matching unit is based on a translation vector T that translates and aligns the translation direction of the position / orientation vector gs of the original image in the image plane so as to coincide with the translation direction of the position / orientation vector gd of the target image, and the translation vector T. The original image Is (T) after translational matching is output to the rotation matching section.
This translation vector T is expressed as follows with the point O as the origin.
T = GsGd = OGd-OGs equation [9]
The translational vector T is added to the coordinate system of the original image Is for translational matching, and the image Is (T) after the translational matching and the translational vector T are output to the rotation matching unit.

[回転整合部1212]
次に、回転整合部は、画像平面内について並進整合後の原画像Is(T)の位置姿勢ベクトルの回転方向を、目標画像の位置姿勢ベクトルの回転方向と一致するように回転整合させる回転行列Rと、当該回転行列R及び並進ベクトルTに基づいた回転並進整合後の原画像Is(RT)とを、スケール整合部へ出力する。
この回転角θは、反時計回りの回転方向を正として、以下のように算出される。
θ=sgn(gs×gd)arccos((gs・gd)/(|gs||gd|)) 式[10]
[Rotation matching unit 1212]
Next, the rotation matching unit rotates and aligns the rotation direction of the position / orientation vector of the original image Is (T) after translational alignment in the image plane so as to coincide with the rotation direction of the position / orientation vector of the target image. The R and the original image Is (RT) after the rotation translation matching based on the rotation matrix R and the translation vector T are output to the scale matching unit.
This rotation angle θ is calculated as follows, with the counterclockwise rotation direction as positive.
θ = sgn (gs × gd) arccos ((gs · gd) / (| gs || gd |)) Equation [10]

回転整合部は、回転行列Rを、以下のように算出する。

Figure 0006931267
これは、引数に対応する座標値を返す関数Gd(・)を用いて、原画像のIsの同次座標系に積算したものである。
これによって、回転整合部は、回転角θを用いて並進整合後の原画像Is(T)を回転整合し、回転並進整合後の原画像Is(RT)を算出する。
そして、回転整合部は、回転並進整合後の原画像Is(RT)と、回転行列R及び並進ベクトルTとを、スケール整合部へ出力する。 The rotation matching unit calculates the rotation matrix R as follows.
Figure 0006931267
This is integrated into the homogeneous coordinate system of Is of the original image using the function Gd (・) that returns the coordinate values corresponding to the arguments.
As a result, the rotation matching unit rotates and matches the original image Is (T) after the translational matching using the rotation angle θ, and calculates the original image Is (RT) after the translational translation matching.
Then, the rotation matching unit outputs the original image Is (RT) after the rotation translation matching, the rotation matrix R, and the translation vector T to the scale matching unit.

[スケール整合部]
スケール整合部は、回転並進整合後の原画像Is(RT)のスケールを、目標画像Idのスケールと一致するようにスケール整合させ、原画像Is(sRT)を出力する。
[Scale matching part]
The scale matching unit scale-matches the scale of the original image Is (RT) after the rotational translation matching so as to match the scale of the target image Id, and outputs the original image Is (sRT).

スケール整合部は、原画像Isから抽出された特徴点座標に対して、入力された回転行列R及び並進ベクトルTを用いて回転並進変換をする。当該特徴点座標(xi,yi)に対して、回転並進変換後の特徴点座標(xi(RT),yi(RT))は、以下のように算出される。

Figure 0006931267
i∈I(Iは、特徴点の添字集合) The scale matching unit performs rotation translation transformation on the feature point coordinates extracted from the original image Is using the input rotation matrix R and translation vector T. With respect to the feature point coordinates (xi, yi), the feature point coordinates (xi (RT), yi (RT)) after the rotational translation transformation are calculated as follows.
Figure 0006931267
i ∈ I (I is the index set of feature points)

目標画像から抽出された特徴点座標(Xi,Yi)は、スケール変換値sを用いて、以下のように算出される。

Figure 0006931267
j∈J(Jは、対応が存在する特徴点の添字集合)
尚、目標画像の点Gdを中心とするスケール変換をすることによって、目標画像の点Gdの位置を固定したスケール変換をしていることに注意すべきである。 The feature point coordinates (Xi, Yi) extracted from the target image are calculated as follows using the scale conversion value s.
Figure 0006931267
j ∈ J (J is an index set of feature points for which a correspondence exists)
It should be noted that the scale conversion is performed with the position of the point Gd of the target image fixed by performing the scale conversion centered on the point Gd of the target image.

前述の式[13]について、以下のようにおく。
bs:左辺の縦ベクトルを添字展開して横方向に並べた行列
Ad:右辺の縦ベクトルを添字展開して横方向に並べた行列
この場合、スケール変換値sは、最小二乗法を用いて、以下のように算出される。
s=(AdAd)−1Adbs 式[14]
The above equation [13] is set as follows.
bs: A matrix in which the vertical vectors on the left side are subscripted and arranged in the horizontal direction Ad: A matrix in which the vertical vectors on the right side are subscripted and arranged in the horizontal direction In this case, the scale conversion value s is the least squares method. It is calculated as follows.
s = (Ad T Ad) -1 Ad T bs equation [14]

スケール整合部は、スケール変換値sを、画像の座標系に積算することによって算出する。
そして、変換行列算出部12のスケール整合部は、最終的に、変換行列(回転、並進、スケール)を、表示画像生成部13へ出力する。
The scale matching unit calculates by integrating the scale conversion value s into the coordinate system of the image.
Then, the scale matching unit of the transformation matrix calculation unit 12 finally outputs the transformation matrix (rotation, translation, scale) to the display image generation unit 13.

<時系列に変化する目標画像に対する実施形態>
目標画像の特徴点座標(Xi(t),Yi(t))が時系列に変化する場合、スケール変換値s(t)も不安定に変動する可能性がある。これによって、位置姿勢ベクトルを整合させるスケールも不安定に変動し、ユーザに不自然な印象を与えてしまう。
<Embodiment for a target image that changes in time series>
When the feature point coordinates (Xi (t), Yi (t)) of the target image change in time series, the scale conversion value s (t) may also fluctuate erratically. As a result, the scale for matching the position / orientation vectors also fluctuates erratically, giving the user an unnatural impression.

そこで、変換行列算出部12のスケール整合部は、時系列的に連続して算出されるスケール変換値s(t)を平滑化する。
スケール整合部は、自ら算出したスケール変換値s(t)から、Kステップ時刻前のスケール変換値s(t-K)までを記憶し、以下のように、平滑化されたスケール変換値s(t)を算出する。
s(t)=1/(K+1) Σk=0 K s(t-k) 式[15]
スケール整合部は、そのスケール変換値s(t)を、回転並進整合後の原画像Is(RT(t))の座標系に積算することによって、位置姿勢を整合した原画像Is(sRT(t))を算出する。
Therefore, the scale matching unit of the transformation matrix calculation unit 12 smoothes the scale conversion value s (t) calculated continuously in time series.
The scale matching unit stores from the scale conversion value s (t) calculated by itself to the scale conversion value s (tK) before the K step time, and the smoothed scale conversion value s (t) is as follows. Is calculated.
s (t) = 1 / (K + 1) Σ k = 0 K s (tk) Equation [15]
The scale matching unit integrates the scale conversion value s (t) into the coordinate system of the original image Is (RT (t)) after the rotation translation matching, so that the position and orientation of the original image Is (sRT (t)) are matched. )) Is calculated.

これによって、目標画像が所定フレームレートで時系列に変化する場合でも、画像内に映り込む立体物の幾何形状の歪みを生じさせず、立体物の位置姿勢が安定したように見える表示画像を生成する。即ち、時系列に連続してリアルタイムに表示画像を閲覧するユーザが、できる限り違和感を持たないようにすることができる。 As a result, even when the target image changes in time series at a predetermined frame rate, a display image in which the position and orientation of the three-dimensional object appear to be stable is generated without causing distortion of the geometric shape of the three-dimensional object reflected in the image. do. That is, it is possible to prevent the user who browses the displayed image in real time continuously in time series from feeling uncomfortable as much as possible.

尚、前述した位置姿勢推定部11と、変換行列算出部12と、表示画像生成部13とが、時系列の目標画像毎に実行される The position / orientation estimation unit 11, the transformation matrix calculation unit 12, and the display image generation unit 13 described above are executed for each target image in the time series.

[表示画像生成部13]
表示画像生成部13は、原画像Isの座標系に変換行列Mを積算することによって、位置姿勢の整合された表示画像を生成する。
図7(b)によれば、原画像を、変換行列に基づいて回転・並進・スケールを整合させた表示画像を表している。
[Display image generation unit 13]
The display image generation unit 13 generates a display image in which the position and orientation are matched by integrating the transformation matrix M into the coordinate system of the original image Is.
According to FIG. 7B, the original image represents a display image in which rotation, translation, and scale are matched based on a transformation matrix.

図8は、仮想画像を含む原画像を、目標画像に基づいて変形した説明図である。 FIG. 8 is an explanatory view obtained by deforming an original image including a virtual image based on a target image.

図8によれば、以下のようなものとする。
参照対象 :所定物体又は所定マーカ
原撮影画像:カメラによって事前に撮影された参照画像を含む原撮影画像
原画像 :原撮影画像に重畳すべき原仮想画像
目標画像 :カメラによってリアルタイムに撮影された参照画像を含む目標撮影画像
表示画像 :目標撮影画像に、原仮想画像を変形した目標仮想画像を重畳した目標拡張現実画像
According to FIG. 8, it is as follows.
Reference target: Predetermined object or predetermined marker Original captured image: Original captured image including a reference image previously captured by the camera Original image: Original virtual image to be superimposed on the original captured image Target image: Reference captured in real time by the camera Target captured image including image Display image: Target augmented real image in which the target virtual image obtained by transforming the original virtual image is superimposed on the target captured image.

図8(a)によれば、原撮影画像について、参照対象が映る参照画像に基づく所定位置の位置姿勢ベクトルが推定され、目標撮影画像についても、参照対象が映る参照画像に基づく所定位置の位置姿勢ベクトルが推定される。そして、原撮影画像の位置姿勢ベクトルを、目標撮影画像の位置姿勢ベクトルへ回転並進整合させて、変換行列を算出する。
図8(b)によれば、その変換行列を用いて、原仮想画像を変形して、目標仮想画像が生成される。
図8(c)によれば、目標画像に目標仮想画像を重畳して、目標拡張現実画像としての表示画像が生成される。
According to FIG. 8A, the position / orientation vector of the predetermined position based on the reference image in which the reference target is projected is estimated for the original captured image, and the position of the predetermined position in the target captured image based on the reference image in which the reference target is projected. The attitude vector is estimated. Then, the position / orientation vector of the original captured image is rotationally translated and matched with the position / orientation vector of the target captured image, and the transformation matrix is calculated.
According to FIG. 8B, the transformation matrix is used to transform the original virtual image to generate a target virtual image.
According to FIG. 8C, the target virtual image is superimposed on the target image to generate a display image as the target augmented reality image.

以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、原画像に映る立体物の幾何形状に歪みを生じさせることなく、目標画像の位置姿勢に整合させて変形させた表示画像を生成することができる。
また、原仮想画像の立体物の幾何形状に歪みを生じさせることなく、目標撮影画像の位置姿勢に整合させて変形させて重畳的に表示し、目標拡張現実画像としての表示画像を生成することもできる。
As described in detail above, according to the program, apparatus, and method of the present invention, the geometric shape of the three-dimensional object reflected in the original image is deformed in accordance with the position and orientation of the target image without causing distortion. A display image can be generated.
In addition, without causing distortion in the geometric shape of the three-dimensional object of the original virtual image, it is deformed to match the position and orientation of the target captured image and displayed in a superimposed manner to generate a display image as a target augmented reality image. You can also.

前述した本発明における種々の実施形態によれば、当業者は、本発明の技術思想及び見地の範囲における種々の変更、修正及び省略を容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 According to the various embodiments of the present invention described above, those skilled in the art can easily make various changes, modifications and omissions within the scope of the technical idea and viewpoint of the present invention. The above explanation is just an example and does not attempt to restrict anything. The present invention is limited only to the claims and their equivalents.

1 装置
11 位置姿勢推定部
12 変換行列算出部
13 表示画像生成部
1 Device 11 Position / orientation estimation unit 12 Transformation matrix calculation unit 13 Display image generation unit

Claims (15)

参照対象が映り込んだ原画像を、当該参照対象が映り込んだ目標画像に基づいて変形した表示画像を生成する装置に搭載されたコンピュータを機能させるプログラムであって、
原画像及び目標画像それぞれについて、当該参照対象が映る参照画像に基づく所定の単位ベクトルを、位置姿勢ベクトルとして推定する位置姿勢推定手段と、
原画像の前記位置姿勢ベクトルを、目標画像の前記位置姿勢ベクトルへ整合させる変換行列を算出する変換行列算出手段と、
原画像を前記変換行列によって変形した表示画像を生成する表示画像生成手段と
してコンピュータを機能させることを特徴とするプログラム。
A program that functions a computer mounted on a device that generates a display image obtained by transforming an original image in which a reference object is reflected based on a target image in which the reference object is reflected.
For each original image and the target image, the position and orientation estimation means a certain unit vector based on the reference image in which the reference object is reflected, estimated as the position and orientation vector,
A transformation matrix calculation means for calculating a transformation matrix that matches the position / orientation vector of the original image with the position / orientation vector of the target image.
A program characterized in that a computer functions as a display image generation means for generating a display image obtained by transforming an original image by the transformation matrix.
前記位置姿勢推定手段は、前記位置姿勢ベクトルを、
世界座標系の鉛直方向の単位ベクトル、
世界座標系の任意の水平方向の単位ベクトル、又は
ユーザによって設定された任意の単位ベクトル
を透視投影変換によって算出したベクトルとする
ようにコンピュータを機能させることを特徴とする請求項に記載のプログラム。
The position / orientation estimation means uses the position / attitude vector.
Vertical unit vector of the world coordinate system,
The program according to claim 1 , wherein the computer functions so that an arbitrary horizontal unit vector in the world coordinate system or an arbitrary unit vector set by the user is a vector calculated by fluoroscopic projection transformation. ..
前記位置姿勢推定手段は、
参照対象が映る参照画像と、当該参照対象の参照世界座標とを対応付けて予め記憶しており、
原画像及び目標画像から、前記参照画像の局所特徴に基づく特徴点を抽出し、
前記参照画像の特徴点座標と当該参照対象の参照世界座標との透視投影変換によって、参照対象の相対的な位置姿勢ベクトルを推定する
ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。
The position / orientation estimation means
The reference image showing the reference object and the reference world coordinates of the reference object are stored in advance in association with each other.
From the original image and the target image, feature points based on the local features of the reference image are extracted.
Claim 1 or 2 characterized in that the computer functions to estimate the relative position / orientation vector of the reference object by the perspective projection conversion between the feature point coordinates of the reference image and the reference world coordinates of the reference object. The program described in.
前記位置姿勢推定手段は、前記位置姿勢ベクトルの始点を、
ユーザによって設定された任意の点、又は、
カメラ視点の世界座標値から撮影方向に伸びる直線と、参照対象の世界座標値の所定周辺との交点
とするようにコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のプログラム。
The position / orientation estimation means uses the start point of the position / orientation vector as a starting point.
Any point set by the user, or
According to any one of claims 1 to 3 , the computer functions so as to be an intersection of a straight line extending from the world coordinate value of the camera viewpoint in the shooting direction and a predetermined periphery of the world coordinate value of the reference target. Described program.
記変換行列は、回転θ、並進t及びスケールsによって表され、
前記変換行列算出手段は、回転θ及び並進tに含まれる誤差を除去し、スケールsにのみ誤差が含まれるように位置姿勢ベクトルを整合した変換行列を算出する
ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。
Before SL transformation matrix is represented by the rotational theta, translation t and scale s,
The transformation matrix calculation means is characterized in that the computer functions to calculate a transformation matrix in which the position / orientation vector is matched so that the error included in the rotation θ and the translation t is removed and the error is included only in the scale s. The program according to any one of claims 1 to 4.
前記変換行列算出手段は、
画像平面内の回転方向を整合させる回転整合手段と、
画像平面内の並進方向を整合させる並進整合手段と、
画像平面内のスケールを整合させるスケール整合手段と
を含むようにコンピュータを機能させることを特徴とする請求項に記載のプログラム。
The transformation matrix calculation means
Rotational alignment means that aligns the rotation direction in the image plane,
A translational alignment means that aligns the translational directions in the image plane,
The program according to claim 5 , wherein the computer functions to include a scale matching means for matching the scales in the image plane.
前記回転整合手段に続いて前記並進整合手段を機能させるものであり、
前記回転整合手段は、画像平面内について原画像の位置姿勢ベクトルの回転方向を、目標画像の位置姿勢ベクトルの回転方向と一致するように回転整合させる回転行列と、当該回転行列に基づいた回転整合後の原画像とを、前記並進整合手段へ出力し、
前記並進整合手段は、画像平面内について前記回転整合後の原画像の位置姿勢ベクトルの並進方向を、目標画像の位置姿勢ベクトルの並進方向と一致するように並進整合させる並進ベクトルと、前記回転行列と、前記回転行列及び前記並進ベクトルに基づいた回転並進整合後の原画像とを、前記スケール整合手段へ出力する
ようにコンピュータを機能させることを特徴とする請求項6に記載のプログラム。
Following the rotation matching means, the translation matching means functions.
The rotation matching means has a rotation matrix for rotating and matching the rotation direction of the position / orientation vector of the original image in the image plane so as to coincide with the rotation direction of the position / orientation vector of the target image, and rotation matching based on the rotation matrix. The later original image is output to the translational matching means,
The translational matching means includes a translational vector that translates and aligns the translational direction of the position-orientation vector of the original image after rotation-matching in the image plane so as to coincide with the translational direction of the position-orientation vector of the target image, and the rotation matrix. The program according to claim 6 , wherein the computer functions to output the rotation matrix and the original image after rotation translation matching based on the translation vector to the scale matching means.
前記並進整合手段に続いて前記回転整合手段を機能させるものであり、
前記並進整合手段は、画像平面内について原画像の位置姿勢ベクトルの並進方向を、目標画像の位置姿勢ベクトルの並進方向と一致するように並進整合させる並進ベクトルと、当該並進ベクトルに基づいた並進整合後の原画像とを、前記回転整合手段へ出力し、
前記回転整合手段は、画像平面内について前記並進整合後の原画像の位置姿勢ベクトルの回転方向を、目標画像の位置姿勢ベクトルの回転方向と一致するように回転整合させる回転行列と、前記並進ベクトルと、前記回転行列及び前記並進ベクトルに基づいた回転並進整合後の原画像とを、前記スケール整合手段へ出力する
ようにコンピュータを機能させることを特徴とする請求項6に記載のプログラム。
Following the translational matching means, the rotational matching means is made to function.
The translational matching means includes a translational vector that translates and aligns the translational direction of the position and orientation vector of the original image in the image plane so as to coincide with the translational direction of the position and orientation vector of the target image, and a translational matching based on the translational vector. The latter original image is output to the rotation matching means, and the image is output to the rotation matching means.
The rotation matching means includes a rotation matrix that rotationally aligns the rotation direction of the position / orientation vector of the original image after translational alignment with the rotation direction of the position / orientation vector of the target image in the image plane, and the translation vector. The program according to claim 6 , wherein the computer functions to output the rotation matrix and the original image after rotation translation matching based on the translation vector to the scale matching means.
前記スケール整合手段は、前記回転並進整合後の原画像のスケールが目標画像のスケールと一致するように前記回転並進整合後の原画像をスケール整合させる
ようにコンピュータを機能させることを特徴とする請求項7又は8のいずれか1項に記載のプログラム。
The scale matching means is characterized in that the computer functions to scale-match the original image after the rotation-translation matching so that the scale of the original image after the rotation-translation matching matches the scale of the target image. Item 2. The program according to any one of items 7 or 8.
前記目標画像は、所定フレームレートで時系列的に変化する画像であり、
前記スケール整合手段は、時系列的に連続して算出されるスケール変換値を平滑化する
ようにコンピュータを機能させることを特徴とする請求項に記載のプログラム。
The target image is an image that changes in time series at a predetermined frame rate.
The program according to claim 9 , wherein the scale matching means causes a computer to function so as to smooth a scale conversion value calculated continuously in a time series.
前記参照対象は、所定物体又は所定マーカであり、
原画像は、カメラによって事前に撮影された原撮影画像であり、
目標画像は、カメラによってリアルタイムに撮影された目標撮影画像である
ようにコンピュータを機能させることを特徴とする請求項1から10のいずれか1項に記載のプログラム。
The reference object is a predetermined object or a predetermined marker.
The original image is an original image taken in advance by the camera.
The program according to any one of claims 1 to 10 , wherein the target image causes the computer to function as if it were a target captured image captured in real time by a camera.
原撮影画像に参照対象が映る参照画像に基づく所定位置に、仮想画像を重畳させた原拡張現実画像から、目標撮影画像に対する目標拡張現実画像を、前記表示画像として生成するために、
前記表示画像生成手段は、前記仮想画像を前記変換行列によって変形させて、目標撮影画像に映り込んだ参照画像の所定位置に重畳させた目標拡張現実画像を、前記表示画像として生成する
ようにコンピュータを機能させることを特徴とする請求項11に記載のプログラム。
In order to generate a target augmented reality image for the target captured image as the display image from the original augmented reality image in which a virtual image is superimposed on a predetermined position based on the reference image in which the reference target appears in the original captured image.
The display image generation means is a computer that transforms the virtual image by the transformation matrix and generates a target augmented reality image superimposed on a predetermined position of a reference image reflected in the target captured image as the display image. The program according to claim 11 , wherein the program is made to function.
前記原拡張現実画像における前記仮想画像は、原撮影画像に参照対象が映る参照画像に対して、3次元的にカメラ視点から見た形状のものである
ようにコンピュータを機能させることを特徴とする請求項12に記載のプログラム。
The virtual image in the original augmented reality image is characterized in that the computer functions so that the reference image in which the reference target is reflected in the original captured image has a three-dimensional shape as viewed from the camera viewpoint. The program according to claim 12.
参照対象が映り込んだ原画像を、当該参照対象が映り込んだ目標画像に基づいて変形した表示画像を生成する表示画像生成装置であって、
原画像及び目標画像それぞれについて、当該参照対象が映る参照画像に基づく所定の単位ベクトルを、位置姿勢ベクトルとして推定する位置姿勢推定手段と、
原画像の前記位置姿勢ベクトルを、目標画像の前記位置姿勢ベクトルへ整合させる変換行列を算出する変換行列算出手段と、
原画像を前記変換行列によって変形した表示画像を生成する表示画像生成手段と
を有することを特徴とする表示画像生成装置。
It is a display image generation device that generates a display image obtained by transforming an original image in which a reference object is reflected based on a target image in which the reference object is reflected.
For each original image and the target image, the position and orientation estimation means a certain unit vector based on the reference image in which the reference object is reflected, estimated as the position and orientation vector,
A transformation matrix calculation means for calculating a transformation matrix that matches the position / orientation vector of the original image with the position / orientation vector of the target image.
A display image generation device comprising a display image generation means for generating a display image obtained by transforming an original image by the transformation matrix.
参照対象が映り込んだ原画像を、当該参照対象が映り込んだ目標画像に基づいて変形した表示画像を生成する装置の表示画像生成方法であって、
前記装置は、
原画像及び目標画像それぞれについて、当該参照対象が映る参照画像に基づく所定の単位ベクトルを、位置姿勢ベクトルとして推定する第1のステップと、
原画像の前記位置姿勢ベクトルを、目標画像の前記位置姿勢ベクトルへ整合させる変換行列を算出する第2のステップと、
原画像を前記変換行列によって変形した表示画像を生成する第3のステップと
を実行することを特徴とする表示画像生成方法。
It is a display image generation method of a device that generates a display image obtained by transforming an original image in which a reference object is reflected based on a target image in which the reference object is reflected.
The device is
For each original image and the target image, a first step of estimating the predetermined unit vector based on the reference image in which the reference object is reflected, as the position and orientation vector,
The second step of calculating the transformation matrix for matching the position / orientation vector of the original image with the position / orientation vector of the target image, and
A display image generation method comprising executing a third step of generating a display image obtained by transforming an original image by the transformation matrix.
JP2018118339A 2018-06-21 2018-06-21 A program, device and method for generating a display image obtained by transforming the original image based on the target image. Active JP6931267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018118339A JP6931267B2 (en) 2018-06-21 2018-06-21 A program, device and method for generating a display image obtained by transforming the original image based on the target image.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118339A JP6931267B2 (en) 2018-06-21 2018-06-21 A program, device and method for generating a display image obtained by transforming the original image based on the target image.

Publications (2)

Publication Number Publication Date
JP2019220032A JP2019220032A (en) 2019-12-26
JP6931267B2 true JP6931267B2 (en) 2021-09-01

Family

ID=69096646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118339A Active JP6931267B2 (en) 2018-06-21 2018-06-21 A program, device and method for generating a display image obtained by transforming the original image based on the target image.

Country Status (1)

Country Link
JP (1) JP6931267B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110599605B (en) 2019-09-10 2021-07-13 腾讯科技(深圳)有限公司 Image processing method and device, electronic equipment and computer readable storage medium
CN112508773B (en) * 2020-11-20 2024-02-09 小米科技(武汉)有限公司 Image processing method and device, electronic equipment and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
JP5365969B2 (en) * 2007-11-13 2013-12-11 富士ゼロックス株式会社 Image processing apparatus and program
JP5819686B2 (en) * 2011-09-14 2015-11-24 株式会社バンダイナムコエンターテインメント Programs and electronic devices
JP5863034B2 (en) * 2012-02-17 2016-02-16 Kddi株式会社 Information terminal equipment
JP2014215735A (en) * 2013-04-24 2014-11-17 国立大学法人筑波大学 Nail image synthesizing device, nail image synthesizing method, and nail image synthesizing program
JP6515039B2 (en) * 2016-01-08 2019-05-15 Kddi株式会社 Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image

Also Published As

Publication number Publication date
JP2019220032A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
US9940756B2 (en) Silhouette-based object and texture alignment, systems and methods
US9928656B2 (en) Markerless multi-user, multi-object augmented reality on mobile devices
US10776609B2 (en) Method and system for facial recognition
US9429418B2 (en) Information processing method and information processing apparatus
CN108198141B (en) Image processing method and device for realizing face thinning special effect and computing equipment
US20180137611A1 (en) Novel View Synthesis Using Deep Convolutional Neural Networks
US20120162220A1 (en) Three-dimensional model creation system
JP2017518556A (en) Image display method and apparatus
EP2954390A2 (en) Image based information processing method and system
CN104156998A (en) Implementation method and system based on fusion of virtual image contents and real scene
JP6420605B2 (en) Image processing device
JP6931267B2 (en) A program, device and method for generating a display image obtained by transforming the original image based on the target image.
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
CN113570725A (en) Three-dimensional surface reconstruction method and device based on clustering, server and storage medium
Zhang et al. A mixed-reality museum tourism framework based on HMD and fisheye camera
CN111260544B (en) Data processing method and device, electronic equipment and computer storage medium
JP6341540B2 (en) Information terminal device, method and program
CN112615993A (en) Depth information acquisition method, binocular camera module, storage medium and electronic equipment
KR101844367B1 (en) Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization
JP6820821B2 (en) Devices, programs and methods for calculating the degree of similarity between camera positions and orientations from captured images
US20220301119A1 (en) Image processing device, image processing method, program, and image processing system
JP6835665B2 (en) Information processing equipment and programs
Chand et al. Implementation of Panoramic Image Stitching using Python
CN115346006A (en) 3D reconstruction method, device, electronic equipment and storage medium
TWI531983B (en) Image recognition system with assistance of the multiple lenses and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210812

R150 Certificate of patent or registration of utility model

Ref document number: 6931267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150