JP6794316B2 - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP6794316B2
JP6794316B2 JP2017122324A JP2017122324A JP6794316B2 JP 6794316 B2 JP6794316 B2 JP 6794316B2 JP 2017122324 A JP2017122324 A JP 2017122324A JP 2017122324 A JP2017122324 A JP 2017122324A JP 6794316 B2 JP6794316 B2 JP 6794316B2
Authority
JP
Japan
Prior art keywords
image data
marker
image
image processing
circle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017122324A
Other languages
Japanese (ja)
Other versions
JP2017168145A (en
Inventor
坂本 竜基
竜基 坂本
進一 東野
進一 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017122324A priority Critical patent/JP6794316B2/en
Publication of JP2017168145A publication Critical patent/JP2017168145A/en
Application granted granted Critical
Publication of JP6794316B2 publication Critical patent/JP6794316B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

従来、タイムスライス(Time Slice)やバレットタイム(Bullet Time)等と呼ばれる撮影技術が知られている。この撮影技術では、複数の撮像装置(例えば、カメラ)が撮像対象(例えば、人間などの被写体)の周囲に配置される。このとき、複数の撮像装置は、各撮像装置の光軸が撮像対象における所定の1点を通過するように配置され、被写体を撮像する。かかる撮影技術により撮像された画像データを結合することで生成される画像は、自由視点画像等と呼ばれる。ユーザは、自由視点画像において任意の視点を選択することが可能であり、様々な角度から被写体を視認することができる。例えば、自由視点画像は、販促などに用いられた場合に、通常の画像よりも高い販促効果を発揮することがある。 Conventionally, shooting techniques called Time Slice, Bullet Time, and the like are known. In this photographing technique, a plurality of imaging devices (for example, cameras) are arranged around an imaging target (for example, a subject such as a human being). At this time, the plurality of imaging devices are arranged so that the optical axis of each imaging device passes through a predetermined point on the imaging target, and images the subject. An image generated by combining image data captured by such a photographing technique is called a free viewpoint image or the like. The user can select an arbitrary viewpoint in the free viewpoint image, and can visually recognize the subject from various angles. For example, a free-viewpoint image may exert a higher sales promotion effect than a normal image when used for sales promotion or the like.

なお、被写体の撮影に関して、特徴点であるマーカーが印刷されたシート上で被写体を撮影することで、被写体を認識する技術が知られている(例えば、特許文献1)。従来技術に係る文献では、マーカーにマーカー自体に関する情報である特徴点表示媒体情報を記録しておき、画像認識でそれを特定することにより、マーカーの使用できる条件を自由に変更出来る旨が開示されている。なお、自由視点画像に関する技術として、自由視点画像の生成処理の手法等が開示されている(例えば、特許文献2及び3)。 Regarding shooting of a subject, there is known a technique of recognizing a subject by shooting the subject on a sheet on which a marker, which is a feature point, is printed (for example, Patent Document 1). In the literature relating to the prior art, it is disclosed that the conditions under which the marker can be used can be freely changed by recording the feature point display medium information which is information about the marker itself in the marker and specifying it by image recognition. ing. As a technique related to a free viewpoint image, a method of generating a free viewpoint image and the like are disclosed (for example, Patent Documents 2 and 3).

特開2007−286715号公報JP-A-2007-286715 特開2014−239384号公報Japanese Unexamined Patent Publication No. 2014-239384 特開2015−127903号公報JP 2015-127903

しかしながら、上記の従来技術(特許文献1)では、一般ユーザに自由視点画像を有効に活用させることは困難であった。具体的には、上記の特許文献1に係る従来技術では、識別子や特徴情報が付与されたマーカーを利用する必要がある。一般ユーザがそのようなマーカーを準備し、画像処理に利用することは難しい。このため、上記の特許文献1に係る従来技術では、例えば、一般ユーザが容易に自由視点画像を生成したり、生成した自由視点画像を第三者に閲覧させたりといった、自由視点画像の活用を促進させることが難しい。 However, with the above-mentioned prior art (Patent Document 1), it has been difficult for a general user to effectively utilize a free viewpoint image. Specifically, in the prior art according to the above-mentioned Patent Document 1, it is necessary to use a marker to which an identifier and feature information are added. It is difficult for a general user to prepare such a marker and use it for image processing. Therefore, in the prior art according to the above-mentioned Patent Document 1, for example, a general user can easily generate a free-viewpoint image, or a third party can view the generated free-viewpoint image. Difficult to promote.

本願の開示する技術は、上記に鑑みてなされたものであって、自由視点画像を有効に活用させることができる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 The technique disclosed in the present application has been made in view of the above, and an object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of effectively utilizing a free-viewpoint image.

本願に係る画像処理装置は、円を構成要素に含み、当該円の内部に所定の図形が描かれたマーカーに関する情報であって、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差によって示される情報を当該マーカーの特徴情報として取得する取得部と、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付部と、前記受付部によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得部によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、当該真円を当該画像データの所定の処理に用いるためのマーカーとして特定する特定部と、を備えたことを特徴とする。 The image processing apparatus according to the present application includes a circle as a component, and is information about a marker on which a predetermined figure is drawn inside the circle, and is two points of pixels existing on radiation from the center of the circle to the outside. A reception unit that acquires information indicated by the difference in brightness of the marker as feature information of the marker, and an image data created by being imaged by a predetermined imaging device and accepting image data including an elliptical figure. The image data is projected and converted so that the elliptical figure included in the unit and the image data received by the reception unit becomes a perfect circle, and the feature information of the perfect circle after the projection conversion and the feature information acquired by the acquisition unit are acquired. It is characterized by having a specific part that specifies the perfect circle as a marker for using the image data in a predetermined process by collating the feature information with each other to obtain the similarity between the feature information. To do.

実施形態の一態様である画像処理装置によれば、自由視点画像を有効に活用させることができるという効果を奏する。 According to the image processing device which is one aspect of the embodiment, there is an effect that the free viewpoint image can be effectively utilized.

図1は、第1の実施形態に係る画像処理の一例を示す図である。FIG. 1 is a diagram showing an example of image processing according to the first embodiment. 図2は、第1の実施形態に係る画像処理装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of the image processing apparatus according to the first embodiment. 図3は、第1の実施形態に係る画像データ記憶部の一例を示す図である。FIG. 3 is a diagram showing an example of an image data storage unit according to the first embodiment. 図4は、第1の実施形態に係る自由視点画像記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of a free viewpoint image storage unit according to the first embodiment. 図5は、自由視点画像に関する撮像装置の理想的な配置の一例を示す図である。FIG. 5 is a diagram showing an example of an ideal arrangement of an imaging device for a free viewpoint image. 図6は、第1の実施形態に係る自由視点画像に関する撮像処理の一例を示す図である。FIG. 6 is a diagram showing an example of an imaging process relating to a free viewpoint image according to the first embodiment. 図7は、第1の実施形態に係る自由視点画像に関する撮像装置の配置の一例を示す図である。FIG. 7 is a diagram showing an example of arrangement of an imaging device for a free viewpoint image according to the first embodiment. 図8は、第1の実施形態に係る画像処理装置が利用するマーカーを説明するための図である。FIG. 8 is a diagram for explaining a marker used by the image processing apparatus according to the first embodiment. 図9は、第1の実施形態に係る生成部による生成処理の一例を示す図である。FIG. 9 is a diagram showing an example of the generation process by the generation unit according to the first embodiment. 図10は、第1の実施形態に係る画像処理手順を示すフローチャートである。FIG. 10 is a flowchart showing an image processing procedure according to the first embodiment. 図11は、第2の実施形態に係る画像処理の一例を示す図である。FIG. 11 is a diagram showing an example of image processing according to the second embodiment. 図12は、第2の実施形態に係る画像処理装置の構成例を示す図である。FIG. 12 is a diagram showing a configuration example of the image processing apparatus according to the second embodiment. 図13は、第2の実施形態に係るマーカー情報記憶部の一例を示す図である。FIG. 13 is a diagram showing an example of the marker information storage unit according to the second embodiment. 図14は、第2の実施形態に係るマーカーの一例を説明するための図(1)である。FIG. 14 is a diagram (1) for explaining an example of the marker according to the second embodiment. 図15は、第2の実施形態に係るマーカーの一例を説明するための図(2)である。FIG. 15 is a diagram (2) for explaining an example of the marker according to the second embodiment. 図16は、第2の実施形態に係るマーカーの一例を説明するための図(3)である。FIG. 16 is a diagram (3) for explaining an example of the marker according to the second embodiment. 図17は、画像処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 17 is a hardware configuration diagram showing an example of a computer that realizes the functions of the image processing device.

以下に、本願に係る画像処理装置、画像処理方法及び画像処理プログラムの各実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る画像処理装置、画像処理方法及び画像処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, each embodiment of the image processing apparatus, the image processing method, and the image processing program according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the image processing apparatus, image processing method, and image processing program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.

〔1.第1の実施形態〕
〔1−1.画像処理の一例〕
まず、図1を用いて、第1の実施形態に係る画像処理の一例について説明する。図1は、第1の実施形態に係る画像処理の一例を示す図である。図1に示すように、第1の実施形態に係る画像処理システム1には、ユーザ端末10と、画像処理装置100とが含まれる。ユーザ端末10と画像処理装置100とは、図示しないネットワークN(例えば、インターネット)を介して互いに通信可能に接続される。なお、画像処理システム1に含まれる各装置の台数は、図1に示した例に限られない。例えば、画像処理システム1には、複数台のユーザ端末10が含まれてもよい。
[1. First Embodiment]
[1-1. An example of image processing]
First, an example of image processing according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of image processing according to the first embodiment. As shown in FIG. 1, the image processing system 1 according to the first embodiment includes a user terminal 10 and an image processing device 100. The user terminal 10 and the image processing device 100 are communicably connected to each other via a network N (for example, the Internet) (not shown). The number of each device included in the image processing system 1 is not limited to the example shown in FIG. For example, the image processing system 1 may include a plurality of user terminals 10.

ユーザ端末10は、自由視点画像の生成を画像処理装置100に要求するユーザによって利用される情報処理装置である。例えば、ユーザ端末10は、デスクトップ型PC(Personal Computer)や、ノート型PC、スマートフォン等の携帯電話機、PDA(Personal Digital Assistant)、タブレット端末等により実現される。なお、以下では、ユーザをユーザ端末10と読み替える場合がある。例えば、「ユーザに自由視点画像を配信する」とは、実際には、「ユーザが利用するユーザ端末10に自由視点画像を配信する」ことを意味する場合がある。 The user terminal 10 is an information processing device used by a user who requests the image processing device 100 to generate a free viewpoint image. For example, the user terminal 10 is realized by a desktop PC (Personal Computer), a notebook PC, a mobile phone such as a smartphone, a PDA (Personal Digital Assistant), a tablet terminal, or the like. In the following, the user may be read as the user terminal 10. For example, "delivering a free viewpoint image to a user" may actually mean "delivering a free viewpoint image to a user terminal 10 used by a user".

第1の実施形態において、ユーザ端末10を利用するユーザは、例えば、自身が所有する商品をオークションサイト等に出品する出品者である。ユーザは、商品を被写体として様々な角度から撮影を行い、複数の画像データを取得する。続いて、ユーザは、ユーザ端末10を介して、複数の画像データを画像処理装置100に送信する。そして、ユーザは、複数の画像データに基づいて生成される自由視点画像を画像処理装置100から取得する。ユーザは、例えば、商品を紹介するための情報の一つとして自由視点画像を用いて、オークションサイト等に出品する。 In the first embodiment, the user who uses the user terminal 10 is, for example, a seller who sells a product owned by the user terminal 10 on an auction site or the like. The user takes a picture of the product from various angles and acquires a plurality of image data. Subsequently, the user transmits a plurality of image data to the image processing device 100 via the user terminal 10. Then, the user acquires a free viewpoint image generated based on the plurality of image data from the image processing device 100. The user, for example, uses a free-viewpoint image as one of the information for introducing the product and puts it up on an auction site or the like.

画像処理装置100は、任意の視点位置に対応する画像を連続的に表示可能な画像である自由視点画像を生成するサーバ装置である。具体的には、第1の実施形態に係る画像処理装置100は、自由視点画像の配信を所望するユーザから複数の画像データの入稿を受け付け、受け付けた複数の画像データから自由視点画像を生成する。そして、画像処理装置100は、生成した自由視点画像をユーザ端末10に配信する。 The image processing device 100 is a server device that generates a free viewpoint image which is an image capable of continuously displaying an image corresponding to an arbitrary viewpoint position. Specifically, the image processing device 100 according to the first embodiment accepts submission of a plurality of image data from a user who desires distribution of a free viewpoint image, and generates a free viewpoint image from the received plurality of image data. To do. Then, the image processing device 100 distributes the generated free viewpoint image to the user terminal 10.

画像処理装置100は、ユーザ端末10から入稿される元画像データに所定の変換処理を行うことにより、自由視点画像を生成する。画像処理装置100は、多視点から撮像された複数の画像を、3次元位置のある一点で各撮像装置(カメラ)の光軸が重なった状態で撮影されたかのような画像である自由視点画像へ変換するため、射影変換行列を導出する。この場合、画像処理装置100は、各画像を撮像する撮像装置のパラメータとして、撮像装置の位置姿勢を含むカメラパラメータを参照する。言い換えれば、自由視点画像の生成においては、各画像データが取得される際の撮像装置が強校正されていることが望ましい。 The image processing device 100 generates a free viewpoint image by performing a predetermined conversion process on the original image data submitted from the user terminal 10. The image processing device 100 converts a plurality of images captured from multiple viewpoints into a free-viewpoint image as if the images were taken with the optical axes of the respective image pickup devices (cameras) overlapping at one point at a three-dimensional position. A projective transformation matrix is derived for the transformation. In this case, the image processing device 100 refers to a camera parameter including the position and orientation of the image pickup device as a parameter of the image pickup device that captures each image. In other words, in the generation of the free viewpoint image, it is desirable that the imaging device at the time of acquiring each image data is strongly calibrated.

カメラパラメータが特定できない場合に、撮像された画像データに基づいて、カメラパラメータを推定する既知の手法も知られている。しかし、業務用の機材や設備を用いて撮像が行われない場合、既知の手法では、正確なカメラパラメータの推定を高精度で行うことができず、自由視点画像の生成において不具合が生じることがある。例えば、オークションサイトに出品する商品を紹介するような目的で撮像される画像は、出品者自身によって撮像される機会が多く、専門の撮影業者等によって撮像が行われる機会は少ない。このため、既知の手法では、自由視点画像の元となる画像データに関してカメラパラメータを高精度に推定することが困難な場合がある。 A known method of estimating camera parameters based on captured image data when the camera parameters cannot be specified is also known. However, when imaging is not performed using commercial equipment or equipment, it is not possible to accurately estimate camera parameters with known methods, and problems may occur in the generation of free-viewpoint images. is there. For example, an image taken for the purpose of introducing a product to be put up on an auction site is often taken by the seller himself, and is rarely taken by a professional photographer or the like. Therefore, with known methods, it may be difficult to estimate the camera parameters with high accuracy with respect to the image data that is the source of the free-viewpoint image.

そこで、第1の実施形態に係る画像処理装置100は、画像データに含まれるビジュアルマーカー(以下、単に「マーカー」と表記する)を利用して、入稿された複数の画像データに関して所定の校正(カメラキャリブレーション)を行う。マーカーは、各々が識別可能なように描画された図形を用いる。なお、画像処理装置100は、マーカーを用いる場合、画像内のマーカーと撮像装置との回転角Rと平行移動量Tを求めることで、校正処理を行うことができる。これにより、画像処理装置100は、元の画像から自由視点画像を構成するための画像に射影変換するための適切なパラメータ(例えば、射影変換行列)を取得する。そして、画像処理装置100は、射影変換された画像を連結することにより、複数の画像について滑らかに表示を遷移させることのできる自由視点画像を生成する。以下、画像処理装置100が行う画像処理について、流れに沿って説明する。 Therefore, the image processing apparatus 100 according to the first embodiment uses a visual marker (hereinafter, simply referred to as a “marker”) included in the image data to perform predetermined calibration with respect to a plurality of submitted image data. Perform (camera calibration). As the marker, a figure drawn so that each can be identified is used. When a marker is used, the image processing device 100 can perform the calibration process by obtaining the rotation angle R and the translation amount T between the marker in the image and the image pickup device. As a result, the image processing apparatus 100 acquires an appropriate parameter (for example, a projective transformation matrix) for projective conversion from the original image to an image for forming a free viewpoint image. Then, the image processing device 100 generates a free viewpoint image capable of smoothly transitioning the display of a plurality of images by connecting the projected images. Hereinafter, the image processing performed by the image processing apparatus 100 will be described along the flow.

まず、ユーザは、自由視点画像を生成するための元となる画像データを準備する。このとき、ユーザは、被写体とともに、マーカーを画像内に含むような複数の画像データを準備するものとする(ステップS11)。ユーザは、マーカーの一例として、用紙(シート)に描かれた円を利用することができる。具体的には、ユーザは、画像処理装置100から提供されるシートであって、所定の円が4隅に描かれたシート70を準備する。例えば、ユーザは、ネットワークNを介してシート70の画像データを取得する。そして、ユーザは、シート70の画像データを所定の用紙(例えば、A4サイズの紙など)にプリントアウトすることで、シート70を取得する。 First, the user prepares image data as a source for generating a free viewpoint image. At this time, the user shall prepare a plurality of image data including the marker in the image together with the subject (step S11). The user can use the circle drawn on the paper (sheet) as an example of the marker. Specifically, the user prepares a sheet 70 provided by the image processing device 100 and having predetermined circles drawn at the four corners. For example, the user acquires the image data of the sheet 70 via the network N. Then, the user acquires the sheet 70 by printing out the image data of the sheet 70 on a predetermined paper (for example, A4 size paper).

シート70には、円で示される円マーカーM01、M02、M03及びM04が描かれる。円マーカーとして採用される円は、円周上の任意の点から中心までの距離が等しい真円(正円)であるものとする。また、画像処理装置100は、円マーカーM01、M02、M03及びM04のシート70上における位置関係(例えば、座標上の関係性)に係る情報を有しているものとする。また、円マーカーは、構成要素である円が幅を有する場合、一つの円としてではなく、黒色で描かれる外円と、内側の白色部分で描かれる内円という、二つの同心円として認識されるものとする。 Circle markers M01, M02, M03 and M04 represented by circles are drawn on the sheet 70. The circle adopted as a circle marker shall be a perfect circle (perfect circle) with the same distance from any point on the circumference to the center. Further, it is assumed that the image processing device 100 has information on the positional relationship (for example, the relationship on coordinates) of the circular markers M01, M02, M03, and M04 on the sheet 70. In addition, the circle marker is recognized as two concentric circles, that is, an outer circle drawn in black and an inner circle drawn in the inner white part, not as one circle when the constituent circle has a width. It shall be.

また、円マーカーM01、M02、M03及びM04は、画像処理装置100が認識可能な程度に、異なるサイズを有しているものとする。このため、画像処理装置100は、画像データに二つの円マーカーが含まれている場合、射影変換後の正しい円のサイズを照合することにより、円マーカーを識別可能である。なお、詳細は後述するが、画像処理装置100は、外円と内円の半径の比率を用いることで、円マーカーM01、M02、M03及びM04をそれぞれ識別するようにしてもよい。この場合、画像処理装置100は、画像データに一つの円マーカーしか含まれていない場合であっても、円マーカーを識別することができる。 Further, it is assumed that the circular markers M01, M02, M03 and M04 have different sizes to the extent that the image processing apparatus 100 can recognize them. Therefore, when the image data includes two circle markers, the image processing device 100 can identify the circle markers by collating the correct circle size after the projective conversion. Although the details will be described later, the image processing apparatus 100 may identify the circle markers M01, M02, M03, and M04 by using the ratio of the radii of the outer circle and the inner circle. In this case, the image processing device 100 can identify the circle marker even when the image data includes only one circle marker.

ユーザは、シート70の中央に被写体60を乗せて、様々な角度から撮像を行う。例えば、ユーザは、ユーザ端末10の撮像機能を用いて、被写体60を撮像する。あるいは、ユーザは、デジタルカメラ等、撮像によって画像データを取得することが可能な機器を用いて被写体60を撮像する。そして、ユーザは、撮像によって取得した画像データをユーザ端末10に格納する。 The user places the subject 60 on the center of the sheet 70 and performs imaging from various angles. For example, the user uses the imaging function of the user terminal 10 to image the subject 60. Alternatively, the user captures the subject 60 using a device such as a digital camera capable of acquiring image data by imaging. Then, the user stores the image data acquired by the imaging in the user terminal 10.

このようにして、ユーザは、シート70に乗せられた状態で撮像された被写体60の画像データを複数準備する。図1に示すように、ユーザは、被写体60を取り囲むようにして撮像された元画像データP01、P02、P03、・・・、P0N(Nは任意の数)を準備する。図1に示す例では、元画像データP01は、被写体60を向かって右側から撮像した画像である。また、元画像データP02は、被写体60を右斜め前から撮像した画像である。また、元画像データP03は、元画像データP02と比較して、被写体60を正面側に近い右斜め前側から撮像した画像である。このように、元画像データP01〜P0Nは、例えば、被写体60を半円状に取り囲むようにして順番に撮像された画像データである。 In this way, the user prepares a plurality of image data of the subject 60 captured while being placed on the sheet 70. As shown in FIG. 1, the user prepares original image data P01, P02, P03, ..., P0N (N is an arbitrary number) captured so as to surround the subject 60. In the example shown in FIG. 1, the original image data P01 is an image of the subject 60 taken from the right side. Further, the original image data P02 is an image obtained by capturing the subject 60 from diagonally right front. Further, the original image data P03 is an image obtained by capturing the subject 60 from the diagonally right front side closer to the front side as compared with the original image data P02. As described above, the original image data P01 to P0N are, for example, image data captured in order so as to surround the subject 60 in a semicircular shape.

上述のように、シート70には、円マーカーM01、M02、M03及びM04が描かれている。しかしながら、被写体60がシート70の中央に乗せられて撮像が行われる場合、多くの画像データにおいて、一つ乃至二つの円マーカーは、被写体60によって遮蔽されることで画像データに含まれなくなる。図1に示す元画像データP01、P02及びP03の例では、円マーカーM04は、被写体60によって遮蔽されるため、完全な形では画像データに含まれなくなる。言い換えれば、被写体60がシート70の中央に乗せられて撮像が行われる場合、多くの画像データにおいて、2つ乃至3つの円マーカーが画像データに含まれることとなる。例えば、図1に示すように、元画像データP01、P02及びP03は、被写体60とともに、円マーカーM01、M02及びM03を含む画像データである。なお、詳細については後述するが、画像処理装置100が行う画像処理では、マーカーの種類によって画像データ内に含む必要のあるマーカーの数が変化する。例えば、画像に含まれるマーカーが円マーカーである場合、画像処理装置100は、各画像に少なくとも二つの円マーカーを含む複数の画像データから、自由視点画像を生成することができる。 As described above, the circular markers M01, M02, M03 and M04 are drawn on the sheet 70. However, when the subject 60 is placed on the center of the sheet 70 for imaging, in many image data, one or two circular markers are not included in the image data because they are shielded by the subject 60. In the example of the original image data P01, P02 and P03 shown in FIG. 1, since the circular marker M04 is shielded by the subject 60, it is not completely included in the image data. In other words, when the subject 60 is placed on the center of the sheet 70 and the image is taken, the image data includes two or three circular markers in most of the image data. For example, as shown in FIG. 1, the original image data P01, P02 and P03 are image data including the circle markers M01, M02 and M03 together with the subject 60. Although details will be described later, in the image processing performed by the image processing apparatus 100, the number of markers that need to be included in the image data changes depending on the type of marker. For example, when the marker included in the image is a circle marker, the image processing device 100 can generate a free viewpoint image from a plurality of image data including at least two circle markers in each image.

続いて、ユーザ端末10は、ユーザの操作に従って、複数の元画像データP01〜P0Nを画像処理装置100に入稿する(ステップS12)。例えば、ユーザ端末10は、画像処理装置100が提供する画像生成サービスを提供するウェブページにおいて、複数の元画像データP01〜P0Nをアップロードすることにより、画像データを入稿する。 Subsequently, the user terminal 10 submits a plurality of original image data P01 to P0N to the image processing device 100 according to the user's operation (step S12). For example, the user terminal 10 uploads image data by uploading a plurality of original image data P01 to P0N on a web page that provides an image generation service provided by the image processing device 100.

画像処理装置100は、各画像データに、被写体60とともに少なくとも二つの円マーカーが含まれる元画像データP01〜P0Nの入稿を受け付ける。そして、画像処理装置100は、入稿された画像データに基づいて、自由視点画像を生成する(ステップS13)。具体的には、画像処理装置100は、一つの画像データに含まれる少なくとも二つの円マーカーに基づいて、入稿された複数の画像データに関して所定の校正を行う。 The image processing device 100 accepts submission of original image data P01 to P0N in which each image data includes at least two circular markers together with the subject 60. Then, the image processing device 100 generates a free viewpoint image based on the submitted image data (step S13). Specifically, the image processing apparatus 100 performs predetermined calibration on a plurality of submitted image data based on at least two circular markers included in one image data.

一般に、マーカーを利用した画像データに関する校正処理は、画像データ内におけるマーカーと、当該画像データを撮像した撮像装置(カメラ)との回転角R及び平行移動量Tというパラメータを算出することで実現される。 Generally, the calibration process for image data using markers is realized by calculating the parameters of the angle of rotation R and the amount of translation T between the marker in the image data and the image pickup device (camera) that captured the image data. To.

ここで、第1の実施形態に係る画像処理装置100が行う校正処理について、元画像データP01を例に挙げて説明する。まず、画像処理装置100は、元画像データP01内の各円マーカーを検出する。この例では、画像処理装置100は、円マーカーM01及びM02を検出するものとする。なお、画像処理装置100は、円マーカーM01及びM02それぞれの外円と内円の比率の相違によって、円マーカーM01及びM02を識別する。上述のように、シート70上に描かれる各円マーカーは、真円である。このため、撮像によって取得された画像データ内では、各円マーカーは、楕円となる。 Here, the calibration process performed by the image processing apparatus 100 according to the first embodiment will be described by taking the original image data P01 as an example. First, the image processing device 100 detects each circular marker in the original image data P01. In this example, the image processing apparatus 100 shall detect the circular markers M01 and M02. The image processing device 100 identifies the circle markers M01 and M02 by the difference in the ratio of the outer circle and the inner circle of the circle markers M01 and M02, respectively. As described above, each circle marker drawn on the sheet 70 is a perfect circle. Therefore, in the image data acquired by imaging, each circular marker becomes an ellipse.

画像処理装置100は、検出した各楕円のパラメータに基づいて、各楕円の法線を推定する。楕円の法線は、一つの楕円につき2本算出される。このため、画像処理装置100は、二つの円マーカーM01及びM02から算出された法線の解を組み合わせることで、円マーカーM01及びM02を含む平面を推定できる。さらに、画像処理装置100は、推定した平面の法線を推定できる。 The image processing apparatus 100 estimates the normal of each ellipse based on the detected parameters of each ellipse. Two ellipse normals are calculated for each ellipse. Therefore, the image processing apparatus 100 can estimate the plane including the circle markers M01 and M02 by combining the solutions of the normals calculated from the two circle markers M01 and M02. Further, the image processing apparatus 100 can estimate the normal of the estimated plane.

画像処理装置100は、推定した平面の法線を、元画像データP01におけるワールド座標系(空間の中での物体の位置を示すための座標系。「世界座標系」や「グローバル座標系」と表記される場合もある)におけるY軸と仮定する。そして、画像処理装置100は、適当な円心同士(例えば、円マーカーM01及びM02)を結ぶベクトルをワールド座標系における仮のX軸とする。これらの情報に基づいて、画像処理装置100は、画像内の円マーカーM01又はM02と撮像装置との回転角Rの関係を求めることができる。また、画像処理装置100は、円心同士の距離を1と仮定することで、仮の平行移動量Tを算出することができる。画像処理装置100は、仮のパラメータである回転角R及び平行移動量Tを用いて、検出された円の本来の大小関係を求めれば、どの円が楕円として検出できたのかを決定することができる。そして、シート70における円の位置情報は既知であるから、検出された円のワールド座標系における位置に基づいて、画像処理装置100は、正しいX軸と平行移動量Tを推定することができる。これにより、画像処理装置100は、強校正を完了する。 The image processing device 100 uses the estimated plane normal as the world coordinate system (coordinate system for indicating the position of an object in space. “World coordinate system” or “global coordinate system” in the original image data P01. It is assumed to be the Y-axis in (sometimes written). Then, the image processing apparatus 100 uses a vector connecting appropriate circle centers (for example, circle markers M01 and M02) as a temporary X-axis in the world coordinate system. Based on this information, the image processing apparatus 100 can determine the relationship between the rotation angle R of the circular marker M01 or M02 in the image and the imaging apparatus. Further, the image processing apparatus 100 can calculate a temporary translation amount T by assuming that the distance between the circle centers is 1. The image processing apparatus 100 can determine which circle can be detected as an ellipse by obtaining the original magnitude relationship of the detected circles by using the tentative parameters R and the translation amount T. it can. Since the position information of the circle on the sheet 70 is known, the image processing apparatus 100 can estimate the correct X-axis and the translation amount T based on the position of the detected circle in the world coordinate system. As a result, the image processing apparatus 100 completes the strong calibration.

そして、画像処理装置100は、入稿された画像データから自由視点画像を構成するための画像に射影変換するための適切なパラメータを取得する。そして、画像処理装置100は、取得されたパラメータを用いて画像データを射影変換する。画像処理装置100は、射影変換された画像を連結することにより、入稿された各画像データを任意の視点で表示させることのできる自由視点画像F01を生成する。 Then, the image processing device 100 acquires appropriate parameters for projective conversion from the submitted image data to an image for forming a free viewpoint image. Then, the image processing apparatus 100 projects and transforms the image data using the acquired parameters. The image processing device 100 generates a free viewpoint image F01 capable of displaying each submitted image data from an arbitrary viewpoint by connecting the projected images.

画像処理装置100は、生成した自由視点画像F01をユーザ端末10に配信する(ステップS14)。図1に示すように、自由視点画像F01は、元画像データP01〜P0Nが変換された変換後画像データRP01〜RP0Nを含む。また、自由視点画像F01は、例えばユーザの操作に従って、変換後画像データRP01〜RP0Nの表示を滑らかに遷移することが可能である。また、図1に示すように、変換後画像データRP01〜RP0Nに含まれる各々の被写体60は、校正の結果、元画像データP01〜P0Nに含まれる被写体60と比較して、大きさが均一に揃えられている。 The image processing device 100 distributes the generated free viewpoint image F01 to the user terminal 10 (step S14). As shown in FIG. 1, the free viewpoint image F01 includes the converted image data RP01 to RP0N obtained by converting the original image data P01 to P0N. Further, the free viewpoint image F01 can smoothly transition the display of the converted image data RP01 to RP0N according to, for example, a user operation. Further, as shown in FIG. 1, each subject 60 included in the converted image data RP01 to RP0N has a uniform size as a result of calibration as compared with the subject 60 included in the original image data P01 to P0N. It is aligned.

ユーザ端末10は、画像処理装置100から配信された自由視点画像F01を取得する。ユーザは、例えば、オークションサイトの出品にあたり、自身の商品を紹介する情報の一つとして、自由視点画像F01を利用する(ステップS15)。 The user terminal 10 acquires the free viewpoint image F01 distributed from the image processing device 100. For example, when listing on an auction site, the user uses the free viewpoint image F01 as one of the information for introducing his / her own product (step S15).

このように、第1の実施形態に係る画像処理装置100は、視点位置が異なる複数の画像データであって、所定のパラメータを有するとともに各々を識別可能である円マーカーM01〜M04が、各画像データ内に少なくとも二つは含まれる複数の元画像データP01〜P0Nを受け付ける。そして、画像処理装置100は、円マーカーが有するパラメータに基づいて、受け付けられた複数の元画像データP01〜P0Nに関する校正をする。さらに、画像処理装置100は、校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像F01を生成する。 As described above, in the image processing apparatus 100 according to the first embodiment, the circular markers M01 to M04, which are a plurality of image data having different viewpoint positions and have predetermined parameters and can be identified, are used for each image. It accepts a plurality of original image data P01 to P0N including at least two in the data. Then, the image processing device 100 calibrates the received plurality of original image data P01 to P0N based on the parameters of the circular marker. Further, the image processing device 100 generates a free viewpoint image F01 capable of continuously displaying an image corresponding to an arbitrary viewpoint position by performing a predetermined conversion process on a plurality of calibrated image data.

これにより、第1の実施形態に係る画像処理装置100は、例えば、ユーザ端末10のユーザのように、自由視点画像を活用して商材販売の促進を図るユーザに自由視点画像を提供することができる。すなわち、ユーザは、自由視点画像を販促などに利用することにより、通常の画像を提示するよりも、より高い販促効果を発揮させることができる。また、画像処理装置100は、自由視点画像を生成するにあたり、マーカーを利用した校正処理を行う。画像処理装置100は、マーカーを利用することで、専門の機材や装置の整った撮影環境で取得されていない元画像データからであっても、頑健に校正を行うことができる。すなわち、画像処理装置100は、強校正が行われていない撮像装置によって取得された元画像データからも、任意の視点からの表示を自然に行うことのできる自由視点画像を生成することができる。結果として、画像処理装置100は、自由視点画像を有効に活用させることができるという効果を奏する。 As a result, the image processing device 100 according to the first embodiment provides the free viewpoint image to a user who promotes product sales by utilizing the free viewpoint image, for example, a user of the user terminal 10. Can be done. That is, by using the free viewpoint image for sales promotion or the like, the user can exert a higher sales promotion effect than presenting a normal image. Further, the image processing device 100 performs a proofreading process using a marker when generating a free viewpoint image. By using a marker, the image processing device 100 can robustly calibrate even from the original image data that has not been acquired in a shooting environment equipped with specialized equipment and devices. That is, the image processing device 100 can generate a free viewpoint image that can be naturally displayed from an arbitrary viewpoint even from the original image data acquired by the image pickup device that has not been strongly calibrated. As a result, the image processing device 100 has an effect that the free viewpoint image can be effectively utilized.

〔1−2.画像処理装置の構成〕
次に、図2を用いて、第1の実施形態に係る画像処理装置100の構成について説明する。図2は、第1の実施形態に係る画像処理装置100の構成例を示す図である。図2に示すように、画像処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[1-2. Image processing device configuration]
Next, the configuration of the image processing apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the image processing device 100 according to the first embodiment. As shown in FIG. 2, the image processing device 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、図示しないネットワークNと有線又は無線で接続され、ユーザ端末10との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to a network N (not shown) by wire or wirelessly, and transmits / receives information to / from the user terminal 10.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図2に示すように、記憶部120は、画像データ記憶部121と、自由視点画像記憶部122とを有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 2, the storage unit 120 includes an image data storage unit 121 and a free viewpoint image storage unit 122.

(画像データ記憶部121について)
画像データ記憶部121は、ユーザ端末10から入稿された画像データに関する情報を記憶する。ここで、図3に、第1の実施形態に係る画像データ記憶部121の一例を示す。図3に示した例では、画像データ記憶部121は、「入稿ID」、「画像データ」といった項目を有する。
(About the image data storage unit 121)
The image data storage unit 121 stores information regarding image data submitted from the user terminal 10. Here, FIG. 3 shows an example of the image data storage unit 121 according to the first embodiment. In the example shown in FIG. 3, the image data storage unit 121 has items such as "submission ID" and "image data".

「入稿ID」は、入稿された画像データを識別するための識別情報を示す。入稿IDが示す情報には、例えば、入稿された日時や、入稿元となるユーザ端末10を識別する情報が含まれてもよい。 The “traffic ID” indicates identification information for identifying the submitted image data. The information indicated by the submission ID may include, for example, information that identifies the date and time of submission and the user terminal 10 that is the submission source.

「画像データ」は、入稿された画像データを示す。図1で示したように、ユーザ端末10は、自由視点画像の元となる画像データとして、複数の画像データを入稿する。「画像データ」の項目には、ユーザ端末10から入稿された一連の画像データが対応付けられて記憶される。また、各画像データには、「P01、P02、P03、P04、P05・・・」などの続き番号による識別情報が付与されてもよい。このような続き番号により、画像処理装置100は、自由視点画像における画像同士の連結順を認識する。 "Image data" indicates the submitted image data. As shown in FIG. 1, the user terminal 10 submits a plurality of image data as the image data that is the source of the free viewpoint image. A series of image data submitted from the user terminal 10 is associated and stored in the item of "image data". Further, identification information by a serial number such as "P01, P02, P03, P04, P05 ..." may be added to each image data. Based on such serial numbers, the image processing apparatus 100 recognizes the connection order of the images in the free viewpoint image.

すなわち、図3では、入稿ID「A01」で識別される画像データの入稿では、画像データ「P01、P02、P03、P04、P05・・・」が自由視点画像を生成する元となる画像データとして入稿されたことを示す。 That is, in FIG. 3, in the submission of the image data identified by the submission ID "A01", the image data "P01, P02, P03, P04, P05 ..." Is the source image for generating the free viewpoint image. Indicates that the data was submitted as data.

(自由視点画像記憶部122について)
自由視点画像記憶部122は、画像処理装置100が生成した自由視点画像に関する情報を記憶する。ここで、図4に、第1の実施形態に係る自由視点画像記憶部122の一例を示す。図4に示した例では、自由視点画像記憶部122は、「自由視点画像ID」、「元画像データ」、「校正データ」、「変換後画像データ」、「初期表示画面」といった項目を有する。
(About the free viewpoint image storage unit 122)
The free viewpoint image storage unit 122 stores information about the free viewpoint image generated by the image processing device 100. Here, FIG. 4 shows an example of the free viewpoint image storage unit 122 according to the first embodiment. In the example shown in FIG. 4, the free viewpoint image storage unit 122 has items such as "free viewpoint image ID", "original image data", "calibration data", "converted image data", and "initial display screen". ..

「自由視点画像ID」は、自由視点画像の識別情報を示す。「元画像データ」は、自由視点画像の生成元となった画像データを示す。自由視点画像は複数の画像データから生成されるため、元画像データは、一つの自由視点画像に対して複数記憶される。 The "free viewpoint image ID" indicates the identification information of the free viewpoint image. The "original image data" indicates the image data from which the free viewpoint image is generated. Since the free viewpoint image is generated from a plurality of image data, a plurality of original image data are stored for one free viewpoint image.

「校正データ」は、自由視点画像を生成するための所定の校正データ(カメラキャリブレーション)を示す。図4では、校正データを「R01」のような概念で示す。校正データには、画像処理装置100が自由視点画像を構成する画像を取得するために、元画像データを適切に射影変換するための種々のデータが含まれる。例えば、校正データには、マーカーと撮像装置との回転角Rや平行移動量Tが含まれる。なお、校正データには、各画像データに関して、撮像装置のカメラパラメータとして、撮像装置の焦点距離や、撮像装置によって生成される画像のアスペクト比及びスキューなどが含まれてもよい。 "Calibration data" indicates predetermined calibration data (camera calibration) for generating a free viewpoint image. In FIG. 4, the calibration data is shown by a concept such as “R01”. The calibration data includes various data for the image processing apparatus 100 to appropriately project and transform the original image data in order to acquire an image constituting the free viewpoint image. For example, the calibration data includes the rotation angle R between the marker and the imaging device and the translation amount T. The calibration data may include the focal length of the image pickup device, the aspect ratio of the image generated by the image pickup device, the skew, and the like as camera parameters of the image pickup device for each image data.

「変換後画像データ」は、自由視点画像を構成する画像データを示す。変換後画像データは、例えば、元画像データに対して所定の校正が行われ、校正で算出されたパラメータにより射影変換された後の画像データである。 The "converted image data" indicates the image data constituting the free viewpoint image. The converted image data is, for example, image data after a predetermined calibration is performed on the original image data and the image data is projected and converted according to the parameters calculated by the calibration.

「初期表示画面」は、自由視点画像の最初の表示に対応する画像を示す。初期表示画面は、変換後画像データのうちの一つの変換後画像データが選択される。 The "initial display screen" shows an image corresponding to the initial display of the free viewpoint image. On the initial display screen, one of the converted image data after conversion is selected.

すなわち、図4では、自由視点画像ID「F01」で識別される自由視点画像は、元画像データが「P01、P02、P03、P04、P05、・・・」であり、それぞれの校正データは「R01、R02、R03、R04、R05、・・・」であり、変換後画像データは「RP01、RP02、RP03、RP04、RP05、・・・」であり、初期表示画面は「RP03」である例を示している。 That is, in FIG. 4, the original image data of the free viewpoint image identified by the free viewpoint image ID "F01" is "P01, P02, P03, P04, P05, ...", And the respective calibration data is ". R01, R02, R03, R04, R05, ... ”, the converted image data is“ RP01, RP02, RP03, RP04, RP05, ... ”, and the initial display screen is“ RP03 ”. Is shown.

なお、自由視点画像は、ユーザの任意の選択により自由視点画像の回転中心(注視点)が各々異なる自由視点画像が生成される場合がある。この場合、自由視点画像記憶部122には、自由視点画像IDに対応付けられて、注視点に関する情報が記憶されてもよい。 As the free viewpoint image, a free viewpoint image having a different rotation center (gaze point) of the free viewpoint image may be generated by arbitrary selection by the user. In this case, the free viewpoint image storage unit 122 may store information about the gazing point in association with the free viewpoint image ID.

(制御部130について)
制御部130は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、画像処理装置100内部の記憶装置に記憶されている各種プログラム(画像処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The control unit 130 is, for example, a controller, and various programs (of an image processing program) stored in a storage device inside the image processing device 100 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. (Corresponding to one example) is realized by executing RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部130は、図2に示すように、受付部131と、校正部132と、生成部133と、配信部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 2, the control unit 130 includes a reception unit 131, a calibration unit 132, a generation unit 133, and a distribution unit 134, and realizes or executes an information processing function or operation described below. .. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 2, and may be another configuration as long as it is a configuration for performing information processing described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 2, and may be another connection relationship.

(受付部131について)
受付部131は、視点位置が異なる複数の画像データを受け付ける。具体的には、第1の実施形態に係る受付部131は、視点位置が異なる複数の画像データであって、所定のパラメータを有するとともに各々を識別可能であるマーカーが、各画像データ内に少なくとも一つは含まれる複数の画像データの入稿を受け付ける。
(About reception desk 131)
The reception unit 131 receives a plurality of image data having different viewpoint positions. Specifically, the reception unit 131 according to the first embodiment has a plurality of image data having different viewpoint positions, and at least a marker having a predetermined parameter and capable of identifying each of them is included in each image data. One accepts submissions of multiple image data included.

上述のように、画像処理装置100が行う画像処理では、マーカーの種類によって画像データ内に含む必要のあるマーカーの数が変化する。例えば、画像に含まれるマーカーが円マーカーである場合、後述する校正部132及び生成部133は、各画像に少なくとも二つの円マーカーを含む複数の画像データから自由視点画像を生成することができる。すなわち、マーカーが円マーカーである場合、受付部131は、各々を識別可能である円マーカーが各画像データ内に少なくとも二つは含まれる複数の画像データの入稿を受け付ける。 As described above, in the image processing performed by the image processing apparatus 100, the number of markers that need to be included in the image data changes depending on the type of markers. For example, when the marker included in the image is a circle marker, the calibration unit 132 and the generation unit 133, which will be described later, can generate a free viewpoint image from a plurality of image data including at least two circle markers in each image. That is, when the marker is a circle marker, the reception unit 131 accepts the submission of a plurality of image data in which at least two circle markers that can identify each of them are included in each image data.

また、画像処理装置100が利用するマーカーの有するパラメータについても、マーカーの種類によって異なる場合がある。例えば、画像処理装置100は、円マーカーの場合は、円マーカーを構成する同心円の径の長さや、シート70における各円マーカーの位置情報等をパラメータとして用いる。また、例えば、画像処理装置100は、四角形の2次元コード(例えば、QRコード(登録商標))のように、識別情報と平行する2組の線分とを有するマーカーである場合、識別情報と平行する2組の線分をパラメータとして用いる。言い換えれば、画像処理装置100は、円マーカーの場合に推定した法線に代わるパラメータとして、四角形のマーカーの場合には、四角形を構成する線分である平行する2組の線分をパラメータとして用いる。 Further, the parameters of the marker used by the image processing apparatus 100 may also differ depending on the type of marker. For example, in the case of a circular marker, the image processing device 100 uses the length of the diameter of the concentric circles constituting the circular marker, the position information of each circular marker on the sheet 70, and the like as parameters. Further, for example, when the image processing device 100 is a marker having two sets of line segments parallel to the identification information, such as a quadrangular two-dimensional code (for example, a QR code (registered trademark)), the identification information is used. Two sets of parallel line segments are used as parameters. In other words, the image processing apparatus 100 uses two sets of parallel line segments, which are the line segments constituting the quadrangle, as parameters in the case of the quadrangular marker as a parameter instead of the estimated normal in the case of the circular marker. ..

受付部131は、入稿を受け付けた一連の画像データに入稿IDを付与し、画像データ記憶部121に格納する。 The reception unit 131 assigns a submission ID to a series of image data for which submission has been received, and stores the submission ID in the image data storage unit 121.

(校正部132について)
校正部132は、マーカーが有するパラメータに基づいて、受付部131によって受け付けられた複数の画像データに関する校正を行う。具体的には、第1の実施形態に係る校正部132は、入稿された元画像データについて所定の校正を行うことで、自由視点画像を構成する画像に変換させるための変換行列に用いられるカメラパラメータを算出する。なお、後述する生成部133は、校正部132による校正の結果に基づいて、元画像データに所定の変換処理を行うことで、自由視点画像を生成する。
(About calibration unit 132)
The calibration unit 132 calibrates a plurality of image data received by the reception unit 131 based on the parameters of the marker. Specifically, the calibration unit 132 according to the first embodiment is used as a transformation matrix for converting the submitted original image data into an image constituting a free viewpoint image by performing predetermined calibration. Calculate the camera parameters. The generation unit 133, which will be described later, generates a free viewpoint image by performing a predetermined conversion process on the original image data based on the result of calibration by the calibration unit 132.

ここで、校正部132及び生成部133が扱う自由視点画像について、図5、図6及び図7を用いて説明する。まず、図5を用いて、自由視点画像に関する撮像装置の配置について説明する。図5は、自由視点画像に関する撮像装置の理想的な配置の一例を示す図である。図5では、自由視点画像の元となる複数の画像データの撮像について、理想的な撮像装置の配置の一例を示している。なお、図5では、被写体60を上から見た例を示す。 Here, the free viewpoint image handled by the calibration unit 132 and the generation unit 133 will be described with reference to FIGS. 5, 6 and 7. First, the arrangement of the imaging device for the free viewpoint image will be described with reference to FIG. FIG. 5 is a diagram showing an example of an ideal arrangement of an imaging device for a free viewpoint image. FIG. 5 shows an example of an ideal arrangement of an imaging device for capturing a plurality of image data that are the source of a free viewpoint image. Note that FIG. 5 shows an example of the subject 60 viewed from above.

図5において、撮像装置C11〜C16は、例えば、デジタルカメラである。また、撮像装置C11〜C16は、各撮像装置における光軸が所定の位置を通過するように、撮像対象となる被写体60の周囲に配置される。図5の例では、撮像装置C11は、被写体60の中心に該当する3次元位置D1を光軸E11が通過するように配置される。また、撮像装置C12〜C16は、それぞれの光軸E12〜E16が3次元位置D1を通過するように配置される。なお、理想的な状況として、撮像装置C11〜C16は、少なくとも投影面の底辺が地面と略平行となるように設置されるものとする。そして、撮像装置C11〜C16は、図1に示した状態で一斉に被写体60を撮像することにより、被写体60の自由視点画像を生成する元となる画像データを取得することができる。 In FIG. 5, the image pickup devices C11 to C16 are, for example, digital cameras. Further, the imaging devices C11 to C16 are arranged around the subject 60 to be imaged so that the optical axis of each imaging device passes through a predetermined position. In the example of FIG. 5, the image pickup apparatus C11 is arranged so that the optical axis E11 1 passes through the three-dimensional position D1 corresponding to the center of the subject 60. Further, the image pickup devices C12 to C16 are arranged so that their respective optical axes E12 1 to E16 1 pass through the three-dimensional position D1. In an ideal situation, the imaging devices C11 to C16 are installed so that at least the bottom of the projection surface is substantially parallel to the ground. Then, the imaging devices C11 to C16 can acquire image data that is a source for generating a free viewpoint image of the subject 60 by simultaneously imaging the subject 60 in the state shown in FIG.

なお、図5の例では、6台の撮像装置C11〜C16を用いて被写体60を撮像する例を示したが、撮像装置の数はこの例に限られない。また、撮像装置C11〜C16の配置位置は、図5に示した例に限られない。例えば、撮像装置C11〜C16は、被写体60を半円状に囲むのではなく、複数の撮像装置が被写体60を囲むように、円周上に等間隔に配置されてもよい。 In the example of FIG. 5, an example in which the subject 60 is imaged using six image pickup devices C11 to C16 is shown, but the number of image pickup devices is not limited to this example. Further, the arrangement positions of the image pickup devices C11 to C16 are not limited to the example shown in FIG. For example, the imaging devices C11 to C16 may be arranged at equal intervals on the circumference so that a plurality of imaging devices surround the subject 60, instead of surrounding the subject 60 in a semicircular shape.

ただし、図5の撮像手法では、撮像装置C11〜C16の適切な配置や、撮像装置C11〜C16の適切なキャリブレーションが求められる。すなわち、図5で示すような撮像処理をユーザのように撮像の専門家でない一般ユーザが行うのは困難である。 However, in the imaging method of FIG. 5, appropriate arrangement of the imaging devices C11 to C16 and appropriate calibration of the imaging devices C11 to C16 are required. That is, it is difficult for a general user who is not an imaging expert such as a user to perform the imaging process as shown in FIG.

ここで、図6及び図7を用いて、撮像の専門家でない一般ユーザ等(以下、単に「ユーザ」と表記する)によって被写体60が撮像される場合の撮像処理について説明する。図6は、第1の実施形態に係る自由視点画像に関する撮像処理の一例を示す図である。図6では、ユーザが、撮像装置C20を用いて、シート70に乗せられた被写体60を撮像する状況を示している。 Here, with reference to FIGS. 6 and 7, an imaging process in which the subject 60 is imaged by a general user or the like (hereinafter, simply referred to as “user”) who is not an imaging expert will be described. FIG. 6 is a diagram showing an example of an imaging process relating to a free viewpoint image according to the first embodiment. FIG. 6 shows a situation in which a user uses the imaging device C20 to image a subject 60 placed on a sheet 70.

図6に示すように、ユーザは、シート70に乗せられた被写体60の周囲を回転するように、連続的に被写体60を撮像する。この場合、図5と比較して、カメラの光軸や焦点距離が、撮像された各画像データについて一定でないことが想定される。 As shown in FIG. 6, the user continuously images the subject 60 so as to rotate around the subject 60 placed on the sheet 70. In this case, it is assumed that the optical axis and focal length of the camera are not constant for each captured image data as compared with FIG.

なお、図1でも説明したように、ユーザが被写体60を周囲から撮像した各画像データでは、シート70に描かれた円マーカーのいずれかが遮蔽されて隠れてしまうものの、少なくとも二つの円マーカーが各画像データに含まれることが想定される。 As described in FIG. 1, in each image data obtained by the user capturing the subject 60 from the surroundings, one of the circle markers drawn on the sheet 70 is shielded and hidden, but at least two circle markers are present. It is expected to be included in each image data.

次に、図7を用いて、図6で示した撮像の状況を上から見た場合を説明する。図7は、第1の実施形態に係る自由視点画像に関する撮像装置の配置の一例を示す図である。図7では、自由視点画像の元となる複数の画像データの撮像について、ユーザが実際に被写体60を撮像する場合に想定される撮像装置の配置等を示す。なお、以下の説明において、撮像装置C20〜C20を区別する必要のないときは、「撮像装置C20」と記載する。 Next, a case where the imaging situation shown in FIG. 6 is viewed from above will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of arrangement of an imaging device for a free viewpoint image according to the first embodiment. FIG. 7 shows an arrangement of an imaging device and the like that are assumed when a user actually images a subject 60 for capturing a plurality of image data that are the basis of a free viewpoint image. In the following description, when it is not necessary to distinguish the imaging devices C20 1 to C20 N , the term "imaging device C20" is used.

撮像装置C20〜C20は、例えば、デジタルカメラである。理想的には、撮像装置C20〜C20は、図5で説明したように、それぞれ個別の撮像装置として、被写体60の周囲に配置されることが望ましい。ところが、実際には、ユーザは、1台の撮像装置C20を図7の撮像装置C20〜C20が示す箇所に移動させながら、被写体60を撮像することが想定される。具体的には、ユーザは、図7に示す撮像装置C20の場所から被写体60を撮像する。そして、ユーザは、被写体60を中心とした円に沿って、図7に示す撮像装置C20の場所へ移動し、被写体60を撮像する。かかる作業を繰り返し、ユーザは、被写体60について複数の画像データを取得する。 The image pickup devices C20 1 to C20 N are, for example, digital cameras. Ideally, the image pickup devices C20 1 to C20 N are arranged around the subject 60 as individual image pickup devices as described with reference to FIG. However, in practice, the user can move the image pickup device C20 1 one at a location indicated by the imaging device C20 1 -C20 N in FIG. 7, it is assumed for imaging a subject 60. Specifically, the user captures a subject 60 from the imaging device C20 1 location shown in FIG. Then, the user, along a circle around the object 60, and moves to the image pickup device C20 2 locations shown in FIG. 7, for imaging a subject 60. By repeating this work, the user acquires a plurality of image data for the subject 60.

この場合、ユーザが、光軸E20が被写体60の中心を通るように注意深く撮像したとしても、自由視点画像の元画像として正確に(例えば、図5で示したように)被写体60を撮像することは難しい。また、ユーザによって扱われる撮像装置C20についてカメラキャリブレーションされているとは限らないため、画像データからカメラパラメータ等を取得することができない場合がある。 In this case, even if the user optical axis E20 1 is carefully imaged so as to pass through the center of the object 60, exactly as the original image of the free viewpoint image (for example, as shown in FIG. 5) for imaging the subject 60 It's difficult. Further, since the image pickup device C20 handled by the user is not always camera-calibrated, it may not be possible to acquire camera parameters or the like from the image data.

そこで、校正部132は、受付部131によって受け付けられた画像データについて、マーカーを利用した所定の校正を行うことにより、自由視点画像を構成する画像に変換できるようにする。この点について、図8を用いて説明する。 Therefore, the calibration unit 132 makes it possible to convert the image data received by the reception unit 131 into an image constituting a free viewpoint image by performing predetermined calibration using a marker. This point will be described with reference to FIG.

図8は、第1の実施形態に係る画像処理装置100が利用するマーカーを説明するための図である。図8では、校正部132が校正に利用する円マーカーM01、M02、M03及びM04が4隅に描かれた、シート70について説明する。 FIG. 8 is a diagram for explaining a marker used by the image processing apparatus 100 according to the first embodiment. FIG. 8 describes the sheet 70 in which the circular markers M01, M02, M03 and M04 used by the calibration unit 132 for calibration are drawn at the four corners.

図8に示すように、シート70には、円マーカーM01、M02、M03及びM04と、中央表示75が含まれる。なお、中央表示75は、例えば、シート70に被写体60を設置する場合の目安となる表示である。ユーザは、図8に示すシート70を取得し、シート70に乗せられた被写体60を撮像する。 As shown in FIG. 8, the sheet 70 includes circular markers M01, M02, M03 and M04, and a central display 75. The central display 75 is, for example, a display that serves as a guide when the subject 60 is placed on the sheet 70. The user acquires the sheet 70 shown in FIG. 8 and images the subject 60 placed on the sheet 70.

また、上述のように、校正部132は、シート70に描かれる円マーカーM01、M02、M03及びM04の位置情報を予め取得する。これにより、校正部132は、各円マーカーを識別することができれば、円マーカーM01、M02、M03及びM04の各々の位置関係を推定することができるため、マーカーを利用した校正処理を行うことができる。なお、校正部132は、画像データにおいて、マーカーの位置情報をワールド座標系における絶対値として与えておいてもよい。すなわち、校正部132は、複数のマーカーを予めワールド座標系においてマッピングするマッピング処理を行う。これにより、校正部132は、被写体60やその他の物体等に遮蔽されたマーカーが画像データ内にある場合でも、遮蔽されたマーカーの位置を推定して校正処理を行うことができる。 Further, as described above, the calibration unit 132 acquires the position information of the circular markers M01, M02, M03 and M04 drawn on the sheet 70 in advance. As a result, if the calibration unit 132 can identify each circle marker, the positional relationship of each of the circle markers M01, M02, M03 and M04 can be estimated, so that the calibration process using the markers can be performed. it can. In addition, the calibration unit 132 may give the position information of the marker as an absolute value in the world coordinate system in the image data. That is, the calibration unit 132 performs a mapping process for mapping a plurality of markers in advance in the world coordinate system. As a result, the calibration unit 132 can estimate the position of the shielded marker and perform the calibration process even when the marker shielded by the subject 60 or another object is present in the image data.

すなわち、校正部132は、マーカーが有するパラメータとして、複数のマーカーの各々の位置情報の対応関係に基づいて、複数の画像データに関する校正を行う。また、校正部132は、マーカーが円マーカーである場合、円マーカーが有するパラメータを用いて推定される円マーカーの法線を含む平面情報と、平面情報に対応する平面に含まれる二つの円マーカーの位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。 That is, the calibration unit 132 calibrates a plurality of image data based on the correspondence between the position information of each of the plurality of markers as the parameters of the markers. Further, when the marker is a circle marker, the calibration unit 132 includes a plane information including the normal of the circle marker estimated using the parameters of the circle marker and two circle markers included in the plane corresponding to the plane information. Calibrate a plurality of image data based on the correspondence of the position information of.

(生成部133について)
生成部133は、校正部132によって校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する。
(About generator 133)
The generation unit 133 generates a free viewpoint image capable of continuously displaying an image corresponding to an arbitrary viewpoint position by performing a predetermined conversion process on a plurality of image data calibrated by the calibration unit 132.

図7を用いて説明したように、ユーザ端末10から入稿される元画像データ群は、被写体60に光軸を向けて撮像されているものの、厳密には光軸が上下左右にばらついていることが想定される。このため、入稿される元画像データ群を単に連続的に表示させたとしても、かかる連続画像では、不連続性が際立つと推定される。 As described with reference to FIG. 7, the original image data group submitted from the user terminal 10 is imaged with the optical axis directed to the subject 60, but strictly speaking, the optical axes are scattered vertically and horizontally. It is assumed. Therefore, even if the original image data group to be submitted is simply displayed continuously, it is presumed that the discontinuity is conspicuous in such a continuous image.

そのため、生成部133は、各々の元画像データが撮像された際の撮像装置C20の光軸が、3次元空間上のある1点(例えば、図5に示した3次元位置D1など)を通過していたかのような画像へと変換する射影変換行列を用いて、元画像データを変換する。かかる射影変換行列は、校正部132が行う校正処理によって導出されたパラメータにより作成されうる。 Therefore, in the generation unit 133, the optical axis of the imaging device C20 when each original image data is imaged passes through a certain point (for example, the three-dimensional position D1 shown in FIG. 5) in the three-dimensional space. The original image data is converted using a projective transformation matrix that transforms the image as if it had been done. Such a projective transformation matrix can be created by parameters derived by the calibration process performed by the calibration unit 132.

例えば、生成部133は、射影変換によって、自由視点画像を構成する変換後画像データを生成する。例えば、変換後の画像データに対応する所定の撮像装置(カメラ)をカメラkと仮定すると、このようなカメラkにおける射影変換行列Hは、各カメラの回転角(回転行列)R、及び光軸を通過させたい3次元点に基づいて、下記式(1)で求めることができる。 For example, the generation unit 133 generates the converted image data constituting the free viewpoint image by the projective transformation. For example, assuming that a predetermined imaging device (camera) corresponding to the converted image data is a camera k, the projection transformation matrix H k in such a camera k is the rotation angle (rotation matrix) R of each camera and light. It can be obtained by the following equation (1) based on the three-dimensional point to be passed through the axis.

Figure 0006794316
Figure 0006794316

上記式(1)において、Rの逆行列とは、カメラkにおける元の回転角Rであり、R´とは新しい回転角Rであり、Aとは内部パラメータである。内部パラメータは、例えば、画像中心位置や焦点距離により与えられる。なお、新しい回転角R´は、既知の手法により、カメラ位置と、ワールド座標系において回転させたい中心から求まる理想的な光軸と、元の光軸とから求めることが可能である。 In the above formula (1), the inverse matrix of R k, is the original rotation angle R in the camera k, and R'k is a new angle of rotation R, and A k is an internal parameter. Internal parameters are given, for example, by the image center position and focal length. Incidentally, the new rotation angle R'k by known techniques, and the camera position, it is possible to obtain from the ideal optical axis determined from the center you want to rotate, the original and the optical axis in the world coordinate system.

生成部133は、上記式(1)のように生成された射影変換行列を用いて、各元画像データを変換することにより、自由視点画像を生成する。ここで、図9を用いて、第1の実施形態に係る生成部133による生成処理の一例を説明する。図9は、第1の実施形態に係る生成部133による生成処理の一例を示す図である。 The generation unit 133 generates a free viewpoint image by converting each original image data using the projective transformation matrix generated as in the above equation (1). Here, an example of the generation process by the generation unit 133 according to the first embodiment will be described with reference to FIG. FIG. 9 is a diagram showing an example of the generation process by the generation unit 133 according to the first embodiment.

図9に示すように、生成部133は、校正部132による校正処理とともに、所定の変換処理を行うことにより、元画像データP01〜P05を、変換後画像データRP01〜RP05に変換することで、自由視点画像を生成する。 As shown in FIG. 9, the generation unit 133 converts the original image data P01 to P05 into the converted image data RP01 to RP05 by performing a predetermined conversion process together with the calibration process by the calibration unit 132. Generate a free viewpoint image.

元画像データP01を例に挙げると、校正部132は、元画像データP01から、円マーカーを少なくとも二つ検出する。例えば、校正部132は、元画像データP01から、円マーカーM02及び円マーカーM03を検出する。そして、校正部132は、上述した処理によって、元画像データP01に関する校正を行う。すなわち、校正部132は、校正処理によって、元画像データP01を撮像した撮像装置C20のカメラパラメータを導出する。言い換えれば、校正部132は、射影変換行列を生成するためのパラメータを取得する。 Taking the original image data P01 as an example, the calibration unit 132 detects at least two circular markers from the original image data P01. For example, the calibration unit 132 detects the circle marker M02 and the circle marker M03 from the original image data P01. Then, the calibration unit 132 calibrates the original image data P01 by the above-described processing. That is, the calibration unit 132 derives the camera parameters of the image pickup apparatus C20 that has captured the original image data P01 by the calibration process. In other words, the calibration unit 132 acquires the parameters for generating the projective transformation matrix.

そして、生成部133は、校正部132による校正処理の結果を受けて、射影変換行列を生成する。続けて、生成部133は、元画像データP01を射影変換することで、変換後画像データRP01を生成する。生成部133は、同様に、元画像データP02〜P05に基づいて、それぞれ、変換後画像データRP02〜RP05を生成する(ステップS20)。 Then, the generation unit 133 generates a projective transformation matrix in response to the result of the calibration process by the calibration unit 132. Subsequently, the generation unit 133 generates the converted image data RP01 by projecting and transforming the original image data P01. Similarly, the generation unit 133 generates the converted image data RP02 to RP05 based on the original image data P02 to P05, respectively (step S20).

なお、校正部132又は生成部133は、マーカーを利用した校正処理が行われた後は、既知の種々の手法を用いて、校正処理を行ったり、射影変換を行ったりしてもよい。例えば、校正部132又は生成部133は、ストラクチャーフロムモーション(Structure From Motion、以下、「SFM」と記載する)と呼ばれる既知の手法を用いてもよい。SFMによれば、種々の視点位置から撮像された複数の画像データに基づいて、画像の3次元形状を復元することが可能となる。具体的には、SFMは、画像データ間で対応付けされた対応点を用いて、かかる対応点の移動を基礎行列で表現することにより、撮像装置C20の動きを算出する。なお、SFMによれば、撮像装置C20の位置情報を復元することができるため、校正部132は、所定の処理において、SFMの手法を適宜用いて、カメラパラメータを取得するようにしてもよい。 After the calibration process using the marker is performed, the calibration unit 132 or the generation unit 133 may perform the calibration process or the projective conversion by using various known methods. For example, the calibration unit 132 or the generation unit 133 may use a known method called Structure From Motion (hereinafter referred to as “SFM”). According to SFM, it is possible to restore the three-dimensional shape of an image based on a plurality of image data captured from various viewpoint positions. Specifically, the SFM calculates the movement of the image pickup apparatus C20 by expressing the movement of the corresponding points with a basic matrix using the corresponding points associated with each other in the image data. Since the position information of the image pickup apparatus C20 can be restored according to the SFM, the calibration unit 132 may acquire the camera parameters by appropriately using the SFM method in a predetermined process.

上記のように、校正部132は、所定の校正処理として、複数の画像データ間で対応するマーカーの関係に基づいて、当該画像データを取得した撮像装置C20のカメラパラメータ(例えば、相対的な位置情報等)を取得する。そして、生成部133は、校正部132によって取得されたパラメータ等の校正データを用いて、各画像データに対応する射影変換行列を算出する。そして、生成部133は、算出された射影変換行列を用いて、各元画像データを変換する。そして、生成部133は、変換した変換後画像データに基づいて、自由視点画像を生成する。生成部133は、生成した自由視点画像を自由視点画像記憶部122に格納する。なお、校正部132及び生成部133が実行する処理には、上記先行技術文献の特許文献2及び3にて開示された処理が、適宜応用されてもよい。 As described above, the calibration unit 132 performs the camera parameters (for example, relative positions) of the image pickup apparatus C20 that acquired the image data based on the relationship of the corresponding markers among the plurality of image data as a predetermined calibration process. Information etc.) is acquired. Then, the generation unit 133 calculates the projection transformation matrix corresponding to each image data by using the calibration data such as the parameters acquired by the calibration unit 132. Then, the generation unit 133 converts each original image data using the calculated projective transformation matrix. Then, the generation unit 133 generates a free viewpoint image based on the converted converted image data. The generation unit 133 stores the generated free viewpoint image in the free viewpoint image storage unit 122. The processes disclosed in Patent Documents 2 and 3 of the prior art document may be appropriately applied to the processes executed by the calibration unit 132 and the generation unit 133.

なお、生成部133は、複数の画像データが所定の連続性を有するか否かを判定することにより、生成処理で取り扱う画像データを抽出し、抽出された画像データを用いて自由視点画像を生成してもよい。言い換えれば、生成部133は、入稿された複数の画像データのうち、自由視点画像の生成に適する画像データを抽出して自由視点画像を生成する。例えば、生成部133は、生成処理において、入稿された複数の画像データのうち、誤って入稿された画像データや、自由視点画像の生成に不適切な画像データを排除することができる。かかる処理は、例えば、マーカーを利用した校正処理を行う際に、マーカーが検出できなかったり、元画像データにおいて対応するマーカーが検出されなかったりした場合に行われうる。また、生成部133は、入稿された複数の画像データによって自由視点画像を生成することができない場合には、生成することができない理由、又は自由視点画像を生成可能とするための画像データの差し換えに係る情報が含まれる通知データを生成してもよい。 The generation unit 133 extracts the image data to be handled in the generation process by determining whether or not the plurality of image data have a predetermined continuity, and generates a free viewpoint image using the extracted image data. You may. In other words, the generation unit 133 extracts the image data suitable for generating the free viewpoint image from the submitted image data and generates the free viewpoint image. For example, in the generation process, the generation unit 133 can exclude image data that has been erroneously submitted and image data that is inappropriate for generating a free-viewpoint image, out of a plurality of image data that have been submitted. Such processing can be performed, for example, when the marker cannot be detected or the corresponding marker is not detected in the original image data when performing the calibration process using the marker. In addition, when the free viewpoint image cannot be generated from the plurality of submitted image data, the generation unit 133 indicates the reason why the free viewpoint image cannot be generated, or the image data for enabling the generation of the free viewpoint image. Notification data including information related to replacement may be generated.

(配信部134について)
配信部134は、生成部133によって生成された自由視点画像を配信する。具体的には、第1の実施形態に係る配信部134は、生成部133によって生成され、自由視点画像記憶部122に記憶されている自由視点画像を、元画像データの入稿元であるユーザ端末10に配信する。
(About distribution unit 134)
The distribution unit 134 distributes the free viewpoint image generated by the generation unit 133. Specifically, the distribution unit 134 according to the first embodiment uses the free viewpoint image generated by the generation unit 133 and stored in the free viewpoint image storage unit 122 as the source of the original image data. Deliver to terminal 10.

なお、配信部134は、元画像データが適切でなく、生成部133が自由視点画像を生成することができない旨や、自由視点画像の生成のための追加の画像データの入稿を求める旨を示した通知データを生成したときは、かかる通知データを元画像データの入稿元に配信してもよい。 In addition, the distribution unit 134 indicates that the original image data is not appropriate and the generation unit 133 cannot generate the free viewpoint image, and that the distribution unit 134 requests the submission of additional image data for generating the free viewpoint image. When the indicated notification data is generated, the notification data may be distributed to the source of the original image data.

〔1−3.画像処理手順〕
次に、図10を用いて、第1の実施形態に係る画像処理装置100による画像処理の手順について説明する。図10は、第1の実施形態に係る画像処理手順を示すフローチャートである。
[1-3. Image processing procedure]
Next, the procedure of image processing by the image processing apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing an image processing procedure according to the first embodiment.

図10に示すように、画像処理装置100の受付部131は、ユーザ端末10から画像データの入稿を受け付けたか否かを判定する(ステップS101)。このとき、受付部131は、画像データの入稿を受け付けていない場合には(ステップS101;No)、画像データの入稿を受け付けるまで待機する。 As shown in FIG. 10, the reception unit 131 of the image processing device 100 determines whether or not the submission of image data has been received from the user terminal 10 (step S101). At this time, if the reception unit 131 has not accepted the submission of the image data (step S101; No), the reception unit 131 waits until the submission of the image data is accepted.

一方、受付部131は、画像データの入稿を受け付けた場合には(ステップS101;Yes)、受け付けた画像データを画像データ記憶部121に格納する。そして、校正部132は、各画像データに含まれるマーカーを特定(検出)する(ステップS102)。 On the other hand, when the reception unit 131 receives the submission of the image data (step S101; Yes), the reception unit 131 stores the received image data in the image data storage unit 121. Then, the proofreading unit 132 identifies (detects) a marker included in each image data (step S102).

そして、校正部132は、マーカーを利用して、画像データに関する校正処理を行う(ステップS103)。続けて、生成部133は、校正部132によって行われた校正処理の校正データに基づいて、画像データを変換する(ステップS104)。 Then, the proofreading unit 132 performs a proofreading process on the image data using the marker (step S103). Subsequently, the generation unit 133 converts the image data based on the calibration data of the calibration process performed by the calibration unit 132 (step S104).

そして、生成部133は、変換された画像データに基づいて、自由視点画像を生成する(ステップS105)。続いて、配信部134は、自由視点画像をユーザ端末10に配信する(ステップS106)。 Then, the generation unit 133 generates a free viewpoint image based on the converted image data (step S105). Subsequently, the distribution unit 134 distributes the free viewpoint image to the user terminal 10 (step S106).

〔1−4.変形例〕
上述してきた第1の実施形態に係る画像処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下に、上記の画像処理装置100の他の実施形態について説明する。
[1-4. Modification example]
The image processing apparatus 100 according to the first embodiment described above may be implemented in various different forms other than the above-described embodiment. Therefore, another embodiment of the above-mentioned image processing apparatus 100 will be described below.

〔1−4−1.円以外の図形を利用したマーカー〕
上記実施形態では、画像処理装置100は、円マーカーを利用して各画像データに関する校正処理を行うことを説明した。しかし、画像処理装置100は、円マーカー以外のマーカーを利用してもよい。
[1-4-1. Markers using figures other than circles]
In the above embodiment, it has been described that the image processing apparatus 100 performs calibration processing on each image data by using a circular marker. However, the image processing device 100 may use a marker other than the circular marker.

例えば、画像処理装置100は、上記のように、識別情報を有する2次元コードを利用することができる。この場合、2次元コード自体に識別情報が含まれ、かつ、一つの2次元コードには2組の(互いに平行ではない)平行の線分が含まれるため、画像処理装置100は、各画像データから少なくとも一つのマーカーを検出することで、校正処理を実行することができる。なお、画像データ内に平面を規定することのできる線分であれば、校正処理において、線分が平行である必要はない。 For example, the image processing device 100 can use a two-dimensional code having identification information as described above. In this case, since the two-dimensional code itself contains the identification information and one two-dimensional code contains two sets of parallel line segments (not parallel to each other), the image processing apparatus 100 uses each image data. The calibration process can be performed by detecting at least one marker from. It should be noted that the line segments need not be parallel in the calibration process as long as the line segments can define a plane in the image data.

このように、画像処理装置100は、マーカーとして、四角形の形状と識別情報とを有する2次元コードが、各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。そして、画像処理装置100は、2次元コードが有する2辺の線分の情報を用いて推定される平面情報と、平面情報に対応する平面に含まれる少なくとも一つの2次元コードの位置情報とに基づいて、複数の画像データに関する校正を行う。このように、画像処理装置100は、校正に利用されるマーカーが円以外の図形であっても、適切な校正を行うことができる。 As described above, the image processing apparatus 100 accepts a plurality of image data in which at least one two-dimensional code having a quadrangular shape and identification information is included in each image data as a marker. Then, the image processing device 100 uses the plane information estimated by using the information of the line segments of the two sides of the two-dimensional code and the position information of at least one two-dimensional code included in the plane corresponding to the plane information. Based on this, calibrate a plurality of image data. As described above, the image processing apparatus 100 can perform appropriate calibration even if the marker used for calibration is a figure other than a circle.

〔1−4−2.4点を利用するマーカー〕
また、画像処理装置100は、マーカーとして、互いの位置関係が既知である4つ以上の点をマーカーとして用いることもできる。この場合、画像処理装置100は、各画像データに少なくとも4つの点が含まれている画像データの入稿を受け付ける。
[Marker using 1-4-2.4 points]
Further, the image processing apparatus 100 can also use as a marker four or more points whose positional relationship with each other is known. In this case, the image processing device 100 accepts the submission of image data in which each image data contains at least four points.

すなわち、画像処理装置100は、画像データ内からマーカーとして4つの点を検出することで、4つの点のうちから2点を結び、線分を二つ規定することができる。これにより、画像処理装置100は、上記実施形態で説明したような、円マーカーを用いた処理と同様の処理を行うことができる。 That is, the image processing device 100 can connect two points out of the four points and define two line segments by detecting four points as markers in the image data. As a result, the image processing apparatus 100 can perform the same processing as the processing using the circle marker as described in the above embodiment.

具体的には、画像処理装置100は、互いの位置情報の対応関係が予め規定された複数の点であって、各画像データ内に少なくとも4つは含まれる複数の点を含んだ複数の画像データを受け付ける。そして、画像処理装置100は、複数の点のうち2点を結ぶ線分から2本の線分を抽出し、抽出された2本の線分を用いて推定される複数の点を含む平面情報と、平面情報に対応する平面に含まれる複数の点の位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。このように、画像処理装置100は、マーカーそのものに識別情報を有しなくても、各点の位置情報や座標に基づいて各点の対応関係を利用することにより、点をマーカーとして利用することができる。 Specifically, the image processing device 100 is a plurality of points in which the correspondence relationship of the mutual position information is predetermined, and a plurality of images including a plurality of points including at least four in each image data. Accept data. Then, the image processing device 100 extracts two line segments from the line segment connecting the two points out of the plurality of points, and the plane information including the plurality of points estimated using the extracted two line segments. , The calibration of a plurality of image data is performed based on the correspondence relationship of the position information of a plurality of points included in the plane corresponding to the plane information. As described above, the image processing apparatus 100 uses the points as markers by using the correspondence of each point based on the position information and coordinates of each point even if the marker itself does not have the identification information. Can be done.

〔1−4−3.活用例(1)〕
上記実施形態では、画像処理装置100は、オークションの出品を所望するユーザから入稿された複数の画像データに基づいて、自由視点画像を生成する処理を例として示した。この場合、画像処理装置100は、生成した自由視点画像を、自由視点画像の元となる複数の画像データを入稿したユーザ端末10もしくはユーザ端末10を利用するユーザを識別する識別情報、又は、ユーザが利用するサービスにおける出品情報の少なくともいずれか一つと対応付けて、所定の記憶部に格納するようにしてもよい。
[1-4-3. Utilization example (1)]
In the above embodiment, the image processing device 100 shows, as an example, a process of generating a free viewpoint image based on a plurality of image data submitted by a user who wants to put up an auction. In this case, the image processing device 100 uses the generated free-viewpoint image as identification information for identifying the user terminal 10 or the user who uses the user terminal 10 that has submitted a plurality of image data that are the source of the free-viewpoint image, or It may be stored in a predetermined storage unit in association with at least one of the exhibition information in the service used by the user.

すなわち、画像処理装置100は、生成した自由視点画像をユーザに配信するのみならず、ユーザ端末10やユーザの識別情報(例えば、ユーザID)や、ユーザが利用するサービスにおける出品情報とともに、自由視点画像記憶部122等に記憶するようにしてもよい。なお、ユーザが利用するサービスにおける出品情報とは、例えば、オークションサイトにおける出品商品を示す識別情報であったり、オークションサイトにおいて行われているオークションを識別する識別情報であったり、ショッピングサイトにおける商品を識別する識別情報といった、出品物(例えば、自由視点画像の元画像データの被写体であることが想定される)を特定することのできる情報である。 That is, the image processing device 100 not only distributes the generated free viewpoint image to the user, but also has the free viewpoint together with the user terminal 10 and the user's identification information (for example, the user ID) and the exhibition information in the service used by the user. It may be stored in the image storage unit 122 or the like. The listing information in the service used by the user is, for example, identification information indicating the item for sale on the auction site, identification information for identifying the auction being held on the auction site, or the item on the shopping site. It is information that can identify an exhibit (for example, it is assumed that it is a subject of the original image data of a free viewpoint image), such as identification information for identifying.

この場合、画像処理装置100は、例えば、サービスを管理運営するウェブサーバ等から自由視点画像の配信の要求を受け付ける。そして、画像処理装置100は、要求を受けた場合に、ユーザ端末10やユーザの識別情報や出品情報に基づいて、自由視点画像を特定する。そして、画像処理装置100は、特定された自由視点画像をサービス側(例えばウェブサーバ)に配信する。自由視点画像を取得したウェブサーバは、オークションにおける商品の紹介画像として、自由視点画像を掲載する。 In this case, the image processing device 100 receives, for example, a request for distribution of a free viewpoint image from a web server or the like that manages and operates the service. Then, when the image processing device 100 receives the request, the free viewpoint image is specified based on the user terminal 10 and the user's identification information and the exhibition information. Then, the image processing device 100 distributes the specified free viewpoint image to the service side (for example, a web server). The web server that has acquired the free-viewpoint image posts the free-viewpoint image as an introduction image of the product at the auction.

このように、画像処理装置100は、ユーザに自由視点画像を配信するのみならず、ユーザを識別する情報とともに自由視点画像を記憶部120内に格納しておき、要求に応じて、サービス側に自由視点画像を配信するようにしてもよい。これにより、画像処理装置100は、多様な要求に応答して自由視点画像を配信することができるため、より自由視点画像を活用させることができる。この場合、画像処理装置100は、例えば、図4に示した自由視点画像記憶部122内に、自由視点画像IDと対応付けて、ユーザIDや、ユーザの出品情報ID等の情報を格納するようにしてもよい。 In this way, the image processing device 100 not only distributes the free viewpoint image to the user, but also stores the free viewpoint image in the storage unit 120 together with the information identifying the user, and requests the service side to store the free viewpoint image. The free viewpoint image may be delivered. As a result, the image processing device 100 can deliver the free viewpoint image in response to various requests, so that the free viewpoint image can be further utilized. In this case, the image processing device 100 stores information such as a user ID and a user's exhibition information ID in the free viewpoint image storage unit 122 shown in FIG. 4 in association with the free viewpoint image ID. It may be.

〔1−4−4.活用例(2)〕
上記実施形態においては、自由視点画像がユーザに利用される例として、オークションサイトへの商品の出品等を示した。しかし、画像処理装置100は、生成した自由視点画像を様々な対象に配信してもよい。例えば、画像処理装置100は、ユーザ端末10ではなく、直接、ウェブサーバ等に配信するサービスを行ってもよい。また、画像処理装置100は、主としてUGC(User-Generated Contents)を掲載するサイトであるUGM(User-Generated Media)、またはCGM(Consumer-Generated Media)等に、生成した自由視点画像を配信してもよい。なお、UGMには、投稿動画共有サイト、写真共有サイト、イラスト投稿サイト、SNS(Social Networking Service)等が含まれる。
[1-4-4. Utilization example (2)]
In the above embodiment, as an example in which the free-viewpoint image is used by the user, listing of a product on an auction site or the like is shown. However, the image processing device 100 may distribute the generated free viewpoint image to various targets. For example, the image processing device 100 may provide a service of directly delivering to a web server or the like instead of the user terminal 10. Further, the image processing device 100 mainly distributes the generated free-viewpoint image to UGM (User-Generated Media), CGM (Consumer-Generated Media), or the like, which is a site for posting UGC (User-Generated Contents). May be good. The UGM includes a posted video sharing site, a photo sharing site, an illustration posting site, an SNS (Social Networking Service), and the like.

〔1−5.効果〕
上述してきたように、第1の実施形態に係る画像処理装置100は、受付部131と、校正部132と、生成部133とを有する。受付部131は、視点位置が異なる複数の画像データであって、所定のパラメータを有するとともに各々を識別可能であるマーカーが、各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。校正部132は、マーカーが有するパラメータに基づいて、受付部131によって受け付けられた複数の画像データに関する校正を行う。生成部133は、校正部132によって校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する。
[1-5. effect〕
As described above, the image processing apparatus 100 according to the first embodiment has a reception unit 131, a calibration unit 132, and a generation unit 133. The reception unit 131 receives a plurality of image data having different viewpoint positions, and a marker having a predetermined parameter and capable of identifying each of the image data includes at least one of the image data. The calibration unit 132 calibrates a plurality of image data received by the reception unit 131 based on the parameters of the marker. The generation unit 133 generates a free viewpoint image capable of continuously displaying an image corresponding to an arbitrary viewpoint position by performing a predetermined conversion process on a plurality of image data calibrated by the calibration unit 132.

このように、第1の実施形態に係る画像処理装置100は、自由視点画像を生成するにあたり、マーカーを利用した校正処理を行う。例えば、画像処理装置100は、被写体とともにマーカーを撮像した画像データを利用することで、専門の機材や装置の整った撮影環境で取得されていない、一般ユーザによって撮像されたような元画像データからであっても、頑健に校正を行うことができる。すなわち、画像処理装置100は、強校正が行われていない撮像装置によって取得された元画像データからも、任意の視点からの表示を自然に行うことのできる自由視点画像を生成することができる。結果として、画像処理装置100は、自由視点画像を有効に活用させることができるという効果を奏する。 As described above, the image processing apparatus 100 according to the first embodiment performs the calibration process using the marker when generating the free viewpoint image. For example, the image processing device 100 uses image data obtained by capturing a marker together with a subject from original image data as if it was captured by a general user, which is not acquired in a shooting environment equipped with specialized equipment or devices. Even so, the calibration can be performed robustly. That is, the image processing device 100 can generate a free viewpoint image that can be naturally displayed from an arbitrary viewpoint even from the original image data acquired by the image pickup device that has not been strongly calibrated. As a result, the image processing device 100 has an effect that the free viewpoint image can be effectively utilized.

また、校正部132は、画像データにおいて、マーカーが有するパラメータを用いて推定される平面情報と、平面情報に対応する平面に含まれるマーカーの位置情報とに基づいて、複数の画像データに関する校正を行う。 Further, the calibration unit 132 calibrates a plurality of image data based on the plane information estimated by using the parameters of the markers and the position information of the markers included in the plane corresponding to the plane information in the image data. Do.

このように、第1の実施形態に係る画像処理装置100は、平面情報を規定することのできるパラメータ(例えば、2本の線分を規定する情報)を有するマーカーを利用して、校正処理を行う。これにより、画像処理装置100は、一般的なユーザによって撮像された画像データであっても、適切な校正処理を行うことができる。 As described above, the image processing apparatus 100 according to the first embodiment performs the calibration process by using the marker having the parameter (for example, the information defining the two line segments) capable of defining the plane information. Do. As a result, the image processing device 100 can perform appropriate calibration processing even for image data captured by a general user.

また、受付部131は、各画像データ内に複数のマーカーが含まれる複数の画像データを受け付ける。校正部132は、パラメータとして、複数のマーカーの各々の位置情報の対応関係に基づいて、複数の画像データに関する校正を行う。 Further, the reception unit 131 receives a plurality of image data including a plurality of markers in each image data. As a parameter, the calibration unit 132 calibrates a plurality of image data based on the correspondence between the position information of each of the plurality of markers.

このように、第1の実施形態に係る画像処理装置100は、画像データ内におけるマーカーの位置情報の対応関係(マッピング情報)に基づいて、複数の画像データに関する校正を行うことができる。これにより、画像処理装置100は、互いのマーカー、すなわち、各画像間の対応点を適切に特定することができるため、頑健な校正を行うことができる。 As described above, the image processing apparatus 100 according to the first embodiment can calibrate a plurality of image data based on the correspondence (mapping information) of the marker position information in the image data. As a result, the image processing apparatus 100 can appropriately identify the markers of each other, that is, the corresponding points between the images, so that robust calibration can be performed.

また、受付部131は、同心を有する二つの円から構成されるマーカーである円マーカーが、各画像データ内に少なくとも二つは含まれる複数の画像データを受け付ける。校正部132は、円マーカーが有するパラメータを用いて推定される円マーカーの法線を含む平面情報と、平面情報に対応する平面に含まれる二つの円マーカーの位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。 Further, the reception unit 131 receives a plurality of image data in which at least two circular markers, which are markers composed of two concentric circles, are included in each image data. The calibration unit 132 is based on the correspondence between the plane information including the normal of the circle marker estimated using the parameters of the circle marker and the position information of the two circle markers included in the plane corresponding to the plane information. , Perform calibration for multiple image data.

このように、第1の実施形態に係る画像処理装置100は、円マーカーによる校正処理を行うことができる。円マーカーは、画像データとして投影された場合に、楕円パラメータを有するため、法線を推定できる。このため、画像処理装置100は、法線に基づく平面情報を容易に推定可能であり、さらに平面の法線を推定可能である。これにより、画像処理装置100は、画像データにおけるワールド座標系との対応をとることができるため、適切な校正処理を行うことができる。 As described above, the image processing apparatus 100 according to the first embodiment can perform the calibration process using the circular marker. Since the circular marker has an elliptical parameter when projected as image data, the normal can be estimated. Therefore, the image processing apparatus 100 can easily estimate the plane information based on the normal, and can further estimate the normal of the plane. As a result, the image processing device 100 can correspond to the world coordinate system in the image data, so that appropriate calibration processing can be performed.

また、受付部131は、互いの位置情報の対応関係が予め規定された複数の点であって、各画像データ内に少なくとも4つは含まれる複数の点を含んだ複数の画像データを受け付ける。校正部132は、複数の点のうち2点を結ぶ線分から2本の線分を抽出し、抽出された2本の線分を用いて推定される複数の点を含む平面情報と、平面情報に対応する平面に含まれる複数の点の位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。 Further, the reception unit 131 receives a plurality of image data including a plurality of points in which the correspondence relationship of the position information with each other is predetermined and at least four are included in each image data. The calibration unit 132 extracts two line segments from a line segment connecting two points out of a plurality of points, and plane information including a plurality of points estimated using the extracted two line segments and plane information. Based on the correspondence between the position information of the plurality of points included in the plane corresponding to, the calibration is performed on the plurality of image data.

このように、第1の実施形態に係る画像処理装置100は、少なくとも4点をマーカーとして利用することもできる。このため、画像処理装置100は、互いに識別可能な情報であれば、円などの図形を用いなくとも、適切な校正処理を行うことができる。すなわち、画像処理装置100は、汎用性の高い画像処理を行うことができる。 As described above, the image processing apparatus 100 according to the first embodiment can use at least four points as markers. Therefore, the image processing apparatus 100 can perform appropriate proofreading processing without using a figure such as a circle as long as the information can be distinguished from each other. That is, the image processing device 100 can perform highly versatile image processing.

また、受付部131は、四角形の形状と識別情報とを有する2次元コードが、各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。校正部132は、2次元コードが有する2辺の線分の情報を用いて推定される平面情報と、平面情報に対応する平面に含まれる少なくとも一つの2次元コードの位置情報とに基づいて、複数の画像データに関する校正を行う。 Further, the reception unit 131 receives a plurality of image data in which at least one two-dimensional code having a quadrangular shape and identification information is included in each image data. The calibration unit 132 is based on the plane information estimated using the information of the line segments of the two sides of the two-dimensional code and the position information of at least one two-dimensional code included in the plane corresponding to the plane information. Calibrate for multiple image data.

このように、第1の実施形態に係る画像処理装置100は、2次元コードをマーカーとして用いてもよい。2次元コードは、2次元コード自体を識別する識別情報を有するため、円マーカーのようにサイズを用いて二つの円を特定せずとも、一つのマーカーで識別される。このため、画像処理装置100は、少なくとも一つの2次元コードに基づいて、校正処理を行うことができる。すなわち、画像処理装置100は、複数個のマーカーの対応関係を算出するといった処理負担を軽減させることができる。 As described above, the image processing apparatus 100 according to the first embodiment may use the two-dimensional code as a marker. Since the two-dimensional code has identification information for identifying the two-dimensional code itself, it can be identified by one marker without specifying two circles by size like a circle marker. Therefore, the image processing apparatus 100 can perform the calibration process based on at least one two-dimensional code. That is, the image processing device 100 can reduce the processing load such as calculating the correspondence between a plurality of markers.

〔2.第2の実施形態〕
〔2−1.画像処理の一例〕
続いて、本願に係る第2の実施形態について説明する。上述してきた第1の実施形態において、画像処理装置100が、例えば、射影変換後の画像データに含まれる2つのマーカーの相対的なサイズやマッピング情報に基づいて、各々のマーカーを特定する処理を説明した。あるいは、画像処理装置100が、2次元コードに含まれる識別情報や、4つ以上の点における座標情報等によりマーカーを特定する処理を説明した。
[2. Second Embodiment]
[2-1. An example of image processing]
Subsequently, a second embodiment according to the present application will be described. In the first embodiment described above, the image processing apparatus 100 performs a process of specifying each marker based on, for example, the relative size and mapping information of the two markers included in the image data after the projective transformation. explained. Alternatively, the process of identifying the marker by the image processing apparatus 100 based on the identification information included in the two-dimensional code, the coordinate information at four or more points, and the like has been described.

ここで、第2の実施形態に係る画像処理装置200(図12参照)は、マーカーが有する所定の特徴情報であって、射影変換後においても不変となるような特徴情報を予め取得し、取得した特徴情報に基づいてマーカーを識別してもよい。かかる処理によれば、画像処理装置200は、画像データに2以上のマーカーが含まれていなくても、マーカーを識別すること、すなわち、マーカーを一意に特定することができる。この点について、図11を用いて説明する。図11は、第2の実施形態に係る画像処理の一例を示す図である。なお、第2の実施形態に係る画像処理装置200は、マーカーに関する情報を予め取得する処理と、マーカーを特定する処理以外は、第1の実施形態に係る画像処理装置100と同様の処理を行う。 Here, the image processing apparatus 200 (see FIG. 12) according to the second embodiment acquires and acquires in advance the characteristic information that the marker has and that does not change even after the projective transformation. The marker may be identified based on the feature information. According to such processing, the image processing apparatus 200 can identify the markers, that is, uniquely identify the markers even if the image data does not include two or more markers. This point will be described with reference to FIG. FIG. 11 is a diagram showing an example of image processing according to the second embodiment. The image processing device 200 according to the second embodiment performs the same processing as the image processing device 100 according to the first embodiment except for the process of acquiring information about the marker in advance and the process of specifying the marker. ..

図11において、画像処理装置200は、図8で示したような、シート70に含まれる円マーカーM01、M02、M03及びM04に関する情報を取得するものとする。画像処理装置200は、円マーカーM01、M02、M03及びM04に関する情報として、各円マーカーにおける外円と内円の径の長さ、また、外円と内円の径の長さから導出される比率を取得する。さらに、画像処理装置200は、外円と内円の各径の長さから導出される比率の比、すなわち、円マーカーにおける複比を取得する。 In FIG. 11, the image processing apparatus 200 shall acquire information regarding the circular markers M01, M02, M03, and M04 included in the sheet 70, as shown in FIG. The image processing device 200 is derived from the lengths of the diameters of the outer circle and the inner circle in each circle marker and the lengths of the diameters of the outer circle and the inner circle as information regarding the circle markers M01, M02, M03, and M04. Get the ratio. Further, the image processing apparatus 200 acquires the ratio of the ratio derived from the length of each diameter of the outer circle and the inner circle, that is, the cross ratio in the circle marker.

ここで、シート70に描かれた円マーカーM01と、撮像装置によって撮像されることにより作成される画像データ内における円マーカーM01とでは、画像データを射影変換したとしても、撮像の状況によってサイズが異なることが想定される。しかし、円マーカー自体の大きさが変化したとしても、外円と内円との径の複比として示される値は、射影変換後であっても不変な値となる。第2の実施形態において、画像処理装置200は、この性質を利用して、円マーカーを特定する。 Here, the size of the circular marker M01 drawn on the sheet 70 and the circular marker M01 in the image data created by being imaged by the image pickup apparatus are different depending on the imaging situation even if the image data is projected and converted. It is expected to be different. However, even if the size of the circle marker itself changes, the value shown as the double ratio of the diameters of the outer circle and the inner circle remains unchanged even after the projective transformation. In the second embodiment, the image processing apparatus 200 utilizes this property to identify a circular marker.

図11では、円マーカーM01を例に挙げて説明する。図11に示す例において、画像処理装置200は、円マーカーM01を、内円80と外円85という同心の2円として認識する。図11の例では、内円80及び外円85の中心を点Cとし、中心を通る直線と内円80との交点を点B及び点D、中心を通る直線と外円85との交点を点A及び点Eとする。すなわち、内円80の直径は線BD、外円85の直径は線AEとして示される。また、内円80の半径は線BC又は線CD、外円85の半径は線AC又は線CEとして示される。 In FIG. 11, the circle marker M01 will be described as an example. In the example shown in FIG. 11, the image processing apparatus 200 recognizes the circle marker M01 as two concentric circles of the inner circle 80 and the outer circle 85. In the example of FIG. 11, the center of the inner circle 80 and the outer circle 85 is set as the point C, the intersection of the straight line passing through the center and the inner circle 80 is the point B and the point D, and the intersection of the straight line passing through the center and the outer circle 85 is set. Let it be point A and point E. That is, the diameter of the inner circle 80 is shown as the line BD, and the diameter of the outer circle 85 is shown as the line AE. The radius of the inner circle 80 is shown as line BC or line CD, and the radius of the outer circle 85 is shown as line AC or line CE.

上記のように、画像処理装置200は、各円マーカーの特定に関して、射影空間において、線分の複比(長さの比の比)が不変という性質を利用する。なお、画像処理装置200は、2つの同心円の長さの比の比を取得することができるのであれば、点A〜Eのうち、いずれの点間の長さを採用してもよい。例えば、画像処理装置200は、(線AC/線AD)と(線BC/線BD)との比率が不変であることを利用する。言い換えれば、画像処理装置200は、(線AC×線BD)/(線AD×線BC)の値が不変であることを利用する。 As described above, the image processing apparatus 200 utilizes the property that the cross ratio (ratio of length ratios) of line segments does not change in the projective space with respect to the identification of each circular marker. The image processing apparatus 200 may adopt any of the points A to E as long as the ratio of the ratios of the lengths of the two concentric circles can be obtained. For example, the image processing apparatus 200 utilizes the fact that the ratio of (line AC / line AD) and (line BC / line BD) is invariant. In other words, the image processing apparatus 200 utilizes the fact that the values of (line AC × line BD) / (line AD × line BC) are invariant.

この場合、画像処理装置200は、予めシート70を画像データとして取得し、マーカーとして特定する対象である円マーカーM01の各点間の長さを取得する。一例として、画像処理装置200は、内円80と外円85の径の比として、(線AC/線AD)や(線BC/線BD)等の比を取得する。そして、画像処理装置200は、点A〜Eのいずれかの点間で算出した特徴情報である複比の値を、円マーカーM01に付与する識別情報であるマーカーIDと対応付けて登録する。画像処理装置200は、円マーカーM02、M03及びM04についても、同様に登録を行う。この場合、シート70に描かれる円マーカーM01、M02、M03及びM04は、各々、中心を通る直線と外円及び内円との交点と、中心との点間の長さにおいて、画像処理装置200が認識可能な程度に差異があるものとする。すなわち、画像処理装置200は、各々の円マーカーにおいて交点と中心との点間の線分で示される複比について、異なる値として取得しているものとする。 In this case, the image processing device 200 acquires the sheet 70 as image data in advance, and acquires the length between each point of the circular marker M01 which is the target to be specified as the marker. As an example, the image processing apparatus 200 acquires a ratio of (line AC / line AD), (line BC / line BD), or the like as the ratio of the diameters of the inner circle 80 and the outer circle 85. Then, the image processing device 200 registers the value of the double ratio, which is the feature information calculated between the points A to E, in association with the marker ID, which is the identification information given to the circular marker M01. The image processing device 200 also registers the circular markers M02, M03, and M04 in the same manner. In this case, the circle markers M01, M02, M03, and M04 drawn on the sheet 70 have the image processing apparatus 200 at the intersection of the straight line passing through the center, the outer circle, and the inner circle, and the length between the points. It is assumed that there is a recognizable difference. That is, it is assumed that the image processing apparatus 200 acquires the double ratio indicated by the line segment between the intersection and the center as different values in each circular marker.

そして、画像処理装置200は、円マーカーM01、M02、M03及びM04のいずれかが含まれる画像データを取得した場合には、楕円で示されていた円マーカーを正面から認識できるよう、当該画像データを射影変換する。なお、この場合の射影変換は、第1の実施形態で説明したような、校正処理を経て複数の画像に共通するカメラ特徴情報を算出した上での射影変換をすることを要さず、一つの画像データにおいて、単に楕円を真円に置き換える射影変換のみを行えばよい。第1の実施形態において述べたように、マーカーが真円である場合、画像データ内のマーカーは楕円で表される。すなわち、画像処理装置200は、マーカーが真円であることがわかっている場合、画像データ中の楕円を検出し、検出した楕円を真円に戻すような射影変換を行えばよい。 Then, when the image processing device 200 acquires the image data including any one of the circle markers M01, M02, M03, and M04, the image data so that the circle marker indicated by the ellipse can be recognized from the front. Is projected. Note that the projective transformation in this case does not require the projective transformation after calculating the camera feature information common to the plurality of images through the calibration process as described in the first embodiment. In one image data, it is only necessary to perform a projective transformation that replaces an ellipse with a perfect circle. As described in the first embodiment, when the marker is a perfect circle, the marker in the image data is represented by an ellipse. That is, when the marker is known to be a perfect circle, the image processing apparatus 200 may detect an ellipse in the image data and perform a projective transformation such that the detected ellipse is returned to a perfect circle.

そして、画像処理装置200は、予め取得していた円マーカーの複比と、射影変換された画像データに含まれる円マーカーの複比とを照合することにより、画像データに含まれる円マーカーが、円マーカーM01、M02、M03及びM04のいずれの円マーカーであるかを特定する。画像処理装置200は、例えば、ユーザから受け付けた複数の画像データにおいて上記処理を行うことにより、各画像データに含まれるマーカーを正確に特定することができる。 Then, the image processing apparatus 200 collates the double ratio of the circle markers acquired in advance with the double ratio of the circle markers included in the projected image data, so that the circle markers included in the image data can be obtained. Circular marker M01, M02, M03 or M04 is specified as a circular marker. The image processing device 200 can accurately identify the marker included in each image data by performing the above processing on a plurality of image data received from the user, for example.

上述してきたように、第2の実施形態に係る画像処理装置200は、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける。そして、画像処理装置200は、受け付けられた画像データに含まれる楕円状の図形が真円となるよう画像データを射影変換し、射影変換後の真円が有する特徴情報に基づいて、当該真円を画像データの所定の処理に用いるためのマーカーとして特定する。 As described above, the image processing device 200 according to the second embodiment receives image data that is created by being imaged by a predetermined imaging device and includes image data including an elliptical figure. Then, the image processing device 200 projects the image data so that the elliptical figure included in the received image data becomes a perfect circle, and based on the feature information of the perfect circle after the projection conversion, the perfect circle. Is specified as a marker for use in a predetermined process of image data.

具体的には、画像処理装置200は、マーカーとして、中心が共通する内円と外円とを有するマーカーに関する情報を取得するとともに、特徴情報として、マーカーの中心を通る直線と、内円と外円と、の各々の交点及び中心のいずれかの点間の長さ同士の比の比を示す複比の値を取得する。そして、画像処理装置200は、画像データを射影変換することによって得られるマーカーにおいて、取得された複比に対応する点間における複比と、予め取得していたマーカーにおける複比とを照合することにより、画像データに含まれるマーカーを特定する。 Specifically, the image processing apparatus 200 acquires information about a marker having an inner circle and an outer circle having a common center as markers, and as feature information, a straight line passing through the center of the marker, and the inner circle and the outer circle. Obtain a cross-ratio value that indicates the ratio of the ratios of the lengths of the circle to any of the intersections and centers of the circles. Then, the image processing device 200 collates the double ratio between the points corresponding to the acquired double ratio and the double ratio of the previously acquired marker in the marker obtained by projecting and transforming the image data. To identify the marker included in the image data.

このように、第2の実施形態に係る画像処理装置200は、マーカーに関して、射影変換された後の画像データにおいても不変となる特徴情報を取得し、かかる特徴情報を照合することでマーカーを特定する。これにより、画像処理装置200は、元画像データにマーカーが一つだけ含まれている場合であっても、マーカーを一意に特定することができる。言い換えれば、画像処理装置200は、2つのマーカーの相対的な情報を用いることなく、画像データに含まれているマーカーを特定できる。これにより、画像処理装置200は、各画像データに含まれる円マーカーが円マーカーM01であるか、円マーカーM02であるかといった特定を正確に行うことができるため、複数の画像間におけるマーカーと被写体の位置関係を正確に把握することができる。すなわち、画像処理装置200は、一般ユーザによって撮像されたような、校正が的確に行われていない複数の元画像データからでも、違和感のない自由視点画像を生成することができる。また、画像処理装置200は、予めシート70のようなマーカーに関する情報を取得することができるため、マーカーの特定処理において、一般ユーザに負担となるような処理を行わせることを要しない。結果として、画像処理装置200は、一般ユーザに自由視点画像を有効に活用させることができる。 As described above, the image processing apparatus 200 according to the second embodiment acquires the feature information that does not change even in the image data after the projective transformation with respect to the marker, and identifies the marker by collating the feature information. To do. As a result, the image processing apparatus 200 can uniquely identify the marker even when the original image data contains only one marker. In other words, the image processing apparatus 200 can identify the markers included in the image data without using the relative information of the two markers. As a result, the image processing device 200 can accurately specify whether the circle marker included in each image data is the circle marker M01 or the circle marker M02, so that the marker and the subject between a plurality of images can be accurately specified. It is possible to accurately grasp the positional relationship of. That is, the image processing device 200 can generate a free-viewpoint image that does not give a sense of discomfort even from a plurality of original image data that have not been accurately calibrated, such as those captured by a general user. Further, since the image processing device 200 can acquire information about the marker such as the sheet 70 in advance, it is not necessary to perform a process that burdens a general user in the marker identification process. As a result, the image processing device 200 can make a general user effectively utilize the free viewpoint image.

〔2−2.画像処理装置の構成〕
次に、図12を用いて、第2の実施形態に係る画像処理装置200の構成について説明する。図12は、第2の実施形態に係る画像処理装置200の構成例を示す図である。図12に示すように、画像処理装置200は、通信部210と、記憶部220と、制御部230とを有する。なお、第1の実施形態で説明した画像処理装置100が行う処理と同様の処理や、同様の処理を行う処理部については、説明を省略する。
[2-2. Image processing device configuration]
Next, the configuration of the image processing apparatus 200 according to the second embodiment will be described with reference to FIG. FIG. 12 is a diagram showing a configuration example of the image processing device 200 according to the second embodiment. As shown in FIG. 12, the image processing device 200 includes a communication unit 210, a storage unit 220, and a control unit 230. The same processing as the processing performed by the image processing apparatus 100 described in the first embodiment and the processing unit that performs the same processing will not be described.

(マーカー情報記憶部221について)
マーカー情報記憶部221は、マーカーに関する情報を記憶する。ここで、図13に、第2の実施形態に係るマーカー情報記憶部221の一例を示す。図13に示した例では、マーカー情報記憶部221は、「マーカーID」、「特徴情報」といった項目を有する。
(About marker information storage unit 221)
The marker information storage unit 221 stores information about the marker. Here, FIG. 13 shows an example of the marker information storage unit 221 according to the second embodiment. In the example shown in FIG. 13, the marker information storage unit 221 has items such as “marker ID” and “feature information”.

「マーカーID」は、マーカーを識別するための識別情報を示す。「特徴情報」は、マーカーを特定するために用いられる情報であり、射影変換後においても不変となる情報を示す。なお、図13に示した例では、特徴情報は、「L01」など概念的に表記しているが、実際には、特徴情報の項目には、マーカーを特定するための数値等が記憶される。特徴情報の一例としては、同心を有する2円の径の比率に基づいて導出される複比の値である。 The "marker ID" indicates identification information for identifying the marker. "Characteristic information" is information used for specifying a marker, and indicates information that does not change even after a projective transformation. In the example shown in FIG. 13, the feature information is conceptually described as "L01" or the like, but in reality, a numerical value or the like for specifying a marker is stored in the feature information item. .. As an example of the characteristic information, it is a value of a cross ratio derived based on the ratio of diameters of two concentric circles.

すなわち、図13では、マーカーID「M01」で識別されるマーカーが、特徴情報として「L01」という情報を有していることを示している。 That is, in FIG. 13, it is shown that the marker identified by the marker ID “M01” has the information “L01” as the feature information.

(制御部230について)
制御部230は、図12に示すように、取得部231と、受付部232と、特定部233と、校正部234と、生成部235と、配信部236とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図12に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図12に示した接続関係に限られず、他の接続関係であってもよい。
(About control unit 230)
As shown in FIG. 12, the control unit 230 has an acquisition unit 231, a reception unit 232, a specific unit 233, a calibration unit 234, a generation unit 235, and a distribution unit 236, and the information described below. Realize or execute the function or action of processing. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 12, and may be another configuration as long as it is a configuration for performing information processing described later. Further, the connection relationship of each processing unit included in the control unit 230 is not limited to the connection relationship shown in FIG. 12, and may be another connection relationship.

(取得部231について)
取得部231は、マーカーに関する情報を取得する。具体的には、取得部231は、円を構成要素に含むマーカーに関する情報であって、マーカーを特定するための特徴情報を取得する。例えば、取得部231は、ユーザに提供するシート70に描かれた円マーカーM01の画像データを取得する。そして、取得部231は、円マーカーM01に識別情報であるマーカーIDを付すとともに、マーカー情報記憶部221に記憶する。
(About acquisition unit 231)
The acquisition unit 231 acquires information about the marker. Specifically, the acquisition unit 231 acquires information about a marker including a circle as a component, and character information for specifying the marker. For example, the acquisition unit 231 acquires the image data of the circular marker M01 drawn on the sheet 70 provided to the user. Then, the acquisition unit 231 attaches a marker ID, which is identification information, to the circular marker M01 and stores it in the marker information storage unit 221.

また、取得部231は、マーカーとして、中心が共通する内円と外円とを有するマーカーに関する情報を取得するとともに、特徴情報として、マーカーの中心を通る直線と、内円及び外円と、の各々の交点及び当該中心のいずれかの点間の長さの比の比を示す複比を取得する。なお、取得部231は、内円と外円との2円を関係付ける線分により示される複比を取得する。図11の例でいえば、取得部231は、線分ADと線分ACとの比や、線分BCと線分BDとの比を取得して複比を取得する一方で、線分ABや線分DEについては複比を求める線分として採用しない。 Further, the acquisition unit 231 acquires information about a marker having an inner circle and an outer circle having a common center as markers, and as feature information, a straight line passing through the center of the marker and the inner circle and the outer circle. Obtain a cross-ratio that indicates the ratio of the lengths between each intersection and any of the points in the center. The acquisition unit 231 acquires the double ratio indicated by the line segment relating the two circles of the inner circle and the outer circle. In the example of FIG. 11, the acquisition unit 231 acquires the ratio between the line segment AD and the line segment AC and the ratio between the line segment BC and the line segment BD to acquire the cross ratio, while the line segment AB. And the line segment DE are not adopted as the line segment for obtaining the cross ratio.

(受付部232について)
受付部232は、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける。例えば、第2の実施形態に係る受付部232は、被写体60をシート70の上に乗せて撮像された画像データであって、円マーカーM01〜M04の少なくともいずれか一つが含まれる画像データを取得する。円マーカーM01〜M04は真円であるため、撮像された円マーカーM01〜M04は、楕円上の図形となる。すなわち、受付部232が受け付ける画像データには、楕円上の図形が含まれることとなる。受付部232は、受け付けた画像データを画像データ記憶部222に記憶する。
(About reception desk 232)
The reception unit 232 receives image data that is created by being imaged by a predetermined imaging device and includes an elliptical figure. For example, the reception unit 232 according to the second embodiment acquires image data captured by placing the subject 60 on the sheet 70 and includes at least one of the circular markers M01 to M04. To do. Since the circular markers M01 to M04 are perfect circles, the imaged circular markers M01 to M04 are figures on an ellipse. That is, the image data received by the reception unit 232 includes the figure on the ellipse. The reception unit 232 stores the received image data in the image data storage unit 222.

また、受付部232は、視点位置が異なる複数の画像データであって、マーカーとして特定される図形が各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。第1の実施形態と同様に、校正部234や、生成部235は、受付部232によって受け付けられた複数の画像データに基づいて、自由視点画像を生成する。 Further, the reception unit 232 receives a plurality of image data having different viewpoint positions, and includes at least one figure specified as a marker in each image data. Similar to the first embodiment, the calibration unit 234 and the generation unit 235 generate a free viewpoint image based on the plurality of image data received by the reception unit 232.

また、受付部232は、ユーザ端末10から複数の画像データの入稿を受け付けるとともに、ユーザ端末10を識別する情報を受け付ける。例えば、配信部236は、ユーザ端末10を識別する情報に基づいて、生成部235によって生成された自由視点画像をユーザ端末10に配信する。 In addition, the reception unit 232 accepts submission of a plurality of image data from the user terminal 10 and also receives information for identifying the user terminal 10. For example, the distribution unit 236 distributes the free viewpoint image generated by the generation unit 235 to the user terminal 10 based on the information that identifies the user terminal 10.

(特定部233について)
特定部233は、受付部232によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう画像データを射影変換し、射影変換後の真円が有する特徴情報に基づいて、当該真円を画像データの所定の処理に用いるためのマーカーとして特定する。
(About specific part 233)
The specific unit 233 projects the image data so that the elliptical figure included in the image data received by the reception unit 232 becomes a perfect circle, and based on the feature information of the perfect circle after the projection conversion, the true The circle is specified as a marker for use in a predetermined process of image data.

例えば、特定部233は、取得部231が、画像データを射影変換した後の真円が有する特徴情報と、取得部231によって取得された特徴情報とを照合することにより、画像データに含まれるマーカーを特定する。具体的には、特定部233は、画像データに含まれる2つの楕円状の図形が、同心を有する2つの真円となるよう射影変換される場合に、取得部231によって取得された複比と、当該複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される2つの真円における複比と、を照合することにより、当該画像データに含まれるマーカーを特定する。 For example, the specific unit 233 is a marker included in the image data by collating the feature information of the perfect circle after the image data is projected and transformed by the acquisition unit 231 with the feature information acquired by the acquisition unit 231. To identify. Specifically, the specific unit 233 is a cross ratio acquired by the acquisition unit 231 when the two elliptical figures included in the image data are projected and transformed into two concentric circles. By collating the cross-ratio in two perfect circles calculated by using the length between the points in the corresponding relationship with the points used in calculating the cross-ratio, the image data is obtained. Identify the markers involved.

ここで、複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される2つの真円における複比とは、円マーカーM01において複比を算出する際に用いられた線分と対応する関係にある線分を用いて、射影変換後における2つの同心円について複比を算出することを意味する。例えば、取得部231が、図11における円マーカーM01の複比として、(線分AC×線分BD)/(線分AD×線分BC)の値を算出したとする。この場合、特定部233は、射影変換後の2つの同心円においても、円マーカーM01の場合と対応する関係となる、((外円と中心との線分)×(内円の直径))/((外円から中心を通過して内円と交差した交点)×(内円の半径))で算出される複比を求めることを意味する。 Here, the double ratio in two true circles calculated by using the length between the points used in calculating the double ratio and the points having a corresponding relationship is calculated by the circle marker M01. It means that the cross ratio is calculated for two concentric circles after the projective transformation by using the line segment having a corresponding relationship with the line segment used at the time of performing. For example, it is assumed that the acquisition unit 231 calculates the value of (line segment AC × line segment BD) / (line segment AD × line segment BC) as the cross ratio of the circular marker M01 in FIG. In this case, the specific portion 233 has a relationship corresponding to the case of the circle marker M01 even in the two concentric circles after the projection conversion ((line segment between the outer circle and the center) × (diameter of the inner circle)) / It means to obtain the cross ratio calculated by ((the intersection of the outer circle passing through the center and intersecting the inner circle) × (radius of the inner circle)).

(校正部234について)
校正部234は、マーカーが有するパラメータに基づいて、受付部232によって受け付けられた複数の画像データに関する校正を行う。具体的には、第2の実施形態に係る校正部234は、入稿された元画像データについて所定の校正を行うことで、自由視点画像を構成する画像に変換させるための変換行列に用いられるカメラパラメータを算出する。上述のように、第2の実施形態に係る処理によれば、特定部233が、各画像データに含まれるマーカーを正確に特定できるため、校正部234は、各画像データ間における対応点としてマーカーを利用し、各画像データに関する強校正を行うことが可能となる。
(About calibration unit 234)
The calibration unit 234 calibrates a plurality of image data received by the reception unit 232 based on the parameters of the marker. Specifically, the calibration unit 234 according to the second embodiment is used as a transformation matrix for converting the submitted original image data into an image constituting the free viewpoint image by performing predetermined calibration. Calculate the camera parameters. As described above, according to the process according to the second embodiment, the proofreading unit 234 can accurately identify the marker included in each image data, so that the proofreading unit 234 serves as a corresponding point between the image data. It is possible to perform strong proofreading for each image data by using.

(生成部235について)
生成部235は、校正部234によって校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する。
(About generator 235)
The generation unit 235 generates a free viewpoint image capable of continuously displaying an image corresponding to an arbitrary viewpoint position by performing a predetermined conversion process on a plurality of image data calibrated by the calibration unit 234.

(配信部236について)
配信部236は、生成部235によって生成された自由視点画像を配信する。具体的には、第2の実施形態に係る配信部236は、生成部235によって生成され、自由視点画像記憶部223に記憶されている自由視点画像を、元画像データの入稿元であるユーザ端末10に配信する。
(About distribution department 236)
The distribution unit 236 distributes the free viewpoint image generated by the generation unit 235. Specifically, the distribution unit 236 according to the second embodiment uses the free viewpoint image generated by the generation unit 235 and stored in the free viewpoint image storage unit 223 as the source of the original image data. Deliver to terminal 10.

〔2−3.変形例〕
上述してきた第2の実施形態に係る画像処理装置200は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下に、上記の画像処理装置200の他の実施形態について説明する。
[2-3. Modification example]
The image processing apparatus 200 according to the second embodiment described above may be implemented in various different forms other than the above-described embodiment. Therefore, another embodiment of the above-mentioned image processing apparatus 200 will be described below.

〔2−3−1.図案を含むマーカー〕
画像処理装置200は、特徴情報として、2円の径の比率から算出される複比とは異なる特徴情報を用いて、マーカーを特定してもよい。例えば、画像処理装置200は、円マーカーの中に描かれた図案に基づいて、マーカーを特定してもよい。この点について、図14乃至図16を用いて説明する。
[2-3-1. Marker including design]
The image processing apparatus 200 may specify the marker by using the feature information different from the cross ratio calculated from the ratio of the diameter of 2 circles as the feature information. For example, the image processing device 200 may specify the marker based on the design drawn in the circular marker. This point will be described with reference to FIGS. 14 to 16.

図14は、第2の実施形態に係るマーカーの一例を説明するための図(1)である。図14では、第2の実施形態に係るマーカーの一例として、円マーカーM10を示して説明する。図14に示すように、円マーカーM10は、内円81と、外円86と、図案90とを構成要素とするマーカーである。図案90は、「忍」という漢字をモチーフとした図案である。画像処理装置200は、円マーカーM10に関する情報として、例えば、円マーカーM10が真円で構成されていることや、円マーカーM10を構成する画素データ等を取得するものとする。 FIG. 14 is a diagram (1) for explaining an example of the marker according to the second embodiment. In FIG. 14, a circular marker M10 will be shown and described as an example of the marker according to the second embodiment. As shown in FIG. 14, the circle marker M10 is a marker whose constituent elements are the inner circle 81, the outer circle 86, and the design 90. Design 90 is a design with the Chinese character "Shinobu" as a motif. It is assumed that the image processing device 200 acquires, for example, that the circle marker M10 is composed of a perfect circle, pixel data that constitutes the circle marker M10, and the like as information regarding the circle marker M10.

続いて、図15を用いて、円マーカーM10が撮像装置によって撮像された状態を説明する。図15は、第2の実施形態に係るマーカーの一例を説明するための図(2)である。図15に示すように、円マーカーM10は、撮像装置によって撮像された画像データでは、楕円形状の図形として表される。画像処理装置200は、楕円形状の図形を画像データ中から検出し、検出した楕円形状の図形を射影変換する(ステップS30)。これにより、画像処理装置200は、真円で示される円マーカーM10を取得する。 Subsequently, the state in which the circular marker M10 is imaged by the imaging device will be described with reference to FIG. FIG. 15 is a diagram (2) for explaining an example of the marker according to the second embodiment. As shown in FIG. 15, the circular marker M10 is represented as an elliptical figure in the image data captured by the image pickup apparatus. The image processing device 200 detects an elliptical figure from the image data, and projects and transforms the detected elliptical figure (step S30). As a result, the image processing apparatus 200 acquires the circular marker M10 represented by a perfect circle.

例えば、画像処理装置200は、「忍」という図案90が、取得していた円マーカーM10に関する情報と同じ角度で認識できる場合には、画素データとの照合等により、容易に円マーカーM10を画像データ中で特定することができる。しかしながら、撮像装置によって作成された画像データ中では、円マーカーM10に係る図案90は、通常、斜めの向きに傾いて示される。このため、画像データ中の楕円形状の円マーカーM10を射影変換した際にも、図15に示すように、「忍」という図案90は、斜めに傾いて示される。この場合、画像処理装置200は、単に画素データを照合することでは、円マーカーM10を特定することができない。また、画像データ中から取得された円マーカーM10の画素データを全て回転させ、予め取得していた円マーカーM10の画素データと照合する角度を検出することは、処理負荷が大きくなる。 For example, when the image processing device 200 can recognize the design 90 "Shinobu" at the same angle as the acquired information about the circular marker M10, the image processing apparatus 200 can easily image the circular marker M10 by collating with pixel data or the like. Can be identified in the data. However, in the image data created by the image pickup apparatus, the design 90 related to the circular marker M10 is usually shown tilted in an oblique direction. Therefore, even when the elliptical circular marker M10 in the image data is projected and transformed, as shown in FIG. 15, the design 90 "Shinobu" is shown at an oblique angle. In this case, the image processing device 200 cannot identify the circle marker M10 simply by collating the pixel data. Further, rotating all the pixel data of the circular marker M10 acquired from the image data and detecting the angle to collate with the pixel data of the circular marker M10 acquired in advance increases the processing load.

そこで、画像処理装置200は、円マーカーM10について、回転不変となる特徴情報を取得し、かかる情報を用いてマーカーの特定処理を行う。例えば、画像処理装置200は、特徴情報として、円の中心から外側へ向かう放射線上の各画素における、円の中心から外側に向かう向きへの輝度差によって示される特徴情報を利用して、マーカーを特定する。 Therefore, the image processing device 200 acquires characteristic information that does not change the rotation of the circular marker M10, and performs marker identification processing using such information. For example, the image processing apparatus 200 uses the feature information indicated by the brightness difference in the direction from the center of the circle to the outside in each pixel on the radiation extending from the center of the circle to the outside to display the marker. Identify.

具体的には、画像処理装置200は、マーカーが有する円の中心から第1の所定距離だけ離れた箇所に複数のサンプルポイントを設ける。そして、画像処理装置200は、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示した数値を、サンプルポイントの数だけ並べたデータであるバイナリデータを特徴情報として取得する。この点について、図16を用いて説明する。 Specifically, the image processing apparatus 200 provides a plurality of sample points at a location separated by a first predetermined distance from the center of the circle of the marker. Then, the image processing device 200 arranges as many numerical values as the number of sample points, which are obtained by binarizing the brightness difference between the sample points and the points separated from the sample points by a second predetermined distance outward. Obtain binary data, which is data, as feature information. This point will be described with reference to FIG.

図16は、第2の実施形態に係るマーカーの一例を説明するための図(3)である。図16に示すように、画像処理装置200は、円マーカーM10の中心から第1の所定距離だけ離れた位置の画素をサンプルポイントとして設ける。言い換えれば、画像処理装置200は、第1の所定距離を半径とする円周91の円周上にサンプルポイントを設ける。図16の例では、画像処理装置200は、円周91上にサンプルポイントSA01〜SA06を設ける。 FIG. 16 is a diagram (3) for explaining an example of the marker according to the second embodiment. As shown in FIG. 16, the image processing apparatus 200 provides a pixel at a position separated from the center of the circular marker M10 by a first predetermined distance as a sample point. In other words, the image processing apparatus 200 provides a sample point on the circumference of the circumference 91 having a radius of the first predetermined distance. In the example of FIG. 16, the image processing apparatus 200 provides sample points SA01 to SA06 on the circumference 91.

そして、画像処理装置200は、サンプルポイントSA01〜SA06の各々の輝度と、放射線上に第2の所定距離だけ離れた位置の各々の画素における輝度との差を求める。すなわち、画像処理装置200は、サンプルポイントSA01〜SA06と、第2の所定距離だけ離れた円周92上のサンプルポイントSA11〜SA16との輝度差を求める。 Then, the image processing apparatus 200 obtains the difference between the brightness of each of the sample points SA01 to SA06 and the brightness of each pixel at a position separated by a second predetermined distance on the radiation. That is, the image processing apparatus 200 obtains the brightness difference between the sample points SA01 to SA06 and the sample points SA11 to SA16 on the circumference 92 separated by a second predetermined distance.

画像処理装置200は、例えば、ポイント間の輝度差を「0」と「1」との二値で取得する。例えば、画像処理装置200は、サンプルポイントSA01の輝度に対して、サンプルポイントSA11の輝度が高い場合、サンプルポイントSA11に「1」の数値を与える。一方、画像処理装置200は、サンプルポイントSA01の輝度に対して、サンプルポイントSA11の輝度が低い場合、サンプルポイントSA11に「0」の数値を与える。画像処理装置200は、同様にして、サンプルポイントSA12〜SA16についても「0」か「1」の数値を与える。 The image processing device 200 acquires, for example, the luminance difference between points as a binary value of "0" and "1". For example, the image processing apparatus 200 gives a numerical value of "1" to the sample point SA11 when the brightness of the sample point SA11 is higher than the brightness of the sample point SA01. On the other hand, when the brightness of the sample point SA11 is lower than the brightness of the sample point SA01, the image processing device 200 gives the sample point SA11 a numerical value of “0”. Similarly, the image processing apparatus 200 gives a numerical value of "0" or "1" for the sample points SA12 to SA16.

そして、画像処理装置200は、円周92に沿って、サンプルポイントSA11〜SA16に与えられた数値を並べる。これにより、画像処理装置200は、円周92上のサンプルポイントSA11〜SA16における数値を並べたバイナリデータを求めることができる。具体的には、画像処理装置200は、円周92におけるバイナリデータとして、「00100」や、「10100」等の数値の羅列を取得する。画像処理装置200は、かかる処理を繰り返し、円周93についても、サンプルポイントSA01〜SA06から放射状に外側に伸ばした線との交点において、直前のサンプルポイントSA11〜SA16との輝度差を求める。これにより、画像処理装置200は、円マーカーM01におけるバイナリデータを取得する。なお、画像処理装置200は、サンプルポイントの数や、円周の数については、任意に設計可能である。例えば、画像処理装置200は、サンプルポイントSA11と、更に外側に仮定する円周上のサンプルポイントであるサンプルポイントSA21との輝度差を取得してもよい。画像処理装置200が、二値化データを取得するための円周とサンプルポイントを増やすほど、マーカーの特定処理の精度は向上する。 Then, the image processing apparatus 200 arranges the numerical values given to the sample points SA11 to SA16 along the circumference 92. As a result, the image processing apparatus 200 can obtain binary data in which the numerical values at the sample points SA11 to SA16 on the circumference 92 are arranged. Specifically, the image processing apparatus 200 acquires a list of numerical values such as "00100" and "10100" as binary data on the circumference 92. The image processing apparatus 200 repeats this process, and obtains a brightness difference between the circumference 93 and the immediately preceding sample points SA11 to SA16 at the intersection with the line extending radially outward from the sample points SA01 to SA06. As a result, the image processing apparatus 200 acquires the binary data in the circular marker M01. The image processing apparatus 200 can be arbitrarily designed with respect to the number of sample points and the number of circumferences. For example, the image processing apparatus 200 may acquire the brightness difference between the sample point SA11 and the sample point SA21 which is a sample point on the circumference assumed to be further outside. As the image processing apparatus 200 increases the circumference and sample points for acquiring the binarized data, the accuracy of the marker identification processing improves.

このように、画像処理装置200は、円マーカーM10について、特徴情報として、バイナリデータを予め取得する。また、画像処理装置200は、図16で示したように、射影変換後の円マーカーM10についても、バイナリデータを取得する。そして、画像処理装置200は、バイナリデータ同士の類似度を求めることで、マーカーを特定する。 As described above, the image processing apparatus 200 acquires binary data in advance as feature information for the circular marker M10. Further, as shown in FIG. 16, the image processing apparatus 200 also acquires binary data for the circular marker M10 after the projective transformation. Then, the image processing device 200 identifies the marker by obtaining the similarity between the binary data.

なお、上述のように、円マーカーM10が撮像された場合、射影変換後の円マーカーM10の向きは、予め取得していた正解データとなる円マーカーM10とは異なる向きとして検出される。そのため、画像処理装置200は、バイナリデータを用いて、マーカーの特徴を示すヒストグラム(histogram)を作成するようにしてもよい。 As described above, when the circle marker M10 is imaged, the direction of the circle marker M10 after the projective transformation is detected as a direction different from the circle marker M10 which is the correct answer data acquired in advance. Therefore, the image processing apparatus 200 may use binary data to create a histogram showing the characteristics of the marker.

画像処理装置200は、ヒストグラムにおいて、サンプルポイントを設ける仮想的な円周の数でビン(bin)を決定する。そして、画像処理装置200は、各円周上のサンプルポイントにおける二値化データが「1」の場合に、対応するビンの度数を1度増加させることで、ヒストグラムを作成する。そして、画像処理装置200は、各円周及び各サンプルポイントにおけるデータを入力したのち、ビンの総和が1となるよう正規化する。 The image processing apparatus 200 determines a bin based on the number of virtual circumferences on which sample points are provided in the histogram. Then, the image processing device 200 creates a histogram by increasing the frequency of the corresponding bin by 1 degree when the binarized data at the sample points on each circumference is “1”. Then, the image processing device 200 inputs the data at each circumference and each sample point, and then normalizes the total number of bins to 1.

画像処理装置200は、例えば、下記式(2)を用いて、予め取得していた正解データとなる円マーカーM10のヒストグラムと、射影変換後の円マーカーM10のヒストグラムとの類似度を求める。 The image processing apparatus 200 uses, for example, the following equation (2) to determine the degree of similarity between the histogram of the circular marker M10, which is the correct answer data acquired in advance, and the histogram of the circular marker M10 after the projective transformation.

Figure 0006794316
Figure 0006794316

上記式(2)において、「Similarity」は、類似度の数値を示す。「input」は、射影変換後の円マーカーM10におけるi番目のビンの度数を示す。「reference」は、正解データである円マーカーM10におけるi番目のビンの度数を示す。また、「n」は、ビンの数を示す。「min」は、いずれかの数値の最小値をとることを示す。 In the above formula (2), "Similarity" indicates a numerical value of similarity. “Input i ” indicates the frequency of the i-th bin in the circular marker M10 after the projective transformation. “Reference i ” indicates the frequency of the i-th bin in the circle marker M10, which is the correct answer data. Further, "n" indicates the number of bins. “Min” indicates that the minimum value of any of the numerical values is taken.

上記式(2)に示すように、射影変換後の円マーカーM10におけるi番目のビンの度数と、正解データである円マーカーM10におけるi番目のビンの度数とが、全てのビンにおいて一致する場合には、類似度は、最大値である「1」となる。なお、類似度がとりうる最小値は「0」となる。 As shown in the above equation (2), when the frequency of the i-th bin in the circle marker M10 after the projective transformation and the frequency of the i-th bin in the circle marker M10 which is the correct answer data match in all the bins. The similarity is "1", which is the maximum value. The minimum value that the similarity can take is "0".

このように、画像処理装置200は、予め取得していた円マーカーM10のバイナリデータと、射影変換後の円マーカーM10のバイナリデータに基づいて、マーカーの類似度を算出する。そして、画像処理装置200は、類似度が所定の閾値を超える場合に、画像データに含まれる楕円形状の図形が、円マーカーM10を示す図形であることを特定する。 In this way, the image processing apparatus 200 calculates the similarity of the markers based on the binary data of the circle marker M10 acquired in advance and the binary data of the circle marker M10 after the projective conversion. Then, the image processing device 200 identifies that the elliptical figure included in the image data is a figure indicating the circle marker M10 when the similarity exceeds a predetermined threshold value.

このように、画像処理装置200は、円内部の図案に基づいて、図案の輝度差を放射線上において比較する手法によって、マーカーを特定する処理を行うことができる。かかる手法によれば、画像処理装置200は、回転不変の特徴情報として、円マーカーを特定することができる。また、かかる手法では、輝度差を判定することにより、単にマーカーの画素データを比較するよりも、精度を向上させることができる。すなわち、マーカーは、撮像装置のカメラパラメータや、撮像される際の照明の当たり具合などにより、そもそもの画素の輝度が変化する場合が考えられる。このため、正解データにおけるマーカーの輝度の数値と、射影変換後のマーカーの輝度の数値を単純に比較しても、マーカーを精度よく特定することができない場合がある。一方で、かかる手法では、輝度そのものの数値ではなく、輝度の差を二値化したデータを用いるため、撮像後の画像データ内のマーカーであっても、比較的高い精度でマーカーを特定することができる。 As described above, the image processing apparatus 200 can perform a process of specifying the marker by a method of comparing the brightness difference of the designs on the radiation based on the design inside the circle. According to such a method, the image processing apparatus 200 can specify a circular marker as rotation-invariant feature information. Further, in such a method, by determining the luminance difference, the accuracy can be improved as compared with simply comparing the pixel data of the markers. That is, it is conceivable that the brightness of the pixels of the marker may change depending on the camera parameters of the imaging device, the lighting condition at the time of imaging, and the like. Therefore, even if the numerical value of the marker brightness in the correct answer data and the numerical value of the marker brightness after the projective transformation are simply compared, the marker may not be identified accurately. On the other hand, in such a method, since the data obtained by binarizing the difference in brightness is used instead of the numerical value of the brightness itself, it is necessary to identify the marker with relatively high accuracy even if it is a marker in the image data after imaging. Can be done.

なお、画像処理装置200は、さらにマーカーの特定の精度を向上させるため、以下のような手法を採用してもよい。例えば、画像処理装置200は、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示す場合に、サンプルポイントとなる画素の周囲の画素を含む輝度の平均と、ポイントとなる画素の周囲の画素を含む輝度の平均と、を比較することで、バイナリデータを取得するようにしてもよい。すなわち、画像処理装置200は、サンプルポイントとして抽出した画素(1ピクセル)のみの輝度を用いるのではなく、例えば、当該画素の周囲を含めた数ピクセル分の輝度の平均値と、次の円周におけるサンプルポイントの周囲を含めた数ピクセル分の輝度の平均値と、を処理に用いる。これにより、画像処理装置200は、画像データ内において特異な点を誤ってサンプリングするといった、処理におけるノイズを抑制することができるため、特定処理の精度を向上させることができる。 The image processing device 200 may employ the following method in order to further improve the specific accuracy of the marker. For example, when the image processing apparatus 200 binarizes the brightness difference between the sample point and the point separated from the sample point by a second predetermined distance outward, the image processing apparatus 200 is located around the pixel serving as the sample point. Binary data may be acquired by comparing the average luminance including the pixels with the average luminance including the pixels around the pixel as a point. That is, the image processing device 200 does not use the brightness of only the pixel (1 pixel) extracted as the sample point, but for example, the average value of the brightness of several pixels including the periphery of the pixel and the next circumference. The average value of the brightness for several pixels including the periphery of the sample point in is used for processing. As a result, the image processing apparatus 200 can suppress noise in the processing such as erroneously sampling a peculiar point in the image data, so that the accuracy of the specific processing can be improved.

また、画像処理装置200は、さらにマーカーの特定の精度を向上させるため、以下のような手法を採用してもよい。例えば、画像処理装置200は、類似度が算出されたのちに、類似度を算出する基となったサンプルポイントの位置から、仮定した円(例えば、円周91など)に沿って所定の角度だけずらして新たなサンプルポイントを設け、新たなサンプルポイントに基づく新たなバイナリデータを取得する。さらに、画像処理装置200は、射影変換後の円マーカーが有するバイナリデータと、取得された新たなバイナリデータとの類似度を求めることを所定の回数だけ繰り返す。そして、画像処理装置200は、求められた類似度のうち最大となる類似度に基づいて、画像データに含まれるマーカーを特定するようにしてもよい。 Further, the image processing apparatus 200 may adopt the following method in order to further improve the specific accuracy of the marker. For example, in the image processing apparatus 200, after the similarity is calculated, only a predetermined angle is set along the assumed circle (for example, circumference 91) from the position of the sample point on which the similarity is calculated. A new sample point is set by shifting, and new binary data based on the new sample point is acquired. Further, the image processing apparatus 200 repeats obtaining the similarity between the binary data of the circular marker after the projective transformation and the acquired new binary data a predetermined number of times. Then, the image processing apparatus 200 may specify the marker included in the image data based on the maximum similarity among the obtained similarities.

このように、画像処理装置200は、標本としてサンプルポイントを設け、類似度を算出する処理を行った後に、設けたサンプルポイントから所定の角度(例えば、2度など)だけずらした点を新たなサンプルポイントとして設け、新たなサンプルポイントによる処理を行う。これにより、画像処理装置200は、設けるサンプルポイントの分布による誤差を抑制することができるため、特定処理の精度を向上させることができる。 In this way, the image processing apparatus 200 provides a sample point as a sample, performs a process of calculating the similarity, and then shifts the sample point by a predetermined angle (for example, 2 degrees) from the provided sample point. It is provided as a sample point, and processing is performed using a new sample point. As a result, the image processing apparatus 200 can suppress an error due to the distribution of the sample points provided, so that the accuracy of the specific processing can be improved.

また、上記では、画像処理装置200が、第1の所定距離や第2の所定距離といった概念を用いて仮想的な円周を想定する例を示した。ここで、画像データ内に含まれるマーカーと、予め取得されるマーカーとでは、図形の大きさが異なることが想定される。そのため、画像処理装置200は、第1の所定距離や第2の所定距離として、マーカーの構成要素となる最も大きな円の直径を所定の割合で等分した位置などを用いるようにしてもよい。例えば、画像処理装置200は、マーカーの構成要素となる最も大きな円(図14の円マーカーM10の例では、外円86)の直径を10等分し、最も中心に近い位置から、仮想的な円周を想定していってもよい。また、画像処理装置200は、上記のような図案に基づく特定を行う場合、マーカーは必ずしも2つの同心円を構成要素とする必要はなく、1つの円を構成要素とし、その内部に図案が描かれたマーカーを用いるようにしてもよい。 Further, in the above, an example is shown in which the image processing apparatus 200 assumes a virtual circumference by using concepts such as a first predetermined distance and a second predetermined distance. Here, it is assumed that the size of the figure is different between the marker included in the image data and the marker acquired in advance. Therefore, the image processing device 200 may use a position where the diameter of the largest circle, which is a component of the marker, is equally divided by a predetermined ratio as the first predetermined distance or the second predetermined distance. For example, the image processing device 200 divides the diameter of the largest circle (outer circle 86 in the example of the circle marker M10 in FIG. 14), which is a component of the marker, into 10 equal parts, and virtually from the position closest to the center. You may assume the circumference. Further, when the image processing apparatus 200 specifies based on the above-mentioned design, the marker does not necessarily have two concentric circles as a component, and one circle is a component, and the design is drawn inside the marker. You may use a marker.

〔2−3−2.マーカーの特定〕
第2の実施形態では、画像処理装置200は、予め円マーカーにおける回転不変の特徴情報を取得しておくことによって、画像データ内のマーカーを特定する処理を説明した。かかる処理は、必ずしも自由視点画像の生成に用いられるのみならず、単に、画像データ内のマーカーを特定する処理として用いられてもよい。すなわち、画像処理装置200は、自由視点画像の生成のために、複数の画像データに共通して含まれるマーカーを特定するのみならず、1枚の画像データにおけるビジュアルマーカーを特定する処理として、上記手法を採用してもよい。
[2-3-2. Identifying markers]
In the second embodiment, the image processing apparatus 200 has described the process of identifying the marker in the image data by acquiring the rotation-invariant feature information of the circular marker in advance. Such a process is not necessarily used for generating a free viewpoint image, but may be simply used as a process for specifying a marker in the image data. That is, the image processing device 200 not only identifies the markers commonly included in the plurality of image data for the generation of the free viewpoint image, but also identifies the visual markers in one image data. The method may be adopted.

〔2−4.効果〕
上述してきたように、第2の実施形態に係る画像処理装置200は、受付部232と、特定部233とを有する。受付部232は、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける。特定部233は、受付部232によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう画像データを射影変換し、射影変換後の真円が有する特徴情報に基づいて、当該真円を、画像データの所定の処理に用いるためのマーカーとして特定する。
[2-4. effect〕
As described above, the image processing apparatus 200 according to the second embodiment has a reception unit 232 and a specific unit 233. The reception unit 232 receives image data that is created by being imaged by a predetermined imaging device and includes an elliptical figure. The specific unit 233 projects the image data so that the elliptical figure included in the image data received by the reception unit 232 becomes a perfect circle, and based on the feature information of the perfect circle after the projection conversion, the true The circle is specified as a marker for use in a predetermined process of image data.

このように、第2の実施形態に係る画像処理装置200は、射影変換後であっても不変な特徴情報を用いることにより、画像データ内の図形をマーカーとして一意に特定することができる。これにより、画像処理装置200は、一般ユーザによって撮像されたような、校正が的確に行われていない複数の元画像データからでも、違和感のない自由視点画像を生成することができるため、一般ユーザに自由視点画像を有効に活用させることができる。 As described above, the image processing apparatus 200 according to the second embodiment can uniquely identify the figure in the image data as a marker by using the invariant feature information even after the projective transformation. As a result, the image processing device 200 can generate a free-viewpoint image that does not give a sense of discomfort even from a plurality of original image data that have not been accurately calibrated, such as those captured by a general user. Can make effective use of free-viewpoint images.

また、第2の実施形態に係る画像処理装置200は、円を構成要素に含むマーカーに関する情報であって、当該マーカーを特定するための特徴情報を取得する取得部231をさらに有する。特定部233は、射影変換後の真円が有する特徴情報と、取得部231によって取得された特徴情報とを照合することにより、画像データに含まれるマーカーを特定する。 Further, the image processing apparatus 200 according to the second embodiment further includes an acquisition unit 231 for acquiring information on a marker including a circle as a component and acquiring feature information for identifying the marker. The identification unit 233 identifies the marker included in the image data by collating the feature information of the perfect circle after the projective transformation with the feature information acquired by the acquisition unit 231.

このように、第2の実施形態に係る画像処理装置200は、予めマーカーに関する情報を取得し、取得した情報と、射影変換後の図形における特徴情報とを照合することで、マーカーを特定する。これにより、画像処理装置200は、ユーザがマーカーとして利用している図形を精度よく特定することができる。 In this way, the image processing apparatus 200 according to the second embodiment acquires information about the marker in advance, and identifies the marker by collating the acquired information with the feature information in the figure after the projective transformation. As a result, the image processing device 200 can accurately identify the figure used as the marker by the user.

また、取得部231は、中心が共通する内円と外円とを有するマーカーに関する特徴情報として、マーカーの中心を通る直線と、内円及び外円と、の各々の交点及び当該中心のいずれかの点間の長さの比の比を示す複比を取得する。特定部233は、画像データに含まれる2つの楕円状の図形が、同心を有する2つの真円となるよう射影変換される場合に、取得部231によって取得された複比と、当該複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される2つの真円における複比と、を照合することにより、画像データに含まれるマーカーを特定する。 Further, as feature information regarding a marker having an inner circle and an outer circle having a common center, the acquisition unit 231 includes an intersection of a straight line passing through the center of the marker, the inner circle and the outer circle, and any one of the centers. Obtain a cross-ratio that indicates the ratio of the length ratios between the points. The specific unit 233 sets the double ratio acquired by the acquisition unit 231 and the double ratio when the two elliptical figures included in the image data are projected and transformed so as to be two concentric circles. The marker included in the image data is specified by collating the cross ratio in two perfect circles calculated by using the length between the points used in the calculation and the length between the points having a corresponding relationship. ..

このように、第2の実施形態に係る画像処理装置200は、射影空間における不変の特徴情報として、2つの同心円の長さの複比を利用する。これにより、画像処理装置200は、画像データ内のマーカーを精度よく特定することができる。また、画像処理装置200は、予め取得しておくマーカーの特徴情報として、2つの同心円の径の長さを変えることのみで、マーカーを特定する情報を得ることができるため、識別可能なマーカーを容易に作成することができる。 As described above, the image processing apparatus 200 according to the second embodiment uses the double ratio of the lengths of the two concentric circles as the invariant feature information in the projective space. As a result, the image processing device 200 can accurately identify the marker in the image data. Further, since the image processing device 200 can obtain information for identifying the marker only by changing the lengths of the diameters of the two concentric circles as the feature information of the marker acquired in advance, an identifiable marker can be obtained. It can be easily created.

また、取得部231は、円の内部に所定の図形が描かれたマーカーに関する特徴情報として、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差によって示される特徴情報を取得する。特定部233は、射影変換後の真円が有する特徴情報と、取得部231によって取得された特徴情報とを照合することにより、画像データに含まれるマーカーを特定する。 Further, the acquisition unit 231 acquires the feature information indicated by the brightness difference between the two pixels existing on the radiation from the center of the circle to the outside as the feature information regarding the marker on which a predetermined figure is drawn inside the circle. To do. The identification unit 233 identifies the marker included in the image data by collating the feature information of the perfect circle after the projective transformation with the feature information acquired by the acquisition unit 231.

このように、第2の実施形態に係る画像処理装置200は、特定処理において、マーカーの画素の輝度そのものを用いるのではなく、放射線上の画素の輝度差を用いる。このため、画像処理装置200は、撮像装置のカメラパラメータや、撮像時の照明の状態等に左右されにくい、精度のよい特定処理を行うことができる。 As described above, the image processing apparatus 200 according to the second embodiment does not use the brightness itself of the pixel of the marker but uses the brightness difference of the pixel on radiation in the specific processing. Therefore, the image processing device 200 can perform accurate specific processing that is not easily affected by the camera parameters of the image pickup device, the lighting state at the time of imaging, and the like.

また、取得部231は、マーカーが有する円の中心から第1の所定距離だけ離れた箇所に複数のサンプルポイントを設け、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示した数値を、当該サンプルポイントの数だけ並べたデータであるバイナリデータを特徴情報として取得する。特定部233は、バイナリデータを取得した処理と同様の処理を射影変換後の真円に対して実行することで、射影変換後の真円が有するバイナリデータを算出し、射影変換後の真円が有するバイナリデータと、取得部231によって取得されたバイナリデータとの類似度を求めることにより、画像データに含まれるマーカーを特定する。 Further, the acquisition unit 231 is provided with a plurality of sample points at a position separated by a first predetermined distance from the center of the circle of the marker, and is separated from the sample point by a second predetermined distance outward from the sample point. Binary data, which is data obtained by arranging the numerical values shown by binarizing the brightness difference between the points and the number of the sample points, is acquired as the feature information. The specific unit 233 calculates the binary data of the perfect circle after the projective conversion by executing the same process as the process of acquiring the binary data on the perfect circle after the projective conversion, and the true circle after the projective conversion. The marker included in the image data is specified by obtaining the degree of similarity between the binary data possessed by the data and the binary data acquired by the acquisition unit 231.

このように、第2の実施形態に係る画像処理装置200は、正解データとなるマーカーのバイナリデータと、射影変換後の図形のバイナリデータとの類似度を求めることで、マーカーを特定する。これにより、画像処理装置200は、マーカーの画素データ全てを比較するといった、負担の大きな処理を行うことなく、精度よくマーカーを特定することができる。 As described above, the image processing apparatus 200 according to the second embodiment identifies the marker by obtaining the similarity between the binary data of the marker which is the correct answer data and the binary data of the figure after the projective conversion. As a result, the image processing apparatus 200 can accurately identify the marker without performing a burdensome process such as comparing all the pixel data of the marker.

また、取得部231は、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示す場合に、サンプルポイントとなる画素の周囲の画素を含む輝度の平均と、ポイントとなる画素の周囲の画素を含む輝度の平均と、を比較することで、バイナリデータを取得する。 Further, when the acquisition unit 231 binarizes the brightness difference between the sample point and the point separated from the sample point by a second predetermined distance outward, the pixels around the pixel serving as the sample point are shown. Binary data is acquired by comparing the average luminance including the above and the average luminance including the pixels around the pixel as a point.

このように、第2の実施形態に係る画像処理装置200は、画像データ内において特異な点を誤ってサンプリングするといった、処理におけるノイズを抑制することができるため、特定処理の精度を向上させることができる。 As described above, the image processing apparatus 200 according to the second embodiment can suppress noise in processing such as erroneously sampling a peculiar point in the image data, so that the accuracy of the specific processing can be improved. Can be done.

また、取得部231は、特定部233によって類似度が算出されたのちに、類似度を算出する基となったサンプルポイントの位置から、円に沿って所定の角度だけずらして新たなサンプルポイントを設け、新たなサンプルポイントに基づく新たなバイナリデータを取得する。特定部233は、射影変換後の真円が有するバイナリデータと、取得部231によって取得された新たなバイナリデータとの類似度を求めることを所定の回数繰り返し、求められた類似度のうち最大となる類似度に基づいて、画像データに含まれるマーカーを特定する。 Further, after the similarity is calculated by the specific unit 233, the acquisition unit 231 shifts a new sample point by a predetermined angle along the circle from the position of the sample point on which the similarity is calculated. Set up and get new binary data based on new sample points. The specific unit 233 repeatedly obtains the similarity between the binary data of the perfect circle after the projective transformation and the new binary data acquired by the acquisition unit 231 a predetermined number of times, and determines the maximum of the obtained similarity. The markers contained in the image data are identified based on the similarity.

このように、第2の実施形態に係る画像処理装置200は、サンプルポイントをずらしながら、類似度を数回算出するといった手法を採用してもよい。これにより、画像処理装置200は、設けるサンプルポイントの分布による誤差を抑制することができるため、特定処理の精度を向上させることができる。 As described above, the image processing apparatus 200 according to the second embodiment may adopt a method of calculating the similarity several times while shifting the sample points. As a result, the image processing apparatus 200 can suppress an error due to the distribution of the sample points provided, so that the accuracy of the specific processing can be improved.

また、第2の実施形態に係る画像処理装置200は、マーカーが有するパラメータに基づいて、画像データに関する校正を行う校正部234と、校正部234によって校正された画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する生成部235と、をさらに有する。この場合、受付部232は、視点位置が異なる複数の画像データであって、マーカーとして特定される図形が各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。校正部234は、受付部232によって受け付けられた複数の画像データに関する校正を行う。生成部235は、校正部234によって校正された複数の画像データに所定の変換処理を行うことにより、自由視点画像を生成する。 Further, the image processing apparatus 200 according to the second embodiment performs a predetermined conversion process on the proofreading unit 234 that calibrates the image data and the image data calibrated by the proofreading unit 234 based on the parameters of the marker. This further includes a generation unit 235 that generates a free viewpoint image capable of continuously displaying an image corresponding to an arbitrary viewpoint position. In this case, the reception unit 232 receives a plurality of image data having different viewpoint positions and including at least one figure specified as a marker in each image data. The calibration unit 234 calibrates a plurality of image data received by the reception unit 232. The generation unit 235 generates a free viewpoint image by performing a predetermined conversion process on a plurality of image data calibrated by the calibration unit 234.

このように、第2の実施形態に係る画像処理装置200は、特定されたマーカーを用いて校正処理を行い、自由視点画像を生成する。これにより、画像処理装置200は、強校正が行われていない撮像装置によって取得された元画像データからも、任意の視点からの表示を自然に行うことのできる自由視点画像を生成することができる。 As described above, the image processing apparatus 200 according to the second embodiment performs calibration processing using the specified marker to generate a free viewpoint image. As a result, the image processing device 200 can generate a free-viewpoint image that can be naturally displayed from an arbitrary viewpoint even from the original image data acquired by the image pickup device that has not been strongly calibrated. ..

また、第2の実施形態に係る画像処理装置200は、生成部235によって生成された自由視点画像を配信する配信部236をさらに有する。受付部232は、ユーザ端末10から複数の画像データの入稿を受け付けるとともに、ユーザ端末10を識別する情報を受け付ける。配信部236は、受付部232によって受け付けられたユーザ端末10を識別する情報に基づいて、ユーザ端末10に自由視点画像を配信する。 In addition, the image processing device 200 according to the second embodiment further includes a distribution unit 236 that distributes the free viewpoint image generated by the generation unit 235. The reception unit 232 accepts the submission of a plurality of image data from the user terminal 10 and also receives the information for identifying the user terminal 10. The distribution unit 236 distributes the free viewpoint image to the user terminal 10 based on the information that identifies the user terminal 10 received by the reception unit 232.

このように、第2の実施形態に係る画像処理装置200は、生成した自由視点画像をユーザが利用するユーザ端末10に配信する。これにより、画像処理装置200は、一般ユーザの自由視点画像の活用を促進させることができる。 As described above, the image processing device 200 according to the second embodiment distributes the generated free viewpoint image to the user terminal 10 used by the user. As a result, the image processing device 200 can promote the utilization of the free viewpoint image of a general user.

また、生成部235は、生成した自由視点画像を、当該自由視点画像の元となる複数の画像データを入稿したユーザ端末10もしくはユーザ端末10を利用するユーザを識別する識別情報、又は、ユーザが利用するサービスにおける出品情報の少なくともいずれか一つと対応付けて、所定の記憶部に格納する。 In addition, the generation unit 235 uses the generated free-viewpoint image as identification information for identifying the user terminal 10 or the user who uses the user terminal 10 that has submitted a plurality of image data that is the source of the free-viewpoint image, or the user. It is stored in a predetermined storage unit in association with at least one of the exhibition information in the service used by.

このように、第2の実施形態に係る画像処理装置200は、ユーザを識別する情報とともに自由視点画像を記憶部220内に格納する。そして、画像処理装置200は、例えば、要求に応じて、サービス側に自由視点画像を配信するようにしてもよい。これにより、画像処理装置200は、多様な要求に応答して自由視点画像を利用させることができるため、よりユーザに自由視点画像を有用に利用させることができる。 As described above, the image processing device 200 according to the second embodiment stores the free viewpoint image in the storage unit 220 together with the information for identifying the user. Then, the image processing device 200 may, for example, deliver a free viewpoint image to the service side in response to a request. As a result, the image processing device 200 can use the free viewpoint image in response to various requests, so that the user can use the free viewpoint image more effectively.

〔3.構成の変更〕
また、上述した各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[3. Configuration change]
Further, among the processes described in each of the above-described embodiments, all or a part of the processes described as being automatically performed may be manually performed, or may be described as being performed manually. It is also possible to automatically perform all or part of the treatment by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した校正部132と生成部133とは統合されてもよい。また、画像処理装置100(画像処理装置200も含む。以下同様)は、ユーザ等の利用者とデータのやりとりを主に行うフロントエンドサーバと、生成処理等を行うバックエンドサーバとに分散される態様であってもよい。この場合、フロントエンドサーバは、少なくとも、受付部131と配信部134とを有する。また、バックエンドサーバは、少なくとも、校正部132と生成部133とを有する。また、画像処理装置100は、記憶部120を内部に備えるのではなく、外部のストレージサーバを利用する態様であってもよい。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. It can be integrated and configured. For example, the calibration unit 132 and the generation unit 133 shown in FIG. 2 may be integrated. Further, the image processing device 100 (including the image processing device 200; the same applies hereinafter) is distributed between a front-end server that mainly exchanges data with users such as users and a back-end server that performs generation processing and the like. It may be an embodiment. In this case, the front-end server has at least a reception unit 131 and a distribution unit 134. Further, the back-end server has at least a calibration unit 132 and a generation unit 133. Further, the image processing device 100 may be in a mode in which an external storage server is used instead of having the storage unit 120 inside.

また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.

〔4.ハードウェア構成〕
また、上述してきた各実施形態に係る画像処理装置は、例えば図17に示すような構成のコンピュータ1000によって実現される。以下、画像処理装置100を例に挙げて説明する。図17は、画像処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[4. Hardware configuration]
Further, the image processing apparatus according to each of the above-described embodiments is realized by, for example, a computer 1000 having a configuration as shown in FIG. Hereinafter, the image processing apparatus 100 will be described as an example. FIG. 17 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the image processing device 100. The computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program that depends on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 receives data from another device via the communication network 500 (corresponding to the network N of the embodiment) and sends the data to the CPU 1100, and the data generated by the CPU 1100 via the communication network 500 is transmitted to another device. Send to the device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the data generated via the input / output interface 1600 to the output device.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が画像処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the image processing device 100, the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the RAM 1200. Further, each data in the storage unit 120 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via the communication network 500.

〔5.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[5. Others]
Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other improved forms.

また、上述した画像処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 Further, the image processing device 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform or the like by API (Application Programming Interface) or network computing. Can be changed flexibly.

また、特許請求の範囲に記載した「手段」は、「部(section、module、unit)」や「回路」などに読み替えることができる。例えば、生成手段は、生成部や生成回路に読み替えることができる。 Further, the "means" described in the claims can be read as "section, module, unit", "circuit" and the like. For example, the generation means can be read as a generation unit or a generation circuit.

1 画像処理システム
10 ユーザ端末
100 画像処理装置
110 通信部
120 記憶部
121 画像データ記憶部
122 自由視点画像記憶部
130 制御部
131 受付部
132 校正部
133 生成部
134 配信部
200 画像処理装置
210 通信部
220 記憶部
221 マーカー情報記憶部
222 画像データ記憶部
223 自由視点画像記憶部
230 制御部
231 取得部
232 受付部
233 特定部
234 校正部
235 生成部
236 配信部
1 Image processing system 10 User terminal 100 Image processing device 110 Communication unit 120 Storage unit 121 Image data storage unit 122 Free viewpoint image storage unit 130 Control unit 131 Reception unit 132 Calibration unit 133 Generation unit 134 Distribution unit 200 Image processing unit 210 Communication unit 220 Storage unit 221 Marker information storage unit 222 Image data storage unit 223 Free viewpoint image storage unit 230 Control unit 231 Acquisition unit 232 Reception unit 233 Specific unit 234 Calibration unit 235 Generation unit 236 Distribution unit

Claims (10)

円を構成要素に含み、当該円の内部に所定の図形が描かれたマーカーに関する情報であって、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差を二値化して示した数値によって示される情報を当該マーカーの特徴情報として取得する取得部と、
所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付部と、
前記受付部によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得部によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、一のマーカーに基づく所定の処理を当該画像データに対して行う際に、当該真円を当該所定の処理に用いるためのマーカーとして特定する特定部と、
を備えたことを特徴とする画像処理装置。
Information about a marker that includes a circle as a component and has a predetermined figure drawn inside the circle, and binarizes the difference in brightness between two pixels existing on the radiation from the center of the circle to the outside. An acquisition unit that acquires the information indicated by the indicated numerical values as the feature information of the marker, and
An image data created by being imaged by a predetermined imaging device, and a reception unit that accepts image data including an elliptical figure.
The image data is projected and transformed so that the elliptical figure included in the image data received by the receiving unit becomes a perfect circle, and the feature information of the perfect circle after the projecting conversion and the features acquired by the acquisition unit By collating the information and obtaining the similarity between the feature information, when performing a predetermined process based on one marker on the image data, the perfect circle can be used as a marker for the predetermined process. Specific part to identify and
An image processing device characterized by being equipped with.
前記取得部は、
中心が共通する内円と外円とを有するマーカーに関する特徴情報として、当該マーカーの中心を通る直線と、内円及び外円と、の各々の交点及び当該中心のいずれかの点間の長さの比の比を示す複比を取得し、
前記特定部は、
前記画像データに含まれる2つの楕円状の図形が、同心を有する2つの真円となるよう射影変換される場合に、前記取得部によって取得された複比と、当該複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される前記2つの真円における複比と、を照合することにより、当該画像データに含まれるマーカーを特定する、
ことを特徴とする請求項1に記載の画像処理装置。
The acquisition unit
As characteristic information about a marker having an inner circle and an outer circle having a common center, the length between the intersection of the straight line passing through the center of the marker, the inner circle and the outer circle, and any point of the center. Obtain a cross-ratio that indicates the ratio of
The specific part is
When the two elliptical figures included in the image data are projected and transformed into two concentric circles, the cross ratio acquired by the acquisition unit and the cross ratio are calculated. By collating the cross-ratio in the two perfect circles calculated by using the length between the points used and the length between the points having a corresponding relationship, the marker included in the image data is specified.
The image processing apparatus according to claim 1.
前記取得部は、
前記マーカーが有する円の中心から第1の所定距離だけ離れた箇所に複数のサンプルポイントを設け、当該サンプルポイントと、当該サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示した数値を、当該サンプルポイントの数だけ並べたデータであるバイナリデータを前記特徴情報として取得し、
前記特定部は、
前記バイナリデータを取得した処理と同様の処理を射影変換後の真円に対して実行することで、当該射影変換後の真円が有するバイナリデータを算出し、当該射影変換後の真円が有するバイナリデータと、前記取得部によって取得されたバイナリデータとの類似度を求めることにより、前記画像データに含まれるマーカーを特定する、
ことを特徴とする請求項1又は2に記載の画像処理装置。
The acquisition unit
A plurality of sample points are provided at a position separated by a first predetermined distance from the center of the circle of the marker, and the sample point and a point separated from the sample point by a second predetermined distance outward. Binary data, which is data obtained by arranging the numerical values shown by binarizing the brightness difference by the number of the sample points, is acquired as the feature information.
The specific part is
By executing the same process as the process of acquiring the binary data on the perfect circle after the projection conversion, the binary data of the perfect circle after the projection conversion is calculated, and the perfect circle after the projection conversion has. By obtaining the similarity between the binary data and the binary data acquired by the acquisition unit, the marker included in the image data is specified.
The image processing apparatus according to claim 1 or 2.
前記取得部は、
前記サンプルポイントと、当該サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示す場合に、サンプルポイントとなる画素の周囲の画素を含む輝度の平均と、当該ポイントとなる画素の周囲の画素を含む輝度の平均と、を比較することで、前記バイナリデータを取得する、
ことを特徴とする請求項3に記載の画像処理装置。
The acquisition unit
When the brightness difference between the sample point and the point separated from the sample point by a second predetermined distance outward is shown as a binary, the average brightness including the pixels around the pixel serving as the sample point. And the average brightness including the pixels around the pixel at the point are compared to obtain the binary data.
The image processing apparatus according to claim 3.
前記取得部は、
前記特定部によって前記類似度が算出されたのちに、当該類似度を算出する基となったサンプルポイントの位置から、前記円に沿って所定の角度だけずらして新たなサンプルポイントを設け、新たなサンプルポイントに基づく新たなバイナリデータを取得し、
前記特定部は、
前記射影変換後の真円が有するバイナリデータと、前記取得部によって取得された新たなバイナリデータとの類似度を求めることを所定の回数繰り返し、求められた類似度のうち最大となる類似度に基づいて、前記画像データに含まれるマーカーを特定する、
ことを特徴とする請求項3又は4に記載の画像処理装置。
The acquisition unit
After the similarity is calculated by the specific unit, a new sample point is provided by shifting the position of the sample point from which the similarity is calculated by a predetermined angle along the circle. Get new binary data based on sample points,
The specific part is
The similarity between the binary data of the perfect circle after the projective transformation and the new binary data acquired by the acquisition unit is repeatedly obtained a predetermined number of times to obtain the maximum similarity among the obtained similarity. Identify the markers contained in the image data based on
The image processing apparatus according to claim 3 or 4.
前記マーカーが有するパラメータに基づいて、画像データに関する校正を行う校正部と、
前記校正部によって校正された画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する生成部と、
をさらに備え、
前記受付部は、
視点位置が異なる複数の画像データであって、前記マーカーとして特定される図形が各画像データ内に少なくとも一つは含まれる複数の画像データを受け付け、
前記校正部は、
前記受付部によって受け付けられた複数の画像データに関する校正を行い、
前記生成部は、
前記校正部によって校正された複数の画像データに所定の変換処理を行うことにより、前記自由視点画像を生成する、
ことを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
A proofreading unit that calibrates image data based on the parameters of the marker,
A generation unit that generates a free viewpoint image capable of continuously displaying an image corresponding to an arbitrary viewpoint position by performing a predetermined conversion process on the image data calibrated by the calibration unit.
With more
The reception department
A plurality of image data having different viewpoint positions and having at least one figure specified as the marker included in each image data are accepted.
The calibration unit
Proofreading the multiple image data received by the reception section
The generator
The free viewpoint image is generated by performing a predetermined conversion process on a plurality of image data calibrated by the calibration unit.
The image processing apparatus according to any one of claims 1 to 5.
前記生成部によって生成された自由視点画像を配信する配信部、
をさらに備え、
前記受付部は、
端末装置から前記複数の画像データの入稿を受け付けるとともに、当該端末装置を識別する情報を受け付け、
前記配信部は、
前記受付部によって受け付けられた前記端末装置を識別する情報に基づいて、当該端末装置に前記自由視点画像を配信する、
ことを特徴とする請求項6に記載の画像処理装置。
A distribution unit that distributes a free-viewpoint image generated by the generation unit,
With more
The reception department
In addition to accepting submissions of the plurality of image data from the terminal device, it also accepts information that identifies the terminal device.
The distribution unit
Based on the information that identifies the terminal device received by the reception unit, the free viewpoint image is distributed to the terminal device.
The image processing apparatus according to claim 6.
前記生成部は、
生成した前記自由視点画像を、当該自由視点画像の元となる複数の画像データを入稿した端末装置もしくは当該端末装置を利用するユーザを識別する識別情報、又は、当該ユーザが利用するサービスにおける出品情報の少なくともいずれか一つと対応付けて、所定の記憶部に格納する、
ことを特徴とする請求項6又は7に記載の画像処理装置。
The generator
The generated free-viewpoint image is exhibited in a terminal device that has submitted a plurality of image data that are the source of the free-viewpoint image, identification information that identifies a user who uses the terminal device, or a service used by the user. Stored in a predetermined storage unit in association with at least one of the information.
The image processing apparatus according to claim 6 or 7.
コンピュータが実行する画像処理方法であって、
円を構成要素に含み、当該円の内部に所定の図形が描かれたマーカーに関する情報であって、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差を二値化して示した数値によって示される情報を当該マーカーの特徴情報として取得する取得工程と、
所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付工程と、
前記受付工程によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得工程によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、一のマーカーに基づく所定の処理を当該画像データに対して行う際に、当該真円を当該所定の処理に用いるためのマーカーとして特定する特定工程と、
を含んだことを特徴とする画像処理方法。
An image processing method performed by a computer
Information about a marker that includes a circle as a component and has a predetermined figure drawn inside the circle, and binarizes the difference in brightness between two pixels existing on the radiation from the center of the circle to the outside. The acquisition process of acquiring the information indicated by the indicated numerical values as the characteristic information of the marker, and
An image data created by being imaged by a predetermined imaging device, and a reception process for receiving image data including an elliptical figure,
The image data is projected and transformed so that the elliptical figure included in the image data received by the receiving step becomes a perfect circle, and the feature information of the perfect circle after the projecting conversion and the features acquired by the acquisition step. By collating the information to obtain the similarity between the feature information, when performing a predetermined process based on one marker on the image data, the perfect circle can be used as a marker for the predetermined process. Specific process to identify and
An image processing method characterized by including.
円を構成要素に含み、当該円の内部に所定の図形が描かれたマーカーに関する情報であって、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差を二値化して示した数値によって示される情報を当該マーカーの特徴情報として取得する取得手順と、
所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付手順と、
前記受付手順によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得手順によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、一のマーカーに基づく所定の処理を当該画像データに対して行う際に、当該真円を当該所定の処理に用いるためのマーカーとして特定する特定手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
Information about a marker that includes a circle as a component and has a predetermined figure drawn inside the circle, and binarizes the difference in brightness between two pixels existing on the radiation from the center of the circle to the outside. The acquisition procedure for acquiring the information indicated by the indicated numerical values as the characteristic information of the marker, and
The reception procedure for accepting image data including an elliptical figure, which is image data created by being imaged by a predetermined imaging device, and
The image data is projected and converted so that the elliptical figure included in the image data received by the reception procedure becomes a perfect circle, and the feature information of the perfect circle after the projection conversion and the features acquired by the acquisition procedure. By collating the information and obtaining the similarity between the feature information, when performing a predetermined process based on one marker on the image data, the perfect circle can be used as a marker for the predetermined process. Specific steps to identify and
An image processing program characterized by having a computer execute.
JP2017122324A 2017-06-22 2017-06-22 Image processing device, image processing method and image processing program Active JP6794316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017122324A JP6794316B2 (en) 2017-06-22 2017-06-22 Image processing device, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017122324A JP6794316B2 (en) 2017-06-22 2017-06-22 Image processing device, image processing method and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016052486A Division JP6166409B1 (en) 2016-03-16 2016-03-16 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2017168145A JP2017168145A (en) 2017-09-21
JP6794316B2 true JP6794316B2 (en) 2020-12-02

Family

ID=59908958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017122324A Active JP6794316B2 (en) 2017-06-22 2017-06-22 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP6794316B2 (en)

Also Published As

Publication number Publication date
JP2017168145A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6166409B1 (en) Image processing apparatus, image processing method, and image processing program
US11308710B2 (en) Polygonal region detection
US9536339B1 (en) Processing unordered point cloud
Morgan et al. Standard methods for creating digital skeletal models using structure‐from‐motion photogrammetry
CN109345580B (en) Method and apparatus for processing image
JP2014071850A (en) Image processing apparatus, terminal device, image processing method, and program
WO2022237026A1 (en) Plane information detection method and system
CN110222641A (en) The method and apparatus of image for identification
Andaló et al. Efficient height measurements in single images based on the detection of vanishing points
US20180114339A1 (en) Information processing device and method, and program
Guidi et al. Optimal lateral displacement in automatic close-range photogrammetry
JP2014186520A (en) Image processing apparatus, image processing method, and program
Ramli et al. Fundus image registration technique based on local feature of retinal vessels
JP7032179B2 (en) Image processing device, image processing method and image processing program
JP6794316B2 (en) Image processing device, image processing method and image processing program
Kwon et al. Multi-cue-based circle detection and its application to robust extrinsic calibration of RGB-D cameras
JP6339609B2 (en) Image processing apparatus, image processing method, and image processing program
Schöning et al. Semi-automatic ground truth annotation in videos: An interactive tool for polygon-based object annotation and segmentation
US20200371214A1 (en) Determining one or more scanner positions in a point cloud
US10083545B2 (en) Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data
JP6800671B2 (en) Grant device, grant method and grant program
He et al. Error correction of depth images for multiview time-of-flight vision sensors
Koufogiannis et al. Robust integral image rectification framework using perspective transformation supported by statistical line segment clustering
Jung et al. Local n-ary patterns: a local multi-modal descriptor for place categorization
Altuntas Pair-wise automatic registration of three-dimensional laser scanning data from historical building by created two-dimensional images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200914

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200925

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6794316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350