JP6794316B2 - Image processing device, image processing method and image processing program - Google Patents
Image processing device, image processing method and image processing program Download PDFInfo
- Publication number
- JP6794316B2 JP6794316B2 JP2017122324A JP2017122324A JP6794316B2 JP 6794316 B2 JP6794316 B2 JP 6794316B2 JP 2017122324 A JP2017122324 A JP 2017122324A JP 2017122324 A JP2017122324 A JP 2017122324A JP 6794316 B2 JP6794316 B2 JP 6794316B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- marker
- image
- image processing
- circle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 331
- 238000003672 processing method Methods 0.000 title claims description 7
- 239000003550 marker Substances 0.000 claims description 283
- 238000000034 method Methods 0.000 claims description 113
- 230000008569 process Effects 0.000 claims description 81
- 238000003384 imaging method Methods 0.000 claims description 62
- 230000009466 transformation Effects 0.000 claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 32
- 230000001915 proofreading effect Effects 0.000 claims description 12
- 230000005855 radiation Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 29
- 239000011159 matrix material Substances 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 238000013461 design Methods 0.000 description 12
- 238000013500 data storage Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000013519 translation Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.
従来、タイムスライス(Time Slice)やバレットタイム(Bullet Time)等と呼ばれる撮影技術が知られている。この撮影技術では、複数の撮像装置(例えば、カメラ)が撮像対象(例えば、人間などの被写体)の周囲に配置される。このとき、複数の撮像装置は、各撮像装置の光軸が撮像対象における所定の1点を通過するように配置され、被写体を撮像する。かかる撮影技術により撮像された画像データを結合することで生成される画像は、自由視点画像等と呼ばれる。ユーザは、自由視点画像において任意の視点を選択することが可能であり、様々な角度から被写体を視認することができる。例えば、自由視点画像は、販促などに用いられた場合に、通常の画像よりも高い販促効果を発揮することがある。 Conventionally, shooting techniques called Time Slice, Bullet Time, and the like are known. In this photographing technique, a plurality of imaging devices (for example, cameras) are arranged around an imaging target (for example, a subject such as a human being). At this time, the plurality of imaging devices are arranged so that the optical axis of each imaging device passes through a predetermined point on the imaging target, and images the subject. An image generated by combining image data captured by such a photographing technique is called a free viewpoint image or the like. The user can select an arbitrary viewpoint in the free viewpoint image, and can visually recognize the subject from various angles. For example, a free-viewpoint image may exert a higher sales promotion effect than a normal image when used for sales promotion or the like.
なお、被写体の撮影に関して、特徴点であるマーカーが印刷されたシート上で被写体を撮影することで、被写体を認識する技術が知られている(例えば、特許文献1)。従来技術に係る文献では、マーカーにマーカー自体に関する情報である特徴点表示媒体情報を記録しておき、画像認識でそれを特定することにより、マーカーの使用できる条件を自由に変更出来る旨が開示されている。なお、自由視点画像に関する技術として、自由視点画像の生成処理の手法等が開示されている(例えば、特許文献2及び3)。 Regarding shooting of a subject, there is known a technique of recognizing a subject by shooting the subject on a sheet on which a marker, which is a feature point, is printed (for example, Patent Document 1). In the literature relating to the prior art, it is disclosed that the conditions under which the marker can be used can be freely changed by recording the feature point display medium information which is information about the marker itself in the marker and specifying it by image recognition. ing. As a technique related to a free viewpoint image, a method of generating a free viewpoint image and the like are disclosed (for example, Patent Documents 2 and 3).
しかしながら、上記の従来技術(特許文献1)では、一般ユーザに自由視点画像を有効に活用させることは困難であった。具体的には、上記の特許文献1に係る従来技術では、識別子や特徴情報が付与されたマーカーを利用する必要がある。一般ユーザがそのようなマーカーを準備し、画像処理に利用することは難しい。このため、上記の特許文献1に係る従来技術では、例えば、一般ユーザが容易に自由視点画像を生成したり、生成した自由視点画像を第三者に閲覧させたりといった、自由視点画像の活用を促進させることが難しい。 However, with the above-mentioned prior art (Patent Document 1), it has been difficult for a general user to effectively utilize a free viewpoint image. Specifically, in the prior art according to the above-mentioned Patent Document 1, it is necessary to use a marker to which an identifier and feature information are added. It is difficult for a general user to prepare such a marker and use it for image processing. Therefore, in the prior art according to the above-mentioned Patent Document 1, for example, a general user can easily generate a free-viewpoint image, or a third party can view the generated free-viewpoint image. Difficult to promote.
本願の開示する技術は、上記に鑑みてなされたものであって、自由視点画像を有効に活用させることができる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 The technique disclosed in the present application has been made in view of the above, and an object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of effectively utilizing a free-viewpoint image.
本願に係る画像処理装置は、円を構成要素に含み、当該円の内部に所定の図形が描かれたマーカーに関する情報であって、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差によって示される情報を当該マーカーの特徴情報として取得する取得部と、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付部と、前記受付部によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得部によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、当該真円を当該画像データの所定の処理に用いるためのマーカーとして特定する特定部と、を備えたことを特徴とする。 The image processing apparatus according to the present application includes a circle as a component, and is information about a marker on which a predetermined figure is drawn inside the circle, and is two points of pixels existing on radiation from the center of the circle to the outside. A reception unit that acquires information indicated by the difference in brightness of the marker as feature information of the marker, and an image data created by being imaged by a predetermined imaging device and accepting image data including an elliptical figure. The image data is projected and converted so that the elliptical figure included in the unit and the image data received by the reception unit becomes a perfect circle, and the feature information of the perfect circle after the projection conversion and the feature information acquired by the acquisition unit are acquired. It is characterized by having a specific part that specifies the perfect circle as a marker for using the image data in a predetermined process by collating the feature information with each other to obtain the similarity between the feature information. To do.
実施形態の一態様である画像処理装置によれば、自由視点画像を有効に活用させることができるという効果を奏する。 According to the image processing device which is one aspect of the embodiment, there is an effect that the free viewpoint image can be effectively utilized.
以下に、本願に係る画像処理装置、画像処理方法及び画像処理プログラムの各実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る画像処理装置、画像処理方法及び画像処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, each embodiment of the image processing apparatus, the image processing method, and the image processing program according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the image processing apparatus, image processing method, and image processing program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
〔1.第1の実施形態〕
〔1−1.画像処理の一例〕
まず、図1を用いて、第1の実施形態に係る画像処理の一例について説明する。図1は、第1の実施形態に係る画像処理の一例を示す図である。図1に示すように、第1の実施形態に係る画像処理システム1には、ユーザ端末10と、画像処理装置100とが含まれる。ユーザ端末10と画像処理装置100とは、図示しないネットワークN(例えば、インターネット)を介して互いに通信可能に接続される。なお、画像処理システム1に含まれる各装置の台数は、図1に示した例に限られない。例えば、画像処理システム1には、複数台のユーザ端末10が含まれてもよい。
[1. First Embodiment]
[1-1. An example of image processing]
First, an example of image processing according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of image processing according to the first embodiment. As shown in FIG. 1, the image processing system 1 according to the first embodiment includes a
ユーザ端末10は、自由視点画像の生成を画像処理装置100に要求するユーザによって利用される情報処理装置である。例えば、ユーザ端末10は、デスクトップ型PC(Personal Computer)や、ノート型PC、スマートフォン等の携帯電話機、PDA(Personal Digital Assistant)、タブレット端末等により実現される。なお、以下では、ユーザをユーザ端末10と読み替える場合がある。例えば、「ユーザに自由視点画像を配信する」とは、実際には、「ユーザが利用するユーザ端末10に自由視点画像を配信する」ことを意味する場合がある。
The
第1の実施形態において、ユーザ端末10を利用するユーザは、例えば、自身が所有する商品をオークションサイト等に出品する出品者である。ユーザは、商品を被写体として様々な角度から撮影を行い、複数の画像データを取得する。続いて、ユーザは、ユーザ端末10を介して、複数の画像データを画像処理装置100に送信する。そして、ユーザは、複数の画像データに基づいて生成される自由視点画像を画像処理装置100から取得する。ユーザは、例えば、商品を紹介するための情報の一つとして自由視点画像を用いて、オークションサイト等に出品する。
In the first embodiment, the user who uses the
画像処理装置100は、任意の視点位置に対応する画像を連続的に表示可能な画像である自由視点画像を生成するサーバ装置である。具体的には、第1の実施形態に係る画像処理装置100は、自由視点画像の配信を所望するユーザから複数の画像データの入稿を受け付け、受け付けた複数の画像データから自由視点画像を生成する。そして、画像処理装置100は、生成した自由視点画像をユーザ端末10に配信する。
The
画像処理装置100は、ユーザ端末10から入稿される元画像データに所定の変換処理を行うことにより、自由視点画像を生成する。画像処理装置100は、多視点から撮像された複数の画像を、3次元位置のある一点で各撮像装置(カメラ)の光軸が重なった状態で撮影されたかのような画像である自由視点画像へ変換するため、射影変換行列を導出する。この場合、画像処理装置100は、各画像を撮像する撮像装置のパラメータとして、撮像装置の位置姿勢を含むカメラパラメータを参照する。言い換えれば、自由視点画像の生成においては、各画像データが取得される際の撮像装置が強校正されていることが望ましい。
The
カメラパラメータが特定できない場合に、撮像された画像データに基づいて、カメラパラメータを推定する既知の手法も知られている。しかし、業務用の機材や設備を用いて撮像が行われない場合、既知の手法では、正確なカメラパラメータの推定を高精度で行うことができず、自由視点画像の生成において不具合が生じることがある。例えば、オークションサイトに出品する商品を紹介するような目的で撮像される画像は、出品者自身によって撮像される機会が多く、専門の撮影業者等によって撮像が行われる機会は少ない。このため、既知の手法では、自由視点画像の元となる画像データに関してカメラパラメータを高精度に推定することが困難な場合がある。 A known method of estimating camera parameters based on captured image data when the camera parameters cannot be specified is also known. However, when imaging is not performed using commercial equipment or equipment, it is not possible to accurately estimate camera parameters with known methods, and problems may occur in the generation of free-viewpoint images. is there. For example, an image taken for the purpose of introducing a product to be put up on an auction site is often taken by the seller himself, and is rarely taken by a professional photographer or the like. Therefore, with known methods, it may be difficult to estimate the camera parameters with high accuracy with respect to the image data that is the source of the free-viewpoint image.
そこで、第1の実施形態に係る画像処理装置100は、画像データに含まれるビジュアルマーカー(以下、単に「マーカー」と表記する)を利用して、入稿された複数の画像データに関して所定の校正(カメラキャリブレーション)を行う。マーカーは、各々が識別可能なように描画された図形を用いる。なお、画像処理装置100は、マーカーを用いる場合、画像内のマーカーと撮像装置との回転角Rと平行移動量Tを求めることで、校正処理を行うことができる。これにより、画像処理装置100は、元の画像から自由視点画像を構成するための画像に射影変換するための適切なパラメータ(例えば、射影変換行列)を取得する。そして、画像処理装置100は、射影変換された画像を連結することにより、複数の画像について滑らかに表示を遷移させることのできる自由視点画像を生成する。以下、画像処理装置100が行う画像処理について、流れに沿って説明する。
Therefore, the
まず、ユーザは、自由視点画像を生成するための元となる画像データを準備する。このとき、ユーザは、被写体とともに、マーカーを画像内に含むような複数の画像データを準備するものとする(ステップS11)。ユーザは、マーカーの一例として、用紙(シート)に描かれた円を利用することができる。具体的には、ユーザは、画像処理装置100から提供されるシートであって、所定の円が4隅に描かれたシート70を準備する。例えば、ユーザは、ネットワークNを介してシート70の画像データを取得する。そして、ユーザは、シート70の画像データを所定の用紙(例えば、A4サイズの紙など)にプリントアウトすることで、シート70を取得する。
First, the user prepares image data as a source for generating a free viewpoint image. At this time, the user shall prepare a plurality of image data including the marker in the image together with the subject (step S11). The user can use the circle drawn on the paper (sheet) as an example of the marker. Specifically, the user prepares a
シート70には、円で示される円マーカーM01、M02、M03及びM04が描かれる。円マーカーとして採用される円は、円周上の任意の点から中心までの距離が等しい真円(正円)であるものとする。また、画像処理装置100は、円マーカーM01、M02、M03及びM04のシート70上における位置関係(例えば、座標上の関係性)に係る情報を有しているものとする。また、円マーカーは、構成要素である円が幅を有する場合、一つの円としてではなく、黒色で描かれる外円と、内側の白色部分で描かれる内円という、二つの同心円として認識されるものとする。
Circle markers M01, M02, M03 and M04 represented by circles are drawn on the
また、円マーカーM01、M02、M03及びM04は、画像処理装置100が認識可能な程度に、異なるサイズを有しているものとする。このため、画像処理装置100は、画像データに二つの円マーカーが含まれている場合、射影変換後の正しい円のサイズを照合することにより、円マーカーを識別可能である。なお、詳細は後述するが、画像処理装置100は、外円と内円の半径の比率を用いることで、円マーカーM01、M02、M03及びM04をそれぞれ識別するようにしてもよい。この場合、画像処理装置100は、画像データに一つの円マーカーしか含まれていない場合であっても、円マーカーを識別することができる。
Further, it is assumed that the circular markers M01, M02, M03 and M04 have different sizes to the extent that the
ユーザは、シート70の中央に被写体60を乗せて、様々な角度から撮像を行う。例えば、ユーザは、ユーザ端末10の撮像機能を用いて、被写体60を撮像する。あるいは、ユーザは、デジタルカメラ等、撮像によって画像データを取得することが可能な機器を用いて被写体60を撮像する。そして、ユーザは、撮像によって取得した画像データをユーザ端末10に格納する。
The user places the subject 60 on the center of the
このようにして、ユーザは、シート70に乗せられた状態で撮像された被写体60の画像データを複数準備する。図1に示すように、ユーザは、被写体60を取り囲むようにして撮像された元画像データP01、P02、P03、・・・、P0N(Nは任意の数)を準備する。図1に示す例では、元画像データP01は、被写体60を向かって右側から撮像した画像である。また、元画像データP02は、被写体60を右斜め前から撮像した画像である。また、元画像データP03は、元画像データP02と比較して、被写体60を正面側に近い右斜め前側から撮像した画像である。このように、元画像データP01〜P0Nは、例えば、被写体60を半円状に取り囲むようにして順番に撮像された画像データである。
In this way, the user prepares a plurality of image data of the subject 60 captured while being placed on the
上述のように、シート70には、円マーカーM01、M02、M03及びM04が描かれている。しかしながら、被写体60がシート70の中央に乗せられて撮像が行われる場合、多くの画像データにおいて、一つ乃至二つの円マーカーは、被写体60によって遮蔽されることで画像データに含まれなくなる。図1に示す元画像データP01、P02及びP03の例では、円マーカーM04は、被写体60によって遮蔽されるため、完全な形では画像データに含まれなくなる。言い換えれば、被写体60がシート70の中央に乗せられて撮像が行われる場合、多くの画像データにおいて、2つ乃至3つの円マーカーが画像データに含まれることとなる。例えば、図1に示すように、元画像データP01、P02及びP03は、被写体60とともに、円マーカーM01、M02及びM03を含む画像データである。なお、詳細については後述するが、画像処理装置100が行う画像処理では、マーカーの種類によって画像データ内に含む必要のあるマーカーの数が変化する。例えば、画像に含まれるマーカーが円マーカーである場合、画像処理装置100は、各画像に少なくとも二つの円マーカーを含む複数の画像データから、自由視点画像を生成することができる。
As described above, the circular markers M01, M02, M03 and M04 are drawn on the
続いて、ユーザ端末10は、ユーザの操作に従って、複数の元画像データP01〜P0Nを画像処理装置100に入稿する(ステップS12)。例えば、ユーザ端末10は、画像処理装置100が提供する画像生成サービスを提供するウェブページにおいて、複数の元画像データP01〜P0Nをアップロードすることにより、画像データを入稿する。
Subsequently, the
画像処理装置100は、各画像データに、被写体60とともに少なくとも二つの円マーカーが含まれる元画像データP01〜P0Nの入稿を受け付ける。そして、画像処理装置100は、入稿された画像データに基づいて、自由視点画像を生成する(ステップS13)。具体的には、画像処理装置100は、一つの画像データに含まれる少なくとも二つの円マーカーに基づいて、入稿された複数の画像データに関して所定の校正を行う。
The
一般に、マーカーを利用した画像データに関する校正処理は、画像データ内におけるマーカーと、当該画像データを撮像した撮像装置(カメラ)との回転角R及び平行移動量Tというパラメータを算出することで実現される。 Generally, the calibration process for image data using markers is realized by calculating the parameters of the angle of rotation R and the amount of translation T between the marker in the image data and the image pickup device (camera) that captured the image data. To.
ここで、第1の実施形態に係る画像処理装置100が行う校正処理について、元画像データP01を例に挙げて説明する。まず、画像処理装置100は、元画像データP01内の各円マーカーを検出する。この例では、画像処理装置100は、円マーカーM01及びM02を検出するものとする。なお、画像処理装置100は、円マーカーM01及びM02それぞれの外円と内円の比率の相違によって、円マーカーM01及びM02を識別する。上述のように、シート70上に描かれる各円マーカーは、真円である。このため、撮像によって取得された画像データ内では、各円マーカーは、楕円となる。
Here, the calibration process performed by the
画像処理装置100は、検出した各楕円のパラメータに基づいて、各楕円の法線を推定する。楕円の法線は、一つの楕円につき2本算出される。このため、画像処理装置100は、二つの円マーカーM01及びM02から算出された法線の解を組み合わせることで、円マーカーM01及びM02を含む平面を推定できる。さらに、画像処理装置100は、推定した平面の法線を推定できる。
The
画像処理装置100は、推定した平面の法線を、元画像データP01におけるワールド座標系(空間の中での物体の位置を示すための座標系。「世界座標系」や「グローバル座標系」と表記される場合もある)におけるY軸と仮定する。そして、画像処理装置100は、適当な円心同士(例えば、円マーカーM01及びM02)を結ぶベクトルをワールド座標系における仮のX軸とする。これらの情報に基づいて、画像処理装置100は、画像内の円マーカーM01又はM02と撮像装置との回転角Rの関係を求めることができる。また、画像処理装置100は、円心同士の距離を1と仮定することで、仮の平行移動量Tを算出することができる。画像処理装置100は、仮のパラメータである回転角R及び平行移動量Tを用いて、検出された円の本来の大小関係を求めれば、どの円が楕円として検出できたのかを決定することができる。そして、シート70における円の位置情報は既知であるから、検出された円のワールド座標系における位置に基づいて、画像処理装置100は、正しいX軸と平行移動量Tを推定することができる。これにより、画像処理装置100は、強校正を完了する。
The
そして、画像処理装置100は、入稿された画像データから自由視点画像を構成するための画像に射影変換するための適切なパラメータを取得する。そして、画像処理装置100は、取得されたパラメータを用いて画像データを射影変換する。画像処理装置100は、射影変換された画像を連結することにより、入稿された各画像データを任意の視点で表示させることのできる自由視点画像F01を生成する。
Then, the
画像処理装置100は、生成した自由視点画像F01をユーザ端末10に配信する(ステップS14)。図1に示すように、自由視点画像F01は、元画像データP01〜P0Nが変換された変換後画像データRP01〜RP0Nを含む。また、自由視点画像F01は、例えばユーザの操作に従って、変換後画像データRP01〜RP0Nの表示を滑らかに遷移することが可能である。また、図1に示すように、変換後画像データRP01〜RP0Nに含まれる各々の被写体60は、校正の結果、元画像データP01〜P0Nに含まれる被写体60と比較して、大きさが均一に揃えられている。
The
ユーザ端末10は、画像処理装置100から配信された自由視点画像F01を取得する。ユーザは、例えば、オークションサイトの出品にあたり、自身の商品を紹介する情報の一つとして、自由視点画像F01を利用する(ステップS15)。
The
このように、第1の実施形態に係る画像処理装置100は、視点位置が異なる複数の画像データであって、所定のパラメータを有するとともに各々を識別可能である円マーカーM01〜M04が、各画像データ内に少なくとも二つは含まれる複数の元画像データP01〜P0Nを受け付ける。そして、画像処理装置100は、円マーカーが有するパラメータに基づいて、受け付けられた複数の元画像データP01〜P0Nに関する校正をする。さらに、画像処理装置100は、校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像F01を生成する。
As described above, in the
これにより、第1の実施形態に係る画像処理装置100は、例えば、ユーザ端末10のユーザのように、自由視点画像を活用して商材販売の促進を図るユーザに自由視点画像を提供することができる。すなわち、ユーザは、自由視点画像を販促などに利用することにより、通常の画像を提示するよりも、より高い販促効果を発揮させることができる。また、画像処理装置100は、自由視点画像を生成するにあたり、マーカーを利用した校正処理を行う。画像処理装置100は、マーカーを利用することで、専門の機材や装置の整った撮影環境で取得されていない元画像データからであっても、頑健に校正を行うことができる。すなわち、画像処理装置100は、強校正が行われていない撮像装置によって取得された元画像データからも、任意の視点からの表示を自然に行うことのできる自由視点画像を生成することができる。結果として、画像処理装置100は、自由視点画像を有効に活用させることができるという効果を奏する。
As a result, the
〔1−2.画像処理装置の構成〕
次に、図2を用いて、第1の実施形態に係る画像処理装置100の構成について説明する。図2は、第1の実施形態に係る画像処理装置100の構成例を示す図である。図2に示すように、画像処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[1-2. Image processing device configuration]
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、図示しないネットワークNと有線又は無線で接続され、ユーザ端末10との間で情報の送受信を行う。
(About communication unit 110)
The
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図2に示すように、記憶部120は、画像データ記憶部121と、自由視点画像記憶部122とを有する。
(About storage unit 120)
The
(画像データ記憶部121について)
画像データ記憶部121は、ユーザ端末10から入稿された画像データに関する情報を記憶する。ここで、図3に、第1の実施形態に係る画像データ記憶部121の一例を示す。図3に示した例では、画像データ記憶部121は、「入稿ID」、「画像データ」といった項目を有する。
(About the image data storage unit 121)
The image
「入稿ID」は、入稿された画像データを識別するための識別情報を示す。入稿IDが示す情報には、例えば、入稿された日時や、入稿元となるユーザ端末10を識別する情報が含まれてもよい。
The “traffic ID” indicates identification information for identifying the submitted image data. The information indicated by the submission ID may include, for example, information that identifies the date and time of submission and the
「画像データ」は、入稿された画像データを示す。図1で示したように、ユーザ端末10は、自由視点画像の元となる画像データとして、複数の画像データを入稿する。「画像データ」の項目には、ユーザ端末10から入稿された一連の画像データが対応付けられて記憶される。また、各画像データには、「P01、P02、P03、P04、P05・・・」などの続き番号による識別情報が付与されてもよい。このような続き番号により、画像処理装置100は、自由視点画像における画像同士の連結順を認識する。
"Image data" indicates the submitted image data. As shown in FIG. 1, the
すなわち、図3では、入稿ID「A01」で識別される画像データの入稿では、画像データ「P01、P02、P03、P04、P05・・・」が自由視点画像を生成する元となる画像データとして入稿されたことを示す。 That is, in FIG. 3, in the submission of the image data identified by the submission ID "A01", the image data "P01, P02, P03, P04, P05 ..." Is the source image for generating the free viewpoint image. Indicates that the data was submitted as data.
(自由視点画像記憶部122について)
自由視点画像記憶部122は、画像処理装置100が生成した自由視点画像に関する情報を記憶する。ここで、図4に、第1の実施形態に係る自由視点画像記憶部122の一例を示す。図4に示した例では、自由視点画像記憶部122は、「自由視点画像ID」、「元画像データ」、「校正データ」、「変換後画像データ」、「初期表示画面」といった項目を有する。
(About the free viewpoint image storage unit 122)
The free viewpoint
「自由視点画像ID」は、自由視点画像の識別情報を示す。「元画像データ」は、自由視点画像の生成元となった画像データを示す。自由視点画像は複数の画像データから生成されるため、元画像データは、一つの自由視点画像に対して複数記憶される。 The "free viewpoint image ID" indicates the identification information of the free viewpoint image. The "original image data" indicates the image data from which the free viewpoint image is generated. Since the free viewpoint image is generated from a plurality of image data, a plurality of original image data are stored for one free viewpoint image.
「校正データ」は、自由視点画像を生成するための所定の校正データ(カメラキャリブレーション)を示す。図4では、校正データを「R01」のような概念で示す。校正データには、画像処理装置100が自由視点画像を構成する画像を取得するために、元画像データを適切に射影変換するための種々のデータが含まれる。例えば、校正データには、マーカーと撮像装置との回転角Rや平行移動量Tが含まれる。なお、校正データには、各画像データに関して、撮像装置のカメラパラメータとして、撮像装置の焦点距離や、撮像装置によって生成される画像のアスペクト比及びスキューなどが含まれてもよい。
"Calibration data" indicates predetermined calibration data (camera calibration) for generating a free viewpoint image. In FIG. 4, the calibration data is shown by a concept such as “R01”. The calibration data includes various data for the
「変換後画像データ」は、自由視点画像を構成する画像データを示す。変換後画像データは、例えば、元画像データに対して所定の校正が行われ、校正で算出されたパラメータにより射影変換された後の画像データである。 The "converted image data" indicates the image data constituting the free viewpoint image. The converted image data is, for example, image data after a predetermined calibration is performed on the original image data and the image data is projected and converted according to the parameters calculated by the calibration.
「初期表示画面」は、自由視点画像の最初の表示に対応する画像を示す。初期表示画面は、変換後画像データのうちの一つの変換後画像データが選択される。 The "initial display screen" shows an image corresponding to the initial display of the free viewpoint image. On the initial display screen, one of the converted image data after conversion is selected.
すなわち、図4では、自由視点画像ID「F01」で識別される自由視点画像は、元画像データが「P01、P02、P03、P04、P05、・・・」であり、それぞれの校正データは「R01、R02、R03、R04、R05、・・・」であり、変換後画像データは「RP01、RP02、RP03、RP04、RP05、・・・」であり、初期表示画面は「RP03」である例を示している。 That is, in FIG. 4, the original image data of the free viewpoint image identified by the free viewpoint image ID "F01" is "P01, P02, P03, P04, P05, ...", And the respective calibration data is ". R01, R02, R03, R04, R05, ... ”, the converted image data is“ RP01, RP02, RP03, RP04, RP05, ... ”, and the initial display screen is“ RP03 ”. Is shown.
なお、自由視点画像は、ユーザの任意の選択により自由視点画像の回転中心(注視点)が各々異なる自由視点画像が生成される場合がある。この場合、自由視点画像記憶部122には、自由視点画像IDに対応付けられて、注視点に関する情報が記憶されてもよい。
As the free viewpoint image, a free viewpoint image having a different rotation center (gaze point) of the free viewpoint image may be generated by arbitrary selection by the user. In this case, the free viewpoint
(制御部130について)
制御部130は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、画像処理装置100内部の記憶装置に記憶されている各種プログラム(画像処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The
制御部130は、図2に示すように、受付部131と、校正部132と、生成部133と、配信部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 2, the
(受付部131について)
受付部131は、視点位置が異なる複数の画像データを受け付ける。具体的には、第1の実施形態に係る受付部131は、視点位置が異なる複数の画像データであって、所定のパラメータを有するとともに各々を識別可能であるマーカーが、各画像データ内に少なくとも一つは含まれる複数の画像データの入稿を受け付ける。
(About reception desk 131)
The
上述のように、画像処理装置100が行う画像処理では、マーカーの種類によって画像データ内に含む必要のあるマーカーの数が変化する。例えば、画像に含まれるマーカーが円マーカーである場合、後述する校正部132及び生成部133は、各画像に少なくとも二つの円マーカーを含む複数の画像データから自由視点画像を生成することができる。すなわち、マーカーが円マーカーである場合、受付部131は、各々を識別可能である円マーカーが各画像データ内に少なくとも二つは含まれる複数の画像データの入稿を受け付ける。
As described above, in the image processing performed by the
また、画像処理装置100が利用するマーカーの有するパラメータについても、マーカーの種類によって異なる場合がある。例えば、画像処理装置100は、円マーカーの場合は、円マーカーを構成する同心円の径の長さや、シート70における各円マーカーの位置情報等をパラメータとして用いる。また、例えば、画像処理装置100は、四角形の2次元コード(例えば、QRコード(登録商標))のように、識別情報と平行する2組の線分とを有するマーカーである場合、識別情報と平行する2組の線分をパラメータとして用いる。言い換えれば、画像処理装置100は、円マーカーの場合に推定した法線に代わるパラメータとして、四角形のマーカーの場合には、四角形を構成する線分である平行する2組の線分をパラメータとして用いる。
Further, the parameters of the marker used by the
受付部131は、入稿を受け付けた一連の画像データに入稿IDを付与し、画像データ記憶部121に格納する。
The
(校正部132について)
校正部132は、マーカーが有するパラメータに基づいて、受付部131によって受け付けられた複数の画像データに関する校正を行う。具体的には、第1の実施形態に係る校正部132は、入稿された元画像データについて所定の校正を行うことで、自由視点画像を構成する画像に変換させるための変換行列に用いられるカメラパラメータを算出する。なお、後述する生成部133は、校正部132による校正の結果に基づいて、元画像データに所定の変換処理を行うことで、自由視点画像を生成する。
(About calibration unit 132)
The
ここで、校正部132及び生成部133が扱う自由視点画像について、図5、図6及び図7を用いて説明する。まず、図5を用いて、自由視点画像に関する撮像装置の配置について説明する。図5は、自由視点画像に関する撮像装置の理想的な配置の一例を示す図である。図5では、自由視点画像の元となる複数の画像データの撮像について、理想的な撮像装置の配置の一例を示している。なお、図5では、被写体60を上から見た例を示す。
Here, the free viewpoint image handled by the
図5において、撮像装置C11〜C16は、例えば、デジタルカメラである。また、撮像装置C11〜C16は、各撮像装置における光軸が所定の位置を通過するように、撮像対象となる被写体60の周囲に配置される。図5の例では、撮像装置C11は、被写体60の中心に該当する3次元位置D1を光軸E111が通過するように配置される。また、撮像装置C12〜C16は、それぞれの光軸E121〜E161が3次元位置D1を通過するように配置される。なお、理想的な状況として、撮像装置C11〜C16は、少なくとも投影面の底辺が地面と略平行となるように設置されるものとする。そして、撮像装置C11〜C16は、図1に示した状態で一斉に被写体60を撮像することにより、被写体60の自由視点画像を生成する元となる画像データを取得することができる。 In FIG. 5, the image pickup devices C11 to C16 are, for example, digital cameras. Further, the imaging devices C11 to C16 are arranged around the subject 60 to be imaged so that the optical axis of each imaging device passes through a predetermined position. In the example of FIG. 5, the image pickup apparatus C11 is arranged so that the optical axis E11 1 passes through the three-dimensional position D1 corresponding to the center of the subject 60. Further, the image pickup devices C12 to C16 are arranged so that their respective optical axes E12 1 to E16 1 pass through the three-dimensional position D1. In an ideal situation, the imaging devices C11 to C16 are installed so that at least the bottom of the projection surface is substantially parallel to the ground. Then, the imaging devices C11 to C16 can acquire image data that is a source for generating a free viewpoint image of the subject 60 by simultaneously imaging the subject 60 in the state shown in FIG.
なお、図5の例では、6台の撮像装置C11〜C16を用いて被写体60を撮像する例を示したが、撮像装置の数はこの例に限られない。また、撮像装置C11〜C16の配置位置は、図5に示した例に限られない。例えば、撮像装置C11〜C16は、被写体60を半円状に囲むのではなく、複数の撮像装置が被写体60を囲むように、円周上に等間隔に配置されてもよい。 In the example of FIG. 5, an example in which the subject 60 is imaged using six image pickup devices C11 to C16 is shown, but the number of image pickup devices is not limited to this example. Further, the arrangement positions of the image pickup devices C11 to C16 are not limited to the example shown in FIG. For example, the imaging devices C11 to C16 may be arranged at equal intervals on the circumference so that a plurality of imaging devices surround the subject 60, instead of surrounding the subject 60 in a semicircular shape.
ただし、図5の撮像手法では、撮像装置C11〜C16の適切な配置や、撮像装置C11〜C16の適切なキャリブレーションが求められる。すなわち、図5で示すような撮像処理をユーザのように撮像の専門家でない一般ユーザが行うのは困難である。 However, in the imaging method of FIG. 5, appropriate arrangement of the imaging devices C11 to C16 and appropriate calibration of the imaging devices C11 to C16 are required. That is, it is difficult for a general user who is not an imaging expert such as a user to perform the imaging process as shown in FIG.
ここで、図6及び図7を用いて、撮像の専門家でない一般ユーザ等(以下、単に「ユーザ」と表記する)によって被写体60が撮像される場合の撮像処理について説明する。図6は、第1の実施形態に係る自由視点画像に関する撮像処理の一例を示す図である。図6では、ユーザが、撮像装置C20を用いて、シート70に乗せられた被写体60を撮像する状況を示している。
Here, with reference to FIGS. 6 and 7, an imaging process in which the subject 60 is imaged by a general user or the like (hereinafter, simply referred to as “user”) who is not an imaging expert will be described. FIG. 6 is a diagram showing an example of an imaging process relating to a free viewpoint image according to the first embodiment. FIG. 6 shows a situation in which a user uses the imaging device C20 to image a subject 60 placed on a
図6に示すように、ユーザは、シート70に乗せられた被写体60の周囲を回転するように、連続的に被写体60を撮像する。この場合、図5と比較して、カメラの光軸や焦点距離が、撮像された各画像データについて一定でないことが想定される。
As shown in FIG. 6, the user continuously images the subject 60 so as to rotate around the subject 60 placed on the
なお、図1でも説明したように、ユーザが被写体60を周囲から撮像した各画像データでは、シート70に描かれた円マーカーのいずれかが遮蔽されて隠れてしまうものの、少なくとも二つの円マーカーが各画像データに含まれることが想定される。
As described in FIG. 1, in each image data obtained by the user capturing the subject 60 from the surroundings, one of the circle markers drawn on the
次に、図7を用いて、図6で示した撮像の状況を上から見た場合を説明する。図7は、第1の実施形態に係る自由視点画像に関する撮像装置の配置の一例を示す図である。図7では、自由視点画像の元となる複数の画像データの撮像について、ユーザが実際に被写体60を撮像する場合に想定される撮像装置の配置等を示す。なお、以下の説明において、撮像装置C201〜C20Nを区別する必要のないときは、「撮像装置C20」と記載する。 Next, a case where the imaging situation shown in FIG. 6 is viewed from above will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of arrangement of an imaging device for a free viewpoint image according to the first embodiment. FIG. 7 shows an arrangement of an imaging device and the like that are assumed when a user actually images a subject 60 for capturing a plurality of image data that are the basis of a free viewpoint image. In the following description, when it is not necessary to distinguish the imaging devices C20 1 to C20 N , the term "imaging device C20" is used.
撮像装置C201〜C20Nは、例えば、デジタルカメラである。理想的には、撮像装置C201〜C20Nは、図5で説明したように、それぞれ個別の撮像装置として、被写体60の周囲に配置されることが望ましい。ところが、実際には、ユーザは、1台の撮像装置C201を図7の撮像装置C201〜C20Nが示す箇所に移動させながら、被写体60を撮像することが想定される。具体的には、ユーザは、図7に示す撮像装置C201の場所から被写体60を撮像する。そして、ユーザは、被写体60を中心とした円に沿って、図7に示す撮像装置C202の場所へ移動し、被写体60を撮像する。かかる作業を繰り返し、ユーザは、被写体60について複数の画像データを取得する。
The image pickup devices C20 1 to C20 N are, for example, digital cameras. Ideally, the image pickup devices C20 1 to C20 N are arranged around the subject 60 as individual image pickup devices as described with reference to FIG. However, in practice, the user can move the image pickup device C20 1 one at a location indicated by the imaging device C20 1 -C20 N in FIG. 7, it is assumed for imaging a subject 60. Specifically, the user captures a subject 60 from the imaging device C20 1 location shown in FIG. Then, the user, along a circle around the
この場合、ユーザが、光軸E201が被写体60の中心を通るように注意深く撮像したとしても、自由視点画像の元画像として正確に(例えば、図5で示したように)被写体60を撮像することは難しい。また、ユーザによって扱われる撮像装置C20についてカメラキャリブレーションされているとは限らないため、画像データからカメラパラメータ等を取得することができない場合がある。
In this case, even if the user optical axis E20 1 is carefully imaged so as to pass through the center of the
そこで、校正部132は、受付部131によって受け付けられた画像データについて、マーカーを利用した所定の校正を行うことにより、自由視点画像を構成する画像に変換できるようにする。この点について、図8を用いて説明する。
Therefore, the
図8は、第1の実施形態に係る画像処理装置100が利用するマーカーを説明するための図である。図8では、校正部132が校正に利用する円マーカーM01、M02、M03及びM04が4隅に描かれた、シート70について説明する。
FIG. 8 is a diagram for explaining a marker used by the
図8に示すように、シート70には、円マーカーM01、M02、M03及びM04と、中央表示75が含まれる。なお、中央表示75は、例えば、シート70に被写体60を設置する場合の目安となる表示である。ユーザは、図8に示すシート70を取得し、シート70に乗せられた被写体60を撮像する。
As shown in FIG. 8, the
また、上述のように、校正部132は、シート70に描かれる円マーカーM01、M02、M03及びM04の位置情報を予め取得する。これにより、校正部132は、各円マーカーを識別することができれば、円マーカーM01、M02、M03及びM04の各々の位置関係を推定することができるため、マーカーを利用した校正処理を行うことができる。なお、校正部132は、画像データにおいて、マーカーの位置情報をワールド座標系における絶対値として与えておいてもよい。すなわち、校正部132は、複数のマーカーを予めワールド座標系においてマッピングするマッピング処理を行う。これにより、校正部132は、被写体60やその他の物体等に遮蔽されたマーカーが画像データ内にある場合でも、遮蔽されたマーカーの位置を推定して校正処理を行うことができる。
Further, as described above, the
すなわち、校正部132は、マーカーが有するパラメータとして、複数のマーカーの各々の位置情報の対応関係に基づいて、複数の画像データに関する校正を行う。また、校正部132は、マーカーが円マーカーである場合、円マーカーが有するパラメータを用いて推定される円マーカーの法線を含む平面情報と、平面情報に対応する平面に含まれる二つの円マーカーの位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。
That is, the
(生成部133について)
生成部133は、校正部132によって校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する。
(About generator 133)
The
図7を用いて説明したように、ユーザ端末10から入稿される元画像データ群は、被写体60に光軸を向けて撮像されているものの、厳密には光軸が上下左右にばらついていることが想定される。このため、入稿される元画像データ群を単に連続的に表示させたとしても、かかる連続画像では、不連続性が際立つと推定される。
As described with reference to FIG. 7, the original image data group submitted from the
そのため、生成部133は、各々の元画像データが撮像された際の撮像装置C20の光軸が、3次元空間上のある1点(例えば、図5に示した3次元位置D1など)を通過していたかのような画像へと変換する射影変換行列を用いて、元画像データを変換する。かかる射影変換行列は、校正部132が行う校正処理によって導出されたパラメータにより作成されうる。
Therefore, in the
例えば、生成部133は、射影変換によって、自由視点画像を構成する変換後画像データを生成する。例えば、変換後の画像データに対応する所定の撮像装置(カメラ)をカメラkと仮定すると、このようなカメラkにおける射影変換行列Hkは、各カメラの回転角(回転行列)R、及び光軸を通過させたい3次元点に基づいて、下記式(1)で求めることができる。
For example, the
上記式(1)において、Rkの逆行列とは、カメラkにおける元の回転角Rであり、R´kとは新しい回転角Rであり、Akとは内部パラメータである。内部パラメータは、例えば、画像中心位置や焦点距離により与えられる。なお、新しい回転角R´kは、既知の手法により、カメラ位置と、ワールド座標系において回転させたい中心から求まる理想的な光軸と、元の光軸とから求めることが可能である。 In the above formula (1), the inverse matrix of R k, is the original rotation angle R in the camera k, and R'k is a new angle of rotation R, and A k is an internal parameter. Internal parameters are given, for example, by the image center position and focal length. Incidentally, the new rotation angle R'k by known techniques, and the camera position, it is possible to obtain from the ideal optical axis determined from the center you want to rotate, the original and the optical axis in the world coordinate system.
生成部133は、上記式(1)のように生成された射影変換行列を用いて、各元画像データを変換することにより、自由視点画像を生成する。ここで、図9を用いて、第1の実施形態に係る生成部133による生成処理の一例を説明する。図9は、第1の実施形態に係る生成部133による生成処理の一例を示す図である。
The
図9に示すように、生成部133は、校正部132による校正処理とともに、所定の変換処理を行うことにより、元画像データP01〜P05を、変換後画像データRP01〜RP05に変換することで、自由視点画像を生成する。
As shown in FIG. 9, the
元画像データP01を例に挙げると、校正部132は、元画像データP01から、円マーカーを少なくとも二つ検出する。例えば、校正部132は、元画像データP01から、円マーカーM02及び円マーカーM03を検出する。そして、校正部132は、上述した処理によって、元画像データP01に関する校正を行う。すなわち、校正部132は、校正処理によって、元画像データP01を撮像した撮像装置C20のカメラパラメータを導出する。言い換えれば、校正部132は、射影変換行列を生成するためのパラメータを取得する。
Taking the original image data P01 as an example, the
そして、生成部133は、校正部132による校正処理の結果を受けて、射影変換行列を生成する。続けて、生成部133は、元画像データP01を射影変換することで、変換後画像データRP01を生成する。生成部133は、同様に、元画像データP02〜P05に基づいて、それぞれ、変換後画像データRP02〜RP05を生成する(ステップS20)。
Then, the
なお、校正部132又は生成部133は、マーカーを利用した校正処理が行われた後は、既知の種々の手法を用いて、校正処理を行ったり、射影変換を行ったりしてもよい。例えば、校正部132又は生成部133は、ストラクチャーフロムモーション(Structure From Motion、以下、「SFM」と記載する)と呼ばれる既知の手法を用いてもよい。SFMによれば、種々の視点位置から撮像された複数の画像データに基づいて、画像の3次元形状を復元することが可能となる。具体的には、SFMは、画像データ間で対応付けされた対応点を用いて、かかる対応点の移動を基礎行列で表現することにより、撮像装置C20の動きを算出する。なお、SFMによれば、撮像装置C20の位置情報を復元することができるため、校正部132は、所定の処理において、SFMの手法を適宜用いて、カメラパラメータを取得するようにしてもよい。
After the calibration process using the marker is performed, the
上記のように、校正部132は、所定の校正処理として、複数の画像データ間で対応するマーカーの関係に基づいて、当該画像データを取得した撮像装置C20のカメラパラメータ(例えば、相対的な位置情報等)を取得する。そして、生成部133は、校正部132によって取得されたパラメータ等の校正データを用いて、各画像データに対応する射影変換行列を算出する。そして、生成部133は、算出された射影変換行列を用いて、各元画像データを変換する。そして、生成部133は、変換した変換後画像データに基づいて、自由視点画像を生成する。生成部133は、生成した自由視点画像を自由視点画像記憶部122に格納する。なお、校正部132及び生成部133が実行する処理には、上記先行技術文献の特許文献2及び3にて開示された処理が、適宜応用されてもよい。
As described above, the
なお、生成部133は、複数の画像データが所定の連続性を有するか否かを判定することにより、生成処理で取り扱う画像データを抽出し、抽出された画像データを用いて自由視点画像を生成してもよい。言い換えれば、生成部133は、入稿された複数の画像データのうち、自由視点画像の生成に適する画像データを抽出して自由視点画像を生成する。例えば、生成部133は、生成処理において、入稿された複数の画像データのうち、誤って入稿された画像データや、自由視点画像の生成に不適切な画像データを排除することができる。かかる処理は、例えば、マーカーを利用した校正処理を行う際に、マーカーが検出できなかったり、元画像データにおいて対応するマーカーが検出されなかったりした場合に行われうる。また、生成部133は、入稿された複数の画像データによって自由視点画像を生成することができない場合には、生成することができない理由、又は自由視点画像を生成可能とするための画像データの差し換えに係る情報が含まれる通知データを生成してもよい。
The
(配信部134について)
配信部134は、生成部133によって生成された自由視点画像を配信する。具体的には、第1の実施形態に係る配信部134は、生成部133によって生成され、自由視点画像記憶部122に記憶されている自由視点画像を、元画像データの入稿元であるユーザ端末10に配信する。
(About distribution unit 134)
The
なお、配信部134は、元画像データが適切でなく、生成部133が自由視点画像を生成することができない旨や、自由視点画像の生成のための追加の画像データの入稿を求める旨を示した通知データを生成したときは、かかる通知データを元画像データの入稿元に配信してもよい。
In addition, the
〔1−3.画像処理手順〕
次に、図10を用いて、第1の実施形態に係る画像処理装置100による画像処理の手順について説明する。図10は、第1の実施形態に係る画像処理手順を示すフローチャートである。
[1-3. Image processing procedure]
Next, the procedure of image processing by the
図10に示すように、画像処理装置100の受付部131は、ユーザ端末10から画像データの入稿を受け付けたか否かを判定する(ステップS101)。このとき、受付部131は、画像データの入稿を受け付けていない場合には(ステップS101;No)、画像データの入稿を受け付けるまで待機する。
As shown in FIG. 10, the
一方、受付部131は、画像データの入稿を受け付けた場合には(ステップS101;Yes)、受け付けた画像データを画像データ記憶部121に格納する。そして、校正部132は、各画像データに含まれるマーカーを特定(検出)する(ステップS102)。
On the other hand, when the
そして、校正部132は、マーカーを利用して、画像データに関する校正処理を行う(ステップS103)。続けて、生成部133は、校正部132によって行われた校正処理の校正データに基づいて、画像データを変換する(ステップS104)。
Then, the
そして、生成部133は、変換された画像データに基づいて、自由視点画像を生成する(ステップS105)。続いて、配信部134は、自由視点画像をユーザ端末10に配信する(ステップS106)。
Then, the
〔1−4.変形例〕
上述してきた第1の実施形態に係る画像処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下に、上記の画像処理装置100の他の実施形態について説明する。
[1-4. Modification example]
The
〔1−4−1.円以外の図形を利用したマーカー〕
上記実施形態では、画像処理装置100は、円マーカーを利用して各画像データに関する校正処理を行うことを説明した。しかし、画像処理装置100は、円マーカー以外のマーカーを利用してもよい。
[1-4-1. Markers using figures other than circles]
In the above embodiment, it has been described that the
例えば、画像処理装置100は、上記のように、識別情報を有する2次元コードを利用することができる。この場合、2次元コード自体に識別情報が含まれ、かつ、一つの2次元コードには2組の(互いに平行ではない)平行の線分が含まれるため、画像処理装置100は、各画像データから少なくとも一つのマーカーを検出することで、校正処理を実行することができる。なお、画像データ内に平面を規定することのできる線分であれば、校正処理において、線分が平行である必要はない。
For example, the
このように、画像処理装置100は、マーカーとして、四角形の形状と識別情報とを有する2次元コードが、各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。そして、画像処理装置100は、2次元コードが有する2辺の線分の情報を用いて推定される平面情報と、平面情報に対応する平面に含まれる少なくとも一つの2次元コードの位置情報とに基づいて、複数の画像データに関する校正を行う。このように、画像処理装置100は、校正に利用されるマーカーが円以外の図形であっても、適切な校正を行うことができる。
As described above, the
〔1−4−2.4点を利用するマーカー〕
また、画像処理装置100は、マーカーとして、互いの位置関係が既知である4つ以上の点をマーカーとして用いることもできる。この場合、画像処理装置100は、各画像データに少なくとも4つの点が含まれている画像データの入稿を受け付ける。
[Marker using 1-4-2.4 points]
Further, the
すなわち、画像処理装置100は、画像データ内からマーカーとして4つの点を検出することで、4つの点のうちから2点を結び、線分を二つ規定することができる。これにより、画像処理装置100は、上記実施形態で説明したような、円マーカーを用いた処理と同様の処理を行うことができる。
That is, the
具体的には、画像処理装置100は、互いの位置情報の対応関係が予め規定された複数の点であって、各画像データ内に少なくとも4つは含まれる複数の点を含んだ複数の画像データを受け付ける。そして、画像処理装置100は、複数の点のうち2点を結ぶ線分から2本の線分を抽出し、抽出された2本の線分を用いて推定される複数の点を含む平面情報と、平面情報に対応する平面に含まれる複数の点の位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。このように、画像処理装置100は、マーカーそのものに識別情報を有しなくても、各点の位置情報や座標に基づいて各点の対応関係を利用することにより、点をマーカーとして利用することができる。
Specifically, the
〔1−4−3.活用例(1)〕
上記実施形態では、画像処理装置100は、オークションの出品を所望するユーザから入稿された複数の画像データに基づいて、自由視点画像を生成する処理を例として示した。この場合、画像処理装置100は、生成した自由視点画像を、自由視点画像の元となる複数の画像データを入稿したユーザ端末10もしくはユーザ端末10を利用するユーザを識別する識別情報、又は、ユーザが利用するサービスにおける出品情報の少なくともいずれか一つと対応付けて、所定の記憶部に格納するようにしてもよい。
[1-4-3. Utilization example (1)]
In the above embodiment, the
すなわち、画像処理装置100は、生成した自由視点画像をユーザに配信するのみならず、ユーザ端末10やユーザの識別情報(例えば、ユーザID)や、ユーザが利用するサービスにおける出品情報とともに、自由視点画像記憶部122等に記憶するようにしてもよい。なお、ユーザが利用するサービスにおける出品情報とは、例えば、オークションサイトにおける出品商品を示す識別情報であったり、オークションサイトにおいて行われているオークションを識別する識別情報であったり、ショッピングサイトにおける商品を識別する識別情報といった、出品物(例えば、自由視点画像の元画像データの被写体であることが想定される)を特定することのできる情報である。
That is, the
この場合、画像処理装置100は、例えば、サービスを管理運営するウェブサーバ等から自由視点画像の配信の要求を受け付ける。そして、画像処理装置100は、要求を受けた場合に、ユーザ端末10やユーザの識別情報や出品情報に基づいて、自由視点画像を特定する。そして、画像処理装置100は、特定された自由視点画像をサービス側(例えばウェブサーバ)に配信する。自由視点画像を取得したウェブサーバは、オークションにおける商品の紹介画像として、自由視点画像を掲載する。
In this case, the
このように、画像処理装置100は、ユーザに自由視点画像を配信するのみならず、ユーザを識別する情報とともに自由視点画像を記憶部120内に格納しておき、要求に応じて、サービス側に自由視点画像を配信するようにしてもよい。これにより、画像処理装置100は、多様な要求に応答して自由視点画像を配信することができるため、より自由視点画像を活用させることができる。この場合、画像処理装置100は、例えば、図4に示した自由視点画像記憶部122内に、自由視点画像IDと対応付けて、ユーザIDや、ユーザの出品情報ID等の情報を格納するようにしてもよい。
In this way, the
〔1−4−4.活用例(2)〕
上記実施形態においては、自由視点画像がユーザに利用される例として、オークションサイトへの商品の出品等を示した。しかし、画像処理装置100は、生成した自由視点画像を様々な対象に配信してもよい。例えば、画像処理装置100は、ユーザ端末10ではなく、直接、ウェブサーバ等に配信するサービスを行ってもよい。また、画像処理装置100は、主としてUGC(User-Generated Contents)を掲載するサイトであるUGM(User-Generated Media)、またはCGM(Consumer-Generated Media)等に、生成した自由視点画像を配信してもよい。なお、UGMには、投稿動画共有サイト、写真共有サイト、イラスト投稿サイト、SNS(Social Networking Service)等が含まれる。
[1-4-4. Utilization example (2)]
In the above embodiment, as an example in which the free-viewpoint image is used by the user, listing of a product on an auction site or the like is shown. However, the
〔1−5.効果〕
上述してきたように、第1の実施形態に係る画像処理装置100は、受付部131と、校正部132と、生成部133とを有する。受付部131は、視点位置が異なる複数の画像データであって、所定のパラメータを有するとともに各々を識別可能であるマーカーが、各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。校正部132は、マーカーが有するパラメータに基づいて、受付部131によって受け付けられた複数の画像データに関する校正を行う。生成部133は、校正部132によって校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する。
[1-5. effect〕
As described above, the
このように、第1の実施形態に係る画像処理装置100は、自由視点画像を生成するにあたり、マーカーを利用した校正処理を行う。例えば、画像処理装置100は、被写体とともにマーカーを撮像した画像データを利用することで、専門の機材や装置の整った撮影環境で取得されていない、一般ユーザによって撮像されたような元画像データからであっても、頑健に校正を行うことができる。すなわち、画像処理装置100は、強校正が行われていない撮像装置によって取得された元画像データからも、任意の視点からの表示を自然に行うことのできる自由視点画像を生成することができる。結果として、画像処理装置100は、自由視点画像を有効に活用させることができるという効果を奏する。
As described above, the
また、校正部132は、画像データにおいて、マーカーが有するパラメータを用いて推定される平面情報と、平面情報に対応する平面に含まれるマーカーの位置情報とに基づいて、複数の画像データに関する校正を行う。
Further, the
このように、第1の実施形態に係る画像処理装置100は、平面情報を規定することのできるパラメータ(例えば、2本の線分を規定する情報)を有するマーカーを利用して、校正処理を行う。これにより、画像処理装置100は、一般的なユーザによって撮像された画像データであっても、適切な校正処理を行うことができる。
As described above, the
また、受付部131は、各画像データ内に複数のマーカーが含まれる複数の画像データを受け付ける。校正部132は、パラメータとして、複数のマーカーの各々の位置情報の対応関係に基づいて、複数の画像データに関する校正を行う。
Further, the
このように、第1の実施形態に係る画像処理装置100は、画像データ内におけるマーカーの位置情報の対応関係(マッピング情報)に基づいて、複数の画像データに関する校正を行うことができる。これにより、画像処理装置100は、互いのマーカー、すなわち、各画像間の対応点を適切に特定することができるため、頑健な校正を行うことができる。
As described above, the
また、受付部131は、同心を有する二つの円から構成されるマーカーである円マーカーが、各画像データ内に少なくとも二つは含まれる複数の画像データを受け付ける。校正部132は、円マーカーが有するパラメータを用いて推定される円マーカーの法線を含む平面情報と、平面情報に対応する平面に含まれる二つの円マーカーの位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。
Further, the
このように、第1の実施形態に係る画像処理装置100は、円マーカーによる校正処理を行うことができる。円マーカーは、画像データとして投影された場合に、楕円パラメータを有するため、法線を推定できる。このため、画像処理装置100は、法線に基づく平面情報を容易に推定可能であり、さらに平面の法線を推定可能である。これにより、画像処理装置100は、画像データにおけるワールド座標系との対応をとることができるため、適切な校正処理を行うことができる。
As described above, the
また、受付部131は、互いの位置情報の対応関係が予め規定された複数の点であって、各画像データ内に少なくとも4つは含まれる複数の点を含んだ複数の画像データを受け付ける。校正部132は、複数の点のうち2点を結ぶ線分から2本の線分を抽出し、抽出された2本の線分を用いて推定される複数の点を含む平面情報と、平面情報に対応する平面に含まれる複数の点の位置情報の対応関係とに基づいて、複数の画像データに関する校正を行う。
Further, the
このように、第1の実施形態に係る画像処理装置100は、少なくとも4点をマーカーとして利用することもできる。このため、画像処理装置100は、互いに識別可能な情報であれば、円などの図形を用いなくとも、適切な校正処理を行うことができる。すなわち、画像処理装置100は、汎用性の高い画像処理を行うことができる。
As described above, the
また、受付部131は、四角形の形状と識別情報とを有する2次元コードが、各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。校正部132は、2次元コードが有する2辺の線分の情報を用いて推定される平面情報と、平面情報に対応する平面に含まれる少なくとも一つの2次元コードの位置情報とに基づいて、複数の画像データに関する校正を行う。
Further, the
このように、第1の実施形態に係る画像処理装置100は、2次元コードをマーカーとして用いてもよい。2次元コードは、2次元コード自体を識別する識別情報を有するため、円マーカーのようにサイズを用いて二つの円を特定せずとも、一つのマーカーで識別される。このため、画像処理装置100は、少なくとも一つの2次元コードに基づいて、校正処理を行うことができる。すなわち、画像処理装置100は、複数個のマーカーの対応関係を算出するといった処理負担を軽減させることができる。
As described above, the
〔2.第2の実施形態〕
〔2−1.画像処理の一例〕
続いて、本願に係る第2の実施形態について説明する。上述してきた第1の実施形態において、画像処理装置100が、例えば、射影変換後の画像データに含まれる2つのマーカーの相対的なサイズやマッピング情報に基づいて、各々のマーカーを特定する処理を説明した。あるいは、画像処理装置100が、2次元コードに含まれる識別情報や、4つ以上の点における座標情報等によりマーカーを特定する処理を説明した。
[2. Second Embodiment]
[2-1. An example of image processing]
Subsequently, a second embodiment according to the present application will be described. In the first embodiment described above, the
ここで、第2の実施形態に係る画像処理装置200(図12参照)は、マーカーが有する所定の特徴情報であって、射影変換後においても不変となるような特徴情報を予め取得し、取得した特徴情報に基づいてマーカーを識別してもよい。かかる処理によれば、画像処理装置200は、画像データに2以上のマーカーが含まれていなくても、マーカーを識別すること、すなわち、マーカーを一意に特定することができる。この点について、図11を用いて説明する。図11は、第2の実施形態に係る画像処理の一例を示す図である。なお、第2の実施形態に係る画像処理装置200は、マーカーに関する情報を予め取得する処理と、マーカーを特定する処理以外は、第1の実施形態に係る画像処理装置100と同様の処理を行う。
Here, the image processing apparatus 200 (see FIG. 12) according to the second embodiment acquires and acquires in advance the characteristic information that the marker has and that does not change even after the projective transformation. The marker may be identified based on the feature information. According to such processing, the
図11において、画像処理装置200は、図8で示したような、シート70に含まれる円マーカーM01、M02、M03及びM04に関する情報を取得するものとする。画像処理装置200は、円マーカーM01、M02、M03及びM04に関する情報として、各円マーカーにおける外円と内円の径の長さ、また、外円と内円の径の長さから導出される比率を取得する。さらに、画像処理装置200は、外円と内円の各径の長さから導出される比率の比、すなわち、円マーカーにおける複比を取得する。
In FIG. 11, the
ここで、シート70に描かれた円マーカーM01と、撮像装置によって撮像されることにより作成される画像データ内における円マーカーM01とでは、画像データを射影変換したとしても、撮像の状況によってサイズが異なることが想定される。しかし、円マーカー自体の大きさが変化したとしても、外円と内円との径の複比として示される値は、射影変換後であっても不変な値となる。第2の実施形態において、画像処理装置200は、この性質を利用して、円マーカーを特定する。
Here, the size of the circular marker M01 drawn on the
図11では、円マーカーM01を例に挙げて説明する。図11に示す例において、画像処理装置200は、円マーカーM01を、内円80と外円85という同心の2円として認識する。図11の例では、内円80及び外円85の中心を点Cとし、中心を通る直線と内円80との交点を点B及び点D、中心を通る直線と外円85との交点を点A及び点Eとする。すなわち、内円80の直径は線BD、外円85の直径は線AEとして示される。また、内円80の半径は線BC又は線CD、外円85の半径は線AC又は線CEとして示される。
In FIG. 11, the circle marker M01 will be described as an example. In the example shown in FIG. 11, the
上記のように、画像処理装置200は、各円マーカーの特定に関して、射影空間において、線分の複比(長さの比の比)が不変という性質を利用する。なお、画像処理装置200は、2つの同心円の長さの比の比を取得することができるのであれば、点A〜Eのうち、いずれの点間の長さを採用してもよい。例えば、画像処理装置200は、(線AC/線AD)と(線BC/線BD)との比率が不変であることを利用する。言い換えれば、画像処理装置200は、(線AC×線BD)/(線AD×線BC)の値が不変であることを利用する。
As described above, the
この場合、画像処理装置200は、予めシート70を画像データとして取得し、マーカーとして特定する対象である円マーカーM01の各点間の長さを取得する。一例として、画像処理装置200は、内円80と外円85の径の比として、(線AC/線AD)や(線BC/線BD)等の比を取得する。そして、画像処理装置200は、点A〜Eのいずれかの点間で算出した特徴情報である複比の値を、円マーカーM01に付与する識別情報であるマーカーIDと対応付けて登録する。画像処理装置200は、円マーカーM02、M03及びM04についても、同様に登録を行う。この場合、シート70に描かれる円マーカーM01、M02、M03及びM04は、各々、中心を通る直線と外円及び内円との交点と、中心との点間の長さにおいて、画像処理装置200が認識可能な程度に差異があるものとする。すなわち、画像処理装置200は、各々の円マーカーにおいて交点と中心との点間の線分で示される複比について、異なる値として取得しているものとする。
In this case, the
そして、画像処理装置200は、円マーカーM01、M02、M03及びM04のいずれかが含まれる画像データを取得した場合には、楕円で示されていた円マーカーを正面から認識できるよう、当該画像データを射影変換する。なお、この場合の射影変換は、第1の実施形態で説明したような、校正処理を経て複数の画像に共通するカメラ特徴情報を算出した上での射影変換をすることを要さず、一つの画像データにおいて、単に楕円を真円に置き換える射影変換のみを行えばよい。第1の実施形態において述べたように、マーカーが真円である場合、画像データ内のマーカーは楕円で表される。すなわち、画像処理装置200は、マーカーが真円であることがわかっている場合、画像データ中の楕円を検出し、検出した楕円を真円に戻すような射影変換を行えばよい。
Then, when the
そして、画像処理装置200は、予め取得していた円マーカーの複比と、射影変換された画像データに含まれる円マーカーの複比とを照合することにより、画像データに含まれる円マーカーが、円マーカーM01、M02、M03及びM04のいずれの円マーカーであるかを特定する。画像処理装置200は、例えば、ユーザから受け付けた複数の画像データにおいて上記処理を行うことにより、各画像データに含まれるマーカーを正確に特定することができる。
Then, the
上述してきたように、第2の実施形態に係る画像処理装置200は、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける。そして、画像処理装置200は、受け付けられた画像データに含まれる楕円状の図形が真円となるよう画像データを射影変換し、射影変換後の真円が有する特徴情報に基づいて、当該真円を画像データの所定の処理に用いるためのマーカーとして特定する。
As described above, the
具体的には、画像処理装置200は、マーカーとして、中心が共通する内円と外円とを有するマーカーに関する情報を取得するとともに、特徴情報として、マーカーの中心を通る直線と、内円と外円と、の各々の交点及び中心のいずれかの点間の長さ同士の比の比を示す複比の値を取得する。そして、画像処理装置200は、画像データを射影変換することによって得られるマーカーにおいて、取得された複比に対応する点間における複比と、予め取得していたマーカーにおける複比とを照合することにより、画像データに含まれるマーカーを特定する。
Specifically, the
このように、第2の実施形態に係る画像処理装置200は、マーカーに関して、射影変換された後の画像データにおいても不変となる特徴情報を取得し、かかる特徴情報を照合することでマーカーを特定する。これにより、画像処理装置200は、元画像データにマーカーが一つだけ含まれている場合であっても、マーカーを一意に特定することができる。言い換えれば、画像処理装置200は、2つのマーカーの相対的な情報を用いることなく、画像データに含まれているマーカーを特定できる。これにより、画像処理装置200は、各画像データに含まれる円マーカーが円マーカーM01であるか、円マーカーM02であるかといった特定を正確に行うことができるため、複数の画像間におけるマーカーと被写体の位置関係を正確に把握することができる。すなわち、画像処理装置200は、一般ユーザによって撮像されたような、校正が的確に行われていない複数の元画像データからでも、違和感のない自由視点画像を生成することができる。また、画像処理装置200は、予めシート70のようなマーカーに関する情報を取得することができるため、マーカーの特定処理において、一般ユーザに負担となるような処理を行わせることを要しない。結果として、画像処理装置200は、一般ユーザに自由視点画像を有効に活用させることができる。
As described above, the
〔2−2.画像処理装置の構成〕
次に、図12を用いて、第2の実施形態に係る画像処理装置200の構成について説明する。図12は、第2の実施形態に係る画像処理装置200の構成例を示す図である。図12に示すように、画像処理装置200は、通信部210と、記憶部220と、制御部230とを有する。なお、第1の実施形態で説明した画像処理装置100が行う処理と同様の処理や、同様の処理を行う処理部については、説明を省略する。
[2-2. Image processing device configuration]
Next, the configuration of the
(マーカー情報記憶部221について)
マーカー情報記憶部221は、マーカーに関する情報を記憶する。ここで、図13に、第2の実施形態に係るマーカー情報記憶部221の一例を示す。図13に示した例では、マーカー情報記憶部221は、「マーカーID」、「特徴情報」といった項目を有する。
(About marker information storage unit 221)
The marker
「マーカーID」は、マーカーを識別するための識別情報を示す。「特徴情報」は、マーカーを特定するために用いられる情報であり、射影変換後においても不変となる情報を示す。なお、図13に示した例では、特徴情報は、「L01」など概念的に表記しているが、実際には、特徴情報の項目には、マーカーを特定するための数値等が記憶される。特徴情報の一例としては、同心を有する2円の径の比率に基づいて導出される複比の値である。 The "marker ID" indicates identification information for identifying the marker. "Characteristic information" is information used for specifying a marker, and indicates information that does not change even after a projective transformation. In the example shown in FIG. 13, the feature information is conceptually described as "L01" or the like, but in reality, a numerical value or the like for specifying a marker is stored in the feature information item. .. As an example of the characteristic information, it is a value of a cross ratio derived based on the ratio of diameters of two concentric circles.
すなわち、図13では、マーカーID「M01」で識別されるマーカーが、特徴情報として「L01」という情報を有していることを示している。 That is, in FIG. 13, it is shown that the marker identified by the marker ID “M01” has the information “L01” as the feature information.
(制御部230について)
制御部230は、図12に示すように、取得部231と、受付部232と、特定部233と、校正部234と、生成部235と、配信部236とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図12に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図12に示した接続関係に限られず、他の接続関係であってもよい。
(About control unit 230)
As shown in FIG. 12, the
(取得部231について)
取得部231は、マーカーに関する情報を取得する。具体的には、取得部231は、円を構成要素に含むマーカーに関する情報であって、マーカーを特定するための特徴情報を取得する。例えば、取得部231は、ユーザに提供するシート70に描かれた円マーカーM01の画像データを取得する。そして、取得部231は、円マーカーM01に識別情報であるマーカーIDを付すとともに、マーカー情報記憶部221に記憶する。
(About acquisition unit 231)
The
また、取得部231は、マーカーとして、中心が共通する内円と外円とを有するマーカーに関する情報を取得するとともに、特徴情報として、マーカーの中心を通る直線と、内円及び外円と、の各々の交点及び当該中心のいずれかの点間の長さの比の比を示す複比を取得する。なお、取得部231は、内円と外円との2円を関係付ける線分により示される複比を取得する。図11の例でいえば、取得部231は、線分ADと線分ACとの比や、線分BCと線分BDとの比を取得して複比を取得する一方で、線分ABや線分DEについては複比を求める線分として採用しない。
Further, the
(受付部232について)
受付部232は、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける。例えば、第2の実施形態に係る受付部232は、被写体60をシート70の上に乗せて撮像された画像データであって、円マーカーM01〜M04の少なくともいずれか一つが含まれる画像データを取得する。円マーカーM01〜M04は真円であるため、撮像された円マーカーM01〜M04は、楕円上の図形となる。すなわち、受付部232が受け付ける画像データには、楕円上の図形が含まれることとなる。受付部232は、受け付けた画像データを画像データ記憶部222に記憶する。
(About reception desk 232)
The
また、受付部232は、視点位置が異なる複数の画像データであって、マーカーとして特定される図形が各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。第1の実施形態と同様に、校正部234や、生成部235は、受付部232によって受け付けられた複数の画像データに基づいて、自由視点画像を生成する。
Further, the
また、受付部232は、ユーザ端末10から複数の画像データの入稿を受け付けるとともに、ユーザ端末10を識別する情報を受け付ける。例えば、配信部236は、ユーザ端末10を識別する情報に基づいて、生成部235によって生成された自由視点画像をユーザ端末10に配信する。
In addition, the
(特定部233について)
特定部233は、受付部232によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう画像データを射影変換し、射影変換後の真円が有する特徴情報に基づいて、当該真円を画像データの所定の処理に用いるためのマーカーとして特定する。
(About specific part 233)
The
例えば、特定部233は、取得部231が、画像データを射影変換した後の真円が有する特徴情報と、取得部231によって取得された特徴情報とを照合することにより、画像データに含まれるマーカーを特定する。具体的には、特定部233は、画像データに含まれる2つの楕円状の図形が、同心を有する2つの真円となるよう射影変換される場合に、取得部231によって取得された複比と、当該複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される2つの真円における複比と、を照合することにより、当該画像データに含まれるマーカーを特定する。
For example, the
ここで、複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される2つの真円における複比とは、円マーカーM01において複比を算出する際に用いられた線分と対応する関係にある線分を用いて、射影変換後における2つの同心円について複比を算出することを意味する。例えば、取得部231が、図11における円マーカーM01の複比として、(線分AC×線分BD)/(線分AD×線分BC)の値を算出したとする。この場合、特定部233は、射影変換後の2つの同心円においても、円マーカーM01の場合と対応する関係となる、((外円と中心との線分)×(内円の直径))/((外円から中心を通過して内円と交差した交点)×(内円の半径))で算出される複比を求めることを意味する。
Here, the double ratio in two true circles calculated by using the length between the points used in calculating the double ratio and the points having a corresponding relationship is calculated by the circle marker M01. It means that the cross ratio is calculated for two concentric circles after the projective transformation by using the line segment having a corresponding relationship with the line segment used at the time of performing. For example, it is assumed that the
(校正部234について)
校正部234は、マーカーが有するパラメータに基づいて、受付部232によって受け付けられた複数の画像データに関する校正を行う。具体的には、第2の実施形態に係る校正部234は、入稿された元画像データについて所定の校正を行うことで、自由視点画像を構成する画像に変換させるための変換行列に用いられるカメラパラメータを算出する。上述のように、第2の実施形態に係る処理によれば、特定部233が、各画像データに含まれるマーカーを正確に特定できるため、校正部234は、各画像データ間における対応点としてマーカーを利用し、各画像データに関する強校正を行うことが可能となる。
(About calibration unit 234)
The
(生成部235について)
生成部235は、校正部234によって校正された複数の画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する。
(About generator 235)
The generation unit 235 generates a free viewpoint image capable of continuously displaying an image corresponding to an arbitrary viewpoint position by performing a predetermined conversion process on a plurality of image data calibrated by the
(配信部236について)
配信部236は、生成部235によって生成された自由視点画像を配信する。具体的には、第2の実施形態に係る配信部236は、生成部235によって生成され、自由視点画像記憶部223に記憶されている自由視点画像を、元画像データの入稿元であるユーザ端末10に配信する。
(About distribution department 236)
The
〔2−3.変形例〕
上述してきた第2の実施形態に係る画像処理装置200は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下に、上記の画像処理装置200の他の実施形態について説明する。
[2-3. Modification example]
The
〔2−3−1.図案を含むマーカー〕
画像処理装置200は、特徴情報として、2円の径の比率から算出される複比とは異なる特徴情報を用いて、マーカーを特定してもよい。例えば、画像処理装置200は、円マーカーの中に描かれた図案に基づいて、マーカーを特定してもよい。この点について、図14乃至図16を用いて説明する。
[2-3-1. Marker including design]
The
図14は、第2の実施形態に係るマーカーの一例を説明するための図(1)である。図14では、第2の実施形態に係るマーカーの一例として、円マーカーM10を示して説明する。図14に示すように、円マーカーM10は、内円81と、外円86と、図案90とを構成要素とするマーカーである。図案90は、「忍」という漢字をモチーフとした図案である。画像処理装置200は、円マーカーM10に関する情報として、例えば、円マーカーM10が真円で構成されていることや、円マーカーM10を構成する画素データ等を取得するものとする。
FIG. 14 is a diagram (1) for explaining an example of the marker according to the second embodiment. In FIG. 14, a circular marker M10 will be shown and described as an example of the marker according to the second embodiment. As shown in FIG. 14, the circle marker M10 is a marker whose constituent elements are the
続いて、図15を用いて、円マーカーM10が撮像装置によって撮像された状態を説明する。図15は、第2の実施形態に係るマーカーの一例を説明するための図(2)である。図15に示すように、円マーカーM10は、撮像装置によって撮像された画像データでは、楕円形状の図形として表される。画像処理装置200は、楕円形状の図形を画像データ中から検出し、検出した楕円形状の図形を射影変換する(ステップS30)。これにより、画像処理装置200は、真円で示される円マーカーM10を取得する。
Subsequently, the state in which the circular marker M10 is imaged by the imaging device will be described with reference to FIG. FIG. 15 is a diagram (2) for explaining an example of the marker according to the second embodiment. As shown in FIG. 15, the circular marker M10 is represented as an elliptical figure in the image data captured by the image pickup apparatus. The
例えば、画像処理装置200は、「忍」という図案90が、取得していた円マーカーM10に関する情報と同じ角度で認識できる場合には、画素データとの照合等により、容易に円マーカーM10を画像データ中で特定することができる。しかしながら、撮像装置によって作成された画像データ中では、円マーカーM10に係る図案90は、通常、斜めの向きに傾いて示される。このため、画像データ中の楕円形状の円マーカーM10を射影変換した際にも、図15に示すように、「忍」という図案90は、斜めに傾いて示される。この場合、画像処理装置200は、単に画素データを照合することでは、円マーカーM10を特定することができない。また、画像データ中から取得された円マーカーM10の画素データを全て回転させ、予め取得していた円マーカーM10の画素データと照合する角度を検出することは、処理負荷が大きくなる。
For example, when the
そこで、画像処理装置200は、円マーカーM10について、回転不変となる特徴情報を取得し、かかる情報を用いてマーカーの特定処理を行う。例えば、画像処理装置200は、特徴情報として、円の中心から外側へ向かう放射線上の各画素における、円の中心から外側に向かう向きへの輝度差によって示される特徴情報を利用して、マーカーを特定する。
Therefore, the
具体的には、画像処理装置200は、マーカーが有する円の中心から第1の所定距離だけ離れた箇所に複数のサンプルポイントを設ける。そして、画像処理装置200は、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示した数値を、サンプルポイントの数だけ並べたデータであるバイナリデータを特徴情報として取得する。この点について、図16を用いて説明する。
Specifically, the
図16は、第2の実施形態に係るマーカーの一例を説明するための図(3)である。図16に示すように、画像処理装置200は、円マーカーM10の中心から第1の所定距離だけ離れた位置の画素をサンプルポイントとして設ける。言い換えれば、画像処理装置200は、第1の所定距離を半径とする円周91の円周上にサンプルポイントを設ける。図16の例では、画像処理装置200は、円周91上にサンプルポイントSA01〜SA06を設ける。
FIG. 16 is a diagram (3) for explaining an example of the marker according to the second embodiment. As shown in FIG. 16, the
そして、画像処理装置200は、サンプルポイントSA01〜SA06の各々の輝度と、放射線上に第2の所定距離だけ離れた位置の各々の画素における輝度との差を求める。すなわち、画像処理装置200は、サンプルポイントSA01〜SA06と、第2の所定距離だけ離れた円周92上のサンプルポイントSA11〜SA16との輝度差を求める。
Then, the
画像処理装置200は、例えば、ポイント間の輝度差を「0」と「1」との二値で取得する。例えば、画像処理装置200は、サンプルポイントSA01の輝度に対して、サンプルポイントSA11の輝度が高い場合、サンプルポイントSA11に「1」の数値を与える。一方、画像処理装置200は、サンプルポイントSA01の輝度に対して、サンプルポイントSA11の輝度が低い場合、サンプルポイントSA11に「0」の数値を与える。画像処理装置200は、同様にして、サンプルポイントSA12〜SA16についても「0」か「1」の数値を与える。
The
そして、画像処理装置200は、円周92に沿って、サンプルポイントSA11〜SA16に与えられた数値を並べる。これにより、画像処理装置200は、円周92上のサンプルポイントSA11〜SA16における数値を並べたバイナリデータを求めることができる。具体的には、画像処理装置200は、円周92におけるバイナリデータとして、「00100」や、「10100」等の数値の羅列を取得する。画像処理装置200は、かかる処理を繰り返し、円周93についても、サンプルポイントSA01〜SA06から放射状に外側に伸ばした線との交点において、直前のサンプルポイントSA11〜SA16との輝度差を求める。これにより、画像処理装置200は、円マーカーM01におけるバイナリデータを取得する。なお、画像処理装置200は、サンプルポイントの数や、円周の数については、任意に設計可能である。例えば、画像処理装置200は、サンプルポイントSA11と、更に外側に仮定する円周上のサンプルポイントであるサンプルポイントSA21との輝度差を取得してもよい。画像処理装置200が、二値化データを取得するための円周とサンプルポイントを増やすほど、マーカーの特定処理の精度は向上する。
Then, the
このように、画像処理装置200は、円マーカーM10について、特徴情報として、バイナリデータを予め取得する。また、画像処理装置200は、図16で示したように、射影変換後の円マーカーM10についても、バイナリデータを取得する。そして、画像処理装置200は、バイナリデータ同士の類似度を求めることで、マーカーを特定する。
As described above, the
なお、上述のように、円マーカーM10が撮像された場合、射影変換後の円マーカーM10の向きは、予め取得していた正解データとなる円マーカーM10とは異なる向きとして検出される。そのため、画像処理装置200は、バイナリデータを用いて、マーカーの特徴を示すヒストグラム(histogram)を作成するようにしてもよい。
As described above, when the circle marker M10 is imaged, the direction of the circle marker M10 after the projective transformation is detected as a direction different from the circle marker M10 which is the correct answer data acquired in advance. Therefore, the
画像処理装置200は、ヒストグラムにおいて、サンプルポイントを設ける仮想的な円周の数でビン(bin)を決定する。そして、画像処理装置200は、各円周上のサンプルポイントにおける二値化データが「1」の場合に、対応するビンの度数を1度増加させることで、ヒストグラムを作成する。そして、画像処理装置200は、各円周及び各サンプルポイントにおけるデータを入力したのち、ビンの総和が1となるよう正規化する。
The
画像処理装置200は、例えば、下記式(2)を用いて、予め取得していた正解データとなる円マーカーM10のヒストグラムと、射影変換後の円マーカーM10のヒストグラムとの類似度を求める。
The
上記式(2)において、「Similarity」は、類似度の数値を示す。「inputi」は、射影変換後の円マーカーM10におけるi番目のビンの度数を示す。「referencei」は、正解データである円マーカーM10におけるi番目のビンの度数を示す。また、「n」は、ビンの数を示す。「min」は、いずれかの数値の最小値をとることを示す。 In the above formula (2), "Similarity" indicates a numerical value of similarity. “Input i ” indicates the frequency of the i-th bin in the circular marker M10 after the projective transformation. “Reference i ” indicates the frequency of the i-th bin in the circle marker M10, which is the correct answer data. Further, "n" indicates the number of bins. “Min” indicates that the minimum value of any of the numerical values is taken.
上記式(2)に示すように、射影変換後の円マーカーM10におけるi番目のビンの度数と、正解データである円マーカーM10におけるi番目のビンの度数とが、全てのビンにおいて一致する場合には、類似度は、最大値である「1」となる。なお、類似度がとりうる最小値は「0」となる。 As shown in the above equation (2), when the frequency of the i-th bin in the circle marker M10 after the projective transformation and the frequency of the i-th bin in the circle marker M10 which is the correct answer data match in all the bins. The similarity is "1", which is the maximum value. The minimum value that the similarity can take is "0".
このように、画像処理装置200は、予め取得していた円マーカーM10のバイナリデータと、射影変換後の円マーカーM10のバイナリデータに基づいて、マーカーの類似度を算出する。そして、画像処理装置200は、類似度が所定の閾値を超える場合に、画像データに含まれる楕円形状の図形が、円マーカーM10を示す図形であることを特定する。
In this way, the
このように、画像処理装置200は、円内部の図案に基づいて、図案の輝度差を放射線上において比較する手法によって、マーカーを特定する処理を行うことができる。かかる手法によれば、画像処理装置200は、回転不変の特徴情報として、円マーカーを特定することができる。また、かかる手法では、輝度差を判定することにより、単にマーカーの画素データを比較するよりも、精度を向上させることができる。すなわち、マーカーは、撮像装置のカメラパラメータや、撮像される際の照明の当たり具合などにより、そもそもの画素の輝度が変化する場合が考えられる。このため、正解データにおけるマーカーの輝度の数値と、射影変換後のマーカーの輝度の数値を単純に比較しても、マーカーを精度よく特定することができない場合がある。一方で、かかる手法では、輝度そのものの数値ではなく、輝度の差を二値化したデータを用いるため、撮像後の画像データ内のマーカーであっても、比較的高い精度でマーカーを特定することができる。
As described above, the
なお、画像処理装置200は、さらにマーカーの特定の精度を向上させるため、以下のような手法を採用してもよい。例えば、画像処理装置200は、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示す場合に、サンプルポイントとなる画素の周囲の画素を含む輝度の平均と、ポイントとなる画素の周囲の画素を含む輝度の平均と、を比較することで、バイナリデータを取得するようにしてもよい。すなわち、画像処理装置200は、サンプルポイントとして抽出した画素(1ピクセル)のみの輝度を用いるのではなく、例えば、当該画素の周囲を含めた数ピクセル分の輝度の平均値と、次の円周におけるサンプルポイントの周囲を含めた数ピクセル分の輝度の平均値と、を処理に用いる。これにより、画像処理装置200は、画像データ内において特異な点を誤ってサンプリングするといった、処理におけるノイズを抑制することができるため、特定処理の精度を向上させることができる。
The
また、画像処理装置200は、さらにマーカーの特定の精度を向上させるため、以下のような手法を採用してもよい。例えば、画像処理装置200は、類似度が算出されたのちに、類似度を算出する基となったサンプルポイントの位置から、仮定した円(例えば、円周91など)に沿って所定の角度だけずらして新たなサンプルポイントを設け、新たなサンプルポイントに基づく新たなバイナリデータを取得する。さらに、画像処理装置200は、射影変換後の円マーカーが有するバイナリデータと、取得された新たなバイナリデータとの類似度を求めることを所定の回数だけ繰り返す。そして、画像処理装置200は、求められた類似度のうち最大となる類似度に基づいて、画像データに含まれるマーカーを特定するようにしてもよい。
Further, the
このように、画像処理装置200は、標本としてサンプルポイントを設け、類似度を算出する処理を行った後に、設けたサンプルポイントから所定の角度(例えば、2度など)だけずらした点を新たなサンプルポイントとして設け、新たなサンプルポイントによる処理を行う。これにより、画像処理装置200は、設けるサンプルポイントの分布による誤差を抑制することができるため、特定処理の精度を向上させることができる。
In this way, the
また、上記では、画像処理装置200が、第1の所定距離や第2の所定距離といった概念を用いて仮想的な円周を想定する例を示した。ここで、画像データ内に含まれるマーカーと、予め取得されるマーカーとでは、図形の大きさが異なることが想定される。そのため、画像処理装置200は、第1の所定距離や第2の所定距離として、マーカーの構成要素となる最も大きな円の直径を所定の割合で等分した位置などを用いるようにしてもよい。例えば、画像処理装置200は、マーカーの構成要素となる最も大きな円(図14の円マーカーM10の例では、外円86)の直径を10等分し、最も中心に近い位置から、仮想的な円周を想定していってもよい。また、画像処理装置200は、上記のような図案に基づく特定を行う場合、マーカーは必ずしも2つの同心円を構成要素とする必要はなく、1つの円を構成要素とし、その内部に図案が描かれたマーカーを用いるようにしてもよい。
Further, in the above, an example is shown in which the
〔2−3−2.マーカーの特定〕
第2の実施形態では、画像処理装置200は、予め円マーカーにおける回転不変の特徴情報を取得しておくことによって、画像データ内のマーカーを特定する処理を説明した。かかる処理は、必ずしも自由視点画像の生成に用いられるのみならず、単に、画像データ内のマーカーを特定する処理として用いられてもよい。すなわち、画像処理装置200は、自由視点画像の生成のために、複数の画像データに共通して含まれるマーカーを特定するのみならず、1枚の画像データにおけるビジュアルマーカーを特定する処理として、上記手法を採用してもよい。
[2-3-2. Identifying markers]
In the second embodiment, the
〔2−4.効果〕
上述してきたように、第2の実施形態に係る画像処理装置200は、受付部232と、特定部233とを有する。受付部232は、所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける。特定部233は、受付部232によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう画像データを射影変換し、射影変換後の真円が有する特徴情報に基づいて、当該真円を、画像データの所定の処理に用いるためのマーカーとして特定する。
[2-4. effect〕
As described above, the
このように、第2の実施形態に係る画像処理装置200は、射影変換後であっても不変な特徴情報を用いることにより、画像データ内の図形をマーカーとして一意に特定することができる。これにより、画像処理装置200は、一般ユーザによって撮像されたような、校正が的確に行われていない複数の元画像データからでも、違和感のない自由視点画像を生成することができるため、一般ユーザに自由視点画像を有効に活用させることができる。
As described above, the
また、第2の実施形態に係る画像処理装置200は、円を構成要素に含むマーカーに関する情報であって、当該マーカーを特定するための特徴情報を取得する取得部231をさらに有する。特定部233は、射影変換後の真円が有する特徴情報と、取得部231によって取得された特徴情報とを照合することにより、画像データに含まれるマーカーを特定する。
Further, the
このように、第2の実施形態に係る画像処理装置200は、予めマーカーに関する情報を取得し、取得した情報と、射影変換後の図形における特徴情報とを照合することで、マーカーを特定する。これにより、画像処理装置200は、ユーザがマーカーとして利用している図形を精度よく特定することができる。
In this way, the
また、取得部231は、中心が共通する内円と外円とを有するマーカーに関する特徴情報として、マーカーの中心を通る直線と、内円及び外円と、の各々の交点及び当該中心のいずれかの点間の長さの比の比を示す複比を取得する。特定部233は、画像データに含まれる2つの楕円状の図形が、同心を有する2つの真円となるよう射影変換される場合に、取得部231によって取得された複比と、当該複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される2つの真円における複比と、を照合することにより、画像データに含まれるマーカーを特定する。
Further, as feature information regarding a marker having an inner circle and an outer circle having a common center, the
このように、第2の実施形態に係る画像処理装置200は、射影空間における不変の特徴情報として、2つの同心円の長さの複比を利用する。これにより、画像処理装置200は、画像データ内のマーカーを精度よく特定することができる。また、画像処理装置200は、予め取得しておくマーカーの特徴情報として、2つの同心円の径の長さを変えることのみで、マーカーを特定する情報を得ることができるため、識別可能なマーカーを容易に作成することができる。
As described above, the
また、取得部231は、円の内部に所定の図形が描かれたマーカーに関する特徴情報として、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差によって示される特徴情報を取得する。特定部233は、射影変換後の真円が有する特徴情報と、取得部231によって取得された特徴情報とを照合することにより、画像データに含まれるマーカーを特定する。
Further, the
このように、第2の実施形態に係る画像処理装置200は、特定処理において、マーカーの画素の輝度そのものを用いるのではなく、放射線上の画素の輝度差を用いる。このため、画像処理装置200は、撮像装置のカメラパラメータや、撮像時の照明の状態等に左右されにくい、精度のよい特定処理を行うことができる。
As described above, the
また、取得部231は、マーカーが有する円の中心から第1の所定距離だけ離れた箇所に複数のサンプルポイントを設け、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示した数値を、当該サンプルポイントの数だけ並べたデータであるバイナリデータを特徴情報として取得する。特定部233は、バイナリデータを取得した処理と同様の処理を射影変換後の真円に対して実行することで、射影変換後の真円が有するバイナリデータを算出し、射影変換後の真円が有するバイナリデータと、取得部231によって取得されたバイナリデータとの類似度を求めることにより、画像データに含まれるマーカーを特定する。
Further, the
このように、第2の実施形態に係る画像処理装置200は、正解データとなるマーカーのバイナリデータと、射影変換後の図形のバイナリデータとの類似度を求めることで、マーカーを特定する。これにより、画像処理装置200は、マーカーの画素データ全てを比較するといった、負担の大きな処理を行うことなく、精度よくマーカーを特定することができる。
As described above, the
また、取得部231は、サンプルポイントと、サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示す場合に、サンプルポイントとなる画素の周囲の画素を含む輝度の平均と、ポイントとなる画素の周囲の画素を含む輝度の平均と、を比較することで、バイナリデータを取得する。
Further, when the
このように、第2の実施形態に係る画像処理装置200は、画像データ内において特異な点を誤ってサンプリングするといった、処理におけるノイズを抑制することができるため、特定処理の精度を向上させることができる。
As described above, the
また、取得部231は、特定部233によって類似度が算出されたのちに、類似度を算出する基となったサンプルポイントの位置から、円に沿って所定の角度だけずらして新たなサンプルポイントを設け、新たなサンプルポイントに基づく新たなバイナリデータを取得する。特定部233は、射影変換後の真円が有するバイナリデータと、取得部231によって取得された新たなバイナリデータとの類似度を求めることを所定の回数繰り返し、求められた類似度のうち最大となる類似度に基づいて、画像データに含まれるマーカーを特定する。
Further, after the similarity is calculated by the
このように、第2の実施形態に係る画像処理装置200は、サンプルポイントをずらしながら、類似度を数回算出するといった手法を採用してもよい。これにより、画像処理装置200は、設けるサンプルポイントの分布による誤差を抑制することができるため、特定処理の精度を向上させることができる。
As described above, the
また、第2の実施形態に係る画像処理装置200は、マーカーが有するパラメータに基づいて、画像データに関する校正を行う校正部234と、校正部234によって校正された画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する生成部235と、をさらに有する。この場合、受付部232は、視点位置が異なる複数の画像データであって、マーカーとして特定される図形が各画像データ内に少なくとも一つは含まれる複数の画像データを受け付ける。校正部234は、受付部232によって受け付けられた複数の画像データに関する校正を行う。生成部235は、校正部234によって校正された複数の画像データに所定の変換処理を行うことにより、自由視点画像を生成する。
Further, the
このように、第2の実施形態に係る画像処理装置200は、特定されたマーカーを用いて校正処理を行い、自由視点画像を生成する。これにより、画像処理装置200は、強校正が行われていない撮像装置によって取得された元画像データからも、任意の視点からの表示を自然に行うことのできる自由視点画像を生成することができる。
As described above, the
また、第2の実施形態に係る画像処理装置200は、生成部235によって生成された自由視点画像を配信する配信部236をさらに有する。受付部232は、ユーザ端末10から複数の画像データの入稿を受け付けるとともに、ユーザ端末10を識別する情報を受け付ける。配信部236は、受付部232によって受け付けられたユーザ端末10を識別する情報に基づいて、ユーザ端末10に自由視点画像を配信する。
In addition, the
このように、第2の実施形態に係る画像処理装置200は、生成した自由視点画像をユーザが利用するユーザ端末10に配信する。これにより、画像処理装置200は、一般ユーザの自由視点画像の活用を促進させることができる。
As described above, the
また、生成部235は、生成した自由視点画像を、当該自由視点画像の元となる複数の画像データを入稿したユーザ端末10もしくはユーザ端末10を利用するユーザを識別する識別情報、又は、ユーザが利用するサービスにおける出品情報の少なくともいずれか一つと対応付けて、所定の記憶部に格納する。
In addition, the generation unit 235 uses the generated free-viewpoint image as identification information for identifying the
このように、第2の実施形態に係る画像処理装置200は、ユーザを識別する情報とともに自由視点画像を記憶部220内に格納する。そして、画像処理装置200は、例えば、要求に応じて、サービス側に自由視点画像を配信するようにしてもよい。これにより、画像処理装置200は、多様な要求に応答して自由視点画像を利用させることができるため、よりユーザに自由視点画像を有用に利用させることができる。
As described above, the
〔3.構成の変更〕
また、上述した各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[3. Configuration change]
Further, among the processes described in each of the above-described embodiments, all or a part of the processes described as being automatically performed may be manually performed, or may be described as being performed manually. It is also possible to automatically perform all or part of the treatment by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した校正部132と生成部133とは統合されてもよい。また、画像処理装置100(画像処理装置200も含む。以下同様)は、ユーザ等の利用者とデータのやりとりを主に行うフロントエンドサーバと、生成処理等を行うバックエンドサーバとに分散される態様であってもよい。この場合、フロントエンドサーバは、少なくとも、受付部131と配信部134とを有する。また、バックエンドサーバは、少なくとも、校正部132と生成部133とを有する。また、画像処理装置100は、記憶部120を内部に備えるのではなく、外部のストレージサーバを利用する態様であってもよい。
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. It can be integrated and configured. For example, the
また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.
〔4.ハードウェア構成〕
また、上述してきた各実施形態に係る画像処理装置は、例えば図17に示すような構成のコンピュータ1000によって実現される。以下、画像処理装置100を例に挙げて説明する。図17は、画像処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[4. Hardware configuration]
Further, the image processing apparatus according to each of the above-described embodiments is realized by, for example, a
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が画像処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
For example, when the
〔5.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[5. Others]
Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other improved forms.
また、上述した画像処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
Further, the
また、特許請求の範囲に記載した「手段」は、「部(section、module、unit)」や「回路」などに読み替えることができる。例えば、生成手段は、生成部や生成回路に読み替えることができる。 Further, the "means" described in the claims can be read as "section, module, unit", "circuit" and the like. For example, the generation means can be read as a generation unit or a generation circuit.
1 画像処理システム
10 ユーザ端末
100 画像処理装置
110 通信部
120 記憶部
121 画像データ記憶部
122 自由視点画像記憶部
130 制御部
131 受付部
132 校正部
133 生成部
134 配信部
200 画像処理装置
210 通信部
220 記憶部
221 マーカー情報記憶部
222 画像データ記憶部
223 自由視点画像記憶部
230 制御部
231 取得部
232 受付部
233 特定部
234 校正部
235 生成部
236 配信部
1
Claims (10)
所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付部と、
前記受付部によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得部によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、一のマーカーに基づく所定の処理を当該画像データに対して行う際に、当該真円を当該所定の処理に用いるためのマーカーとして特定する特定部と、
を備えたことを特徴とする画像処理装置。 Information about a marker that includes a circle as a component and has a predetermined figure drawn inside the circle, and binarizes the difference in brightness between two pixels existing on the radiation from the center of the circle to the outside. An acquisition unit that acquires the information indicated by the indicated numerical values as the feature information of the marker, and
An image data created by being imaged by a predetermined imaging device, and a reception unit that accepts image data including an elliptical figure.
The image data is projected and transformed so that the elliptical figure included in the image data received by the receiving unit becomes a perfect circle, and the feature information of the perfect circle after the projecting conversion and the features acquired by the acquisition unit By collating the information and obtaining the similarity between the feature information, when performing a predetermined process based on one marker on the image data, the perfect circle can be used as a marker for the predetermined process. Specific part to identify and
An image processing device characterized by being equipped with.
中心が共通する内円と外円とを有するマーカーに関する特徴情報として、当該マーカーの中心を通る直線と、内円及び外円と、の各々の交点及び当該中心のいずれかの点間の長さの比の比を示す複比を取得し、
前記特定部は、
前記画像データに含まれる2つの楕円状の図形が、同心を有する2つの真円となるよう射影変換される場合に、前記取得部によって取得された複比と、当該複比を算出する際に用いられた点間と対応する関係にある点間の長さを用いて算出される前記2つの真円における複比と、を照合することにより、当該画像データに含まれるマーカーを特定する、
ことを特徴とする請求項1に記載の画像処理装置。 The acquisition unit
As characteristic information about a marker having an inner circle and an outer circle having a common center, the length between the intersection of the straight line passing through the center of the marker, the inner circle and the outer circle, and any point of the center. Obtain a cross-ratio that indicates the ratio of
The specific part is
When the two elliptical figures included in the image data are projected and transformed into two concentric circles, the cross ratio acquired by the acquisition unit and the cross ratio are calculated. By collating the cross-ratio in the two perfect circles calculated by using the length between the points used and the length between the points having a corresponding relationship, the marker included in the image data is specified.
The image processing apparatus according to claim 1.
前記マーカーが有する円の中心から第1の所定距離だけ離れた箇所に複数のサンプルポイントを設け、当該サンプルポイントと、当該サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示した数値を、当該サンプルポイントの数だけ並べたデータであるバイナリデータを前記特徴情報として取得し、
前記特定部は、
前記バイナリデータを取得した処理と同様の処理を射影変換後の真円に対して実行することで、当該射影変換後の真円が有するバイナリデータを算出し、当該射影変換後の真円が有するバイナリデータと、前記取得部によって取得されたバイナリデータとの類似度を求めることにより、前記画像データに含まれるマーカーを特定する、
ことを特徴とする請求項1又は2に記載の画像処理装置。 The acquisition unit
A plurality of sample points are provided at a position separated by a first predetermined distance from the center of the circle of the marker, and the sample point and a point separated from the sample point by a second predetermined distance outward. Binary data, which is data obtained by arranging the numerical values shown by binarizing the brightness difference by the number of the sample points, is acquired as the feature information.
The specific part is
By executing the same process as the process of acquiring the binary data on the perfect circle after the projection conversion, the binary data of the perfect circle after the projection conversion is calculated, and the perfect circle after the projection conversion has. By obtaining the similarity between the binary data and the binary data acquired by the acquisition unit, the marker included in the image data is specified.
The image processing apparatus according to claim 1 or 2.
前記サンプルポイントと、当該サンプルポイントから外側へ向かって第2の所定距離だけ離れたポイントと、の輝度差を二値化して示す場合に、サンプルポイントとなる画素の周囲の画素を含む輝度の平均と、当該ポイントとなる画素の周囲の画素を含む輝度の平均と、を比較することで、前記バイナリデータを取得する、
ことを特徴とする請求項3に記載の画像処理装置。 The acquisition unit
When the brightness difference between the sample point and the point separated from the sample point by a second predetermined distance outward is shown as a binary, the average brightness including the pixels around the pixel serving as the sample point. And the average brightness including the pixels around the pixel at the point are compared to obtain the binary data.
The image processing apparatus according to claim 3.
前記特定部によって前記類似度が算出されたのちに、当該類似度を算出する基となったサンプルポイントの位置から、前記円に沿って所定の角度だけずらして新たなサンプルポイントを設け、新たなサンプルポイントに基づく新たなバイナリデータを取得し、
前記特定部は、
前記射影変換後の真円が有するバイナリデータと、前記取得部によって取得された新たなバイナリデータとの類似度を求めることを所定の回数繰り返し、求められた類似度のうち最大となる類似度に基づいて、前記画像データに含まれるマーカーを特定する、
ことを特徴とする請求項3又は4に記載の画像処理装置。 The acquisition unit
After the similarity is calculated by the specific unit, a new sample point is provided by shifting the position of the sample point from which the similarity is calculated by a predetermined angle along the circle. Get new binary data based on sample points,
The specific part is
The similarity between the binary data of the perfect circle after the projective transformation and the new binary data acquired by the acquisition unit is repeatedly obtained a predetermined number of times to obtain the maximum similarity among the obtained similarity. Identify the markers contained in the image data based on
The image processing apparatus according to claim 3 or 4.
前記校正部によって校正された画像データに所定の変換処理を行うことにより、任意の視点位置に対応する画像を連続的に表示可能である自由視点画像を生成する生成部と、
をさらに備え、
前記受付部は、
視点位置が異なる複数の画像データであって、前記マーカーとして特定される図形が各画像データ内に少なくとも一つは含まれる複数の画像データを受け付け、
前記校正部は、
前記受付部によって受け付けられた複数の画像データに関する校正を行い、
前記生成部は、
前記校正部によって校正された複数の画像データに所定の変換処理を行うことにより、前記自由視点画像を生成する、
ことを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。 A proofreading unit that calibrates image data based on the parameters of the marker,
A generation unit that generates a free viewpoint image capable of continuously displaying an image corresponding to an arbitrary viewpoint position by performing a predetermined conversion process on the image data calibrated by the calibration unit.
With more
The reception department
A plurality of image data having different viewpoint positions and having at least one figure specified as the marker included in each image data are accepted.
The calibration unit
Proofreading the multiple image data received by the reception section
The generator
The free viewpoint image is generated by performing a predetermined conversion process on a plurality of image data calibrated by the calibration unit.
The image processing apparatus according to any one of claims 1 to 5.
をさらに備え、
前記受付部は、
端末装置から前記複数の画像データの入稿を受け付けるとともに、当該端末装置を識別する情報を受け付け、
前記配信部は、
前記受付部によって受け付けられた前記端末装置を識別する情報に基づいて、当該端末装置に前記自由視点画像を配信する、
ことを特徴とする請求項6に記載の画像処理装置。 A distribution unit that distributes a free-viewpoint image generated by the generation unit,
With more
The reception department
In addition to accepting submissions of the plurality of image data from the terminal device, it also accepts information that identifies the terminal device.
The distribution unit
Based on the information that identifies the terminal device received by the reception unit, the free viewpoint image is distributed to the terminal device.
The image processing apparatus according to claim 6.
生成した前記自由視点画像を、当該自由視点画像の元となる複数の画像データを入稿した端末装置もしくは当該端末装置を利用するユーザを識別する識別情報、又は、当該ユーザが利用するサービスにおける出品情報の少なくともいずれか一つと対応付けて、所定の記憶部に格納する、
ことを特徴とする請求項6又は7に記載の画像処理装置。 The generator
The generated free-viewpoint image is exhibited in a terminal device that has submitted a plurality of image data that are the source of the free-viewpoint image, identification information that identifies a user who uses the terminal device, or a service used by the user. Stored in a predetermined storage unit in association with at least one of the information.
The image processing apparatus according to claim 6 or 7.
円を構成要素に含み、当該円の内部に所定の図形が描かれたマーカーに関する情報であって、円の中心から外側へ向かう放射線上に存在する2点の画素の輝度差を二値化して示した数値によって示される情報を当該マーカーの特徴情報として取得する取得工程と、
所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付工程と、
前記受付工程によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得工程によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、一のマーカーに基づく所定の処理を当該画像データに対して行う際に、当該真円を当該所定の処理に用いるためのマーカーとして特定する特定工程と、
を含んだことを特徴とする画像処理方法。 An image processing method performed by a computer
Information about a marker that includes a circle as a component and has a predetermined figure drawn inside the circle, and binarizes the difference in brightness between two pixels existing on the radiation from the center of the circle to the outside. The acquisition process of acquiring the information indicated by the indicated numerical values as the characteristic information of the marker, and
An image data created by being imaged by a predetermined imaging device, and a reception process for receiving image data including an elliptical figure,
The image data is projected and transformed so that the elliptical figure included in the image data received by the receiving step becomes a perfect circle, and the feature information of the perfect circle after the projecting conversion and the features acquired by the acquisition step. By collating the information to obtain the similarity between the feature information, when performing a predetermined process based on one marker on the image data, the perfect circle can be used as a marker for the predetermined process. Specific process to identify and
An image processing method characterized by including.
所定の撮像装置によって撮像されることで作成される画像データであって、楕円状の図形を含む画像データを受け付ける受付手順と、
前記受付手順によって受け付けられた画像データに含まれる楕円状の図形が真円となるよう当該画像データを射影変換し、射影変換後の真円が有する特徴情報と、前記取得手順によって取得された特徴情報とを照合して特徴情報同士の類似度を求めることにより、一のマーカーに基づく所定の処理を当該画像データに対して行う際に、当該真円を当該所定の処理に用いるためのマーカーとして特定する特定手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。 Information about a marker that includes a circle as a component and has a predetermined figure drawn inside the circle, and binarizes the difference in brightness between two pixels existing on the radiation from the center of the circle to the outside. The acquisition procedure for acquiring the information indicated by the indicated numerical values as the characteristic information of the marker, and
The reception procedure for accepting image data including an elliptical figure, which is image data created by being imaged by a predetermined imaging device, and
The image data is projected and converted so that the elliptical figure included in the image data received by the reception procedure becomes a perfect circle, and the feature information of the perfect circle after the projection conversion and the features acquired by the acquisition procedure. By collating the information and obtaining the similarity between the feature information, when performing a predetermined process based on one marker on the image data, the perfect circle can be used as a marker for the predetermined process. Specific steps to identify and
An image processing program characterized by having a computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017122324A JP6794316B2 (en) | 2017-06-22 | 2017-06-22 | Image processing device, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017122324A JP6794316B2 (en) | 2017-06-22 | 2017-06-22 | Image processing device, image processing method and image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016052486A Division JP6166409B1 (en) | 2016-03-16 | 2016-03-16 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017168145A JP2017168145A (en) | 2017-09-21 |
JP6794316B2 true JP6794316B2 (en) | 2020-12-02 |
Family
ID=59908958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017122324A Active JP6794316B2 (en) | 2017-06-22 | 2017-06-22 | Image processing device, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6794316B2 (en) |
-
2017
- 2017-06-22 JP JP2017122324A patent/JP6794316B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017168145A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6166409B1 (en) | Image processing apparatus, image processing method, and image processing program | |
US11308710B2 (en) | Polygonal region detection | |
US9536339B1 (en) | Processing unordered point cloud | |
Morgan et al. | Standard methods for creating digital skeletal models using structure‐from‐motion photogrammetry | |
CN109345580B (en) | Method and apparatus for processing image | |
JP2014071850A (en) | Image processing apparatus, terminal device, image processing method, and program | |
WO2022237026A1 (en) | Plane information detection method and system | |
CN110222641A (en) | The method and apparatus of image for identification | |
Andaló et al. | Efficient height measurements in single images based on the detection of vanishing points | |
US20180114339A1 (en) | Information processing device and method, and program | |
Guidi et al. | Optimal lateral displacement in automatic close-range photogrammetry | |
JP2014186520A (en) | Image processing apparatus, image processing method, and program | |
Ramli et al. | Fundus image registration technique based on local feature of retinal vessels | |
JP7032179B2 (en) | Image processing device, image processing method and image processing program | |
JP6794316B2 (en) | Image processing device, image processing method and image processing program | |
Kwon et al. | Multi-cue-based circle detection and its application to robust extrinsic calibration of RGB-D cameras | |
JP6339609B2 (en) | Image processing apparatus, image processing method, and image processing program | |
Schöning et al. | Semi-automatic ground truth annotation in videos: An interactive tool for polygon-based object annotation and segmentation | |
US20200371214A1 (en) | Determining one or more scanner positions in a point cloud | |
US10083545B2 (en) | Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data | |
JP6800671B2 (en) | Grant device, grant method and grant program | |
He et al. | Error correction of depth images for multiview time-of-flight vision sensors | |
Koufogiannis et al. | Robust integral image rectification framework using perspective transformation supported by statistical line segment clustering | |
Jung et al. | Local n-ary patterns: a local multi-modal descriptor for place categorization | |
Altuntas | Pair-wise automatic registration of three-dimensional laser scanning data from historical building by created two-dimensional images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190208 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200522 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200914 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200914 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200925 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20200929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6794316 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |