JP5925007B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5925007B2 JP5925007B2 JP2012070109A JP2012070109A JP5925007B2 JP 5925007 B2 JP5925007 B2 JP 5925007B2 JP 2012070109 A JP2012070109 A JP 2012070109A JP 2012070109 A JP2012070109 A JP 2012070109A JP 5925007 B2 JP5925007 B2 JP 5925007B2
- Authority
- JP
- Japan
- Prior art keywords
- contents
- positional relationship
- content
- estimation
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000000605 extraction Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 description 65
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010187 selection method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Description
本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、レイアウトにコンテンツを配置するために用いて好適な技術に関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to a technique suitable for use in arranging content in a layout.
従来、電子データの文書に対して、コンテンツに付随した位置情報などのメタデータを考慮してレイアウトを自動で行う技術が知られている。具体的な例として、撮影時に取得された撮影位置・方位・角度を基に、静止画像もしくは動画像を3次元の立体データ上の対応する点に表示させる技術が知られている(例えば、特許文献1参照)。また、別の例として、仮想空間の観察者に対し、観察者のもつ指示具の位置姿勢の情報を基に、情報を提供するオブジェクトを観察者の視点から見て好適な位置姿勢に配置する技術が知られている(例えば、特許文献2参照)。また、撮影画像に含まれている複数の撮影対象要素に関する実世界における位置的上下関係を示したデータを参照し、その上下関係を最もよく反映した配置となるように、画像の向きを決定する技術も知られている(例えば、特許文献3参照)。さらには、2枚の画像間でオーバーラップした部分を検出して画像を合成する技術も知られている(例えば、特許文献4参照)。 2. Description of the Related Art Conventionally, a technique for automatically laying out an electronic data document in consideration of metadata such as position information attached to content is known. As a specific example, a technique for displaying a still image or a moving image at a corresponding point on three-dimensional stereoscopic data based on the shooting position, orientation, and angle acquired at the time of shooting is known (for example, patents). Reference 1). As another example, based on the information on the position and orientation of the pointing tool held by the observer, the object providing the information is arranged in a suitable position and orientation when viewed from the observer's viewpoint. A technique is known (for example, refer to Patent Document 2). In addition, referring to data indicating the positional relationship in the real world for a plurality of elements to be captured included in the captured image, the orientation of the image is determined so that the layout best reflects the hierarchical relationship. A technique is also known (see, for example, Patent Document 3). Furthermore, a technique for detecting an overlapping portion between two images and synthesizing the images is also known (see, for example, Patent Document 4).
ここで、レイアウトを作成する上で重要な点として、鑑賞者に違和感を与えないことが挙げられる。例えば、各写真に写っている被写体の位置関係が実世界と逆になる形でレイアウトが作成されていると、その実世界を知る者には違和感を与えてしまう。また、実世界を知らない者は、被写体の位置関係を十分に把握することができない。 Here, as an important point in creating the layout, there is no discomfort to the viewer. For example, if the layout is created in such a way that the positional relationship between the subjects in each photo is opposite to that of the real world, it will give a strange feeling to those who know the real world. Moreover, those who do not know the real world cannot fully grasp the positional relationship of the subject.
特許文献1に記載の手法では、紙のアルバムなど2次元平面に配置する場合、3次元の立体データを射影することとなる。その場合、各コンテンツが重なり合ってしまう可能性がある。特許文献2に記載の手法の場合には、指示具を必要としたり、原点が視点に限定されたりするため、他のカメラで撮影した画像をアルバム形式のレイアウトを作成する場合には適用できない。 According to the method described in Patent Document 1, when arranging on a two-dimensional plane such as a paper album, three-dimensional solid data is projected. In that case, there is a possibility that the contents overlap each other. In the case of the method described in Patent Document 2, an indicator is required, and the origin is limited to the viewpoint. Therefore, the method cannot be applied when creating an album format layout of images taken with other cameras.
また、特許文献3に記載の手法では、被写体の位置関係を示したデータを保持していない場合は、適切なレイアウトを作成することができない。また、特許文献4に記載の手法は、レイアウトを作成する技術ではないため、画像のサイズに制限がある場合には適用することができない。 Also, with the method described in Patent Document 3, an appropriate layout cannot be created if data indicating the positional relationship of the subject is not held. Further, since the technique described in Patent Document 4 is not a technique for creating a layout, it cannot be applied when there is a limit on the size of an image.
本発明は前述の問題点に鑑み、特別な装置またはデータを不要にして、鑑賞者にとって見やすいコンテンツの位置を簡単に決定することができるようにすることを目的としている。 The present invention has been made in view of the above-described problems, and it is an object of the present invention to make it possible to easily determine the position of content that can be easily viewed by a viewer without using a special device or data.
本発明の画像処理装置は、一連の被写体が部分的に撮像された複数のコンテンツからそれぞれ特徴を抽出する抽出手段と、前記抽出手段によって抽出された特徴から前記被写体を撮像したときの実世界における位置の関係を推定する推定手段と、前記推定手段による推定の結果に基づいて、実世界における位置の関係を保つ、前記複数のコンテンツの配置位置を決定する決定手段とを備え、前記抽出手段では、前記特徴としてコンテンツの直線成分を抽出しており、前記推定手段は、前記複数のコンテンツの間で共通する部分が無い場合、前記直線成分の連続性により、前記複数のコンテンツの実世界における位置の関係を推定することを特徴とする。 An image processing apparatus according to the present invention includes an extraction unit that extracts features from a plurality of contents in which a series of subjects are partially imaged, and a real world when the subject is imaged from the features extracted by the extraction units. An estimation unit that estimates a positional relationship; and a determination unit that determines a layout position of the plurality of contents that maintains a positional relationship in the real world based on a result of estimation by the estimation unit. The linear component of content is extracted as the feature, and the estimation means determines the position of the plurality of content in the real world by the continuity of the linear component when there is no common part among the plurality of content. The relationship is estimated .
本発明によれば、特別な装置またはデータを不要にして、鑑賞者にとって見やすいコンテンツの位置を簡単に決定することができる。 According to the present invention, it is possible to easily determine the position of the content that is easy for the viewer to see without requiring a special device or data.
(第1の実施形態)
以下、本発明の第1の実施形態について説明する。ここで、例えば、図1(a)に示すように、実世界101において、模様の付いた紙の物体108の左側に角柱が置かれ、右側に円柱が置かれているシーンを撮影するものとする。図1(b)には、角柱が撮影された写真102及び円柱を撮影した写真103を示している。このとき、撮影された順序が写真103、写真102の順である場合にレイアウトを作成すると、一般的には、図1(c)に示すレイアウト104が作成される。このように左開きのアルバムに時系列順に並べると、左から右に順番に写真が並んだレイアウト104になる。このような形になってしまうと、実際の被写体の配置とは逆向きに写真が並んでしまい、鑑賞者に違和感等を与えてしまう。そこで本実施形態では、各写真間の位置関係を画像の特徴データを用いて推定し、図1(c)に示すレイアウト105を作成する。このレイアウト105であれば、実世界での被写体の配置と同じ向きに写真が並び、見やすいものとなったといえる。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described. Here, for example, as shown in FIG. 1A, in the
図2は、本実施形態におけるレイアウト処理装置200のハードウェア構成例を示すブロック図である。
図2に示すように、画像処理装置であるレイアウト処理装置200は、CPU(Central Processing Unit)201、入力装置202、出力装置203及び記憶装置204を備えている。さらに、RAM(Random Access Memory)205、ROM(Read Only Memory)206及びBUS207を備えている。
FIG. 2 is a block diagram illustrating a hardware configuration example of the
As illustrated in FIG. 2, the
CPU201は、各種データ処理のための論理演算、判断等を行い、BUS207で接続されている各構成要素の制御を行う。入力装置202には、例えば、アルファベットキー、ひらがなキー、カタカナキー、句点等の文字記号入力キー、カーソル移動を指示するカーソル移動キー等のような、各種の機能キーを備えたキーボードが接続されている。また、他に接続されるものとして、レイアウト対象とする画像を入力するカメラ等の撮像素子、もしくは撮像素子によって記録された画像が保持し、入力するためのHDD等のストレージも挙げられる。さらに、GUI(Graphical User Interface)上で画面の制御可能位置を指し示し、機能の選択指示などを行うポインティング機器、例えばマウスやスティックポインタ等も挙げられる。
The
出力装置203は、液晶パネル等の各種表示装置である。記憶装置204には、入出力データや処理プログラム等、各種情報が格納される。これらのデータ及びプログラムを格納する記憶媒体としては、ハードディスク、CD−ROM、DVD−ROM、フラッシュメモリ等を用いることができる。RAM205は、各構成要素からの各種データを一時的に記憶する際に用いられる。ROM206は、本実施形態で実行される処理プログラム等の制御プログラムを記憶する。これら全ての構成要素はBUS207で接続されている。
The
図3は、本実施形態のレイアウト処理装置200の機能構成例を示すブロック図である。
レイアウト処理装置200は、コンテンツ特徴情報取得部301、コンテンツ対応関係取得部302、位置姿勢推定部303、及びコンテンツ配置位置決定部304を備えている。以下、コンテンツとは写真を意味するものとする。以下、これらの機能について、全体の流れを示した図4と合わせて説明する。
FIG. 3 is a block diagram illustrating a functional configuration example of the
The
図4は、本実施形態に係るレイアウト処理装置200によりレイアウトを作成する処理手順の一例を示すフローチャートである。
まず、ステップS401において、コンテンツ特徴情報取得部301は、記憶装置204からコンテンツを読み出し、読み出したコンテンツに対して所定の処理を行って特徴データを取得し、RAM205に設定する。なお、この際取得されるデータは今後の処理で使用されるデータが含まれていればよく、それ以外のデータについては含まれていてもいなくても構わない。また、特徴データの取得処理の詳細については後述する。
FIG. 4 is a flowchart illustrating an example of a processing procedure for creating a layout by the
First, in step S 401, the content feature
次に、ステップS402において、コンテンツ特徴情報取得部301は、レイアウトの対象とするコンテンツを選択する。ここで選択方法としては、コンテンツに付随している情報などを用いて選択してもよく、ユーザの操作により入力装置202から入力された情報に従って選択してもよい。
Next, in step S <b> 402, the content feature
コンテンツに付随している情報などを用いて選択する場合に使用する情報及び選択方法としては、例えば、撮影場所を用いて位置が所定の距離以内のものを選択したり、撮影時刻を用いて時刻が所定の間隔以内のものを選択したりする方法が挙げられる。また、顔の位置や形状の類似した物体の位置を基に、コンテンツの構図が似通ったものを選択するという方法を用いてもよい。 As information and selection method used when selecting using information attached to content, for example, selecting a location within a predetermined distance using a shooting location, or using a shooting time Can be selected within a predetermined interval. Alternatively, a method may be used in which content with a similar composition is selected based on the position of an object having a similar face position or shape.
また、ユーザの操作により入力装置202から入力された情報に従って選択する場合には、使用するコンテンツを単純にクリックなどで選択する以外にも、スイッチボタンなどを用いて選択を行うといった手段も考えられる。なお、手動で使用コンテンツを選択する場合には、コンテンツの特徴データを取得する処理(ステップS401)はこの後でも構わない。
In addition, when selecting according to information input from the
次に、ステップS403において、コンテンツ対応関係取得部302は、取得した特徴データを比較し、複数のコンテンツ間で共通した部位、もしくは共通した物体を推定してその対応関係の情報を取得する。そして、ステップS404において、位置姿勢推定部303は、各コンテンツ中の被写体間の現実世界における撮像装置に対する位置姿勢を推定する。
Next, in step S403, the content
次に、ステップS405において、コンテンツ配置位置決定部304は、この推定された位置姿勢を基に各コンテンツのアルバム上でのレイアウトの位置を決定する。そして、ステップS406において、ステップS405において決定したレイアウトの位置に各コンテンツを配置する。これにより、レイアウト105のような各コンテンツ中の被写体間の現実世界での位置姿勢を再現したレイアウトをアルバム上に作成することができる。
Next, in step S405, the content arrangement
ステップS401で取得する特徴データの種類及びその取得方法は様々なものが考えられる。本実施形態では、画像の局所的な特徴量(局所特徴量)を特徴データとして取得し、この局所特徴量を用いて類似画像を検索する方法を用いることとする。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する。局所特徴点を抽出する方法としては、例えば非特許文献1に開示されている方法を用いる。そして、当該局所特徴点とその周辺の画像情報とに基づいて、当該局所特徴点に対応する特徴量(局所特徴量)を計算する。局所特徴量を計算する方法としては、例えば非特許文献2に開示されている方法を用いる。そして、画像の検索は、局所特徴量同士のマッチングによって行う。 Various types of feature data acquired in step S401 and their acquisition methods can be considered. In this embodiment, a method is used in which a local feature amount (local feature amount) of an image is acquired as feature data, and a similar image is searched using the local feature amount. In this method, first, characteristic points (local feature points) are extracted from an image. As a method for extracting local feature points, for example, the method disclosed in Non-Patent Document 1 is used. Then, based on the local feature point and surrounding image information, a feature amount (local feature amount) corresponding to the local feature point is calculated. As a method for calculating the local feature amount, for example, a method disclosed in Non-Patent Document 2 is used. The image search is performed by matching local feature amounts.
局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、検索を可能にする。また、局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話であり、実際のデジタル画像においては、画像の回転や拡大・縮小処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。回転不変の局所特徴量を算出するために、例えば非特許文献2に記載の方法では、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量を算出する時に主方向を基準に局所領域を回転させて方向の正規化を行う。また、拡大・縮小不変の局所特徴量を算出するために、異なるスケールの画像を内部で生成し、各スケールの画像からそれぞれ局所特徴点を抽出して局所特徴量を算出する。ここで、内部で生成した一連の異なるスケールの画像の集合は一般的にスケールスペースと呼ばれる。各特徴点の特徴量は、方向の正規化の際の回転角度及び特徴量を算出したスケールスペースも記憶する。 In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thereby, even when the image is rotated, enlarged or reduced, the search can be performed. Further, the local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature is invariant to rotation and enlargement / reduction. In an actual digital image, the local feature before image rotation and enlargement / reduction processing corresponds to that after processing. Some variation occurs between the local feature amount. In order to calculate the rotation-invariant local feature amount, for example, in the method described in Non-Patent Document 2, the main direction is calculated from the pixel pattern of the local region around the local feature point, and the main direction is calculated when the local feature amount is calculated. Rotate the local region with reference to normalize the direction. In addition, in order to calculate the local feature amount that does not change in size, the local feature amount is calculated by internally generating images of different scales and extracting local feature points from the images of the respective scales. Here, a set of images of different scales generated internally is generally called a scale space. The feature amount of each feature point also stores a rotation angle and a scale space in which the feature amount is calculated when normalizing the direction.
ステップS403については、図5を用いてその詳細を説明する。図5は、本実施形態における図4のステップS403の詳細な処理手順の一例を示すフローチャートである。
まず、ステップS501において、対象としているコンテンツが同一の位置または同一時点で撮影されたものかどうかを判定する。この判定の結果、対象としているコンテンツが同一の位置または同一時点で撮影されたものである場合は、次のステップS502に進む。この判定は、特定の場所から観察された、つまり撮影者が撮影した際に見た各被写体の相対位置姿勢を再現させるために必要な処理である。この判定には、例えばGPSによって付与された緯度経度情報を利用したり、手動で入力された場所の情報を使用したりすればよい。
Details of step S403 will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a detailed processing procedure of step S403 of FIG. 4 in the present embodiment.
First, in step S501, it is determined whether the target content is taken at the same position or at the same time. As a result of the determination, if the target content is taken at the same position or at the same time, the process proceeds to the next step S502. This determination is a process necessary for reproducing the relative position and orientation of each subject observed from a specific place, that is, when the photographer takes a picture. For this determination, for example, latitude / longitude information provided by GPS may be used, or information on a place manually input may be used.
また、複数のコンテンツ間で撮影時刻に大きな差がない場合には、撮影者は撮影位置を変更していないと推定することができるので、コンテンツに付与された撮影時刻を利用することも挙げられる。ただし、センサの計測誤差や撮影間隔を考慮に入れる必要があると考えられるので、所定範囲の差異までは同一の位置とみなす。なお、ステップS501の判定の結果、同一位置または同一時点で撮影されたものではない場合には、本実施形態における並べ替えの適用は行わず、時系列順に配置する等、他のルールに従って各コンテンツのレイアウトを作成することとする。そのため、ステップS504へ進み、相対位置に基づくレイアウトを作成するフラグをOFFにして処理を終了する。 In addition, when there is no significant difference in shooting time among a plurality of contents, it can be estimated that the photographer has not changed the shooting position. Therefore, it is also possible to use the shooting time given to the contents. . However, since it is considered necessary to take into account the measurement error of the sensor and the imaging interval, the same position is considered up to a predetermined range. If the result of determination in step S501 is not that the images were taken at the same position or at the same time, the reordering in this embodiment is not applied, and each content is arranged according to other rules, such as being arranged in chronological order. Let's create a layout. For this reason, the process proceeds to step S504, the flag for creating a layout based on the relative position is turned OFF, and the process ends.
次に、ステップS502において、ステップS401で取得した特徴データ(局所特徴量)を比較する。局所特徴点または局所特徴量を比較して画像を照合する方法にはいろいろあるが、本実施形態では、非特許文献3に開示されているRANSACを利用する。なお、特許文献5には、その検索処理の概要が開示されている。 Next, in step S502, the feature data (local feature amount) acquired in step S401 is compared. There are various methods for comparing images by comparing local feature points or local feature amounts. In this embodiment, RANSAC disclosed in Non-Patent Document 3 is used. Patent Document 5 discloses an outline of the search process.
具体的な比較手順としては、まず、検索元画像の各局所特徴量に対し、比較先画像の局所特徴量で特徴間距離が最小となるものをペアで記述する。次に、検索元画像から3個の局所特徴量をランダムに選択し、それぞれの特徴間距離が最小となる比較先画像の局所特徴量群との間で、その座標の対応からアフィン変換行列を求める。このアフィン変換行列を用い、検索元画像の残りの局所特徴量の座標を比較先画像の座標に変換し、その近傍に上記特徴間距離が最小となるペアの局所特徴量が存在するか否かを確認し、存在すれば1票投票し、存在しなければ投票しないようにする。 As a specific comparison procedure, first, for each local feature amount of the search source image, a local feature amount of the comparison destination image that has the smallest feature distance is described in pairs. Next, three local feature quantities are randomly selected from the search source image, and an affine transformation matrix is calculated from the correspondence of the coordinates with the local feature quantity group of the comparison destination image in which the distance between the features is minimum. Ask. Using this affine transformation matrix, the coordinates of the remaining local features in the search source image are converted to the coordinates of the comparison destination image, and whether there is a pair of local features that minimize the distance between the features in the vicinity. If there is, vote one vote, and if not, do not vote.
最終的に、この投票数が所定の値に達した場合には、検索元画像と比較先画像との間で部分一致する領域が存在すると判断し、その投票数が多いほど一致する領域が大きいと考える。他方、投票数が所定の値に達しない場合には、新たに検索元画像から3個の局所特徴量をランダムに選択してアフィン変換行列を求める処理から再度処理を行うが、この再処理は定められた反復カウント数以内で繰り返す。反復カウント数に達しても投票数が所定の値を超えない場合には、部分一致する領域が存在しないと判断して比較の処理を終了する。 Finally, when the number of votes reaches a predetermined value, it is determined that there is a partially matching area between the search source image and the comparison target image, and the greater the number of votes, the larger the matching area. I think. On the other hand, if the number of votes does not reach a predetermined value, the processing is performed again from the processing of newly selecting three local feature quantities from the search source image and obtaining the affine transformation matrix. Repeat within the specified number of repetition counts. If the number of votes does not exceed a predetermined value even when the number of repetition counts is reached, it is determined that there is no partially matching area, and the comparison process is terminated.
そして、部分一致する領域が存在する場合、上記求めたアフィン変換行列と特徴間距離とが最小となるもののペアを用い、検索元画像中の着目した局所特徴量と対応する特徴量を求めることができる。このとき、その局所特徴量を求める際の方向の正規化の際の回転角度から検索元画像と比較先画像との回転角度の関係を求めることもできる。さらに、その局所特徴量を求める際のスケールスペースを用いて、検索元画像と比較先画像との拡縮関係も求めることができる。 Then, when there is a partially matching region, a feature amount corresponding to the focused local feature amount in the search source image can be obtained using a pair of the affine transformation matrix and the feature distance that are found to be minimum. it can. At this time, the relationship between the rotation angle between the search source image and the comparison target image can be obtained from the rotation angle at the time of normalizing the direction when obtaining the local feature amount. Furthermore, the scaling relationship between the search source image and the comparison destination image can also be obtained using the scale space for obtaining the local feature amount.
次に、ステップS503において、上記のステップS502の処理により複数のコンテンツ間で対応が取れるか否かを判定する。つまり、特徴間距離が最小となるペアの局所特徴量が所定数以上存在しているか否かを判定する。この判定の結果、複数のコンテンツ間で対応が取れる場合は、ステップS505において、相対位置に基づくレイアウトを作成するフラグをONにして処理を終了する。一方、ステップS503の判定の結果、対応が取れない場合には、ステップS504へ進み、相対位置に基づくレイアウトを作成するフラグをOFFにして処理を終了する。 Next, in step S503, it is determined whether or not correspondence between a plurality of contents can be achieved by the processing in step S502. That is, it is determined whether or not there are a predetermined number or more of local feature amounts of pairs having the smallest feature distance. As a result of this determination, if correspondence can be achieved between a plurality of contents, in step S505, a flag for creating a layout based on the relative position is set to ON, and the process ends. On the other hand, if the result of determination in step S503 is that correspondence cannot be obtained, processing proceeds to step S504, where the flag for creating a layout based on the relative position is turned OFF, and the processing is terminated.
ここで、具体例として図1(b)に示す写真102、103のレイアウトを作成する例について説明する。まず、ステップS401では、特徴データとして画像中の局所特徴量を取得する。次に、ステップS402では、コンテンツとして写真102、103を選択する。
Here, an example of creating a layout of the
ステップS403では、この選択された写真102、103について、取得された情報を比較する。この処理の詳細として、まず、ステップS501では撮影時刻情報を比較する。2枚の写真102、103については、撮影間隔が所定の間隔より短く、双方とも同一の場所から撮影されたものと判定する。次に、ステップS502では、局所特徴量を比較する。その結果、図1(b)に示すように、写真102の局所領域106と写真103の局所領域107とが同一の部分であり、対応が取れるということが分かる。そのため、ステップS503では、複数のコンテンツ間で対応が取れると判定し、ステップS505では、相対位置に基づくレイアウトを作成するフラグをONにする。
In step S403, the acquired information is compared for the selected
次に、ステップS404では、同一部分と判定された局所領域106、107を基に被写体に対する位置姿勢を推定する。具体的には、局所領域106は写真102の右端に存在し、局所領域107が写真103の左端に存在することから、撮影者から見て写真102は左側の部分が撮影されたものであり、写真103は右側の部分が撮影されたものであると推定することができる。
Next, in step S404, the position and orientation with respect to the subject are estimated based on the
ステップS405では、この推定結果を基に、写真102をページの左側に配置し、写真103を右側に配置することを決定する。そして、ステップS406では、ステップS405で決定した配置によりレイアウトを作成する。その結果、図1(c)に示すレイアウト105が作成される。なお、本実施形態では、水平方向の位置関係を推定しているが、有効な対応部分さえあれば垂直方向の位置関係を推定することも可能である。この場合には、コンテンツを上下に配置することとなる。
In step S405, based on the estimation result, it is determined that the
以上のように本実施形態によれば、鑑賞者に各コンテンツ中の被写体間の位置関係の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, it is possible to reduce a viewer from being given a contradiction in the positional relationship between subjects in each content, a sense of incongruity caused by a lack of natural line of sight.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態では水平及び垂直方向の位置関係を推定してレイアウトを作成したが、本実施形態では奥行方向(前後方向)の位置関係を推定してレイアウトを作成する例について説明する。なお、本実施形態に係るレイアウト処理装置の構成及び処理手順については、基本的には第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment, the layout is created by estimating the positional relationship in the horizontal and vertical directions. In the present embodiment, an example in which the layout is created by estimating the positional relationship in the depth direction (front-rear direction) will be described. Note that the configuration and processing procedure of the layout processing apparatus according to this embodiment are basically the same as those in the first embodiment, and a description thereof will be omitted. In the present embodiment, differences from the first embodiment will be described.
例えば、図6(a)に示すように、実世界601において、模様の付いた紙の手前に角柱が置かれ、奥に円柱が置かれているシーンを撮影するものとする。図6(b)には、角柱を撮影した写真602と、円柱を撮影した写真603とを示している。ここで、撮影された順序が写真603、写真602の順である場合にレイアウトを作成すると、一般的には、図6(c)に示すレイアウト604が作成される。このように左開きのアルバムに時系列順に並べると、奥行に応じてサイズを変更し、上から下に順番に写真が並んだレイアウト604になる。このような形になってしまうと、実際の被写体の配置とは逆向きに写真が並んでしまい、鑑賞者に違和感等を与えてしまう。そこで本実施形態では、各写真の撮像装置に対する位置姿勢を画像の特徴データを用いて推定し、そこから各写真間の位置関係を割り出し、図6(c)に示すレイアウト605を作成する。このレイアウト605であれば、実世界での被写体の配置と同じ向きに写真が並び、見やすいものとなったといえる。
For example, as shown in FIG. 6A, in the
本実施形態では、ステップS404における相対位置を推定する方法が異なっている。具体的な例としては、まず、同一部分と判定された領域のサイズを比較する点が挙げられる。奥にあるものほど拡大して撮像する場合があるため、同一部分のサイズは、奥の被写体を撮像したコンテンツの方が、手前の被写体を撮影したコンテンツよりも大きくなる場合がある。第1の実施形態で説明した局所特徴量は、前述の通り拡大縮小に不変である。したがって、サイズが変わっていても比較することは可能であるため、共通部分が大きく写っているコンテンツの被写体は奥にあると推定できる。 In this embodiment, the method for estimating the relative position in step S404 is different. As a specific example, the size of the areas determined as the same part is first compared. Since there is a case where an image is magnified as the object is in the back, the size of the same part may be larger in the content in which the object in the back is imaged than in the content in which the object in the foreground is captured. The local feature amount described in the first embodiment is invariant to enlargement / reduction as described above. Therefore, since the comparison is possible even if the size is changed, it can be estimated that the subject of the content in which the common part is greatly reflected is in the back.
また、この性質が成り立たない場合でも、共通部分の特徴点から平面推定を行うことにより被写体の位置姿勢を推定することが可能である。平面は最低3点あれば求めることができるので、3点以上の共通特徴点から平面を推定し、被写体がそれぞれ平面状のどこにあるかを求めることにより、被写体の位置姿勢を推定することが可能である。もしくは、一致する特徴点のスケール情報は対応部位の大きさに比例するので、この性質を基に奥行を推定することも可能である。 Even when this property does not hold, it is possible to estimate the position and orientation of the subject by performing plane estimation from the feature points of the common part. Since the plane can be obtained if there are at least three points, it is possible to estimate the position and orientation of the subject by estimating the plane from three or more common feature points and determining where the subject is in the plane. It is. Alternatively, since the scale information of the matching feature points is proportional to the size of the corresponding part, the depth can be estimated based on this property.
図6(c)に示すレイアウト605は、このようにして推定された結果を基にステップS406で配置された結果である。本実施形態では、紙のアルバムなど2次元平面をレイアウトの対象としているが、3次元ディスプレイなど3次元の表示装置にも、相対的な位置関係を再現する形でレイアウトすることが可能である。
A
以上のように本実施形態によれば、水平・垂直方向だけでなく、奥行方向であっても鑑賞者に各コンテンツ中の被写体間の位置関係の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, not only in the horizontal and vertical directions but also in the depth direction, the viewer cannot contradict the positional relationship between subjects in each content and cannot naturally carry his gaze. Giving a sense of incongruity can be reduced.
(第3の実施形態)
以下、本発明の第3の実施形態について説明する。本実施形態では、同一の部分が存在しない場合に水平方向及び垂直方向の位置関係を推定してレイアウトを作成する例について説明する。なお、本実施形態に係るレイアウト処理装置の構成及び処理手順については、基本的には第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点について説明する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described. In the present embodiment, an example will be described in which the layout is created by estimating the positional relationship between the horizontal direction and the vertical direction when the same portion does not exist. Note that the configuration and processing procedure of the layout processing apparatus according to this embodiment are basically the same as those in the first embodiment, and a description thereof will be omitted. In the present embodiment, differences from the first embodiment will be described.
例えば、図1(a)に示す実世界101において、図7(a)に示す写真701、702が撮影されたものとする。そして、撮影された順序が写真702、写真701の順である場合にレイアウトを作成すると、時系列順に配置されるため、一般的には、図7(b)に示すレイアウト703が作成される。このような形になってしまうと、実際の被写体の配置とは逆向きに写真が並んでしまい、鑑賞者に違和感等を与えてしまう。また、第1の実施形態で示した方法では、写真701、702の間に同一の部分が存在しないため、時系列順に配置されてしまう。そこで本実施形態では、このような場合であっても、各写真間の位置関係を画像の特徴データを用いて推定し、図7(b)のレイアウト704を作成する例について説明する。
For example, it is assumed that
具体的な処理の流れとしては第1の実施形態と同様であるが、この場合、写真701と写真702との間には同一の部分が存在しない。そこで、図7(c)に示す、2つの被写体(角柱及び円柱)が共に含まれており、長方形の物体108の全部が含まれている写真705を用意し、ステップS403において、この写真705と写真701、702との対応を取ることとする。なお、長方形の物体108の全部が含まれている必要はなく、場合によっては部分的に含まれている写真を用いてもよい。
The specific processing flow is the same as in the first embodiment, but in this case, the same portion does not exist between the
図7(c)に示す写真705を得る手段としては、任意の人物が撮影したものを用いてもよく、超多画素カメラを使用して予め撮影しておいてもよい。また、カメラの電源がONのときは常に撮影しその写真を合成したり、動画を撮影しそこから数フレームを抜き出して合成したりしてもよい。また、対応の取り方や位置姿勢の推定については第1の実施形態と同様に行う。その結果、写真701は、写真705の中の領域706と対応し、写真702は写真705の中の領域707と対応することが分かるので、撮影者から見て写真701は左側、写真702は右側にあった部分を撮影したと推定される。
As a means for obtaining a
この推定結果を基に、ステップS405において、写真701をページの左側に配置し、写真702を右側に配置することを決定する。そして、ステップS406において、実際にレイアウトを作成する。その結果、図7(b)に示すレイアウト704が作成される。なお、図7に示した例では水平方向の位置関係の推定を行っているが、有効な対応部分さえあれば第1の実施形態と同じく垂直方向の位置関係を推定することも可能である。この場合には、コンテンツを上下に配置することとなる。
Based on this estimation result, in step S405, it is determined that the
以上のように本実施形態によれば、レイアウトの対象外のコンテンツを用いて、鑑賞者に各コンテンツ中の被写体間の位置姿勢の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, by using content that is not subject to layout, the viewer is given a contradiction in the position and orientation between subjects in each content, a sense of incongruity caused by the fact that they cannot naturally carry their line of sight, etc. Can reduce that.
(第4の実施形態)
以下、本発明の第4の実施形態について説明する。本実施形態では、同一の部分が存在しない場合に奥行方向の位置関係を推定してレイアウトを作成する例について説明する。なお、本実施形態に係るレイアウト処理装置の構成及び処理手順については、基本的には第2の実施形態と同様であるため、説明は省略する。本実施形態では、第2の実施形態と異なる点について説明する。
(Fourth embodiment)
The fourth embodiment of the present invention will be described below. In the present embodiment, an example of creating a layout by estimating the positional relationship in the depth direction when the same portion does not exist will be described. Note that the configuration and processing procedure of the layout processing apparatus according to the present embodiment are basically the same as those of the second embodiment, and a description thereof will be omitted. In the present embodiment, differences from the second embodiment will be described.
例えば、図6(a)に示す実世界601において、図8(a)に示す写真801、802が撮影されたものとする。そして、撮影された順序が写真802、写真801の順である場合にレイアウトを作成すると、時系列順に配置され、一般的には、図8(b)に示すレイアウト803が作成される。このような形になってしまうと、実際の被写体の配置とは逆向きに写真が並んでしまい、鑑賞者に違和感等を与えてしまう。また、第2の実施形態で示した方法では、写真801、802の間に同一の部分が存在しないため、時系列順に配置されてしまう。そこで本実施形態では、このような場合であっても、各写真間の位置関係を画像の特徴データを用いて推定し、図8(b)のレイアウト804を作成する例について説明する。
For example, it is assumed that
具体的な処理の流れとしては第2の実施形態と同様であるが、写真801と写真802との間には同一の部分が存在しない。そこで第3の実施形態と同様に、図8(c)に示す、2つの被写体(角柱及び円柱)が共に写っている写真805を用意し、ステップS403において、この写真805と写真801、802との対応を取ることとする。この写真805を得る手段はとしては、第3の実施形態と同様である。
The specific processing flow is the same as in the second embodiment, but the same portion does not exist between the
また、対応の取り方や位置姿勢の推定については、第2の実施形態と同様に行う。その結果、写真801は写真805の中の領域806と対応し、写真802は写真805の中の領域807と対応することが分かるので、撮影者から見て写真801は手前、写真802は奥にあったと推定される。
Further, how to take the correspondence and estimate the position and orientation are performed in the same manner as in the second embodiment. As a result, since the
このようにして推定された結果を基に、ステップS406で配置された結果、図8(b)に示すレイアウト804が作成される。なお、本実施形態においても、第2の実施形態と同様に、紙のアルバムなどの2次元平面だけでなく3次元ディスプレイなどの3次元の表示装置にも、相対的な位置関係を再現する形でレイアウトすることが可能である。
Based on the result estimated in this way, the
以上のように本実施形態によれば、奥行方向でもレイアウト対象外のコンテンツを用いて、鑑賞者に各コンテンツ中の被写体間の位置姿勢の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, content that is not subject to layout even in the depth direction is used, and the viewer is inconsistent in the position and orientation between subjects in the content, or feels uncomfortable due to the inability to carry the line of sight naturally. Can be reduced.
(第5の実施形態)
以下、本発明の第5の実施形態について説明する。本実施形態では、第3及び4の実施形態と同様に2枚の写真間で同一の部分が存在しない場合に各コンテンツ間の位置関係を推定してレイアウトを作成する例について説明する。なおし、本実施形態では、2枚の写真に同一の物体が分割されて写っている点を利用してレイアウトを作成する。また、本実施形態に係るレイアウト処理装置の構成及び処理手順については、基本的には第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点について説明する。
(Fifth embodiment)
The fifth embodiment of the present invention will be described below. In the present embodiment, as in the third and fourth embodiments, an example will be described in which a layout is created by estimating the positional relationship between contents when there is no identical portion between two photos. In the present embodiment, the layout is created by using the point that the same object is divided and shown in two photos. Further, the configuration and processing procedure of the layout processing apparatus according to the present embodiment are basically the same as those in the first embodiment, and thus the description thereof is omitted. In the present embodiment, differences from the first embodiment will be described.
例えば、図1(a)に示す実世界101のシーンにおいて、図9(a)に示す写真901、902を撮影するものとする。ここで、写真901の中の物体907及び写真902の中の物体908は、ともに実世界101に存在する長方形の物体108である。したがって、この物体907、908が同一の物体であると判断できれば、そのことを手がかりに撮像装置に対する被写体の位置姿勢を推定することが可能となる。
For example, it is assumed that
具体的な処理の流れは第1の実施形態と同様であるが、本実施形態では、ステップS401で取得する特徴データと、ステップS403における複数のコンテンツ間でのマッチング方法が異なっている。本実施形態では、物体108の各辺を直線として抽出し、その成分を特徴として比較することにより対応を取る。
The specific processing flow is the same as that of the first embodiment, but in this embodiment, the feature data acquired in step S401 and the matching method between a plurality of contents in step S403 are different. In the present embodiment, each side of the
具体的には、まず、ステップS401において、画像中の直線成分を抽出する。この処理では既知の手法を用いればよく、例えば画像に対してHough変換をかけることにより、画像に含まれる直線を抽出することができる。例えば、写真901では直線903、904が抽出され、写真902では直線905、906がそれぞれ抽出される。
Specifically, first, in step S401, a linear component in the image is extracted. In this process, a known method may be used. For example, a straight line included in the image can be extracted by performing Hough transform on the image. For example,
また、ステップS403においては、各画像から抽出した直線成分を比較する。前述したように、使用する画像は撮影時間もしくは場所の差異が所定の範囲内であるという制約があるため、2つの画像間でパラメータがほぼ同一である直線の組が存在すれば、それらは連続した直線であると判断することができる。図9(a)に示す例では、直線903と直線905とが連続性を示す直線であり、直線904と直線906とが連続性を示す直線であると判断される。このことを利用すれば、連続した直線を辺として持つ物体は、同一の物体であるとみなすことができる。つまり、物体907と物体908とは同一の物体であると判断される。
In step S403, the linear components extracted from the images are compared. As described above, since there is a restriction that the difference in photographing time or place is within a predetermined range for the image to be used, if there is a set of straight lines having almost the same parameters between the two images, they are continuous. It can be determined that this is a straight line. In the example shown in FIG. 9A, it is determined that the
この対応関係を利用することにより、第1〜第4の実施形態と同様に被写体の位置姿勢を推定することができ、上下左右、および奥行方向での写真の配置位置を決定することができる。写真901では2枚の写真間で同一とみなされる物体907が写真の右側に存在し、写真902では同じく物体908が左側に存在するので、撮影者から見て写真901は左側、写真902は右側にあった部分であると推定される。
By using this correspondence, the position and orientation of the subject can be estimated as in the first to fourth embodiments, and the arrangement positions of the photos in the vertical and horizontal directions and in the depth direction can be determined. In the
この推定結果を基に、ステップS405において、写真901をページの左側に配置し、写真902を右側に配置することを決定する。そして、ステップS406で実際にレイアウトを作成する。その結果、図9(b)に示すレイアウト909が生成される。なお、対応関係を取得するために使用する特徴は直線成分でなくてもよい。例えば、物体の形状や色といったものを使用しても構わない。例えば円のように直線成分のない物体が双方の写真に共通して写っていた場合、色を特徴として利用すると有効である。
Based on the estimation result, in step S405, it is determined that the
以上のように本実施形態によれば、各コンテンツ間で共通部分がなくても、鑑賞者に各コンテンツ中の被写体間の位置姿勢の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, even if there is no common part between the contents, the viewer can feel the inconsistency in the position and orientation between the subjects in the contents and the sense of incongruity caused by the fact that the line of sight cannot be carried naturally. Can reduce giving.
(第6の実施形態)
以下、本発明の第6の実施形態について説明する。本実施形態では、画像の特徴データを利用して画像間の対応関係を推定できない場合に、各コンテンツ間の位置関係を推定してレイアウトを作成する例について説明する。なお、本実施形態に係るレイアウト処理装置の構成及び処理手順については、基本的には第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点について説明する。
(Sixth embodiment)
The sixth embodiment of the present invention will be described below. In the present embodiment, an example of creating a layout by estimating the positional relationship between contents when the correspondence between images cannot be estimated using image feature data will be described. Note that the configuration and processing procedure of the layout processing apparatus according to this embodiment are basically the same as those in the first embodiment, and a description thereof will be omitted. In the present embodiment, differences from the first embodiment will be described.
第1〜5の実施形態では、画像間の対応関係を推定するために、画像の特徴データとして、局所特徴量、直線、色などを挙げてきた。しかし、これらを含めた画像から得られるどんな特徴量を用いても対応関係が取れない可能性がある。その場合には、代替手法として画像から抽出できる以外の特徴を使用することとする。使用する特徴としては、例えば電子コンパスなどのセンサ情報が挙げられる。また、手動で対応関係を指定することも考えられる。この状況を考慮した場合でも、基本的な処理の流れは第1の実施形態と同様であるが、ステップS403の処理が本実施形態では異なる。 In the first to fifth embodiments, local feature amounts, straight lines, colors, and the like have been cited as image feature data in order to estimate the correspondence between images. However, there is a possibility that no correspondence can be obtained by using any feature amount obtained from an image including these. In that case, features other than those that can be extracted from the image are used as an alternative method. For example, sensor information such as an electronic compass may be used as the feature to be used. It is also possible to manually specify the correspondence relationship. Even in consideration of this situation, the basic processing flow is the same as in the first embodiment, but the processing in step S403 is different in this embodiment.
図10は、本実施形態における図4のステップS403の詳細な処理手順の一例を示すフローチャートである。以下、図5と異なる点について説明する。 FIG. 10 is a flowchart illustrating an example of a detailed processing procedure of step S403 of FIG. 4 in the present embodiment. Hereinafter, differences from FIG. 5 will be described.
ステップS503の判定の結果、画像の特徴データを利用して対応がとれない場合には、ステップS1001において、前述した代替手法を用いることができるか否かを判定する。この判定の結果、代替手法を用いることができない場合はステップS504に進む。一方、代替手法を用いることができる場合は、ステップS1002において、代替手法を用いるフラグをONにする。これにより、図4のステップS404では、代替手法により各コンテンツ間の位置関係を推定することとなる。 If the result of determination in step S503 is that no correspondence can be obtained using image feature data, it is determined in step S1001 whether or not the above-described alternative method can be used. As a result of the determination, if the alternative method cannot be used, the process proceeds to step S504. On the other hand, if the alternative method can be used, the flag using the alternative method is turned ON in step S1002. Thereby, in step S404 of FIG. 4, the positional relationship between each content is estimated by an alternative method.
以上のように本実施形態によれば、特徴量を用いても対応関係が取れない場合にも、鑑賞者に各コンテンツ中の被写体間の位置姿勢の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, even when the correspondence is not obtained even if the feature amount is used, the viewer is not able to carry the line of sight between the subjects in each content or the line of sight naturally. Giving a feeling of strangeness can be reduced.
(第7の実施形態)
以下、本発明の第7の実施形態について説明する。本実施形態では、3つ以上の被写体(写真)のレイアウトを作成する例について説明する。なお、本実施形態に係るレイアウト処理装置の構成及び処理手順については、基本的には第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点について説明する。
(Seventh embodiment)
The seventh embodiment of the present invention will be described below. In the present embodiment, an example of creating a layout of three or more subjects (photos) will be described. Note that the configuration and processing procedure of the layout processing apparatus according to this embodiment are basically the same as those in the first embodiment, and a description thereof will be omitted. In the present embodiment, differences from the first embodiment will be described.
例えば、図11(a)に示すように、実空間1101において、模様の付いた紙の近傍に、左側に角柱、中央に円柱、右側に立方体が置かれているシーンを撮影するものとする。図11(b)には、角柱を撮影した写真1102、円柱を撮影した写真1103、及び立方体を撮影した写真1104を示している。
For example, as shown in FIG. 11A, in a
具体的な処理の流れとしては、まず、図4に示す手順により2枚ずつの位置姿勢を推定していき、位置姿勢を位置関係が推定できる組み合わせで繰り返していく。そして、位置関係を推定した写真を組み合わせた中で、重複があるものを手がかりにして全体の位置関係を推定していく。 As a specific processing flow, first, the position and orientation of each sheet are estimated by the procedure shown in FIG. 4, and the position and orientation are repeated in a combination that can estimate the positional relationship. Then, the entire positional relationship is estimated using a combination of photographs with estimated positional relationships as a clue.
例えば、写真1102、1103、1104の場合、まず、第5の実施形態と同じ方法により写真1102と写真1103との位置姿勢が推定され、撮影者から見て写真1102が左側、写真1103が右側にあった部分を撮影したと推定される。同様に写真1103と写真1104とに関しては、第1の実施形態と同じ方法で推定が行われ、撮影者から見て写真1103が左側、写真1104が右側にあった部分を撮影したと推定される。この2つの推定結果から、写真1102、1103、1104は撮影者から見て左から1102、1103、1104の順にあったシーンを撮影したと推定することができる。
For example, in the case of
この推定結果を基に、ステップS405において、写真1102をページの左側に配置し、写真1103をページの中央に配置し、写真1104をページの右側に配置することを決定する。そして、ステップS406で実際にレイアウトを作成する。その結果、図11(c)に示すレイアウト1105が生成される。上記の例では2枚の写真の位置関係の推定に第1及び第5の実施形態で示した方法を用いたが、勿論他の実施形態で示した方法を用いても構わない。また、ある組は水平方向の位置関係を、別の組は垂直方向の位置関係を推定し、それらを組み合わせるといったことも可能である。
Based on this estimation result, in step S405, it is determined that the
以上のように本実施形態によれば、対象コンテンツが3つ以上であっても、鑑賞者に各コンテンツ中の被写体間の位置姿勢の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, even if there are three or more target contents, the viewer can feel the inconsistency in the position and orientation between subjects in each content, the uncomfortable feeling caused by the fact that the line of sight cannot be carried naturally. Can reduce giving.
(第8の実施形態)
以下、本発明の第8の実施形態について説明する。本実施形態では、被写体が傾いて撮影されている場合に各コンテンツ間の位置関係を推定してレイアウトを作成する例について説明する。なお、本実施形態に係るレイアウト処理装置の構成及び処理手順については、基本的には第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点について説明する。
(Eighth embodiment)
The eighth embodiment of the present invention will be described below. In the present embodiment, an example will be described in which the layout is created by estimating the positional relationship between the contents when the subject is photographed with an inclination. Note that the configuration and processing procedure of the layout processing apparatus according to this embodiment are basically the same as those in the first embodiment, and a description thereof will be omitted. In the present embodiment, differences from the first embodiment will be described.
例えば、図1(a)に示す実世界101のシーンを撮影し、図12(a)に示す写真1201、1202が得られたものとする。ここで、写真1201は、実世界101と比較して傾いている。このため、第1〜第7の実施形態に従ってこのままレイアウトを作成すると、鑑賞者に見にくさを感じさせてしまう。そこで本実施形態では、局所特徴量の回転への不変性を利用し、見にくさを感じさせないように傾きを補正してレイアウトを作成する例について説明する。
For example, assume that a scene of the
基本的な処理の流れとしては第1の実施形態と同様であるが、本実施形態ではステップS403でコンテンツをマッチングする際に、画像の回転を考慮することとなる。写真1201と写真1202とでは、局所領域1203、1204が対応している。この2つの局所領域における局所特徴量は、第1の実施形態で説明したとおり主方向を基準として回転させ、方向の正規化が行われている。また、前述したように、局所領域を求める際に、回転角度の関係も求めることができる。したがって、この際に回転させた角度を記憶しておけば傾きを補正することが可能となる。
The basic processing flow is the same as in the first embodiment, but in this embodiment, image rotation is taken into consideration when matching content in step S403. The
ここで、傾きを補正する際の基準の選択方法は、手動で基準とする写真を選択する、写真内の直線成分を比較しより水平な直線が多いものを選択する、第3及び第4の実施形態のように被写体が全て写っている写真を利用する、といった方法が挙げられる。そして、これらの処理により傾きを推定した後、写真の傾きの補正を行い、更に被写体に内接する矩形で一部を切り出し、図12(b)に示す写真1205が生成される。
Here, the reference selection method for correcting the inclination is to manually select the reference photo, compare the linear components in the photo, and select the one with more horizontal straight lines. There is a method of using a photograph in which all subjects are shown as in the embodiment. Then, after estimating the inclination by these processes, the inclination of the photograph is corrected, and a part of the rectangle inscribed in the subject is cut out to generate a
この補正と第1の実施形態と同様の位置姿勢の推定とを基に、ステップS405において、写真1205をページの左側に配置し、写真1202をページの右側に配置することを決定する。そして、ステップS406で実際にレイアウトを作成する。その結果、図12(c)に示すレイアウト1206が生成される。上記の例では第1の実施形態と同様の実世界における推定を示したが、勿論他の実施形態で示した例にも適用可能である。
Based on this correction and the estimation of the position and orientation similar to those of the first embodiment, in step S405, it is determined that the
以上のように本実施形態によれば、対象コンテンツが傾いている場合にも、鑑賞者に各コンテンツ中の被写体間の位置姿勢の矛盾や、自然に視線を運べないことからくる違和感等を与えることを減らすことができる。 As described above, according to the present embodiment, even when the target content is tilted, the viewer is given a discrepancy in the position and orientation between subjects in the content, a sense of incongruity caused by the fact that the line of sight cannot be carried naturally. Can reduce that.
(その他の実施形態)
前述した第1〜第8の実施形態では、基本的に写真を対象にして、1つの特徴データを基に、画像間の1方向の相対位置推定を行う例について説明した。一方、動画であっても写っている画像中で大きく特徴が変化しなければ、レイアウトの対照とすることは可能である。また、2つ以上の特徴データを組み合わせて相対位置を推定したり、2方向以上の相対位置を組み合わせて推定したりしても構わない。
(Other embodiments)
In the first to eighth embodiments described above, an example in which a relative position in one direction between images is estimated based on one feature data basically for a photograph has been described. On the other hand, even if it is a moving image, it can be used as a layout contrast if the feature does not change significantly in the captured image. Further, the relative position may be estimated by combining two or more feature data, or may be estimated by combining the relative positions in two or more directions.
例えば、図6に示す実世界601における角柱と円柱との相対位置の関係を考える。第2の実施形態においては、この2つの被写体の奥行の相対位置の関係のみを対象にして局所特徴量のみを用いた。しかし、2つの被写体の位置関係は斜めになっている。したがって、この斜めの関係を再現するために奥行方向とともに水平方向の位置関係も推定する。さらに、その際に局所特徴量だけでなく、物体の形状も特徴として用いる。これにより、斜め方向の位置関係をレイアウトで再現できる。また、複数の情報を用いることにより、位置関係の推定精度を高めることができる。さらに、静止画の代わりに上記特徴が変化しない程度の動画を用いることもできる。以上により、鑑賞者に各コンテンツ中の被写体間の位置姿勢の矛盾や、自然に視線を運べないことによる違和感等を与えることをより精度よく減らすことができる。
For example, consider the relationship between the relative positions of a prism and a cylinder in the
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
301 コンテンツ特徴情報取得部
302 コンテンツ対応関係取得部
303 位置姿勢推定部
304 コンテンツ配置位置決定部
301 content feature
Claims (12)
前記抽出手段によって抽出された特徴から前記被写体を撮像したときの実世界における位置の関係を推定する推定手段と、
前記推定手段による推定の結果に基づいて、実世界における位置の関係を保つ、前記複数のコンテンツの配置位置を決定する決定手段とを備え、
前記抽出手段では、前記特徴としてコンテンツの直線成分を抽出しており、前記推定手段は、前記複数のコンテンツの間で共通する部分が無い場合、前記直線成分の連続性により、前記複数のコンテンツの実世界における位置の関係を推定することを特徴とする画像処理装置。 Extraction means for extracting features from a plurality of contents in which a series of subjects are partially imaged;
Estimating means for estimating a positional relationship in the real world when the subject is imaged from the features extracted by the extracting means;
Determining means for determining the arrangement position of the plurality of contents based on the result of estimation by the estimation means, and maintaining the positional relationship in the real world ;
The extraction unit extracts a linear component of the content as the feature, and the estimation unit determines, based on the continuity of the linear component, if there is no common part between the plurality of contents. An image processing apparatus characterized by estimating a positional relationship in the real world .
前記抽出工程において抽出された特徴から前記被写体を撮像したときの実世界における位置の関係を推定する推定工程と、
前記推定工程における推定の結果に基づいて、実世界における位置の関係を保つ、前記複数のコンテンツの配置位置を決定する決定工程とを備え、
前記抽出工程では、前記特徴としてコンテンツの直線成分を抽出しており、前記推定工程は、前記複数のコンテンツの間で共通する部分が無い場合、前記直線成分の連続性により、前記複数のコンテンツの実世界における位置の関係を推定することを特徴とする画像処理方法。 An extraction step of extracting features from a plurality of contents in which a series of subjects are partially imaged,
An estimation step for estimating a positional relationship in the real world when the subject is imaged from the feature extracted in the extraction step;
A determination step for determining an arrangement position of the plurality of contents based on a result of the estimation in the estimation step, and maintaining a positional relationship in the real world ;
In the extraction step, a linear component of content is extracted as the feature, and in the estimation step, when there is no common part between the plurality of contents, the continuity of the linear components causes the plurality of content to be extracted. An image processing method characterized by estimating a positional relationship in the real world .
前記抽出工程において抽出された特徴から前記被写体を撮像したときの実世界における位置の関係を推定する推定工程と、
前記推定工程における推定の結果に基づいて、実世界における位置の関係を保つ、前記複数のコンテンツの配置位置を決定する決定工程とをコンピュータに実行させ、
前記抽出工程では、前記特徴としてコンテンツの直線成分を抽出しており、前記推定工程は、前記複数のコンテンツの間で共通する部分が無い場合、前記直線成分の連続性により、前記複数のコンテンツの実世界における位置の関係を推定することを特徴とするプログラム。 An extraction step of extracting features from a plurality of contents in which a series of subjects are partially imaged,
An estimation step for estimating a positional relationship in the real world when the subject is imaged from the feature extracted in the extraction step;
Based on the estimation result in the estimation step, the computer executes a determination step for determining the arrangement position of the plurality of contents, maintaining a positional relationship in the real world ,
In the extraction step, a linear component of content is extracted as the feature, and in the estimation step, when there is no common part between the plurality of contents, the continuity of the linear components causes the plurality of content to be extracted. A program characterized by estimating positional relationships in the real world .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070109A JP5925007B2 (en) | 2012-03-26 | 2012-03-26 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070109A JP5925007B2 (en) | 2012-03-26 | 2012-03-26 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013200824A JP2013200824A (en) | 2013-10-03 |
JP2013200824A5 JP2013200824A5 (en) | 2015-04-02 |
JP5925007B2 true JP5925007B2 (en) | 2016-05-25 |
Family
ID=49520993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012070109A Expired - Fee Related JP5925007B2 (en) | 2012-03-26 | 2012-03-26 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5925007B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005123667A (en) * | 2003-10-14 | 2005-05-12 | Seiko Epson Corp | Generation of still picture data from a plurality of image data |
JP4982343B2 (en) * | 2007-12-04 | 2012-07-25 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus, image evaluation method, program, and information storage medium |
-
2012
- 2012-03-26 JP JP2012070109A patent/JP5925007B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013200824A (en) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107251101B (en) | Scene modification for augmented reality using markers with parameters | |
TWI457854B (en) | Capture and display of digital images based on related metadata | |
US8487926B2 (en) | Method and apparatus for generating 3D image using 2D photograph images | |
JP6723748B2 (en) | Image management apparatus, image management method and program | |
WO2018112788A1 (en) | Image processing method and device | |
KR100982192B1 (en) | A Method for Geo-tagging of Pictures and Apparatus thereof | |
EP3275182B1 (en) | Methods and systems for light field augmented reality/virtual reality on mobile devices | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
CN105611267A (en) | Depth and chroma information based coalescence of real world and virtual world images | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
US20230394833A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
JP6017343B2 (en) | Database generation device, camera posture estimation device, database generation method, camera posture estimation method, and program | |
JP2007078842A (en) | Display control apparatus and display control method | |
Chang et al. | Panoramic human structure maintenance based on invariant features of video frames | |
EP3216005B1 (en) | Image processing device and method for geometric calibration of images | |
JP2020091745A (en) | Imaging support device and imaging support method | |
JP6719945B2 (en) | Information processing apparatus, information processing method, information processing system, and program | |
WO2018000299A1 (en) | Method for assisting acquisition of picture by device | |
TW201006527A (en) | Measuring object contour method and measuring object contour apparatus | |
JP5925007B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013214158A (en) | Display image retrieval device, display control system, display control method, and program | |
WO2021176877A1 (en) | Image processing device, image processing method, and image processing program | |
JP7286968B2 (en) | Imaging support device and imaging support method | |
JP5636966B2 (en) | Error detection apparatus and error detection program | |
JPWO2019053790A1 (en) | Position coordinate calculation method and position coordinate calculation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160419 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5925007 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |