JP2015181302A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2015181302A JP2015181302A JP2015138205A JP2015138205A JP2015181302A JP 2015181302 A JP2015181302 A JP 2015181302A JP 2015138205 A JP2015138205 A JP 2015138205A JP 2015138205 A JP2015138205 A JP 2015138205A JP 2015181302 A JP2015181302 A JP 2015181302A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- regions
- image processing
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 66
- 238000003672 processing method Methods 0.000 title claims description 4
- 239000013598 vector Substances 0.000 claims abstract description 84
- 238000003384 imaging method Methods 0.000 claims description 62
- 238000001514 detection method Methods 0.000 claims description 21
- 239000002131 composite material Substances 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 42
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
デジタルカメラや、撮像機能を有する携帯電話等においては、撮像画角の限界はレンズの焦点距離、撮像素子のサイズ等、装置本体が備えるハードスペックに依存している。そこで、ハードスペックを超えるような広角画像を得るためのパノラマ撮像といった技術が従来から知られている。 In a digital camera, a mobile phone having an imaging function, etc., the limit of the imaging angle of view depends on hardware specifications provided in the apparatus main body, such as the focal length of the lens and the size of the imaging element. Therefore, a technique such as panoramic imaging for obtaining a wide-angle image exceeding the hardware specifications has been conventionally known.
パノラマ撮像を実現するためには、ユーザは、例えば、シャッタスイッチを押下操作した状態を維持しながら、自身の体を軸にして、デジタルカメラを垂直方向にほぼ固定したまま水平方向に回転させるように移動させる。すると、デジタルカメラは、その間に複数回の撮像処理を実行し、当該複数回の撮像処理の各々の結果得られた複数の画像(以下、「撮像画像」と呼ぶ)のデータを横方向(水平方向)に合成することによって、パノラマ画像等の広角画像のデータを生成する。 In order to realize panoramic imaging, for example, the user rotates the digital camera in the horizontal direction while maintaining the state where the shutter switch is pressed and holding the body as an axis, and the digital camera is substantially fixed in the vertical direction. Move to. Then, the digital camera executes a plurality of imaging processes in the meantime, and obtains data of a plurality of images (hereinafter referred to as “captured images”) obtained as a result of each of the plurality of imaging processes in the horizontal direction (horizontal). Direction), wide-angle image data such as a panoramic image is generated.
パノラマ撮像に関する工夫は、例えば、特許文献1には、複数回の撮像処理のたびに撮像画像における特徴点を検出し、隣接する2枚の撮像画像の特徴点が一致するように当該2枚の撮像画像のデータを合成することによって、パノラマ画像のデータを生成する手法が開示されている。 For example, in Patent Document 1, a feature point in a captured image is detected every time a plurality of image capturing processes are performed, and two such images are arranged so that the feature points of two adjacent captured images coincide with each other. A technique for generating panoramic image data by synthesizing captured image data is disclosed.
ところで、パノラマ画像を代表とする広角画像の撮像において、撮像対象にデジタルカメラの移動とは関係なく移動する動体が含まれる場合、単に特徴点の一致をみて隣接する撮像画像を合成する特許文献1の手法では、違和感のあるパノラマ画像のデータが生成されてしまうおそれがある。
この点について、図6を参照して具体的に説明する。図6は、パノラマ撮像の結果得られるパノラマ画像P1の一例を示す図である。図6(B)に示すパノラマ画像P1のデータは、図6(A)に示す複数の撮像画像F1,F2,F3,F4,F5の各データを合成することにより得られるパノラマ画像のデータである。図6(A)を参照すると、複数の撮像画像F1〜F5の中には、動体M1,M2,M3,M4が含まれている。このような動体M1〜M4を含む撮像画像F1〜F5の各データを従来の手法により合成した場合には、動体M1〜M4の一部が切り取られてしまうおそれがあり、結果として図6(B)に示すように違和感の有るパノラマ画像P1のデータが生成されてしまうおそれがある。
By the way, in the imaging of a wide-angle image typified by a panoramic image, when a moving object that moves regardless of the movement of the digital camera is included in the imaging target, the adjacent captured images are synthesized simply by looking at the matching of the feature points. With this method, there is a risk that panoramic image data with a sense of incongruity may be generated.
This point will be specifically described with reference to FIG. FIG. 6 is a diagram illustrating an example of a panoramic image P1 obtained as a result of panoramic imaging. The data of the panoramic image P1 shown in FIG. 6B is panoramic image data obtained by combining the data of the plurality of captured images F1, F2, F3, F4, and F5 shown in FIG. . Referring to FIG. 6A, moving bodies M1, M2, M3, and M4 are included in the plurality of captured images F1 to F5. When each data of the captured images F1 to F5 including such moving bodies M1 to M4 is synthesized by a conventional method, a part of the moving bodies M1 to M4 may be cut off, and as a result, FIG. ), There is a possibility that data of the panoramic image P1 having a sense of incongruity may be generated.
本発明は、このような問題に鑑みてなされたものであり、違和感のない合成画像を生成することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to generate a composite image without a sense of incongruity.
上記目的を達成するため、本発明の一態様の画像処理装置は、撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段と、前記取得手段により取得された画像を複数の領域に分割する分割手段と、記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段と、記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段と、前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段と、前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段と、を備えることを特徴とする。 In order to achieve the above object, an image processing apparatus according to one embodiment of the present invention includes an acquisition unit that acquires a plurality of images that are continuously captured with the movement of an imaging unit, and a plurality of images that are acquired by the acquisition unit. Based on the feature points detected by the feature point detection means, the feature point detection means for detecting feature points in the plurality of regions divided by the note splitting means, respectively. A vector calculating unit that calculates a plurality of vectors corresponding to the plurality of regions between adjacent images of the image of the image, and based on the plurality of vectors calculated by the vector calculating unit, from the plurality of divided regions A region selection unit that selects a region and a raw image that generates a composite image by combining the adjacent images based on the specific region selected by the region selection unit. Characterized in that it comprises a means.
本発明によれば、違和感のない合成画像を生成することができる。 According to the present invention, it is possible to generate a composite image without a sense of incongruity.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention.
The image processing apparatus 1 is configured as a digital camera, for example.
画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。
The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an
CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。
The
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
The
CPU11、ROM12及びRAM13は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。
The
撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。 The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject. The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range. The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や画像処理部14等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like. The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the
Such an output signal of the
入力部18は、シャッタスイッチ等の各種ボタンで構成され、ユーザの指示操作に応じて各種情報や命令を入力する。
出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
The
The
ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。
A
図2は、このような画像処理装置1の機能的構成のうち、パノラマ画像生成処理を実行するための機能的構成を示す機能ブロック図である。ここで、「パノラマ画像生成処理」とは、連続して取得した複数の撮像画像のデータを用いてパノラマ画像のデータを生成する処理をいう。なお、「パノラマ画像」とは、35ミリ銀塩フィルムにより撮像された2:3の縦横比の画像や、デジタルカメラにより撮像された3:4の縦横比の画像と比較して、横長又は縦長の広角画像の一例である。 FIG. 2 is a functional block diagram showing a functional configuration for executing a panoramic image generation process among the functional configurations of such an image processing apparatus 1. Here, “panoramic image generation processing” refers to processing for generating panoramic image data using data of a plurality of captured images acquired successively. “Panorama image” refers to a 2: 3 aspect ratio image taken with a 35 mm silver salt film or a 3: 4 aspect ratio image taken with a digital camera. It is an example of a wide-angle image.
画像処理装置1がパノラマ画像生成処理を実行する場合には、CPU11は、撮像制御部51及び記憶制御部52として機能する。この場合、記憶部20には、撮像画像のデータやパノラマ画像のデータ等の各種画像のデータを記憶する領域として画像記憶部53が設けられる。
When the image processing apparatus 1 executes the panoramic image generation process, the
撮像制御部51は、撮像部17による各種撮像動作を制御する。
詳細には、ユーザが、デジタルカメラとしての画像処理装置1を保持したまま、入力部18のシャッタスイッチを押下操作すると、画像処理装置1は、パノラマ画像生成処理を開始する。パノラマ画像生成処理が開始すると、撮像制御部51は、撮像部17の連続撮像の動作を開始させ、一定時間経過するたびに、又は画像処理装置1が所定量移動するたびに画像を撮像させる。
この間、ユーザがシャッタスイッチの押下操作の状態を維持したままの状態が所定時間経過した場合やデジタルカメラが所定量移動した場合等の所定条件が満たされると、撮像制御部51は、撮像部17における連続撮像の動作を終了させ、パノラマ画像生成処理を終了する。
The
Specifically, when the user presses the shutter switch of the
During this time, when a predetermined condition is satisfied, such as when the user remains in the state of pressing the shutter switch for a predetermined time or when the digital camera moves a predetermined amount, the
記憶制御部52は、パノラマ画像生成処理の結果生成されたパノラマ画像のデータ等の各種画像のデータを画像記憶部53に記憶させる制御を実行する。
The
また、画像処理装置1がパノラマ画像生成処理を実行する場合には、画像処理部14は、画像取得部54、位置合わせ部55及びパノラマ画像生成部56として機能する。
Further, when the image processing apparatus 1 executes the panoramic image generation process, the
画像取得部54は、撮像部17の連続撮像の動作により出力されてくる複数の撮像画像のデータ、即ち連続的に撮像された複数の画像のデータを逐次取得する。
The image acquisition unit 54 sequentially acquires data of a plurality of captured images output by the continuous imaging operation of the
位置合わせ部55は、画像取得部54により取得された複数の撮像画像のデータの夫々を処理対象として、当該複数の撮像画像のうち隣接する撮像画像同士の位置合わせを行う。なお、隣接する撮像画像とは、連続的に撮像された複数の撮像画像のうちのn枚目(nは1以上の整数値)の撮像画像とn+1枚目の撮像画像とをいう。
ここで、人物等の動体がデジタルカメラの移動とは関係なく移動することを原因として違和感の有るパノラマ画像のデータが生成されることを防止するため、本実施形態の位置合わせ部55は、特徴点検出部551と、特徴点追跡部552と、類似度算出部553と、画像位置合わせ部554と、を含んで構成される。このとき、特徴点検出部551が特徴点検出手段として機能し、特徴点追跡部442がベクトル算出手段として機能し、類似度算出部553及び画像位置合わせ部554が領域選択手段として機能する。
The alignment unit 55 performs alignment of adjacent captured images among the plurality of captured images, with each of the plurality of captured image data acquired by the image acquisition unit 54 as a processing target. The adjacent captured images are an n-th captured image (n is an integer value of 1 or more) and an (n + 1) -th captured image among a plurality of continuously captured images.
Here, in order to prevent panoramic image data having a sense of incongruity due to the movement of a moving object such as a person regardless of the movement of the digital camera, the alignment unit 55 of the present embodiment has a feature. A
特徴点検出部551は、画像取得部54により取得された複数の撮像画像のデータの夫々を処理対象として、撮像画像の中から複数の特徴点を検出する。即ち、特徴点検出部551は、画像取得部54が撮像画像のデータを取得するたびに、取得した撮像画像の中から複数の特徴点を検出する。なお、特徴点検出部551は、検出した特徴点を画像取得部54が取得した撮像画像のデータと対応付けて画像記憶部53に記憶する。
このとき、特徴点検出部551は、撮像画像を複数の連続した領域(エリア)に分割した上で、当該複数の領域の各々の中から特徴点を検出する。なお、撮像画像を分割する領域は、任意の形状とすることができ、例えば、矩形状の領域を採用することができる。また、複数の領域は、後述するように、デジタルカメラの移動方向(以下、「パノラマ撮像方向」と呼ぶ)及び当該方向と略直交する方向に連続して配置されているものとする。なお、略直交とは、手振れ等によりパノラマ撮像方向が直線状にならないことがあるためであり、説明を簡易にするのであれば、水平方向のパノラマ撮像方向に対して垂直方向が略直交する方向となる。
ここで、撮像画像の中から特徴点を検出する方法は、これまで公知の方法を採用することができ、例えば、SIFT(Scale Invariant Feature Transform)を用いることとしてもよく、また、ハリスのコーナー検出を用いることとしてもよく、また、その他の方法を用いることとしてもよい。
The feature
At this time, the feature
Here, as a method for detecting a feature point from a captured image, a publicly known method can be employed. For example, a SIFT (Scale Invariant Feature Transform) may be used, and Harris corner detection may be used. Alternatively, other methods may be used.
特徴点追跡部552は、隣接する撮像画像の夫々における複数の特徴点を処理対象として、複数の特徴点毎に、隣接する撮像画像において当該特徴点がどの様に移動したかを示すベクトル、いわゆる移動ベクトルを算出する。即ち、特徴点追跡部552は、特徴点検出部551がn+1枚目の撮像画像の中から複数の特徴点を検出すると、検出したn+1枚目の撮像画像の特徴点の中から画像記憶部53に記憶されたn枚目の撮像画像の特徴点と対応する対応点を特定し、n枚目の撮像画像の特徴点からn+1枚目の撮像画像の対応点までのベクトルを、当該特徴点のベクトルとして算出する。このとき、特徴点追跡部552は、算出したベクトルをn枚目の撮像画像のデータと対応付けて画像記憶部53に記憶する。なお、本実施形態においてベクトルとは、特徴点の移動した方向及び移動の大きさ(距離)を示す。
The feature
類似度算出部553は、特徴点追跡部552が算出したベクトルを処理対象として、画像中の領域毎のベクトルの類似度を算出する。動体は、デジタルカメラの移動と関係なく移動するため、類似度算出部553は、ベクトルの類似度を算出することで、n枚目の撮像画像の中の動体の位置を特定する。このようにして特定した動体の位置を避けて隣接する撮像画像同士を位置合わせすることで、違和感の有るパノラマ画像のデータが生成されることを防止することができる。
ここで、パノラマ画像生成処理では、パノラマ撮像方向と略直交する方向の直線状に沿って、隣接する撮像画像のデータの位置合わせを行うことが一般的である。そこで、類似度算出部553は、複数の領域のうちパノラマ撮像方向に略直交する方向に隣接して配置された一群の領域の夫々で、ベクトルの類似度を算出する。なお、デジタルカメラでは、レンズの歪曲等の関係から撮像画像の端(上端、下端、左端、右端)に若干の補正が加えられていることがあるため、類似度算出部553は、撮像画像の端部を除いた中心付近の領域のみを対象としてベクトルの類似度を算出することが好ましい。このとき、中心付近の領域のサイズについては、例えば、レンズ性能に基づいて設定することとしてもよく、また、デジタルカメラの移動速度や撮像タイミングのように隣接する撮像画像間の移動距離に基づいて設定することとしてもよく(移動が大きい場合は中心付近も大きく、移動が小さい場合は中心付近も小さい)、任意に設定することができる。このような中心付近の領域を用いることは、ベクトルの類似度を算出する際にのみ適用することとしてもよく、また、特徴点を検出する際の領域分割の際から適用することとしてもよい。
なお、ベクトルの類似度とは、特徴点の移動した方向及び移動の大きさが類似していることを意味し、本実施形態では、SAD(Sum of Absolute Difference)計算により算出することとしている。即ち、類似度算出部553は、一群の領域内で隣り合うベクトルの差分を計算し足し合わせることで、ベクトルの類似度を算出する。このようなSAD計算では、演算結果が小さいほど一群の領域内のベクトルが類似していることを意味し、演算結果が大きいほど一群の領域内のベクトルが類似していないことを意味する。このとき、一群の領域に含まれる複数の領域の特徴点に対応点を特定することのできない特徴点が含まれる場合には、類似度算出部553は、当該一群の領域内のベクトルが類似していないと判断することが好ましい。動体の移動に伴い(例えば、動体がn+1枚目の特徴点の前面に移動したことにより)対応点を特定できない可能性が高いためである。なお、類似度の算出は、SAD計算に限らず任意の方法により行うこととしてもよく、例えば、SSD(Sum of Squared intensity Difference)計算や標準偏差等の公知の方法により算出することとしてもよい。
The
Here, in the panoramic image generation process, it is common to perform alignment of data of adjacent captured images along a straight line in a direction substantially orthogonal to the panoramic imaging direction. Therefore, the
Note that the similarity between vectors means that the direction in which the feature point has moved and the magnitude of the movement are similar. In this embodiment, the similarity is calculated by SAD (Sum of Absolute Difference) calculation. That is, the
画像位置合わせ部554は、特徴点追跡部552が算出した特徴点のベクトルに基づいて、隣接する撮像画像同士の位置合わせを行う。即ち、画像位置合わせ部554は、他の特徴点に比べて異常なベクトルを示す特徴点の位置を避けて、隣接する撮像画像同士の位置合わせを行う。
より具体的には、画像位置合わせ部554は、類似度算出部553が算出した一群の領域内のベクトルの類似度に基づいて隣接する撮像画像同士の位置合わせを行う。ここで、画像位置合わせ部554は、ベクトルの夫々が所定値以上類似している一群の領域の位置で位置合わせを行うこととしてもよく、ベクトルの夫々が最も類似している一群の領域の位置で位置合わせを行うこととしてもよい。これにより、デジタルカメラの移動と関係なく移動する動体を避けた位置で隣接する撮像画像同士の位置合わせを行うことができる。
The image alignment unit 554 aligns adjacent captured images based on the feature point vector calculated by the feature
More specifically, the image alignment unit 554 aligns adjacent captured images based on the similarity of vectors in a group of regions calculated by the
パノラマ画像生成部56は、位置合わせ部55が位置合わせした撮像画像同士の各データを合成し、パノラマ画像のデータを生成する。また、パノラマ画像生成部56は、生成したパノラマ画像のデータを画像記憶部53に記憶する。
The panoramic image generation unit 56 combines the data of the captured images aligned by the alignment unit 55 to generate panoramic image data. Further, the panorama image generation unit 56 stores the generated panorama image data in the
続いて、パノラマ画像生成処理の実行機能について、図3及び図4を参照して具体的に説明する。
図3は、画像処理部14の位置合わせ部55の機能を説明するための図であり、図4は、画像処理部14の位置合わせ部55及びパノラマ画像生成部56の機能を説明するための図である。ここで、図3及び図4では、図中左から右方向をパノラマ撮像方向としている。
Next, the execution function of the panoramic image generation process will be specifically described with reference to FIGS.
FIG. 3 is a diagram for explaining the functions of the alignment unit 55 of the
図3(A)を参照して、画像取得部54は、連続的に撮像される撮像画像のデータを順次取得する。図3(A)では、撮像画像70のデータ及び撮像画像80のデータが取得されている。ここで、撮像画像70は、n枚目の撮像画像であり、図中左から右方向に走る人物を示す動体71及び背景を示す静体73を撮像対象とする撮像画像である。また、撮像画像80は、n+1枚目の撮像画像であり、動体81及び静体83を撮像対象とする撮像画像である。
Referring to FIG. 3A, the image acquisition unit 54 sequentially acquires data of captured images that are continuously captured. In FIG. 3A, the data of the captured
図3(B)を参照して、画像取得部54が撮像画像のデータを取得すると、特徴点検出部551が順次取得された撮像画像の中から領域毎の特徴点を検出するとともに、特徴点追跡部552が隣接する撮像画像における対応点を特定する。図3(B)では、n枚目の撮像画像70から特徴点A,B,C,D,E,F,G,H,Iを含む複数の特徴点が検出され、n+1枚目の撮像画像80から当該特徴点A乃至Iに対応する対応点A’,B’,C’,D’,E’,F’,G’,H’,I’が検出されている。なお、特徴点A乃至C、特徴点D乃至F、特徴点G乃至Iの夫々は、パノラマ撮像方向に略直交する方向に隣接する一群の領域の特徴点である。また、特徴点A乃至G及び対応点A’乃至G’は、静体73,83から検出された特徴点及び対応点であり、特徴点H,I及び対応点H’,I’は、動体71,82から検出された特徴点及び対応点である。
Referring to FIG. 3B, when the image acquisition unit 54 acquires captured image data, the feature
図3(C)を参照して、特徴点追跡部552は、隣接する撮像画像における特徴点及び対応点を検出すると、n枚目の撮像画像70の特徴点からn+1枚目の撮像画像80の対応点までのベクトルを算出する。即ち、特徴点追跡部552は、図3(C)に示すように例えば、特徴点Aから対応点A’までのベクトルを算出する。
このように特徴点追跡部552が特徴点から対応点までのベクトルを算出すると、類似度算出部553は、パノラマ撮像方向に略直交する方向に隣接して配置された一群の領域の夫々で、ベクトルの類似度を算出する。ここで、図3(C)では、特徴点A乃至Gから対応点A’乃至G’については、概ねパノラマ撮像方向へのデジタルカメラの移動に伴うベクトルが算出されている一方で、特徴点H,Iから対応点H’,I’については、デジタルカメラの移動とは関係のないベクトルが算出されている。
そのため、画像位置合わせ部554は、類似度算出部553により算出された類似度から、特徴点A乃至Cを含む一群の領域及び特徴点D乃至Fを含む一群の領域についてベクトルが類似すると判定でき、特徴点G乃至Iを含む一群の領域についてはベクトルが類似しないと判定できる。
Referring to FIG. 3C, when the feature
When the feature
Therefore, the image alignment unit 554 can determine that the vectors of the group of regions including the feature points A to C and the group of regions including the feature points D to F are similar based on the similarity calculated by the
図4(A)を参照して、画像位置合わせ部554は、ベクトルの類似度判定の結果に基づいて、隣接する撮像画像同士の位置合わせを行う。
ここで、図4(B)に示すように、画像位置合わせ部554は、特徴点A乃至Cから対応点A’乃至C’までのベクトルが最も類似していると判定されるため、特徴点A乃至Cの位置で位置合わせを行うこととしている。
Referring to FIG. 4A, image alignment unit 554 aligns adjacent captured images based on the result of vector similarity determination.
Here, as shown in FIG. 4B, the image alignment unit 554 determines that the vectors from the feature points A to C to the corresponding points A ′ to C ′ are the most similar. Positioning is performed at positions A to C.
つまり、画像位置合わせ部554は、図4(B)に示すように、特徴点A及び対応点A’、特徴点B及び対応点B’、特徴点C及び対応点C’が一致するように、撮像画像70,80の位置合わせを行う。これにより、撮像画像70に含まれていた動体71を含まない位置で撮像画像70,80の位置合わせが行われることになる。
That is, as shown in FIG. 4B, the image alignment unit 554 matches the feature points A and corresponding points A ′, feature points B and corresponding points B ′, feature points C and corresponding points C ′. Then, the captured
図4(C)を参照して、画像位置合わせ部554が撮像画像70,80の位置合わせを行うと、パノラマ画像生成部56は、この位置合わせ結果に基づいて撮像画像70,80のデータを合成し、合成画像90のデータを生成する。
このように、本実施形態の画像処理装置1では、動体71,81を避けて撮像画像70,80の位置合わせを行うため、動体71,81の一部が切り取られてしまうといった違和感のある合成画像のデータが生成されることを防止できる。即ち、図4(C)に示すように、撮像画像80に含まれていた動体81をそのまま含む合成画像90のデータを生成することができる。
With reference to FIG. 4C, when the image alignment unit 554 aligns the captured
As described above, in the image processing apparatus 1 according to the present embodiment, the captured
また、本実施形態の画像処理装置1は、動体を避けて隣接する撮像画像の位置合わせを行うため、夫々の撮像画像に含まれる動体を様々な態様で表示することができる。即ち、動体を一切含むことのないパノラマ画像のデータを生成することもでき、また、動体を1つのみ含むパノラマ画像のデータを生成することもでき、また、動体が連続的に移動する様子を表わすパノラマ画像のデータを生成することもできる。
このような動体の表示態様については、特徴点のベクトルの類似度に加え、パノラマ撮像方向及び撮像画像中の動体の位置を考慮することで実現することができる。例えば、n枚目の撮像画像中の動体の位置よりもパノラマ撮像方向に後側の位置で位置合わせを行うことでn枚目の撮像画像に含まれている動体を除くことができ、n枚目の撮像画像中の動体の位置よりもパノラマ撮像方向に前側の位置で位置合わせを行うことでn枚目の撮像画像に含まれている動体を表示することができる。
Moreover, since the image processing apparatus 1 according to the present embodiment aligns adjacent captured images while avoiding moving objects, the moving objects included in each captured image can be displayed in various modes. That is, it is possible to generate panoramic image data that does not include any moving object, to generate panoramic image data that includes only one moving object, and to see how the moving object continuously moves. It is also possible to generate panoramic image data.
Such a moving object display mode can be realized by considering the panoramic imaging direction and the position of the moving object in the captured image in addition to the similarity of the feature point vectors. For example, the moving object included in the nth captured image can be removed by performing alignment at a position rearward in the panoramic imaging direction from the position of the moving object in the nth captured image. The moving object included in the n-th captured image can be displayed by performing alignment at a position in front of the panoramic imaging direction with respect to the position of the moving object in the captured image of the eye.
続いて、図5を参照してパノラマ画像生成処理について説明する。図5は、図2の機能的構成を有する画像処理装置1が実行するパノラマ画像生成処理の流れを示すフローチャートである。
なお、パノラマ画像生成処理は、ユーザの入力部18へのパノラマ画像生成処理を開始する操作、即ち、シャッタボタンの押下操作等を契機に開始される。
Next, the panorama image generation process will be described with reference to FIG. FIG. 5 is a flowchart showing a flow of panoramic image generation processing executed by the image processing apparatus 1 having the functional configuration of FIG.
Note that the panorama image generation process is triggered by the user's operation to start the panorama image generation process on the
ステップS1において、撮像制御部51は、撮像部17が連続撮像をするように制御する。
In step S1, the
ステップS2において、画像取得部54は、撮像部17が撮像するたびに撮像画像のデータを取得する。このとき、画像取得部54は、取得した撮像画像のデータを画像記憶部53に一時的に記憶する。
In step S <b> 2, the image acquisition unit 54 acquires captured image data every time the
ステップS3において、特徴点検出部551は、ステップS2の処理で取得された撮像画像のデータから複数の特徴点を検出し、画像記憶部53に一時的に記憶する。
In step S <b> 3, the feature
ステップS4において、特徴点追跡部552は、ステップS3の処理を行った撮像画像が2枚目以降のものであるか否かを判断する。2枚目以降の撮像画像である場合には、ステップS4においてYESと判断されて、処理はステップS5に進み、2枚目以降でない、即ち、1枚目の撮像画像である場合には、ステップS4においてNOと判断されて、処理はステップS1に戻る。
In step S4, the feature
ステップS5において、特徴点追跡部552は、画像記憶部53から隣接する撮像画像(前回に撮像された撮像画像)における特徴点を抽出した後、隣接する撮像画像間で対応する特徴点を比較することで、隣接する撮像画像間での複数の特徴点のベクトルを算出する。
In step S5, the feature
ステップS6において、類似度算出部553は、ステップS5の処理で算出した複数の特徴点のベクトルの類似度を算出する。具体的には、類似度算出部553は、パノラマ撮像方向と直交する方向に隣接する一群の領域の夫々で、ベクトルの類似度を算出する。
In step S6, the
ステップS7において、画像位置合わせ部554は、ステップS6の処理で算出したベクトルの類似度に基づいて隣接する撮像画像の位置合わせを行う。例えば、画像位置合わせ部554は、ベクトルの夫々が最も類似している一群の領域を選択して、当該領域の位置で位置合わせを行う。 In step S7, the image alignment unit 554 aligns adjacent captured images based on the vector similarity calculated in step S6. For example, the image alignment unit 554 selects a group of regions with the most similar vectors, and performs alignment at the position of the region.
ステップS8において、パノラマ画像生成部56は、ステップS7の処理で位置合わせした撮像画像同士の各データを合成し、パノラマ画像のデータを生成する。 In step S8, the panoramic image generation unit 56 combines the data of the captured images that have been aligned in the process of step S7, and generates panoramic image data.
ステップS9において、CPU11は、パノラマ画像生成処理を終了すべきか判断する。例えば、デジタルカメラが所定以上移動した場合や、ユーザによる所定の終了操作を受け付けた場合等に、CPU11は、パノラマ画像生成処理を終了すべきと判断する。ステップS9においてYESと判断されると、記憶制御部52は、これまで生成したパノラマ画像のデータを画像記憶部53に記憶してパノラマ画像生成処理を終了する。また、ステップS9においてNOと判断されると、処理はステップS10に移る。
In step S9, the
ステップS10において、CPU11又は画像処理部14は、エラーが発生したか否かを判断する。例えば、デジタルカメラがパノラマ撮像方向と直交する方向に所定以上移動した場合(即ち、手振れが大きい場合)や、撮像画像から十分な数の特徴点を検出できない場合等に、CPU11又は画像処理部14は、エラーが発生したと判断する。ステップS10においてYESと判断されると、パノラマ画像生成処理は終了し、ステップS11においてNOと判断されると、処理はステップS1に移る。
In step S10, the
以上のように構成される画像処理装置1は、撮像部17から供給される撮像画像のデータを処理対象として、隣接する撮像画像同士の位置合わせを行う位置合わせ部55と、位置合わせ部55の位置合わせ結果に基づいて隣接する撮像画像のデータを合成することでパノラマ画像のデータを生成するパノラマ画像生成部56と、を備える。このとき、位置合わせ部55は、隣接する撮像画像間における複数の特徴点のベクトルを算出する特徴点追跡部552と、算出した複数の特徴点のベクトルに基づいて、隣接する撮像画像同士を位置合わせする画像位置合わせ部554と、を備える。
これにより、ベクトルが異常な特徴点の位置を避けて、即ちデジタルカメラの移動とは関係なく移動する動体の位置を避けて、隣接する撮像画像同士の位置合わせを行うことができる。その結果、合成の結果得られるパノラマ画像において、動体の一部が切り取られてしまうことを防止することができ、違和感のないパノラマ画像のデータを生成することができる。
また、画像処理装置1では、特徴点のベクトルに加え、パノラマ撮像方向と撮像画像中の動体の位置を考慮することで、合成の結果得られるパノラマ画像において動体を様々な態様で表示することができる。即ち、動体を一切含むことのないパノラマ画像のデータを生成することもでき、また、動体を1つのみ含むパノラマ画像のデータを生成することもでき、また、動体が連続的に移動する様子を表わすパノラマ画像のデータを生成することもできる。
The image processing apparatus 1 configured as described above includes a registration unit 55 that performs registration of adjacent captured images with the captured image data supplied from the
Thereby, it is possible to align adjacent captured images while avoiding the position of a feature point with an abnormal vector, that is, avoiding the position of a moving object that moves regardless of the movement of the digital camera. As a result, in the panoramic image obtained as a result of the synthesis, it is possible to prevent a part of the moving object from being cut out, and it is possible to generate panoramic image data without a sense of discomfort.
Further, in the image processing apparatus 1, in addition to the feature point vector, the panoramic imaging direction and the position of the moving object in the captured image are taken into consideration, so that the moving object can be displayed in various modes in the panoramic image obtained as a result of the synthesis. it can. That is, it is possible to generate panoramic image data that does not include any moving object, to generate panoramic image data that includes only one moving object, and to see how the moving object continuously moves. It is also possible to generate panoramic image data.
このとき、パノラマ画像生成処理では、パノラマ撮像方向と略直交する方向で隣接する撮像画像のデータの位置合わせを行うことが一般的であるため、動体を避ける位置を特定するために、パノラマ撮像方向と略直交する方向に隣接するベクトルの類似度を用いることが好ましい。これにより、隣接する撮像画像同士をパノラマ撮像方向と略直交する方向の直線状で位置合わせすることができ、波形状で位置合わせを行う場合のような複雑な演算を必要とすることがない。 At this time, in the panorama image generation process, it is common to perform alignment of data of captured images adjacent in a direction substantially orthogonal to the panorama imaging direction. Therefore, in order to specify a position to avoid moving objects, the panorama imaging direction It is preferable to use the similarity of vectors adjacent to each other in a direction substantially orthogonal to the direction. Thereby, adjacent captured images can be aligned in a straight line shape in a direction substantially orthogonal to the panoramic image capturing direction, and there is no need for complicated calculation as in the case of aligning in a wave shape.
なお、類似度に基づいてとは、ベクトルの夫々が所定以上類似している一群の領域の位置で位置合わせを行うこととしてもよく、ベクトルの夫々が最も類似している一群の領域の位置で位置合わせを行うこととしてもよい。所定の類似度で位置合わせを行った場合には、撮像画像中の動体の位置に応じて任意に位置合わせを行うことができ、動体の表示態様を任意に設定することができる。また、最も類似する一群の位置で位置合わせを行った場合には、隣接する撮像画像のデータを最も自然に合成することができる。 Note that, based on the degree of similarity, the alignment may be performed at the position of a group of areas where the vectors are similar to each other by a predetermined amount or more, and the position of the group of areas where the vectors are most similar. It is good also as performing alignment. When the alignment is performed with a predetermined similarity, the alignment can be arbitrarily performed according to the position of the moving object in the captured image, and the display mode of the moving object can be arbitrarily set. In addition, when the alignment is performed at the most similar group of positions, the data of adjacent captured images can be synthesized most naturally.
また、デジタルカメラでは、レンズの歪曲等の関係から撮像画像の端部に若干の補正が加えられていることが一般的であるため、撮像画像の端部を除いた中心付近の領域を対象として一群の領域を特定することが好ましい。これにより、レンズの歪曲に関わらず特徴点のベクトルを正確に算出することができ、隣接する撮像画像のデータを適切に合成することができる。 In addition, in digital cameras, it is common that a slight correction is applied to the edge of the captured image due to the distortion of the lens, etc., so the area near the center excluding the edge of the captured image is targeted. It is preferable to identify a group of regions. Accordingly, the vector of feature points can be accurately calculated regardless of the distortion of the lens, and the data of adjacent captured images can be appropriately combined.
以上、本実施形態の画像処理装置1について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 The image processing apparatus 1 of the present embodiment has been described above. However, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within a scope that can achieve the object of the present invention are included in the present invention. It is what
上述の実施形態では、パノラマ画像生成処理において、隣接する撮像画像の位置合わせや合成を、撮像画像のデータを取得するたびに行うこととしているが、パノラマ画像のデータを生成するための全ての撮像画像のデータを取得した後に、位置合わせや合成をまとめて行うこととしてもよい。 In the above-described embodiment, in the panorama image generation process, adjacent captured images are aligned and synthesized each time captured image data is acquired. However, all the imagings for generating panoramic image data are performed. After acquiring image data, alignment and composition may be performed together.
また、上述の実施形態では、本発明が適用される画像処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、パノラマ画像生成機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a panoramic image generation function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。
The recording medium including such a program is not only constituted by the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された画像を複数の領域に分割する分割手段と、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段と、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段と、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段と、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記分割手段は、前記取得された画像を複数の連続した領域に分割し、
前記分割手段により分割された複数の領域のうち、前記移動の方向に略直交する方向に隣接して配置された一群の領域の夫々について、前記算出されたベクトル同士の類似度を算出する類似度算出手段と、
を更に備え、
前記領域選択手段は、類似度算出手段により算出された類似度に基づいて、前記一群の領域を、前記特定の領域として選択する
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記類似度算出手段は、前記画像の中心部分における前記一群の領域の夫々について、前記ベクトルの類似度を算出する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記領域選択手段は、前記一群の領域の夫々の前記ベクトルが最も類似する位置を、前記隣接する画像同士を位置合わせする領域として選択する、
ことを特徴とする付記2又は3に記載の画像処理装置。
[付記5]
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得ステップと、
前記取得ステップにより取得された画像を複数の領域に分割する分割ステップと、
前記分割ステップにより分割された複数の領域における特徴点を夫々検出する特徴点検出ステップと、
前記特徴点検出ステップにより夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出ステップと、
前記ベクトル算出ステップにより算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択ステップと、
前記領域選択ステップにより選択された特定の領域に基づいて、前記隣接する画像同士を合成することで前記合成画像を生成する生成ステップと、
を含むことを特徴とする画像処理方法。
[付記6]
コンピュータを、
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された画像を複数の領域に分割する分割手段、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで前記合成画像を生成する生成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
Area selecting means for selecting a specific area from the plurality of divided areas based on the plurality of vectors calculated by the vector calculating means;
Generating means for generating a synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
An image processing apparatus comprising:
[Appendix 2]
The dividing unit divides the acquired image into a plurality of continuous regions,
The similarity for calculating the similarity between the calculated vectors for each of a group of regions arranged adjacent to each other in a direction substantially orthogonal to the direction of movement among the plurality of regions divided by the dividing unit. A calculation means;
Further comprising
The image processing apparatus according to appendix 1, wherein the region selection unit selects the group of regions as the specific region based on the similarity calculated by the similarity calculation unit.
[Appendix 3]
The similarity calculation means calculates the similarity of the vector for each of the group of regions in the central portion of the image;
The image processing apparatus according to
[Appendix 4]
The region selecting means selects a position where the vectors of the group of regions are most similar as a region for aligning the adjacent images.
The image processing apparatus according to
[Appendix 5]
An acquisition step of acquiring a plurality of images continuously imaged with movement of the imaging unit;
A dividing step of dividing the image acquired by the acquiring step into a plurality of regions;
A feature point detecting step for detecting feature points in a plurality of regions divided by the dividing step, respectively;
A vector calculation step of calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points detected by the feature point detection step;
A region selection step of selecting a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculation step;
Based on the specific region selected by the region selection step, a generation step for generating the composite image by combining the adjacent images;
An image processing method comprising:
[Appendix 6]
Computer
Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
A region selecting unit that selects a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculating unit;
Generating means for generating the synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
A program characterized by functioning as
1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・入力部、19・・・出力部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、51・・・撮像制御部、52・・・記憶制御部、53・・・画像記憶部、54・・・画像取得部、55・・・位置合わせ部、551・・・特徴点検出部、552・・・特徴点追跡部、553・・・類似度算出部、554・・・画像位置合わせ部、56・・・パノラマ画像生成部 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17. ..Imaging section, 18 ... input section, 19 ... output section, 20 ... storage section, 21 ... communication section, 22 ... drive, 31 ... removable media, 51 ... Imaging control unit, 52... Storage control unit, 53... Image storage unit, 54... Image acquisition unit, 55 ... alignment unit, 551 ... feature point detection unit, 552. Point tracking unit, 553... Similarity calculation unit, 554... Image alignment unit, 56.
上記目的を達成するため、本発明の一態様の画像処理装置は、撮撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段と、前記複数の画像の夫々の、所定の情報に基づいて決定されるサイズの領域郡における特徴点を検出する特徴点検出手段と、前記特徴点に基づいて、前記領域郡から特定の領域を選択する領域選択手段と、前記特定の領域に基づいて、隣接する前記画像同士を合成することで合成画像を生成する生成手段と、を備えることを特徴とする。
To achieve the above object, an image processing apparatus of one embodiment of the present invention, an acquisition unit configured to acquire a plurality of images are continuously captured with the moving of the imaging unit shooting, each of the plurality of images, a feature point detection means for detecting a feature point in a region-gun size which is determined based on the predetermined information, based on the feature point, area selecting means for selecting a specific area from the area-gun, of the specific And generating means for generating a composite image by combining adjacent images based on a region.
Claims (6)
前記取得手段により取得された画像を複数の領域に分割する分割手段と、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段と、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段と、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段と、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
Area selecting means for selecting a specific area from the plurality of divided areas based on the plurality of vectors calculated by the vector calculating means;
Generating means for generating a synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
An image processing apparatus comprising:
前記分割手段により分割された複数の領域のうち、前記移動の方向に略直交する方向に隣接して配置された一群の領域の夫々について、前記算出されたベクトル同士の類似度を算出する類似度算出手段と、
を更に備え、
前記領域選択手段は、類似度算出手段により算出された類似度に基づいて、前記一群の領域を、前記特定の領域として選択する
ことを特徴とする請求項1に記載の画像処理装置。 The dividing unit divides the acquired image into a plurality of continuous regions,
The similarity for calculating the similarity between the calculated vectors for each of a group of regions arranged adjacent to each other in a direction substantially orthogonal to the direction of movement among the plurality of regions divided by the dividing unit. A calculation means;
Further comprising
The image processing apparatus according to claim 1, wherein the region selection unit selects the group of regions as the specific region based on the similarity calculated by the similarity calculation unit.
ことを特徴とする請求項2に記載の画像処理装置。 The similarity calculation means calculates the similarity of the vector for each of the group of regions in the central portion of the image;
The image processing apparatus according to claim 2.
ことを特徴とする請求項2又は3に記載の画像処理装置。 The region selecting means selects a position where the vectors of the group of regions are most similar as a region for aligning the adjacent images.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記取得ステップにより取得された画像を複数の領域に分割する分割ステップと、
前記分割ステップにより分割された複数の領域における特徴点を夫々検出する特徴点検出ステップと、
前記特徴点検出ステップにより夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出ステップと、
前記ベクトル算出ステップにより算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択ステップと、
前記領域選択ステップにより選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成ステップと、
を含むことを特徴とする画像処理方法。 An acquisition step of acquiring a plurality of images continuously imaged with movement of the imaging unit;
A dividing step of dividing the image acquired by the acquiring step into a plurality of regions;
A feature point detecting step for detecting feature points in a plurality of regions divided by the dividing step, respectively;
A vector calculation step of calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points detected by the feature point detection step;
A region selection step of selecting a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculation step;
Based on the specific region selected by the region selection step, a generation step of generating a composite image by combining the adjacent images;
An image processing method comprising:
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された画像を複数の領域に分割する分割手段、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段、
として機能させることを特徴とするプログラム。 Computer
Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
A region selecting unit that selects a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculating unit;
Generating means for generating a synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015138205A JP6036934B2 (en) | 2015-07-10 | 2015-07-10 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015138205A JP6036934B2 (en) | 2015-07-10 | 2015-07-10 | Image processing apparatus, image processing method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012054002A Division JP5799863B2 (en) | 2012-03-12 | 2012-03-12 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015181302A true JP2015181302A (en) | 2015-10-15 |
JP6036934B2 JP6036934B2 (en) | 2016-11-30 |
Family
ID=54329318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015138205A Active JP6036934B2 (en) | 2015-07-10 | 2015-07-10 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6036934B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007049289A (en) * | 2005-08-08 | 2007-02-22 | Casio Comput Co Ltd | Image processing unit and program |
JP2007122751A (en) * | 2007-01-30 | 2007-05-17 | Monolith Co Ltd | Method, device and program for image processing |
JP2008048152A (en) * | 2006-08-16 | 2008-02-28 | Casio Comput Co Ltd | Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program |
JP2008167092A (en) * | 2006-12-28 | 2008-07-17 | Casio Comput Co Ltd | Image synthesizer, image synthesis program and image synthesizing method |
US20110096143A1 (en) * | 2009-10-28 | 2011-04-28 | Hiroaki Ono | Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium |
JP2011234121A (en) * | 2010-04-27 | 2011-11-17 | Fujifilm Corp | Photographing apparatus and panoramic photographing method |
-
2015
- 2015-07-10 JP JP2015138205A patent/JP6036934B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007049289A (en) * | 2005-08-08 | 2007-02-22 | Casio Comput Co Ltd | Image processing unit and program |
JP2008048152A (en) * | 2006-08-16 | 2008-02-28 | Casio Comput Co Ltd | Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program |
JP2008167092A (en) * | 2006-12-28 | 2008-07-17 | Casio Comput Co Ltd | Image synthesizer, image synthesis program and image synthesizing method |
JP2007122751A (en) * | 2007-01-30 | 2007-05-17 | Monolith Co Ltd | Method, device and program for image processing |
US20110096143A1 (en) * | 2009-10-28 | 2011-04-28 | Hiroaki Ono | Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium |
JP2011234121A (en) * | 2010-04-27 | 2011-11-17 | Fujifilm Corp | Photographing apparatus and panoramic photographing method |
Also Published As
Publication number | Publication date |
---|---|
JP6036934B2 (en) | 2016-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5799863B2 (en) | Image processing apparatus, image processing method, and program | |
JP5655667B2 (en) | Imaging apparatus, imaging control method, image processing apparatus, image processing method, and program | |
US9648229B2 (en) | Image processing device and associated methodology for determining a main subject in an image | |
JP5643563B2 (en) | Image processing apparatus and control method thereof | |
JP6659130B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
TW201043014A (en) | Image capturing apparatus, image processing method and storage medium | |
JP2013009050A (en) | Image processing apparatus and image processing method | |
JP2014082533A (en) | Image processing apparatus, image processing method and program | |
JP2014127965A (en) | Image processing apparatus and image processing method | |
KR101665175B1 (en) | Image acquisition apparatus,image acquisition method and recording medium | |
JP2018037857A5 (en) | Image processing apparatus, image processing method, computer program, and storage medium | |
JP5248951B2 (en) | CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM | |
JP2012080204A (en) | Image processing device and method, and program | |
JP2014123916A (en) | Image composition device, image composition method, and program | |
JP2010154306A (en) | Device, program and method for imaging control | |
JP2017098829A (en) | Motion vector detection device, control method of the same, and imaging apparatus | |
JP6486453B2 (en) | Image processing apparatus, image processing method, and program | |
JP6036934B2 (en) | Image processing apparatus, image processing method, and program | |
JP2015233211A (en) | Imaging apparatus, control method thereof, and program | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP6427859B2 (en) | Image processing apparatus, image processing method, and program | |
JP2016134060A (en) | Image processor, control method thereof, control program, and imaging apparatus | |
JP2016127419A (en) | Image correction device, image correction method, and program | |
JP2013187726A (en) | Image analyzer, image processor, image analysis method and program | |
JP6357922B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150714 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6036934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |