JP2015181302A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2015181302A
JP2015181302A JP2015138205A JP2015138205A JP2015181302A JP 2015181302 A JP2015181302 A JP 2015181302A JP 2015138205 A JP2015138205 A JP 2015138205A JP 2015138205 A JP2015138205 A JP 2015138205A JP 2015181302 A JP2015181302 A JP 2015181302A
Authority
JP
Japan
Prior art keywords
image
unit
regions
image processing
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015138205A
Other languages
Japanese (ja)
Other versions
JP6036934B2 (en
Inventor
直知 宮本
Naotomo Miyamoto
直知 宮本
康佑 松本
Kosuke Matsumoto
康佑 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015138205A priority Critical patent/JP6036934B2/en
Publication of JP2015181302A publication Critical patent/JP2015181302A/en
Application granted granted Critical
Publication of JP6036934B2 publication Critical patent/JP6036934B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of generating data of a wide-angle image with no discomfort.SOLUTION: An image processing device 1 includes: a positioning unit 55 that performs positioning of adjacent photographing images; and a panoramic image generating unit 56 that generates data of a panoramic image by combining the adjacent photographing images on the basis of a result of the positioning, in panoramic image generation processing. The positioning unit 55 includes: a feature point tracking unit 552 that calculates a vector of a plurality of feature points between the adjacent photographing images; and an image positioning unit 554 that performs positioning of the adjacent photographing images while avoiding dynamic bodies in the photographing images on the basis of the calculated vector of the plurality of feature points.

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

デジタルカメラや、撮像機能を有する携帯電話等においては、撮像画角の限界はレンズの焦点距離、撮像素子のサイズ等、装置本体が備えるハードスペックに依存している。そこで、ハードスペックを超えるような広角画像を得るためのパノラマ撮像といった技術が従来から知られている。   In a digital camera, a mobile phone having an imaging function, etc., the limit of the imaging angle of view depends on hardware specifications provided in the apparatus main body, such as the focal length of the lens and the size of the imaging element. Therefore, a technique such as panoramic imaging for obtaining a wide-angle image exceeding the hardware specifications has been conventionally known.

パノラマ撮像を実現するためには、ユーザは、例えば、シャッタスイッチを押下操作した状態を維持しながら、自身の体を軸にして、デジタルカメラを垂直方向にほぼ固定したまま水平方向に回転させるように移動させる。すると、デジタルカメラは、その間に複数回の撮像処理を実行し、当該複数回の撮像処理の各々の結果得られた複数の画像(以下、「撮像画像」と呼ぶ)のデータを横方向(水平方向)に合成することによって、パノラマ画像等の広角画像のデータを生成する。   In order to realize panoramic imaging, for example, the user rotates the digital camera in the horizontal direction while maintaining the state where the shutter switch is pressed and holding the body as an axis, and the digital camera is substantially fixed in the vertical direction. Move to. Then, the digital camera executes a plurality of imaging processes in the meantime, and obtains data of a plurality of images (hereinafter referred to as “captured images”) obtained as a result of each of the plurality of imaging processes in the horizontal direction (horizontal). Direction), wide-angle image data such as a panoramic image is generated.

パノラマ撮像に関する工夫は、例えば、特許文献1には、複数回の撮像処理のたびに撮像画像における特徴点を検出し、隣接する2枚の撮像画像の特徴点が一致するように当該2枚の撮像画像のデータを合成することによって、パノラマ画像のデータを生成する手法が開示されている。   For example, in Patent Document 1, a feature point in a captured image is detected every time a plurality of image capturing processes are performed, and two such images are arranged so that the feature points of two adjacent captured images coincide with each other. A technique for generating panoramic image data by synthesizing captured image data is disclosed.

特開平11−282100号公報JP-A-11-282100

ところで、パノラマ画像を代表とする広角画像の撮像において、撮像対象にデジタルカメラの移動とは関係なく移動する動体が含まれる場合、単に特徴点の一致をみて隣接する撮像画像を合成する特許文献1の手法では、違和感のあるパノラマ画像のデータが生成されてしまうおそれがある。
この点について、図6を参照して具体的に説明する。図6は、パノラマ撮像の結果得られるパノラマ画像P1の一例を示す図である。図6(B)に示すパノラマ画像P1のデータは、図6(A)に示す複数の撮像画像F1,F2,F3,F4,F5の各データを合成することにより得られるパノラマ画像のデータである。図6(A)を参照すると、複数の撮像画像F1〜F5の中には、動体M1,M2,M3,M4が含まれている。このような動体M1〜M4を含む撮像画像F1〜F5の各データを従来の手法により合成した場合には、動体M1〜M4の一部が切り取られてしまうおそれがあり、結果として図6(B)に示すように違和感の有るパノラマ画像P1のデータが生成されてしまうおそれがある。
By the way, in the imaging of a wide-angle image typified by a panoramic image, when a moving object that moves regardless of the movement of the digital camera is included in the imaging target, the adjacent captured images are synthesized simply by looking at the matching of the feature points. With this method, there is a risk that panoramic image data with a sense of incongruity may be generated.
This point will be specifically described with reference to FIG. FIG. 6 is a diagram illustrating an example of a panoramic image P1 obtained as a result of panoramic imaging. The data of the panoramic image P1 shown in FIG. 6B is panoramic image data obtained by combining the data of the plurality of captured images F1, F2, F3, F4, and F5 shown in FIG. . Referring to FIG. 6A, moving bodies M1, M2, M3, and M4 are included in the plurality of captured images F1 to F5. When each data of the captured images F1 to F5 including such moving bodies M1 to M4 is synthesized by a conventional method, a part of the moving bodies M1 to M4 may be cut off, and as a result, FIG. ), There is a possibility that data of the panoramic image P1 having a sense of incongruity may be generated.

本発明は、このような問題に鑑みてなされたものであり、違和感のない合成画像を生成することを目的とする。   The present invention has been made in view of such a problem, and an object of the present invention is to generate a composite image without a sense of incongruity.

上記目的を達成するため、本発明の一態様の画像処理装置は、撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段と、前記取得手段により取得された画像を複数の領域に分割する分割手段と、記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段と、記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段と、前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段と、前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段と、を備えることを特徴とする。   In order to achieve the above object, an image processing apparatus according to one embodiment of the present invention includes an acquisition unit that acquires a plurality of images that are continuously captured with the movement of an imaging unit, and a plurality of images that are acquired by the acquisition unit. Based on the feature points detected by the feature point detection means, the feature point detection means for detecting feature points in the plurality of regions divided by the note splitting means, respectively. A vector calculating unit that calculates a plurality of vectors corresponding to the plurality of regions between adjacent images of the image of the image, and based on the plurality of vectors calculated by the vector calculating unit, from the plurality of divided regions A region selection unit that selects a region and a raw image that generates a composite image by combining the adjacent images based on the specific region selected by the region selection unit. Characterized in that it comprises a means.

本発明によれば、違和感のない合成画像を生成することができる。   According to the present invention, it is possible to generate a composite image without a sense of incongruity.

本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to an embodiment of the present invention. 図1の画像処理装置の機能的構成のうち、パノラマ画像生成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a panorama image generation process among the functional structures of the image processing apparatus of FIG. 画像処理部の位置合わせ部の機能を説明するための図である。It is a figure for demonstrating the function of the position alignment part of an image process part. 画像処理部の位置合わせ部及びパノラマ画像生成部の機能を説明するための図である。It is a figure for demonstrating the function of the position alignment part and panorama image generation part of an image processing part. 図2の機能的構成を有する図1の画像処理装置が実行するパノラマ画像生成処理の流れを説明するフローチャートである。3 is a flowchart for explaining a flow of panoramic image generation processing executed by the image processing apparatus of FIG. 1 having the functional configuration of FIG. 2. パノラマ撮像の結果得られるパノラマ画像を示す図である。It is a figure which shows the panoramic image obtained as a result of panoramic imaging.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention.
The image processing apparatus 1 is configured as a digital camera, for example.

画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging. A unit 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22 are provided.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。   The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.

CPU11、ROM12及びRAM13は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12 and RAM 13 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.

撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。   The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject. The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range. The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や画像処理部14等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like. The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Such an output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is appropriately supplied to the CPU 11, the image processing unit 14, and the like.

入力部18は、シャッタスイッチ等の各種ボタンで構成され、ユーザの指示操作に応じて各種情報や命令を入力する。
出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 18 includes various buttons such as a shutter switch, and inputs various information and commands in accordance with user instruction operations.
The output unit 19 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、このような画像処理装置1の機能的構成のうち、パノラマ画像生成処理を実行するための機能的構成を示す機能ブロック図である。ここで、「パノラマ画像生成処理」とは、連続して取得した複数の撮像画像のデータを用いてパノラマ画像のデータを生成する処理をいう。なお、「パノラマ画像」とは、35ミリ銀塩フィルムにより撮像された2:3の縦横比の画像や、デジタルカメラにより撮像された3:4の縦横比の画像と比較して、横長又は縦長の広角画像の一例である。   FIG. 2 is a functional block diagram showing a functional configuration for executing a panoramic image generation process among the functional configurations of such an image processing apparatus 1. Here, “panoramic image generation processing” refers to processing for generating panoramic image data using data of a plurality of captured images acquired successively. “Panorama image” refers to a 2: 3 aspect ratio image taken with a 35 mm silver salt film or a 3: 4 aspect ratio image taken with a digital camera. It is an example of a wide-angle image.

画像処理装置1がパノラマ画像生成処理を実行する場合には、CPU11は、撮像制御部51及び記憶制御部52として機能する。この場合、記憶部20には、撮像画像のデータやパノラマ画像のデータ等の各種画像のデータを記憶する領域として画像記憶部53が設けられる。   When the image processing apparatus 1 executes the panoramic image generation process, the CPU 11 functions as the imaging control unit 51 and the storage control unit 52. In this case, the storage unit 20 is provided with an image storage unit 53 as an area for storing various image data such as captured image data and panoramic image data.

撮像制御部51は、撮像部17による各種撮像動作を制御する。
詳細には、ユーザが、デジタルカメラとしての画像処理装置1を保持したまま、入力部18のシャッタスイッチを押下操作すると、画像処理装置1は、パノラマ画像生成処理を開始する。パノラマ画像生成処理が開始すると、撮像制御部51は、撮像部17の連続撮像の動作を開始させ、一定時間経過するたびに、又は画像処理装置1が所定量移動するたびに画像を撮像させる。
この間、ユーザがシャッタスイッチの押下操作の状態を維持したままの状態が所定時間経過した場合やデジタルカメラが所定量移動した場合等の所定条件が満たされると、撮像制御部51は、撮像部17における連続撮像の動作を終了させ、パノラマ画像生成処理を終了する。
The imaging control unit 51 controls various imaging operations by the imaging unit 17.
Specifically, when the user presses the shutter switch of the input unit 18 while holding the image processing apparatus 1 as a digital camera, the image processing apparatus 1 starts panoramic image generation processing. When the panorama image generation process starts, the imaging control unit 51 starts the continuous imaging operation of the imaging unit 17 and causes an image to be captured every time a predetermined time elapses or the image processing apparatus 1 moves a predetermined amount.
During this time, when a predetermined condition is satisfied, such as when the user remains in the state of pressing the shutter switch for a predetermined time or when the digital camera moves a predetermined amount, the imaging control unit 51 captures the imaging unit 17. The continuous imaging operation at is terminated, and the panoramic image generation process is terminated.

記憶制御部52は、パノラマ画像生成処理の結果生成されたパノラマ画像のデータ等の各種画像のデータを画像記憶部53に記憶させる制御を実行する。   The storage control unit 52 executes control for storing various image data such as panoramic image data generated as a result of the panoramic image generation process in the image storage unit 53.

また、画像処理装置1がパノラマ画像生成処理を実行する場合には、画像処理部14は、画像取得部54、位置合わせ部55及びパノラマ画像生成部56として機能する。   Further, when the image processing apparatus 1 executes the panoramic image generation process, the image processing unit 14 functions as the image acquisition unit 54, the alignment unit 55, and the panoramic image generation unit 56.

画像取得部54は、撮像部17の連続撮像の動作により出力されてくる複数の撮像画像のデータ、即ち連続的に撮像された複数の画像のデータを逐次取得する。   The image acquisition unit 54 sequentially acquires data of a plurality of captured images output by the continuous imaging operation of the imaging unit 17, that is, data of a plurality of images captured continuously.

位置合わせ部55は、画像取得部54により取得された複数の撮像画像のデータの夫々を処理対象として、当該複数の撮像画像のうち隣接する撮像画像同士の位置合わせを行う。なお、隣接する撮像画像とは、連続的に撮像された複数の撮像画像のうちのn枚目(nは1以上の整数値)の撮像画像とn+1枚目の撮像画像とをいう。
ここで、人物等の動体がデジタルカメラの移動とは関係なく移動することを原因として違和感の有るパノラマ画像のデータが生成されることを防止するため、本実施形態の位置合わせ部55は、特徴点検出部551と、特徴点追跡部552と、類似度算出部553と、画像位置合わせ部554と、を含んで構成される。このとき、特徴点検出部551が特徴点検出手段として機能し、特徴点追跡部442がベクトル算出手段として機能し、類似度算出部553及び画像位置合わせ部554が領域選択手段として機能する。
The alignment unit 55 performs alignment of adjacent captured images among the plurality of captured images, with each of the plurality of captured image data acquired by the image acquisition unit 54 as a processing target. The adjacent captured images are an n-th captured image (n is an integer value of 1 or more) and an (n + 1) -th captured image among a plurality of continuously captured images.
Here, in order to prevent panoramic image data having a sense of incongruity due to the movement of a moving object such as a person regardless of the movement of the digital camera, the alignment unit 55 of the present embodiment has a feature. A point detection unit 551, a feature point tracking unit 552, a similarity calculation unit 553, and an image registration unit 554 are included. At this time, the feature point detection unit 551 functions as a feature point detection unit, the feature point tracking unit 442 functions as a vector calculation unit, and the similarity calculation unit 553 and the image registration unit 554 function as a region selection unit.

特徴点検出部551は、画像取得部54により取得された複数の撮像画像のデータの夫々を処理対象として、撮像画像の中から複数の特徴点を検出する。即ち、特徴点検出部551は、画像取得部54が撮像画像のデータを取得するたびに、取得した撮像画像の中から複数の特徴点を検出する。なお、特徴点検出部551は、検出した特徴点を画像取得部54が取得した撮像画像のデータと対応付けて画像記憶部53に記憶する。
このとき、特徴点検出部551は、撮像画像を複数の連続した領域(エリア)に分割した上で、当該複数の領域の各々の中から特徴点を検出する。なお、撮像画像を分割する領域は、任意の形状とすることができ、例えば、矩形状の領域を採用することができる。また、複数の領域は、後述するように、デジタルカメラの移動方向(以下、「パノラマ撮像方向」と呼ぶ)及び当該方向と略直交する方向に連続して配置されているものとする。なお、略直交とは、手振れ等によりパノラマ撮像方向が直線状にならないことがあるためであり、説明を簡易にするのであれば、水平方向のパノラマ撮像方向に対して垂直方向が略直交する方向となる。
ここで、撮像画像の中から特徴点を検出する方法は、これまで公知の方法を採用することができ、例えば、SIFT(Scale Invariant Feature Transform)を用いることとしてもよく、また、ハリスのコーナー検出を用いることとしてもよく、また、その他の方法を用いることとしてもよい。
The feature point detection unit 551 detects a plurality of feature points from the captured image using each of the plurality of captured image data acquired by the image acquisition unit 54 as a processing target. That is, the feature point detection unit 551 detects a plurality of feature points from the acquired captured image every time the image acquisition unit 54 acquires captured image data. The feature point detection unit 551 stores the detected feature points in the image storage unit 53 in association with the captured image data acquired by the image acquisition unit 54.
At this time, the feature point detection unit 551 divides the captured image into a plurality of continuous regions (areas), and detects a feature point from each of the plurality of regions. In addition, the area | region which divides a captured image can be made into arbitrary shapes, For example, a rectangular area | region can be employ | adopted. Further, as will be described later, the plurality of areas are continuously arranged in the moving direction of the digital camera (hereinafter referred to as “panoramic imaging direction”) and the direction substantially orthogonal to the direction. Note that the term “substantially orthogonal” means that the panorama imaging direction may not be linear due to camera shake or the like. For simplicity, the direction in which the vertical direction is substantially orthogonal to the horizontal panorama imaging direction. It becomes.
Here, as a method for detecting a feature point from a captured image, a publicly known method can be employed. For example, a SIFT (Scale Invariant Feature Transform) may be used, and Harris corner detection may be used. Alternatively, other methods may be used.

特徴点追跡部552は、隣接する撮像画像の夫々における複数の特徴点を処理対象として、複数の特徴点毎に、隣接する撮像画像において当該特徴点がどの様に移動したかを示すベクトル、いわゆる移動ベクトルを算出する。即ち、特徴点追跡部552は、特徴点検出部551がn+1枚目の撮像画像の中から複数の特徴点を検出すると、検出したn+1枚目の撮像画像の特徴点の中から画像記憶部53に記憶されたn枚目の撮像画像の特徴点と対応する対応点を特定し、n枚目の撮像画像の特徴点からn+1枚目の撮像画像の対応点までのベクトルを、当該特徴点のベクトルとして算出する。このとき、特徴点追跡部552は、算出したベクトルをn枚目の撮像画像のデータと対応付けて画像記憶部53に記憶する。なお、本実施形態においてベクトルとは、特徴点の移動した方向及び移動の大きさ(距離)を示す。   The feature point tracking unit 552 uses a plurality of feature points in each of the adjacent captured images as a processing target, and for each of the plurality of feature points, a vector indicating how the feature points have moved in the adjacent captured images, so-called A movement vector is calculated. That is, the feature point tracking unit 552, when the feature point detection unit 551 detects a plurality of feature points from the (n + 1) th captured image, the image storage unit 53 from among the detected feature points of the (n + 1) th captured image. The corresponding point corresponding to the feature point of the n-th captured image stored in the n-th captured image is specified, and the vector from the feature point of the n-th captured image to the corresponding point of the n + 1-th captured image is determined as the feature point. Calculate as a vector. At this time, the feature point tracking unit 552 stores the calculated vector in the image storage unit 53 in association with the data of the nth captured image. In the present embodiment, the vector indicates the direction in which the feature point has moved and the magnitude (distance) of the movement.

類似度算出部553は、特徴点追跡部552が算出したベクトルを処理対象として、画像中の領域毎のベクトルの類似度を算出する。動体は、デジタルカメラの移動と関係なく移動するため、類似度算出部553は、ベクトルの類似度を算出することで、n枚目の撮像画像の中の動体の位置を特定する。このようにして特定した動体の位置を避けて隣接する撮像画像同士を位置合わせすることで、違和感の有るパノラマ画像のデータが生成されることを防止することができる。
ここで、パノラマ画像生成処理では、パノラマ撮像方向と略直交する方向の直線状に沿って、隣接する撮像画像のデータの位置合わせを行うことが一般的である。そこで、類似度算出部553は、複数の領域のうちパノラマ撮像方向に略直交する方向に隣接して配置された一群の領域の夫々で、ベクトルの類似度を算出する。なお、デジタルカメラでは、レンズの歪曲等の関係から撮像画像の端(上端、下端、左端、右端)に若干の補正が加えられていることがあるため、類似度算出部553は、撮像画像の端部を除いた中心付近の領域のみを対象としてベクトルの類似度を算出することが好ましい。このとき、中心付近の領域のサイズについては、例えば、レンズ性能に基づいて設定することとしてもよく、また、デジタルカメラの移動速度や撮像タイミングのように隣接する撮像画像間の移動距離に基づいて設定することとしてもよく(移動が大きい場合は中心付近も大きく、移動が小さい場合は中心付近も小さい)、任意に設定することができる。このような中心付近の領域を用いることは、ベクトルの類似度を算出する際にのみ適用することとしてもよく、また、特徴点を検出する際の領域分割の際から適用することとしてもよい。
なお、ベクトルの類似度とは、特徴点の移動した方向及び移動の大きさが類似していることを意味し、本実施形態では、SAD(Sum of Absolute Difference)計算により算出することとしている。即ち、類似度算出部553は、一群の領域内で隣り合うベクトルの差分を計算し足し合わせることで、ベクトルの類似度を算出する。このようなSAD計算では、演算結果が小さいほど一群の領域内のベクトルが類似していることを意味し、演算結果が大きいほど一群の領域内のベクトルが類似していないことを意味する。このとき、一群の領域に含まれる複数の領域の特徴点に対応点を特定することのできない特徴点が含まれる場合には、類似度算出部553は、当該一群の領域内のベクトルが類似していないと判断することが好ましい。動体の移動に伴い(例えば、動体がn+1枚目の特徴点の前面に移動したことにより)対応点を特定できない可能性が高いためである。なお、類似度の算出は、SAD計算に限らず任意の方法により行うこととしてもよく、例えば、SSD(Sum of Squared intensity Difference)計算や標準偏差等の公知の方法により算出することとしてもよい。
The similarity calculation unit 553 calculates the vector similarity for each region in the image using the vector calculated by the feature point tracking unit 552 as a processing target. Since the moving object moves regardless of the movement of the digital camera, the similarity calculation unit 553 calculates the vector similarity, thereby specifying the position of the moving object in the n-th captured image. By aligning adjacent captured images while avoiding the position of the moving object specified in this way, it is possible to prevent generation of unnatural panoramic image data.
Here, in the panoramic image generation process, it is common to perform alignment of data of adjacent captured images along a straight line in a direction substantially orthogonal to the panoramic imaging direction. Therefore, the similarity calculation unit 553 calculates the vector similarity in each of a group of regions arranged adjacent to each other in a direction substantially orthogonal to the panoramic imaging direction among the plurality of regions. In the digital camera, since the captured image may be slightly corrected at the ends (upper end, lower end, left end, and right end) due to lens distortion and the like, the similarity calculation unit 553 may calculate the captured image. It is preferable to calculate the vector similarity only for the region near the center excluding the edge. At this time, the size of the area near the center may be set based on the lens performance, for example, and based on the moving distance between adjacent captured images such as the moving speed and imaging timing of the digital camera. It may be set (when the movement is large, the vicinity of the center is large, and when the movement is small, the vicinity of the center is also small), and can be set arbitrarily. The use of such a region near the center may be applied only when calculating the similarity of vectors, or may be applied when dividing the region when detecting feature points.
Note that the similarity between vectors means that the direction in which the feature point has moved and the magnitude of the movement are similar. In this embodiment, the similarity is calculated by SAD (Sum of Absolute Difference) calculation. That is, the similarity calculation unit 553 calculates the vector similarity by calculating and adding the difference between adjacent vectors in a group of regions. In such SAD calculation, the smaller the calculation result, the more similar the vectors in the group of regions, and the larger the calculation result, the less the vectors in the group of regions. At this time, when the feature points for which the corresponding points cannot be specified are included in the feature points of the plurality of regions included in the group of regions, the similarity calculation unit 553 causes the vectors in the group of regions to be similar. It is preferable to judge that it is not. This is because it is highly possible that the corresponding point cannot be specified as the moving object moves (for example, because the moving object has moved to the front of the (n + 1) th feature point). The calculation of the similarity is not limited to the SAD calculation, and may be performed by an arbitrary method. For example, the similarity may be calculated by a known method such as an SSD (Sum of Squared Intensity Difference) calculation or a standard deviation.

画像位置合わせ部554は、特徴点追跡部552が算出した特徴点のベクトルに基づいて、隣接する撮像画像同士の位置合わせを行う。即ち、画像位置合わせ部554は、他の特徴点に比べて異常なベクトルを示す特徴点の位置を避けて、隣接する撮像画像同士の位置合わせを行う。
より具体的には、画像位置合わせ部554は、類似度算出部553が算出した一群の領域内のベクトルの類似度に基づいて隣接する撮像画像同士の位置合わせを行う。ここで、画像位置合わせ部554は、ベクトルの夫々が所定値以上類似している一群の領域の位置で位置合わせを行うこととしてもよく、ベクトルの夫々が最も類似している一群の領域の位置で位置合わせを行うこととしてもよい。これにより、デジタルカメラの移動と関係なく移動する動体を避けた位置で隣接する撮像画像同士の位置合わせを行うことができる。
The image alignment unit 554 aligns adjacent captured images based on the feature point vector calculated by the feature point tracking unit 552. In other words, the image alignment unit 554 aligns adjacent captured images while avoiding the positions of feature points that show abnormal vectors compared to other feature points.
More specifically, the image alignment unit 554 aligns adjacent captured images based on the similarity of vectors in a group of regions calculated by the similarity calculation unit 553. Here, the image alignment unit 554 may perform alignment at the position of a group of regions where the vectors are similar to each other by a predetermined value or more, and the position of the group of regions where the vectors are most similar. It is good also as aligning by. Thereby, the adjacent captured images can be aligned with each other at a position avoiding the moving object that moves regardless of the movement of the digital camera.

パノラマ画像生成部56は、位置合わせ部55が位置合わせした撮像画像同士の各データを合成し、パノラマ画像のデータを生成する。また、パノラマ画像生成部56は、生成したパノラマ画像のデータを画像記憶部53に記憶する。   The panoramic image generation unit 56 combines the data of the captured images aligned by the alignment unit 55 to generate panoramic image data. Further, the panorama image generation unit 56 stores the generated panorama image data in the image storage unit 53.

続いて、パノラマ画像生成処理の実行機能について、図3及び図4を参照して具体的に説明する。
図3は、画像処理部14の位置合わせ部55の機能を説明するための図であり、図4は、画像処理部14の位置合わせ部55及びパノラマ画像生成部56の機能を説明するための図である。ここで、図3及び図4では、図中左から右方向をパノラマ撮像方向としている。
Next, the execution function of the panoramic image generation process will be specifically described with reference to FIGS.
FIG. 3 is a diagram for explaining the functions of the alignment unit 55 of the image processing unit 14, and FIG. 4 is a diagram for explaining the functions of the alignment unit 55 and the panoramic image generation unit 56 of the image processing unit 14. FIG. Here, in FIGS. 3 and 4, the panoramic imaging direction is from the left to the right in the drawing.

図3(A)を参照して、画像取得部54は、連続的に撮像される撮像画像のデータを順次取得する。図3(A)では、撮像画像70のデータ及び撮像画像80のデータが取得されている。ここで、撮像画像70は、n枚目の撮像画像であり、図中左から右方向に走る人物を示す動体71及び背景を示す静体73を撮像対象とする撮像画像である。また、撮像画像80は、n+1枚目の撮像画像であり、動体81及び静体83を撮像対象とする撮像画像である。   Referring to FIG. 3A, the image acquisition unit 54 sequentially acquires data of captured images that are continuously captured. In FIG. 3A, the data of the captured image 70 and the data of the captured image 80 are acquired. Here, the captured image 70 is an n-th captured image, and is a captured image in which a moving body 71 indicating a person running from the left to the right in the drawing and a still body 73 indicating a background are captured. The captured image 80 is the (n + 1) th captured image and is a captured image in which the moving body 81 and the still body 83 are captured.

図3(B)を参照して、画像取得部54が撮像画像のデータを取得すると、特徴点検出部551が順次取得された撮像画像の中から領域毎の特徴点を検出するとともに、特徴点追跡部552が隣接する撮像画像における対応点を特定する。図3(B)では、n枚目の撮像画像70から特徴点A,B,C,D,E,F,G,H,Iを含む複数の特徴点が検出され、n+1枚目の撮像画像80から当該特徴点A乃至Iに対応する対応点A’,B’,C’,D’,E’,F’,G’,H’,I’が検出されている。なお、特徴点A乃至C、特徴点D乃至F、特徴点G乃至Iの夫々は、パノラマ撮像方向に略直交する方向に隣接する一群の領域の特徴点である。また、特徴点A乃至G及び対応点A’乃至G’は、静体73,83から検出された特徴点及び対応点であり、特徴点H,I及び対応点H’,I’は、動体71,82から検出された特徴点及び対応点である。   Referring to FIG. 3B, when the image acquisition unit 54 acquires captured image data, the feature point detection unit 551 detects feature points for each region from the sequentially acquired captured images, and the feature points. The tracking unit 552 identifies corresponding points in adjacent captured images. In FIG. 3B, a plurality of feature points including feature points A, B, C, D, E, F, G, H, and I are detected from the n-th captured image 70, and the (n + 1) -th captured image. Corresponding points A ′, B ′, C ′, D ′, E ′, F ′, G ′, H ′, I ′ corresponding to the feature points A to I are detected from 80. Note that the feature points A to C, the feature points D to F, and the feature points G to I are feature points of a group of regions adjacent to each other in a direction substantially orthogonal to the panoramic imaging direction. The feature points A to G and the corresponding points A ′ to G ′ are the feature points and corresponding points detected from the still bodies 73 and 83, and the feature points H and I and the corresponding points H ′ and I ′ are moving objects. These are feature points and corresponding points detected from 71 and 82.

図3(C)を参照して、特徴点追跡部552は、隣接する撮像画像における特徴点及び対応点を検出すると、n枚目の撮像画像70の特徴点からn+1枚目の撮像画像80の対応点までのベクトルを算出する。即ち、特徴点追跡部552は、図3(C)に示すように例えば、特徴点Aから対応点A’までのベクトルを算出する。
このように特徴点追跡部552が特徴点から対応点までのベクトルを算出すると、類似度算出部553は、パノラマ撮像方向に略直交する方向に隣接して配置された一群の領域の夫々で、ベクトルの類似度を算出する。ここで、図3(C)では、特徴点A乃至Gから対応点A’乃至G’については、概ねパノラマ撮像方向へのデジタルカメラの移動に伴うベクトルが算出されている一方で、特徴点H,Iから対応点H’,I’については、デジタルカメラの移動とは関係のないベクトルが算出されている。
そのため、画像位置合わせ部554は、類似度算出部553により算出された類似度から、特徴点A乃至Cを含む一群の領域及び特徴点D乃至Fを含む一群の領域についてベクトルが類似すると判定でき、特徴点G乃至Iを含む一群の領域についてはベクトルが類似しないと判定できる。
Referring to FIG. 3C, when the feature point tracking unit 552 detects the feature point and the corresponding point in the adjacent captured image, the feature point tracking unit 552 detects the (n + 1) th captured image 80 from the feature point of the nth captured image 70. A vector up to the corresponding point is calculated. That is, the feature point tracking unit 552 calculates a vector from the feature point A to the corresponding point A ′, for example, as shown in FIG.
When the feature point tracking unit 552 calculates the vector from the feature point to the corresponding point in this way, the similarity calculation unit 553 is a group of regions arranged adjacent to each other in a direction substantially orthogonal to the panoramic imaging direction. Calculate the similarity of vectors. Here, in FIG. 3C, for the corresponding points A ′ to G ′ from the feature points A to G, a vector accompanying the movement of the digital camera in the panoramic imaging direction is calculated, while the feature point H , I from the corresponding points H ′, I ′, vectors that are not related to the movement of the digital camera are calculated.
Therefore, the image alignment unit 554 can determine that the vectors of the group of regions including the feature points A to C and the group of regions including the feature points D to F are similar based on the similarity calculated by the similarity calculation unit 553. It can be determined that the vectors of the group of regions including the feature points G to I are not similar.

図4(A)を参照して、画像位置合わせ部554は、ベクトルの類似度判定の結果に基づいて、隣接する撮像画像同士の位置合わせを行う。
ここで、図4(B)に示すように、画像位置合わせ部554は、特徴点A乃至Cから対応点A’乃至C’までのベクトルが最も類似していると判定されるため、特徴点A乃至Cの位置で位置合わせを行うこととしている。
Referring to FIG. 4A, image alignment unit 554 aligns adjacent captured images based on the result of vector similarity determination.
Here, as shown in FIG. 4B, the image alignment unit 554 determines that the vectors from the feature points A to C to the corresponding points A ′ to C ′ are the most similar. Positioning is performed at positions A to C.

つまり、画像位置合わせ部554は、図4(B)に示すように、特徴点A及び対応点A’、特徴点B及び対応点B’、特徴点C及び対応点C’が一致するように、撮像画像70,80の位置合わせを行う。これにより、撮像画像70に含まれていた動体71を含まない位置で撮像画像70,80の位置合わせが行われることになる。   That is, as shown in FIG. 4B, the image alignment unit 554 matches the feature points A and corresponding points A ′, feature points B and corresponding points B ′, feature points C and corresponding points C ′. Then, the captured images 70 and 80 are aligned. Thereby, the alignment of the captured images 70 and 80 is performed at a position that does not include the moving object 71 included in the captured image 70.

図4(C)を参照して、画像位置合わせ部554が撮像画像70,80の位置合わせを行うと、パノラマ画像生成部56は、この位置合わせ結果に基づいて撮像画像70,80のデータを合成し、合成画像90のデータを生成する。
このように、本実施形態の画像処理装置1では、動体71,81を避けて撮像画像70,80の位置合わせを行うため、動体71,81の一部が切り取られてしまうといった違和感のある合成画像のデータが生成されることを防止できる。即ち、図4(C)に示すように、撮像画像80に含まれていた動体81をそのまま含む合成画像90のデータを生成することができる。
With reference to FIG. 4C, when the image alignment unit 554 aligns the captured images 70 and 80, the panoramic image generation unit 56 converts the data of the captured images 70 and 80 based on the alignment result. The synthesized image 90 is generated by combining the images.
As described above, in the image processing apparatus 1 according to the present embodiment, the captured images 70 and 80 are aligned while avoiding the moving bodies 71 and 81. Therefore, the moving body 71 and 81 are partly cut out, and the composition is strange. Generation of image data can be prevented. That is, as shown in FIG. 4C, it is possible to generate data of a composite image 90 that directly includes the moving object 81 included in the captured image 80.

また、本実施形態の画像処理装置1は、動体を避けて隣接する撮像画像の位置合わせを行うため、夫々の撮像画像に含まれる動体を様々な態様で表示することができる。即ち、動体を一切含むことのないパノラマ画像のデータを生成することもでき、また、動体を1つのみ含むパノラマ画像のデータを生成することもでき、また、動体が連続的に移動する様子を表わすパノラマ画像のデータを生成することもできる。
このような動体の表示態様については、特徴点のベクトルの類似度に加え、パノラマ撮像方向及び撮像画像中の動体の位置を考慮することで実現することができる。例えば、n枚目の撮像画像中の動体の位置よりもパノラマ撮像方向に後側の位置で位置合わせを行うことでn枚目の撮像画像に含まれている動体を除くことができ、n枚目の撮像画像中の動体の位置よりもパノラマ撮像方向に前側の位置で位置合わせを行うことでn枚目の撮像画像に含まれている動体を表示することができる。
Moreover, since the image processing apparatus 1 according to the present embodiment aligns adjacent captured images while avoiding moving objects, the moving objects included in each captured image can be displayed in various modes. That is, it is possible to generate panoramic image data that does not include any moving object, to generate panoramic image data that includes only one moving object, and to see how the moving object continuously moves. It is also possible to generate panoramic image data.
Such a moving object display mode can be realized by considering the panoramic imaging direction and the position of the moving object in the captured image in addition to the similarity of the feature point vectors. For example, the moving object included in the nth captured image can be removed by performing alignment at a position rearward in the panoramic imaging direction from the position of the moving object in the nth captured image. The moving object included in the n-th captured image can be displayed by performing alignment at a position in front of the panoramic imaging direction with respect to the position of the moving object in the captured image of the eye.

続いて、図5を参照してパノラマ画像生成処理について説明する。図5は、図2の機能的構成を有する画像処理装置1が実行するパノラマ画像生成処理の流れを示すフローチャートである。
なお、パノラマ画像生成処理は、ユーザの入力部18へのパノラマ画像生成処理を開始する操作、即ち、シャッタボタンの押下操作等を契機に開始される。
Next, the panorama image generation process will be described with reference to FIG. FIG. 5 is a flowchart showing a flow of panoramic image generation processing executed by the image processing apparatus 1 having the functional configuration of FIG.
Note that the panorama image generation process is triggered by the user's operation to start the panorama image generation process on the input unit 18, that is, the shutter button pressing operation or the like.

ステップS1において、撮像制御部51は、撮像部17が連続撮像をするように制御する。   In step S1, the imaging control unit 51 controls the imaging unit 17 to perform continuous imaging.

ステップS2において、画像取得部54は、撮像部17が撮像するたびに撮像画像のデータを取得する。このとき、画像取得部54は、取得した撮像画像のデータを画像記憶部53に一時的に記憶する。   In step S <b> 2, the image acquisition unit 54 acquires captured image data every time the imaging unit 17 captures an image. At this time, the image acquisition unit 54 temporarily stores the acquired captured image data in the image storage unit 53.

ステップS3において、特徴点検出部551は、ステップS2の処理で取得された撮像画像のデータから複数の特徴点を検出し、画像記憶部53に一時的に記憶する。   In step S <b> 3, the feature point detection unit 551 detects a plurality of feature points from the captured image data acquired in the process of step S <b> 2 and temporarily stores them in the image storage unit 53.

ステップS4において、特徴点追跡部552は、ステップS3の処理を行った撮像画像が2枚目以降のものであるか否かを判断する。2枚目以降の撮像画像である場合には、ステップS4においてYESと判断されて、処理はステップS5に進み、2枚目以降でない、即ち、1枚目の撮像画像である場合には、ステップS4においてNOと判断されて、処理はステップS1に戻る。   In step S4, the feature point tracking unit 552 determines whether the captured image that has undergone the process in step S3 is the second or subsequent image. If it is the second and subsequent captured images, YES is determined in step S4, and the process proceeds to step S5. If it is not the second and subsequent images, that is, if it is the first captured image, step S5 is performed. If NO is determined in S4, the process returns to step S1.

ステップS5において、特徴点追跡部552は、画像記憶部53から隣接する撮像画像(前回に撮像された撮像画像)における特徴点を抽出した後、隣接する撮像画像間で対応する特徴点を比較することで、隣接する撮像画像間での複数の特徴点のベクトルを算出する。   In step S5, the feature point tracking unit 552 extracts the feature points in the adjacent captured image (previously captured image) from the image storage unit 53, and then compares the corresponding feature points between the adjacent captured images. Thus, a vector of a plurality of feature points between adjacent captured images is calculated.

ステップS6において、類似度算出部553は、ステップS5の処理で算出した複数の特徴点のベクトルの類似度を算出する。具体的には、類似度算出部553は、パノラマ撮像方向と直交する方向に隣接する一群の領域の夫々で、ベクトルの類似度を算出する。   In step S6, the similarity calculation unit 553 calculates the similarity of the vector of the plurality of feature points calculated in the process of step S5. Specifically, the similarity calculation unit 553 calculates the vector similarity in each of a group of areas adjacent in a direction orthogonal to the panorama imaging direction.

ステップS7において、画像位置合わせ部554は、ステップS6の処理で算出したベクトルの類似度に基づいて隣接する撮像画像の位置合わせを行う。例えば、画像位置合わせ部554は、ベクトルの夫々が最も類似している一群の領域を選択して、当該領域の位置で位置合わせを行う。   In step S7, the image alignment unit 554 aligns adjacent captured images based on the vector similarity calculated in step S6. For example, the image alignment unit 554 selects a group of regions with the most similar vectors, and performs alignment at the position of the region.

ステップS8において、パノラマ画像生成部56は、ステップS7の処理で位置合わせした撮像画像同士の各データを合成し、パノラマ画像のデータを生成する。   In step S8, the panoramic image generation unit 56 combines the data of the captured images that have been aligned in the process of step S7, and generates panoramic image data.

ステップS9において、CPU11は、パノラマ画像生成処理を終了すべきか判断する。例えば、デジタルカメラが所定以上移動した場合や、ユーザによる所定の終了操作を受け付けた場合等に、CPU11は、パノラマ画像生成処理を終了すべきと判断する。ステップS9においてYESと判断されると、記憶制御部52は、これまで生成したパノラマ画像のデータを画像記憶部53に記憶してパノラマ画像生成処理を終了する。また、ステップS9においてNOと判断されると、処理はステップS10に移る。   In step S9, the CPU 11 determines whether the panoramic image generation process should be terminated. For example, the CPU 11 determines that the panoramic image generation process should be ended when the digital camera moves more than a predetermined amount or when a predetermined end operation is received by the user. If YES is determined in step S9, the storage control unit 52 stores the panoramic image data generated so far in the image storage unit 53, and ends the panoramic image generation process. If NO is determined in step S9, the process proceeds to step S10.

ステップS10において、CPU11又は画像処理部14は、エラーが発生したか否かを判断する。例えば、デジタルカメラがパノラマ撮像方向と直交する方向に所定以上移動した場合(即ち、手振れが大きい場合)や、撮像画像から十分な数の特徴点を検出できない場合等に、CPU11又は画像処理部14は、エラーが発生したと判断する。ステップS10においてYESと判断されると、パノラマ画像生成処理は終了し、ステップS11においてNOと判断されると、処理はステップS1に移る。   In step S10, the CPU 11 or the image processing unit 14 determines whether an error has occurred. For example, the CPU 11 or the image processing unit 14 when the digital camera moves more than a predetermined amount in a direction orthogonal to the panoramic imaging direction (ie, when camera shake is large) or when a sufficient number of feature points cannot be detected from the captured image. Determines that an error has occurred. If YES is determined in step S10, the panorama image generation process is terminated. If NO is determined in step S11, the process proceeds to step S1.

以上のように構成される画像処理装置1は、撮像部17から供給される撮像画像のデータを処理対象として、隣接する撮像画像同士の位置合わせを行う位置合わせ部55と、位置合わせ部55の位置合わせ結果に基づいて隣接する撮像画像のデータを合成することでパノラマ画像のデータを生成するパノラマ画像生成部56と、を備える。このとき、位置合わせ部55は、隣接する撮像画像間における複数の特徴点のベクトルを算出する特徴点追跡部552と、算出した複数の特徴点のベクトルに基づいて、隣接する撮像画像同士を位置合わせする画像位置合わせ部554と、を備える。
これにより、ベクトルが異常な特徴点の位置を避けて、即ちデジタルカメラの移動とは関係なく移動する動体の位置を避けて、隣接する撮像画像同士の位置合わせを行うことができる。その結果、合成の結果得られるパノラマ画像において、動体の一部が切り取られてしまうことを防止することができ、違和感のないパノラマ画像のデータを生成することができる。
また、画像処理装置1では、特徴点のベクトルに加え、パノラマ撮像方向と撮像画像中の動体の位置を考慮することで、合成の結果得られるパノラマ画像において動体を様々な態様で表示することができる。即ち、動体を一切含むことのないパノラマ画像のデータを生成することもでき、また、動体を1つのみ含むパノラマ画像のデータを生成することもでき、また、動体が連続的に移動する様子を表わすパノラマ画像のデータを生成することもできる。
The image processing apparatus 1 configured as described above includes a registration unit 55 that performs registration of adjacent captured images with the captured image data supplied from the imaging unit 17 as a processing target, and a registration unit 55. A panorama image generation unit 56 that generates panorama image data by combining adjacent captured image data based on the alignment result; At this time, the alignment unit 55 positions the adjacent captured images based on the feature point tracking unit 552 that calculates a vector of a plurality of feature points between adjacent captured images and the calculated vector of the plurality of feature points. An image positioning unit 554 for matching.
Thereby, it is possible to align adjacent captured images while avoiding the position of a feature point with an abnormal vector, that is, avoiding the position of a moving object that moves regardless of the movement of the digital camera. As a result, in the panoramic image obtained as a result of the synthesis, it is possible to prevent a part of the moving object from being cut out, and it is possible to generate panoramic image data without a sense of discomfort.
Further, in the image processing apparatus 1, in addition to the feature point vector, the panoramic imaging direction and the position of the moving object in the captured image are taken into consideration, so that the moving object can be displayed in various modes in the panoramic image obtained as a result of the synthesis. it can. That is, it is possible to generate panoramic image data that does not include any moving object, to generate panoramic image data that includes only one moving object, and to see how the moving object continuously moves. It is also possible to generate panoramic image data.

このとき、パノラマ画像生成処理では、パノラマ撮像方向と略直交する方向で隣接する撮像画像のデータの位置合わせを行うことが一般的であるため、動体を避ける位置を特定するために、パノラマ撮像方向と略直交する方向に隣接するベクトルの類似度を用いることが好ましい。これにより、隣接する撮像画像同士をパノラマ撮像方向と略直交する方向の直線状で位置合わせすることができ、波形状で位置合わせを行う場合のような複雑な演算を必要とすることがない。   At this time, in the panorama image generation process, it is common to perform alignment of data of captured images adjacent in a direction substantially orthogonal to the panorama imaging direction. Therefore, in order to specify a position to avoid moving objects, the panorama imaging direction It is preferable to use the similarity of vectors adjacent to each other in a direction substantially orthogonal to the direction. Thereby, adjacent captured images can be aligned in a straight line shape in a direction substantially orthogonal to the panoramic image capturing direction, and there is no need for complicated calculation as in the case of aligning in a wave shape.

なお、類似度に基づいてとは、ベクトルの夫々が所定以上類似している一群の領域の位置で位置合わせを行うこととしてもよく、ベクトルの夫々が最も類似している一群の領域の位置で位置合わせを行うこととしてもよい。所定の類似度で位置合わせを行った場合には、撮像画像中の動体の位置に応じて任意に位置合わせを行うことができ、動体の表示態様を任意に設定することができる。また、最も類似する一群の位置で位置合わせを行った場合には、隣接する撮像画像のデータを最も自然に合成することができる。   Note that, based on the degree of similarity, the alignment may be performed at the position of a group of areas where the vectors are similar to each other by a predetermined amount or more, and the position of the group of areas where the vectors are most similar. It is good also as performing alignment. When the alignment is performed with a predetermined similarity, the alignment can be arbitrarily performed according to the position of the moving object in the captured image, and the display mode of the moving object can be arbitrarily set. In addition, when the alignment is performed at the most similar group of positions, the data of adjacent captured images can be synthesized most naturally.

また、デジタルカメラでは、レンズの歪曲等の関係から撮像画像の端部に若干の補正が加えられていることが一般的であるため、撮像画像の端部を除いた中心付近の領域を対象として一群の領域を特定することが好ましい。これにより、レンズの歪曲に関わらず特徴点のベクトルを正確に算出することができ、隣接する撮像画像のデータを適切に合成することができる。   In addition, in digital cameras, it is common that a slight correction is applied to the edge of the captured image due to the distortion of the lens, etc., so the area near the center excluding the edge of the captured image is targeted. It is preferable to identify a group of regions. Accordingly, the vector of feature points can be accurately calculated regardless of the distortion of the lens, and the data of adjacent captured images can be appropriately combined.

以上、本実施形態の画像処理装置1について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   The image processing apparatus 1 of the present embodiment has been described above. However, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within a scope that can achieve the object of the present invention are included in the present invention. It is what

上述の実施形態では、パノラマ画像生成処理において、隣接する撮像画像の位置合わせや合成を、撮像画像のデータを取得するたびに行うこととしているが、パノラマ画像のデータを生成するための全ての撮像画像のデータを取得した後に、位置合わせや合成をまとめて行うこととしてもよい。   In the above-described embodiment, in the panorama image generation process, adjacent captured images are aligned and synthesized each time captured image data is acquired. However, all the imagings for generating panoramic image data are performed. After acquiring image data, alignment and composition may be performed together.

また、上述の実施形態では、本発明が適用される画像処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、パノラマ画像生成機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a panoramic image generation function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された画像を複数の領域に分割する分割手段と、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段と、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段と、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段と、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記分割手段は、前記取得された画像を複数の連続した領域に分割し、
前記分割手段により分割された複数の領域のうち、前記移動の方向に略直交する方向に隣接して配置された一群の領域の夫々について、前記算出されたベクトル同士の類似度を算出する類似度算出手段と、
を更に備え、
前記領域選択手段は、類似度算出手段により算出された類似度に基づいて、前記一群の領域を、前記特定の領域として選択する
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記類似度算出手段は、前記画像の中心部分における前記一群の領域の夫々について、前記ベクトルの類似度を算出する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記領域選択手段は、前記一群の領域の夫々の前記ベクトルが最も類似する位置を、前記隣接する画像同士を位置合わせする領域として選択する、
ことを特徴とする付記2又は3に記載の画像処理装置。
[付記5]
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得ステップと、
前記取得ステップにより取得された画像を複数の領域に分割する分割ステップと、
前記分割ステップにより分割された複数の領域における特徴点を夫々検出する特徴点検出ステップと、
前記特徴点検出ステップにより夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出ステップと、
前記ベクトル算出ステップにより算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択ステップと、
前記領域選択ステップにより選択された特定の領域に基づいて、前記隣接する画像同士を合成することで前記合成画像を生成する生成ステップと、
を含むことを特徴とする画像処理方法。
[付記6]
コンピュータを、
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された画像を複数の領域に分割する分割手段、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで前記合成画像を生成する生成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
Area selecting means for selecting a specific area from the plurality of divided areas based on the plurality of vectors calculated by the vector calculating means;
Generating means for generating a synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
An image processing apparatus comprising:
[Appendix 2]
The dividing unit divides the acquired image into a plurality of continuous regions,
The similarity for calculating the similarity between the calculated vectors for each of a group of regions arranged adjacent to each other in a direction substantially orthogonal to the direction of movement among the plurality of regions divided by the dividing unit. A calculation means;
Further comprising
The image processing apparatus according to appendix 1, wherein the region selection unit selects the group of regions as the specific region based on the similarity calculated by the similarity calculation unit.
[Appendix 3]
The similarity calculation means calculates the similarity of the vector for each of the group of regions in the central portion of the image;
The image processing apparatus according to Supplementary Note 2, wherein
[Appendix 4]
The region selecting means selects a position where the vectors of the group of regions are most similar as a region for aligning the adjacent images.
The image processing apparatus according to appendix 2 or 3, characterized by the above.
[Appendix 5]
An acquisition step of acquiring a plurality of images continuously imaged with movement of the imaging unit;
A dividing step of dividing the image acquired by the acquiring step into a plurality of regions;
A feature point detecting step for detecting feature points in a plurality of regions divided by the dividing step, respectively;
A vector calculation step of calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points detected by the feature point detection step;
A region selection step of selecting a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculation step;
Based on the specific region selected by the region selection step, a generation step for generating the composite image by combining the adjacent images;
An image processing method comprising:
[Appendix 6]
Computer
Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
A region selecting unit that selects a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculating unit;
Generating means for generating the synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
A program characterized by functioning as

1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・入力部、19・・・出力部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、51・・・撮像制御部、52・・・記憶制御部、53・・・画像記憶部、54・・・画像取得部、55・・・位置合わせ部、551・・・特徴点検出部、552・・・特徴点追跡部、553・・・類似度算出部、554・・・画像位置合わせ部、56・・・パノラマ画像生成部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17. ..Imaging section, 18 ... input section, 19 ... output section, 20 ... storage section, 21 ... communication section, 22 ... drive, 31 ... removable media, 51 ... Imaging control unit, 52... Storage control unit, 53... Image storage unit, 54... Image acquisition unit, 55 ... alignment unit, 551 ... feature point detection unit, 552. Point tracking unit, 553... Similarity calculation unit, 554... Image alignment unit, 56.

上記目的を達成するため、本発明の一態様の画像処理装置は、撮撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段と、前記複数の画像の夫々の、所定の情報に基づいて決定されるサイズの領域郡における特徴点を検出する特徴点検出手段と、前記特徴点に基づいて、前記領域郡から特定の領域を選択する領域選択手段と、前記特定の領域に基づいて、隣接する前記画像同士を合成することで合成画像を生成する生成手段と、を備えることを特徴とする。
To achieve the above object, an image processing apparatus of one embodiment of the present invention, an acquisition unit configured to acquire a plurality of images are continuously captured with the moving of the imaging unit shooting, each of the plurality of images, a feature point detection means for detecting a feature point in a region-gun size which is determined based on the predetermined information, based on the feature point, area selecting means for selecting a specific area from the area-gun, of the specific And generating means for generating a composite image by combining adjacent images based on a region.

Claims (6)

撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された画像を複数の領域に分割する分割手段と、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段と、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段と、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段と、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
Area selecting means for selecting a specific area from the plurality of divided areas based on the plurality of vectors calculated by the vector calculating means;
Generating means for generating a synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
An image processing apparatus comprising:
前記分割手段は、前記取得された画像を複数の連続した領域に分割し、
前記分割手段により分割された複数の領域のうち、前記移動の方向に略直交する方向に隣接して配置された一群の領域の夫々について、前記算出されたベクトル同士の類似度を算出する類似度算出手段と、
を更に備え、
前記領域選択手段は、類似度算出手段により算出された類似度に基づいて、前記一群の領域を、前記特定の領域として選択する
ことを特徴とする請求項1に記載の画像処理装置。
The dividing unit divides the acquired image into a plurality of continuous regions,
The similarity for calculating the similarity between the calculated vectors for each of a group of regions arranged adjacent to each other in a direction substantially orthogonal to the direction of movement among the plurality of regions divided by the dividing unit. A calculation means;
Further comprising
The image processing apparatus according to claim 1, wherein the region selection unit selects the group of regions as the specific region based on the similarity calculated by the similarity calculation unit.
前記類似度算出手段は、前記画像の中心部分における前記一群の領域の夫々について、前記ベクトルの類似度を算出する、
ことを特徴とする請求項2に記載の画像処理装置。
The similarity calculation means calculates the similarity of the vector for each of the group of regions in the central portion of the image;
The image processing apparatus according to claim 2.
前記領域選択手段は、前記一群の領域の夫々の前記ベクトルが最も類似する位置を、前記隣接する画像同士を位置合わせする領域として選択する、
ことを特徴とする請求項2又は3に記載の画像処理装置。
The region selecting means selects a position where the vectors of the group of regions are most similar as a region for aligning the adjacent images.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得ステップと、
前記取得ステップにより取得された画像を複数の領域に分割する分割ステップと、
前記分割ステップにより分割された複数の領域における特徴点を夫々検出する特徴点検出ステップと、
前記特徴点検出ステップにより夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出ステップと、
前記ベクトル算出ステップにより算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択ステップと、
前記領域選択ステップにより選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成ステップと、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of images continuously imaged with movement of the imaging unit;
A dividing step of dividing the image acquired by the acquiring step into a plurality of regions;
A feature point detecting step for detecting feature points in a plurality of regions divided by the dividing step, respectively;
A vector calculation step of calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points detected by the feature point detection step;
A region selection step of selecting a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculation step;
Based on the specific region selected by the region selection step, a generation step of generating a composite image by combining the adjacent images;
An image processing method comprising:
コンピュータを、
撮像部の移動を伴い連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された画像を複数の領域に分割する分割手段、
前記分割手段により分割された複数の領域における特徴点を夫々検出する特徴点検出手段、
前記特徴点検出手段により夫々検出された特徴点に基づいて、前記複数の画像の隣接する画像間における前記複数の領域に対応するベクトルを複数算出するベクトル算出手段、
前記ベクトル算出手段により算出された複数のベクトルに基づいて、前記分割された複数の領域から特定の領域を選択する領域選択手段、
前記領域選択手段により選択された特定の領域に基づいて、前記隣接する画像同士を合成することで合成画像を生成する生成手段、
として機能させることを特徴とするプログラム。
Computer
Acquisition means for acquiring a plurality of images continuously captured with movement of the imaging unit;
A dividing unit that divides the image acquired by the acquiring unit into a plurality of regions;
Feature point detecting means for detecting feature points in a plurality of regions divided by the dividing means,
Vector calculation means for calculating a plurality of vectors corresponding to the plurality of regions between adjacent images of the plurality of images based on the feature points respectively detected by the feature point detection means;
A region selecting unit that selects a specific region from the plurality of divided regions based on the plurality of vectors calculated by the vector calculating unit;
Generating means for generating a synthesized image by synthesizing the adjacent images based on the specific area selected by the area selecting means;
A program characterized by functioning as
JP2015138205A 2015-07-10 2015-07-10 Image processing apparatus, image processing method, and program Active JP6036934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015138205A JP6036934B2 (en) 2015-07-10 2015-07-10 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015138205A JP6036934B2 (en) 2015-07-10 2015-07-10 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012054002A Division JP5799863B2 (en) 2012-03-12 2012-03-12 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015181302A true JP2015181302A (en) 2015-10-15
JP6036934B2 JP6036934B2 (en) 2016-11-30

Family

ID=54329318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015138205A Active JP6036934B2 (en) 2015-07-10 2015-07-10 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6036934B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007049289A (en) * 2005-08-08 2007-02-22 Casio Comput Co Ltd Image processing unit and program
JP2007122751A (en) * 2007-01-30 2007-05-17 Monolith Co Ltd Method, device and program for image processing
JP2008048152A (en) * 2006-08-16 2008-02-28 Casio Comput Co Ltd Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP2008167092A (en) * 2006-12-28 2008-07-17 Casio Comput Co Ltd Image synthesizer, image synthesis program and image synthesizing method
US20110096143A1 (en) * 2009-10-28 2011-04-28 Hiroaki Ono Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium
JP2011234121A (en) * 2010-04-27 2011-11-17 Fujifilm Corp Photographing apparatus and panoramic photographing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007049289A (en) * 2005-08-08 2007-02-22 Casio Comput Co Ltd Image processing unit and program
JP2008048152A (en) * 2006-08-16 2008-02-28 Casio Comput Co Ltd Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP2008167092A (en) * 2006-12-28 2008-07-17 Casio Comput Co Ltd Image synthesizer, image synthesis program and image synthesizing method
JP2007122751A (en) * 2007-01-30 2007-05-17 Monolith Co Ltd Method, device and program for image processing
US20110096143A1 (en) * 2009-10-28 2011-04-28 Hiroaki Ono Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium
JP2011234121A (en) * 2010-04-27 2011-11-17 Fujifilm Corp Photographing apparatus and panoramic photographing method

Also Published As

Publication number Publication date
JP6036934B2 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
JP5799863B2 (en) Image processing apparatus, image processing method, and program
JP5655667B2 (en) Imaging apparatus, imaging control method, image processing apparatus, image processing method, and program
US9648229B2 (en) Image processing device and associated methodology for determining a main subject in an image
JP5643563B2 (en) Image processing apparatus and control method thereof
JP6659130B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
TW201043014A (en) Image capturing apparatus, image processing method and storage medium
JP2013009050A (en) Image processing apparatus and image processing method
JP2014082533A (en) Image processing apparatus, image processing method and program
JP2014127965A (en) Image processing apparatus and image processing method
KR101665175B1 (en) Image acquisition apparatus,image acquisition method and recording medium
JP2018037857A5 (en) Image processing apparatus, image processing method, computer program, and storage medium
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP2012080204A (en) Image processing device and method, and program
JP2014123916A (en) Image composition device, image composition method, and program
JP2010154306A (en) Device, program and method for imaging control
JP2017098829A (en) Motion vector detection device, control method of the same, and imaging apparatus
JP6486453B2 (en) Image processing apparatus, image processing method, and program
JP6036934B2 (en) Image processing apparatus, image processing method, and program
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP2015041865A (en) Image processing apparatus and image processing method
JP6427859B2 (en) Image processing apparatus, image processing method, and program
JP2016134060A (en) Image processor, control method thereof, control program, and imaging apparatus
JP2016127419A (en) Image correction device, image correction method, and program
JP2013187726A (en) Image analyzer, image processor, image analysis method and program
JP6357922B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R150 Certificate of patent or registration of utility model

Ref document number: 6036934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150