JP2014123916A - Image composition device, image composition method, and program - Google Patents

Image composition device, image composition method, and program Download PDF

Info

Publication number
JP2014123916A
JP2014123916A JP2012280124A JP2012280124A JP2014123916A JP 2014123916 A JP2014123916 A JP 2014123916A JP 2012280124 A JP2012280124 A JP 2012280124A JP 2012280124 A JP2012280124 A JP 2012280124A JP 2014123916 A JP2014123916 A JP 2014123916A
Authority
JP
Japan
Prior art keywords
image
unit
region
extraction
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012280124A
Other languages
Japanese (ja)
Other versions
JP5884723B2 (en
Inventor
Naotomo Miyamoto
直知 宮本
Kosuke Matsumoto
康佑 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012280124A priority Critical patent/JP5884723B2/en
Publication of JP2014123916A publication Critical patent/JP2014123916A/en
Application granted granted Critical
Publication of JP5884723B2 publication Critical patent/JP5884723B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable reduction of a waste of time for composition processing of images.SOLUTION: An imaging device 1 comprises a captured image selection unit 51, an image composition unit 55, an extraction candidate area determination unit 53, and an extraction area determination unit 54. The extraction candidate area determination unit 53 determines whether a feature amount in a captured image selected by the captured image selection unit 51 is equal to or smaller than a predetermined value. The extraction area determination unit 54 determines an extraction area of an image to be combined by the image composition unit 55 on the basis of the determination result of the extraction candidate area determination unit 53.

Description

本発明は、例えば、パノラマ画像を生成するための画像合成装置、画像合成方法及びプログラムに関する。   The present invention relates to an image composition apparatus, an image composition method, and a program for generating a panoramic image, for example.

従来のパノラマ画像を生成する技術として、次のような技術が知られている。即ち、ユーザは、シャッタスイッチの押下操作の状態を維持しながら、デジタルカメラを垂直方向にほぼ固定したまま水平方向に回転させるように移動させる。デジタルカメラは、この移動最中に連続して複数回撮像し、これら複数回に撮像した画像同士の一部の領域を継ぎ合わせるように合成することで、パノラマ画像を生成する(例えば、特許文献1参照)。   The following techniques are known as techniques for generating a conventional panoramic image. That is, the user moves the digital camera so as to rotate in the horizontal direction while being substantially fixed in the vertical direction while maintaining the state of pressing the shutter switch. The digital camera captures a plurality of images continuously during the movement, and generates a panoramic image by compositing so that a part of the regions of the images captured at the plurality of times is joined (for example, patent document). 1).

特開平6−303562号公報JP-A-6-303562

しかしながら、上述の特許文献1の技術では、例えば、合成対象となる画像同士の領域に特徴がない場合、画像同士の位置合わせ処理を行っても失敗する可能性が高く、合成処理の時間が無駄になる虞がある。   However, in the technique of Patent Document 1 described above, for example, when there is no feature in the area between the images to be combined, it is highly possible that the alignment process between the images will fail, and the time for the combining process is wasted. There is a risk of becoming.

そこで本発明は、上述のような状況に鑑みてなされたものであり、画像同士の合成処理の時間の無駄を軽減することを目的とする。   Therefore, the present invention has been made in view of the above situation, and an object of the present invention is to reduce the waste of time for combining images.

上記目的を達成するため、本発明の一態様の画像合成装置は、
複数の画像を取得する取得手段と、
前記取得手段により取得された複数の画像を合成する合成手段と、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記合成手段により合成される画像の抽出領域を決定する決定手段と、
を備えることを特徴とする。
In order to achieve the above object, an image composition device according to an aspect of the present invention includes:
Acquisition means for acquiring a plurality of images;
Combining means for combining a plurality of images acquired by the acquiring means;
Determination means for determining whether or not a feature amount in the image acquired by the acquisition means is equal to or less than a predetermined value;
A determining unit that determines an extraction region of an image to be combined by the combining unit based on a determination result by the determining unit;
It is characterized by providing.

また、上記目的を達成するため、本発明の別の一態様の画像合成装置は、
撮像手段を制御する撮像制御手段を備え、
前記撮像手段により撮像された画像を取得する取得手段と、
前記取得手段により取得された複数の画像を合成する合成手段と、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記画像における前記処理回避領域を避けるように次回の撮像範囲を決定する決定手段と、
を備え、
前記撮像制御手段は、前記判定手段による判定結果に基づいて、前記撮像範囲を変更するように前記撮像手段を制御する、
ことを特徴とする。
In order to achieve the above object, an image composition device according to another aspect of the present invention includes:
An imaging control means for controlling the imaging means,
Obtaining means for obtaining an image captured by the imaging means;
Combining means for combining a plurality of images acquired by the acquiring means;
Determination means for determining whether or not a feature amount in the image acquired by the acquisition means is equal to or less than a predetermined value;
A determination unit that determines a next imaging range so as to avoid the processing avoidance region in the image based on a determination result by the determination unit;
With
The imaging control unit controls the imaging unit to change the imaging range based on a determination result by the determination unit;
It is characterized by that.

本発明によれば、画像同士の合成処理の時間の無駄を軽減することができる。   According to the present invention, it is possible to reduce the waste of time for synthesizing images.

本実施形態におけるパノラマ画像の生成の手法を説明するための模式図である。It is a schematic diagram for demonstrating the method of the production | generation of the panorama image in this embodiment. 本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 図2の撮像装置の機能的構成のうち、画像合成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing an image composition process among the functional structures of the imaging device of FIG. 本実施形態におけるパノラマ画像の生成の仕組みを説明するための模式図である。It is a schematic diagram for demonstrating the structure of the production | generation of the panoramic image in this embodiment. 撮像画像における抽出候補領域の拡張を説明するための示す模式図である。It is a schematic diagram for demonstrating the expansion of the extraction candidate area | region in a captured image. 図2の撮像装置が実行する撮像処理の流れを説明するフローチャートである。3 is a flowchart illustrating a flow of imaging processing executed by the imaging device of FIG. 2. 図3の機能構成を有する図2の撮像装置が実行する画像合成処理の流れを説明するフローチャートである。4 is a flowchart for explaining a flow of image composition processing executed by the imaging apparatus of FIG. 2 having the functional configuration of FIG. 3.

以下、本発明の実施形態について、図面を用いて説明する。
まず、本実施形態におけるパノラマ画像の生成の手法について説明する。
図1は、本実施形態におけるパノラマ画像の生成の手法を説明するための模式図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, a method for generating a panoramic image in the present embodiment will be described.
FIG. 1 is a schematic diagram for explaining a method of generating a panoramic image in the present embodiment.

図1(a)に示すように、撮像装置1は、いわゆるライブビュー画像を表示部に表示させ続けているものとする。
そこで、ユーザは、まず、ライブビュー画像を視認しながら、パノラマ画像として得たい領域のうち始点の領域がライブビュー画像に含まれる位置(以下、「始点位置」という)まで撮像装置1を移動させる。そして、ユーザは、この始点位置において、シャッタスイッチの押下操作等、撮像の開始の指示操作をする。
撮像装置1は、この指示操作を契機として、1回目の撮像を行う。即ち、1回目の撮像は、始点の領域が画角に含まれる場所で行われるものであり、シャッタスイッチの押下操作等のユーザによる指示操作を契機として行われる。
その後、ユーザは、シャッタスイッチの押下操作等の状態を維持しながら、撮像装置1を垂直方向にほぼ固定したまま始点位置から水平方向に回転させるように移動させる。
この間、撮像装置1は、移動している最中に、所定の間隔(本実施形態では移動の距離が一定となる間隔)で、複数回の撮像を繰り返して行う。撮像の回数は、パノラマ画像の領域の設定サイズ等に応じて決定されるものとする。最終回の撮像により、パノラマ画像の終点の領域を少なくとも一部に含む画像が得られる。
このようにして、移動中の撮像装置1の複数回の撮像により、パノラマ画像の元になる複数の画像(以下、「元画像」という)が得られる。
As shown in FIG. 1A, it is assumed that the imaging device 1 continues to display a so-called live view image on the display unit.
Therefore, the user first moves the imaging device 1 to a position (hereinafter referred to as “start point position”) where the start point area is included in the live view image while viewing the live view image. . Then, at this starting point position, the user performs an instruction operation to start imaging such as pressing the shutter switch.
The imaging device 1 performs the first imaging in response to this instruction operation. That is, the first imaging is performed at a place where the start point region is included in the angle of view, and is performed in response to an instruction operation by the user such as a shutter switch pressing operation.
Thereafter, the user moves the imaging apparatus 1 so as to rotate in the horizontal direction from the starting point position while being substantially fixed in the vertical direction while maintaining a state such as a pressing operation of the shutter switch.
During this time, the imaging apparatus 1 repeatedly performs imaging a plurality of times at a predetermined interval (in this embodiment, an interval at which the movement distance is constant) while moving. The number of times of imaging is determined according to the set size of the panoramic image area. By the final imaging, an image including at least a part of the end point region of the panoramic image is obtained.
In this way, a plurality of images (hereinafter referred to as “original images”) from which a panoramic image is generated can be obtained by performing imaging a plurality of times by the imaging apparatus 1 that is moving.

そして、撮像装置1は、複数枚の元画像の一部を切り出して、それぞれ合成して行くことで、図1(b)に示すような通常の画角よりも広い画角のパノラマ画像を1枚生成する。例えば、4枚の元画像の1/2の領域が切り出されて互いに合成された場合には、通常の撮像画像の2倍の広さの画角のパノラマ画像が生成されることになる。
なお、本実施形態においては、画像の歪みを考慮して、元画像の垂直方向に関しては、元画像に含まれる全ての領域R1がパノラマ画像の生成用に用いられるのではなく、元画像の中心付近の領域R2がパノラマ画像の生成用に用いられる。
Then, the imaging apparatus 1 cuts out a part of a plurality of original images and synthesizes them, so that a panoramic image having a wider angle of view than the normal angle of view as shown in FIG. Generate. For example, when a half area of four original images is cut out and combined with each other, a panoramic image having a field angle twice as wide as that of a normal captured image is generated.
In the present embodiment, in consideration of image distortion, not all regions R1 included in the original image are used for generating a panoramic image in the vertical direction of the original image. The nearby region R2 is used for generating a panoramic image.

ここで、パノラマ画像の生成に際し、元画像の貼り合わせの合成に関して、例えば、貼り合わせの目印となるエッジを含む物体が貼り合わせの領域にない場合には、従来のパノラマ画像の生成手法(例えば上述の特許文献1に記載の手法)を単に適用すると、画像の位置合わせが困難になり、画像の合成が失敗してしまう。その結果、画像の合成の失敗によりパノラマ画像の生成に要する時間が増大してしまう。
そこで、本実施形態の撮像装置1は、合成対象となる画像同士の領域に特徴がない場合でも、画像同士の位置合わせ処理を行っても失敗する可能性を低くし、合成処理の時間が無駄にならないようにする機能を有する。
Here, when the panorama image is generated, with regard to the composition of the original image, for example, when an object including an edge serving as a mark of the combination is not in the region to be combined, a conventional panoramic image generation method (for example, If the method described in Patent Document 1 above is simply applied, it will be difficult to align the images, and image synthesis will fail. As a result, the time required for generating the panoramic image increases due to the failure of image synthesis.
Therefore, the imaging apparatus 1 according to the present embodiment reduces the possibility of failure even if the image alignment regions do not have a feature even if the image alignment processing is performed, and the time required for the combining process is wasted. It has a function to prevent it.

次に、上述したような機能を有する撮像装置1のハードウェアの構成について説明する。
図2は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
Next, the hardware configuration of the imaging apparatus 1 having the functions described above will be described.
FIG. 2 is a block diagram illustrating a hardware configuration of the imaging apparatus 1 according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、移動検出部18と、入力部19と、出力部20と、記憶部21と、通信部22と、ドライブ23と、を備えている。   The imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging unit. 17, a movement detection unit 18, an input unit 19, an output unit 20, a storage unit 21, a communication unit 22, and a drive 23.

CPU11は、ROM12に記録されているプログラム、又は、記憶部21からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 21 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。   The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、移動検出部18、入力部19、出力部20、記憶部21、通信部22及びドライブ23が接続されている。
撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, a movement detection unit 18, an input unit 19, an output unit 20, a storage unit 21, a communication unit 22, and a drive 23 are connected to the input / output interface 16.
Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮像するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured with a lens that collects light, such as a focus lens and a zoom lens, in order to capture an image of the subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。この撮像部17の出力信号を、以下、「撮像画像のデータ」という。この撮像画像のデータが、パノラマ画像の生成に用いられる元画像のデータとして用いられることになる。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17. The output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is used as original image data used for generating a panoramic image.

移動検出部18は、例えばジャイロセンサで構成され、撮像装置1の速度や角加速度を検出する。
ここで、上述したように、撮像装置1は、移動している最中に、所定の間隔(本実施形態では移動の距離が一定となる間隔)で、複数回の撮像を繰り返して行う。この所定の間隔の演算に、移動検出部18の検出結果が用いられる。即ち、CPU11は、移動検出部18の検出結果(速度や角加速度)に基づいて、撮像装置1の移動量を算出して、この移動量に応じた所定間隔で複数回の撮像(以下、「パノラマ画像撮像」という)を繰り返して行う。
The movement detection unit 18 is composed of, for example, a gyro sensor, and detects the speed and angular acceleration of the imaging device 1.
Here, as described above, the imaging apparatus 1 repeatedly performs imaging a plurality of times at a predetermined interval (in this embodiment, an interval at which the movement distance is constant) while moving. The detection result of the movement detector 18 is used for the calculation of the predetermined interval. That is, the CPU 11 calculates the movement amount of the imaging device 1 based on the detection result (speed or angular acceleration) of the movement detection unit 18 and performs multiple imaging (hereinafter referred to as “hereafter”) at a predetermined interval corresponding to the movement amount. “Panorama imaging” is repeated.

入力部19は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部20は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
The input unit 19 is configured with various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 20 includes a display, a speaker, and the like, and outputs an image and sound.

記憶部21は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部22は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The storage unit 21 is configured with a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 22 controls communication with other devices (not shown) via a network including the Internet.

ドライブ23には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ23によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部21にインストールされる。また、リムーバブルメディア31は、記憶部21に記憶されている画像のデータ等の各種データも、記憶部21と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 23. The program read from the removable medium 31 by the drive 23 is installed in the storage unit 21 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 21 in the same manner as the storage unit 21.

以上、本発明の一実施形態に係る撮像装置1のハードウェアの構成について説明した。
本実施形態においては、パノラマ画像の生成を行うパノラマ画像生成処理を行う。このパノラマ画像生成処理は、パノラマ画像生成用の撮像画像を取得する撮像処理と、取得した撮像画像を合成する画像合成処理とにより構成される。
そこで、パノラマ画像生成処理のうち、特に、画像合成処理を実行するための機能的構成について説明する。
Heretofore, the hardware configuration of the imaging apparatus 1 according to an embodiment of the present invention has been described.
In the present embodiment, panorama image generation processing for generating a panorama image is performed. This panoramic image generation process includes an imaging process for acquiring a captured image for generating a panoramic image and an image composition process for combining the acquired captured images.
In view of this, a functional configuration for executing the image composition process among the panorama image generation processes will be described.

図3は、図2の撮像装置1の機能的構成のうち、画像合成処理を実行するための機能的構成を示す機能ブロック図である。
「画像合成処理」とは、詳細には、撮像装置1が、パノラマ画像撮像を行って複数の撮像画像である元画像のデータを生成した後に行う処理であって、元画像毎に合成のために抽出する領域の幅(抽出幅)の調整を行い、複数の元画像のデータを撮像順に合成して、その結果としてパノラマ画像のデータが生成されるまでの一連の処理をいう。
FIG. 3 is a functional block diagram showing a functional configuration for executing the image composition process among the functional configurations of the imaging apparatus 1 of FIG.
In detail, the “image composition processing” is processing performed after the imaging apparatus 1 performs panoramic image capture and generates original image data as a plurality of captured images, and is used for compositing each original image. This is a series of processes from adjusting the width (extraction width) of the region to be extracted to combining the data of a plurality of original images in the order of imaging, and as a result, generating panoramic image data.

画像合成処理が実行される場合には、画像処理部14において、図3に示すように、撮像画像選択部51と、特徴量算出部52と、抽出候補領域判定部53と、抽出領域決定部54と、画像合成部55と、記憶制御部56と、が機能する。   When the image composition process is executed, the image processing unit 14, as shown in FIG. 3, the captured image selection unit 51, the feature amount calculation unit 52, the extraction candidate region determination unit 53, and the extraction region determination unit. 54, the image composition unit 55, and the storage control unit 56 function.

記憶部21の一領域として、撮像画像記憶部71が設けられる。
撮像画像記憶部71には、パノラマ画像撮像により得られた複数の撮像画像のデータが撮像時刻等を示すメタデータと対応付けられて記憶されている。
A captured image storage unit 71 is provided as an area of the storage unit 21.
In the captured image storage unit 71, data of a plurality of captured images obtained by panoramic image capturing are stored in association with metadata indicating the capturing time and the like.

撮像画像選択部51は、撮像画像記憶部71に記憶される複数の撮像画像のデータのうち、合成対象となる元画像のデータを撮像順に順次選択する。即ち、撮像画像選択部51は、合成順となる撮像順が早い順に、撮像画像のデータを元画像のデータとして選択する。本実施形態においては、1枚の元画像のデータの合成が終わり次第、次の撮像画像が元画像となり、当該元画像のデータの合成が行われる。このため、撮像画像選択部51は、選択した元画像のデータの合成の処理が終了した後に、次に撮像された撮像画像のデータを元画像のデータとして選択する。
また、撮像画像選択部51は、抽出幅を拡張すると判断された場合には、拡張の幅に応じて、選択する撮像画像をキャンセルしてスキップし、次の撮像画像を選択する。
The captured image selection unit 51 sequentially selects original image data to be combined among a plurality of captured image data stored in the captured image storage unit 71 in the order of imaging. That is, the captured image selection unit 51 selects the captured image data as the original image data in the order of the imaging order that is the synthesis order. In this embodiment, as soon as the synthesis of the data of one original image is completed, the next captured image becomes the original image, and the data of the original image is synthesized. For this reason, the captured image selection unit 51 selects the next captured image data as the original image data after the process of combining the selected original image data ends.
In addition, when it is determined that the extraction width is to be expanded, the captured image selection unit 51 cancels and skips the captured image to be selected according to the expansion width, and selects the next captured image.

特徴量算出部52は、撮像画像選択部51によって選択された元画像のデータの中から、画像合成用の一部の領域(以下、「抽出候補領域」という)の特徴量を算出する。ここで、特徴量が算出される領域の幅は、予め決められた幅(以下、「標準幅」という)に設定されている。   The feature amount calculation unit 52 calculates the feature amount of a partial region for image synthesis (hereinafter referred to as “extraction candidate region”) from the original image data selected by the captured image selection unit 51. Here, the width of the region in which the feature amount is calculated is set to a predetermined width (hereinafter referred to as “standard width”).

より具体的には、「特徴量」は、抽出候補領域内に、エッジの検出が可能な被写体の存在有無を量的に判定するためのものである。特徴量の値が高ければ高いほど、特徴量が算出された抽出候補領域内にエッジの検出が可能な被写体の存在確率が高くなる。本実施形態においては、特徴量算出部52は、抽出判定全体を構成する画素の輝度値の分散を、特徴量として算出する。   More specifically, the “feature amount” is for quantitatively determining the presence or absence of a subject whose edge can be detected in the extraction candidate region. The higher the feature value, the higher the probability of existence of a subject capable of detecting an edge in the extraction candidate area for which the feature value has been calculated. In the present embodiment, the feature amount calculation unit 52 calculates the variance of the luminance values of the pixels constituting the entire extraction determination as the feature amount.

抽出候補領域判定部53は、特徴量算出部52により算出された特徴量と所定の閾値とを比較することによって、抽出候補領域における判定対象となる部分(本実施形態においては、抽出候補領域全体)のエッジの有無等を判定する。   The extraction candidate region determination unit 53 compares the feature amount calculated by the feature amount calculation unit 52 with a predetermined threshold value, thereby determining a portion to be determined in the extraction candidate region (in this embodiment, the entire extraction candidate region ) And the like.

具体的には例えば、抽出候補領域判定部53は、特徴量が所定の閾値以下の場合には、判定対象となる領域に空等が写っており、その領域をエッジがない領域(以下、「非テクスチャ領域」という)であると判定する。また、抽出候補領域判定部53は、特徴量が所定の閾値を超える場合には、判定対象となる領域に建物等が写っており、その領域をエッジがある領域(以下、「テクスチャ領域」という)であると判定する。   Specifically, for example, when the feature amount is equal to or less than a predetermined threshold, the extraction candidate region determination unit 53 includes a sky or the like in the region to be determined, and the region has no edge (hereinafter, “ Non-textured region ”). In addition, when the feature amount exceeds a predetermined threshold, the extraction candidate region determination unit 53 includes a building or the like in the determination target region, and the region is referred to as an edged region (hereinafter referred to as “texture region”). ).

抽出領域決定部54は、抽出候補領域判定部53の判定結果に基づいて、抽出領域の幅を決定する。より具体的には、抽出領域決定部54は、抽出候補領域判定部53の判定結果でエッジがないと判断された領域全体の幅(以下、「抽出幅」という)を有する領域を抽出領域として決定する。   The extraction region determination unit 54 determines the width of the extraction region based on the determination result of the extraction candidate region determination unit 53. More specifically, the extraction area determination unit 54 uses, as the extraction area, an area having the entire width (hereinafter referred to as “extraction width”) determined to have no edge based on the determination result of the extraction candidate area determination unit 53. decide.

具体的には、1回目の判定でテクスチャ領域であると抽出候補領域判定部53により判定された場合には、抽出領域決定部54は、標準幅を抽出領域の幅に決定する。また、1回目の判定で標準幅に対応する領域が非テクスチャ領域であると抽出候補領域判定部53により判定された場合には、当該標準幅分エッジを判定するための領域をずらして2回目以降の判定を行い、2回目以降で判定された領域が非テクスチャ領域であると抽出候補領域判定部53により判定された場合には、抽出領域決定部54は、判定回数分の標準幅分の幅(以下、「拡張幅」という)を有する領域を抽出領域として決定する。   Specifically, when the extraction candidate region determination unit 53 determines that the texture region is the texture region in the first determination, the extraction region determination unit 54 determines the standard width as the width of the extraction region. If the extraction candidate region determination unit 53 determines that the region corresponding to the standard width is a non-texture region in the first determination, the region for determining the edge by the standard width is shifted for the second time. When the subsequent determination is performed and the extraction candidate region determination unit 53 determines that the region determined after the second time is a non-texture region, the extraction region determination unit 54 An area having a width (hereinafter referred to as “extended width”) is determined as an extraction area.

画像合成部55は、抽出領域決定部54により決定された抽出領域で、合成対象となる元画像の一部のデータを切り出して、これまでに選択された画像のデータの抽出領域と合成する処理を、選択された複数の元画像毎に繰り返し実行することで、パノラマ画像のデータを生成する。   The image compositing unit 55 is a process of cutting out part of the original image data to be combined in the extraction region determined by the extraction region determining unit 54 and combining it with the extracted region of the image data selected so far Is repeatedly executed for each of the selected plurality of original images, thereby generating panoramic image data.

ここで、画像合成部55は、抽出領域決定部54により決定された抽出領域の抽出幅が拡張幅である場合には、次に取得される撮像画像の標準幅を抽出領域候補とする元画像のデータをスキップして合成対象から除外する。即ち、画像合成部55は、合成のために新たに取得される撮像画像のうち、前回決定された拡張幅に重複する標準幅を有する撮像画像を合成対象として採用しない。このように、本実施形態においては、拡張幅の抽出領域と新たに取得される撮像画像のうち、標準幅の領域が前回決定された拡張幅と重複する撮像画像を合成対象から除外することで、当該新たに取得される撮像画像の画像合成の処理がなくなるため、パノラマ画像の生成に要する時間が短縮すると共に、合成の失敗頻度を減少させることができる。   Here, when the extraction width of the extraction region determined by the extraction region determination unit 54 is an extended width, the image composition unit 55 uses the standard width of the captured image acquired next as an extraction region candidate. This data is skipped and excluded from composition. That is, the image compositing unit 55 does not adopt, as a compositing target, a captured image having a standard width that overlaps with the previously determined expansion width among captured images newly acquired for composition. As described above, in the present embodiment, among the extracted image of the extended width and the newly acquired captured image, the captured image whose standard width region overlaps the previously determined extended width is excluded from the synthesis target. Since the image synthesis process for the newly acquired captured image is eliminated, the time required for generating the panorama image can be shortened and the frequency of composition failure can be reduced.

記憶制御部56は、画像合成部55による画像の合成により生成されたパノラマ画像のデータを記憶させるようにリムーバブルメディア31を制御する。   The storage control unit 56 controls the removable media 31 so as to store panoramic image data generated by the image composition by the image composition unit 55.

次に、本実施形態におけるパノラマ画像の生成の仕組みについて説明する。
図4は、本実施形態におけるパノラマ画像の生成の仕組みを説明するための模式図である。なお、図4の例では、図1(a)と同様の風景をパノラマ画像撮像した場合を例として説明する。即ち、図4の例では、「タワー」と「施設」を背景にして「駐車場」一体を撮影した図1(a)の場合について本実施形態におけるパノラマ画像の生成をした場合を説明する。
なお、撮像画像p1〜p5の各々を、個々に区別する必要がない場合、これらをまとめて、「撮像画像p」とする。また、同じく、抽出領域CR1〜CR3の各々を個々に区別する必要がない場合、これらをまとめて、「抽出領域CR」とする。
Next, a mechanism for generating a panoramic image in the present embodiment will be described.
FIG. 4 is a schematic diagram for explaining a mechanism for generating a panoramic image in the present embodiment. In the example of FIG. 4, a case where a panoramic image is captured of the same landscape as in FIG. 1A will be described as an example. That is, in the example of FIG. 4, a case where a panoramic image is generated in the present embodiment will be described for the case of FIG. 1A in which the “parking lot” is photographed against the background of “tower” and “facility”.
In addition, when it is not necessary to distinguish each of the captured images p1 to p5, these are collectively referred to as “captured image p”. Similarly, when there is no need to individually distinguish each of the extraction regions CR1 to CR3, these are collectively referred to as an “extraction region CR”.

本実施形態において、パノラマ画像の生成は、図4に示すように、撮像順を合成順として順次撮像画像の一部を切り出して順々に合成して、最終的に1枚のパノラマ画像を生成する。
図4においては、図中左から順に撮像順が早い撮像画像を示している。即ち、撮像画像p1〜p5・・・は、一番左の撮像画像p1の撮像順が一番早く、右に行くに従って撮像順が遅くなり、一番右の撮像画像p5が図示される撮像画像のうちで最も遅い撮像順となる。
In the present embodiment, as shown in FIG. 4, the panorama image is generated by cutting out a part of the captured images in the order of synthesis and combining them one after another to finally generate one panoramic image. To do.
In FIG. 4, captured images are shown in the order of imaging in order from the left in the figure. That is, in the captured images p1 to p5..., The imaging order of the leftmost captured image p1 is the earliest, and the imaging order becomes slower as going to the right. Among them, the imaging order is the slowest.

パノラマ画像の生成においては、具体的には、抽出領域CR1の決定に際して、撮像画像p1の中央部分における標準幅に対応する領域を抽出候補領域SHR1とし、当該抽出候補領域SHR1の全体の領域の特徴量を算出して、当該特徴量の値から抽出領域CR1の幅を拡張するか否かの判定を行う。   In the generation of the panoramic image, specifically, when determining the extraction region CR1, the region corresponding to the standard width in the central portion of the captured image p1 is set as the extraction candidate region SHR1, and the characteristics of the entire extraction candidate region SHR1 are characterized. The amount is calculated, and it is determined whether or not the width of the extraction region CR1 is expanded from the value of the feature amount.

次に、パノラマ画像の生成においては、抽出候補領域の判定により、抽出領域CR1の決定を行う。撮像画像p1においては、抽出候補領域SHR1には、下方に「施設」が写っていることからもわかるように、特徴量が所定の閾値を超えることとなり、抽出領域CR1の抽出幅は標準幅に決定される。   Next, in the generation of the panoramic image, the extraction region CR1 is determined by determining the extraction candidate region. In the captured image p1, the feature amount exceeds a predetermined threshold, as can be seen from the fact that the “facility” is shown below in the extraction candidate region SHR1, and the extraction width of the extraction region CR1 becomes the standard width. It is determined.

次に、パノラマ画像の生成においては、抽出領域CR2の決定に際して、撮像画像p2の中央部分の抽出候補領域SHR2−1全体の特徴量を算出して、当該特徴量の値から抽出領域CR2を抽出候補領域SHR2−1よりも拡張するか否かの判定を行う。   Next, in the generation of the panoramic image, when determining the extraction region CR2, the feature amount of the entire extraction candidate region SHR2-1 in the center portion of the captured image p2 is calculated, and the extraction region CR2 is extracted from the feature amount value. It is determined whether or not the candidate area SHR2-1 is expanded.

図5は、撮像画像p2における抽出候補領域の拡張を説明するための示す模式図である。
パノラマ画像の生成においては、撮像画像p2における標準幅に対応する抽出候補領域SHR2−1の特徴量を算出して判定を行う。
FIG. 5 is a schematic diagram for explaining the extension of the extraction candidate region in the captured image p2.
In the generation of the panoramic image, the determination is performed by calculating the feature amount of the extraction candidate region SHR2-1 corresponding to the standard width in the captured image p2.

図5に示すように、撮像画像p2では、「空」が大部分を占めていることからもわかるように、抽出候補領域SHR2−1の特徴量は所定の閾値以下となる。このため、撮像画像p2では、抽出領域CR2を拡張すべく、抽出候補領域SHR2−1に隣接する抽出候補領域SHR2−2の特徴量も算出され、抽出候補領域SHR2−2も抽出領域CR2に含めるべきか否かの判定を行う。そして、「空」が大部分を占めていることからもわかるように、抽出候補領域SHR2−2の特徴量が所定の閾値以下となるため、抽出領域CR2に抽出候補領域SHR2−1と抽出候補領域SHR2−2とが含まれることとなる。撮像画像p2では、このような拡張を抽出候補領域が所定の閾値を超えるまで繰り返し判定を行い、抽出候補領域の特徴量が所定の閾値を超えると判定がなされるまで抽出領域を拡張する。即ち、撮像画像p2では、標準幅を2つ分拡張した抽出候補領域SHR2−3で「別の施設」が出てくるため、最終的には、抽出候補領域SHR2−1から抽出候補領域SHR2−3までの領域を抽出領域CR2とする。つまり、抽出領域CR2は、最終的に最初の判定を行った標準幅に対応する抽出候補領域SHR2−1と、2つの標準幅に対応する抽出候補領域SHR2−2、SHR2−3との合計3つ分の標準幅を有する抽出領域となる。   As shown in FIG. 5, in the captured image p2, as can be seen from the fact that “sky” occupies most, the feature amount of the extraction candidate region SHR2-1 is equal to or less than a predetermined threshold. Therefore, in the captured image p2, in order to expand the extraction region CR2, the feature amount of the extraction candidate region SHR2-2 adjacent to the extraction candidate region SHR2-1 is also calculated, and the extraction candidate region SHR2-2 is also included in the extraction region CR2. Judgment whether or not should be done. As can be seen from the fact that “sky” occupies most, the feature amount of the extraction candidate region SHR2-2 is equal to or less than a predetermined threshold value, and therefore the extraction candidate region SHR2-1 and the extraction candidate are included in the extraction region CR2. Region SHR2-2 will be included. In the captured image p2, such extension is repeatedly performed until the extraction candidate area exceeds a predetermined threshold, and the extraction area is expanded until it is determined that the feature amount of the extraction candidate area exceeds the predetermined threshold. That is, in the captured image p2, “another facility” appears in the extraction candidate region SHR2-3 that is expanded by two standard widths, and finally, the extraction candidate region SHR2-1 and the extraction candidate region SHR2- The region up to 3 is defined as an extraction region CR2. That is, the extraction region CR2 is a total of three extraction candidate regions SHR2-1 corresponding to the standard width for which the first determination has been finally made, and extraction candidate regions SHR2-2 and SHR2-3 corresponding to the two standard widths. This is an extraction area having a standard width of one.

この際、パノラマ画像の生成においては、抽出領域CR2は、3つ分の標準幅を有する抽出領域としたため、図4に示すように、拡張した幅に対応する領域を標準幅として含む撮像画像p3及び撮像画像p4を合成する画像として採用しない。   At this time, in the generation of the panoramic image, the extraction region CR2 is an extraction region having a standard width corresponding to three, so that the captured image p3 including the region corresponding to the expanded width as the standard width as shown in FIG. And it does not employ | adopt as an image which synthesize | combines the captured image p4.

次に、パノラマ画像の生成においては、撮像画像p5における標準幅に対応する抽出候補領域の特徴量が算出される。撮像画像p5においては、「別の施設」が大部分を占めていることからもわかるように、特徴量が所定の閾値を超えることとなり、標準幅を有する抽出領域が撮像画像p5における抽出領域CR3として決定される。   Next, in the generation of the panoramic image, the feature amount of the extraction candidate area corresponding to the standard width in the captured image p5 is calculated. As can be seen from the fact that “another facility” occupies most of the captured image p5, the feature amount exceeds the predetermined threshold, and the extraction region having the standard width is the extraction region CR3 in the captured image p5. As determined.

その後、パノラマ画像の生成においては、順次取得された撮像画像における抽出領域を決定する。   Thereafter, in the generation of the panoramic image, an extraction region in the captured image sequentially acquired is determined.

パノラマ画像の生成においては、全ての撮像画像において抽出候補領域の判定・抽出幅の決定を終えた後に、画像の合成をする。その結果、パノラマ画像が生成される。   In the generation of a panoramic image, after completion of determination of extraction candidate regions and determination of extraction widths in all captured images, the images are combined. As a result, a panoramic image is generated.

以上、本実施形態における画像の合成の仕組みについて説明した。
次に、撮像装置1が実行するパノラマ画像生成処理の流れについて説明する。
パノラマ画像生成処理は、上述したように撮像処理と、画像合成処理とにより構成される。
このようなパノラマ画像生成処理は、撮像処理を開始する操作により開始されて、撮像処理の終了後に、開始される画像合成処理が終了することで終了する。
The mechanism of image synthesis in the present embodiment has been described above.
Next, a flow of panorama image generation processing executed by the imaging device 1 will be described.
As described above, the panoramic image generation process includes the imaging process and the image composition process.
Such a panoramic image generation process is started by an operation for starting the imaging process, and ends when the image synthesis process to be started ends after the imaging process ends.

まず、パノラマ画像生成処理のうち、撮像処理の流れについて説明する。
図6は、図2の撮像装置1が実行する撮像処理の流れを説明するフローチャートである。
撮像処理は、ユーザによる入力部19への撮像処理開始の操作により開始される。
撮像処理の開始後、ユーザは、撮像装置1を一方向に画像がつながるように移動させる。これにより、所定距離移動すると撮像が行われる。
First, the flow of the imaging process in the panoramic image generation process will be described.
FIG. 6 is a flowchart for explaining the flow of the imaging process executed by the imaging apparatus 1 of FIG.
The imaging process is started by an operation for starting the imaging process on the input unit 19 by the user.
After the start of the imaging process, the user moves the imaging device 1 so that the images are connected in one direction. Thereby, imaging is performed when moving a predetermined distance.

ステップS1において、CPU11は、移動検出部18の検出結果に基づいて、撮像装置1が一定距離動いたか否かを判断する。
一定距離動いてない場合には、ステップS1においてNOと判断されて、一定距離動くまで待機状態となる。
これに対して、一定距離動いた場合には、ステップS1においてYESと判断されて、処理はステップS2に進む。
In step S <b> 1, the CPU 11 determines whether the imaging device 1 has moved a certain distance based on the detection result of the movement detection unit 18.
If it has not moved for a certain distance, it is determined as NO in step S1, and it enters a standby state until it moves for a certain distance.
On the other hand, if the robot has moved a certain distance, YES is determined in step S1, and the process proceeds to step S2.

ステップS2において、CPU11は、撮像装置1が一定距離動いたため、撮像部17により撮像を行わせ、その結果、取得した撮像画像を記憶部21の撮像画像記憶部71に記憶させて保存する。この際、取得した撮像画像は、撮像順の情報が保持されるよう保存される。   In step S <b> 2, the CPU 11 causes the imaging unit 17 to perform imaging because the imaging device 1 has moved a certain distance, and as a result, the acquired captured image is stored in the captured image storage unit 71 of the storage unit 21 and stored. At this time, the acquired captured image is stored so that information on the imaging order is retained.

ステップS3において、CPU11は、ユーザによる操作により終了信号が発生したか否かを判断する。例えば、ユーザにより、現状の撮像画像でパノラマ画像の生成を行う旨の終了信号が発生した場合や、パノラマ画像生成の中止をする旨の終了信号が発生した場合は当該撮像処理を終了する。
終了信号が発生した場合には、ステップS3においてYESと判断されて、撮像処理は終了する。
これに対して、終了信号が発生しない場合には、ステップS3においてNOと判断されて、処理はステップS4に進む。
In step S3, the CPU 11 determines whether or not an end signal is generated by an operation by the user. For example, when the user generates an end signal for generating a panoramic image from a current captured image, or when an end signal for canceling panorama image generation is generated, the imaging processing ends.
If an end signal has been generated, YES is determined in step S3, and the imaging process ends.
On the other hand, if no end signal is generated, NO is determined in step S3, and the process proceeds to step S4.

ステップS4において、CPU11は、画像取得エラーが発生したことを検出したか否かを判断する。
画像取得エラーが発生した場合には、ステップS4においてYESと判断されて、撮像処理は終了する。
これに対して、画像取得エラーが発生していない場合には、ステップS4においてNOと判断されて、処理はステップS5に進む。
In step S4, the CPU 11 determines whether or not an image acquisition error has been detected.
If an image acquisition error has occurred, YES is determined in step S4, and the imaging process ends.
On the other hand, if no image acquisition error has occurred, NO is determined in step S4, and the process proceeds to step S5.

ステップS5において、CPU11は、画像取得方向への移動距離が閾値を超えたか否かを判断する。
画像取得方向への移動距離が閾値を超えていない場合には、ステップS5においてNOと判断されて、処理はステップS1に戻り、ステップS1以降の処理が再び実行される。
これに対して、画像取得方向への移動距離が閾値を超えた場合には、必要枚数の撮像画像を取得しているために、ステップS5においてYESと判断されて、撮像処理を終了する。
In step S5, the CPU 11 determines whether or not the moving distance in the image acquisition direction has exceeded a threshold value.
If the moving distance in the image acquisition direction does not exceed the threshold value, NO is determined in step S5, the process returns to step S1, and the processes after step S1 are executed again.
On the other hand, when the moving distance in the image acquisition direction exceeds the threshold value, since the necessary number of captured images has been acquired, YES is determined in step S5, and the imaging process is terminated.

次に、パノラマ画像生成処理のうち、画像合成処理の流れについて説明する。
図7は、図3の機能構成を有する図2の撮像装置1が実行する画像合成処理の流れを説明するフローチャートである。
Next, the flow of the image composition process in the panorama image generation process will be described.
FIG. 7 is a flowchart for explaining the flow of image composition processing executed by the imaging apparatus 1 of FIG. 2 having the functional configuration of FIG.

ステップS31において、撮像画像選択部51は、撮像画像記憶部71に記憶される撮像画像の中から、撮像順が早い順に合成対象の撮像画像を選択する。   In step S <b> 31, the captured image selection unit 51 selects a captured image to be synthesized from the captured images stored in the captured image storage unit 71 in the order of imaging order.

ステップS32において、特徴量算出部52は、選択された撮像画像のうち抽出候補領域の画素の輝度値の分散を計算して、特徴量を算出する。   In step S32, the feature amount calculation unit 52 calculates the feature amount by calculating the variance of the luminance values of the pixels in the extraction candidate region in the selected captured image.

ステップS33において、抽出候補領域判定部53は、特徴量として算出した分散の値が所定の閾値以下であるか否かを判定する。
分散の値が所定の閾値を超えている場合には、ステップS33においてNOと判定されて、処理はステップS34に進む。
In step S <b> 33, the extraction candidate area determination unit 53 determines whether or not the variance value calculated as the feature amount is equal to or less than a predetermined threshold value.
If the variance value exceeds the predetermined threshold value, NO is determined in step S33, and the process proceeds to step S34.

ステップS34において、抽出領域決定部54は、合成の幅として標準幅を有する領域抽出領域(通常の抽出領域)に決定する。   In step S34, the extraction area determination unit 54 determines an area extraction area (normal extraction area) having a standard width as a synthesis width.

ステップS35において、画像合成部55は、標準幅を有する抽出領域(通常の抽出領域)で画像合成を行う。即ち、画像合成部55は、ステップS34において抽出幅が標準幅であると決定されているために、図4の例に示すように、撮像画像P1から標準幅に対応する抽出領域CR1を使用して画像の合成を行う。
その後、処理はステップS38に進む。ステップS38以降の処理は後述する。
In step S35, the image composition unit 55 performs image composition in an extraction region having a standard width (normal extraction region). That is, since it is determined in step S34 that the extraction width is the standard width, the image composition unit 55 uses the extraction region CR1 corresponding to the standard width from the captured image P1 as shown in the example of FIG. To combine the images.
Thereafter, the process proceeds to step S38. The processing after step S38 will be described later.

これに対して、分散の値が所定の閾値以下の場合には、ステップS33においてYESと判定されて、処理はステップS36に進む。
ステップS36において、抽出領域決定部54は、抽出幅を拡張し、当該拡張された幅を有する領域を画像合成に使用する抽出領域として決定する。なお、抽出領域決定部54は、特徴量が所定の閾値を超えると判定される抽出候補領域が見つかるまで新たな抽出候補領域の順次判定を行い、画像の合成のための抽出領域を決定する。
On the other hand, if the variance value is less than or equal to the predetermined threshold, YES is determined in step S33, and the process proceeds to step S36.
In step S36, the extraction area determination unit 54 extends the extraction width, and determines an area having the expanded width as an extraction area used for image synthesis. Note that the extraction region determination unit 54 sequentially determines new extraction candidate regions until an extraction candidate region whose feature amount is determined to exceed a predetermined threshold is found, and determines an extraction region for image synthesis.

ステップS37において、画像合成部55は、拡張幅を有する抽出領域(拡張した抽出領域)で画像合成を行う。即ち、画像合成部55は、ステップS36において抽出幅を拡張し、当該拡張された抽出幅(拡張幅)を有する領域を抽出領域に決定されているために、図4の例に示すように、撮像画像p2から拡張幅を有する抽出領域CR2を抽出して画像の合成を行う。また、画像合成部55は、次回の合成の際には、抽出領域CR2の拡張幅を考慮して、当該拡張幅に対応する枚数分の画像の領域が抽出されないように合成のために選択すべき画像をスキップし、当該スキップされたその次の画像を合成対象として選択する。具体的には、図4の例のように、2つの標準幅を拡張した場合には、2枚分の画像の領域を抽出せずに画像合成のための選択対象としてキャンセルして、当該キャンセルした画像の次の画像(3枚目の撮像画像p3)を抽出する。このように、拡張幅に対応する領域を含む撮像画像の領域の抽出を行わないことで、無駄な合成処理が生じないために、合成に係る処理負担や合成失敗の機会を減らすことができる。   In step S <b> 37, the image composition unit 55 performs image composition in an extraction region having an extended width (extended extraction region). That is, the image composition unit 55 expands the extraction width in step S36, and since the region having the expanded extraction width (expansion width) is determined as the extraction region, as shown in the example of FIG. An extraction region CR2 having an extended width is extracted from the captured image p2, and the images are combined. Further, in the next composition, the image composition unit 55 considers the expansion width of the extraction region CR2 and selects the image areas corresponding to the expansion width so as not to be extracted. The image to be skipped is skipped, and the next image skipped is selected as a synthesis target. Specifically, as in the example of FIG. 4, when two standard widths are expanded, the image area for two images is not extracted and canceled as a selection target for image synthesis, and the cancel The next image (third captured image p3) of the obtained image is extracted. In this way, by not extracting the captured image area including the area corresponding to the extended width, wasteful synthesis processing does not occur, so that it is possible to reduce the processing load related to synthesis and the chance of composition failure.

ステップS38において、画像処理部14は、合成に失敗したか否かを判断する。
合成に失敗した場合には、ステップS37においてYESと判断されて、処理はステップS42に進む。ステップS42の処理については後述する。
In step S38, the image processing unit 14 determines whether the composition has failed.
If the composition has failed, YES is determined in step S37, and the process proceeds to step S42. The process of step S42 will be described later.

合成に失敗していない場合には、ステップS38においてNOと判断されて、処理はステップS39に進む。   If the composition has not failed, NO is determined in step S38, and the process proceeds to step S39.

ステップS39において、画像処理部14は、合成枚数が取得枚数に達したか否かを判断する。
合成枚数が取得枚数に達していない場合には、ステップS39においてNOと判断されて、処理はステップS40に進む。
In step S39, the image processing unit 14 determines whether or not the composite number has reached the acquired number.
If the composite number has not reached the acquired number, NO is determined in step S39, and the process proceeds to step S40.

ステップS40において、画像処理部14は、抽出領域を広げたか否かを判断する。
抽出領域を広げていない場合には、ステップS40においてNOと判断されて、処理はステップS31に戻り、ステップS31以降の処理が再び実行される。
In step S40, the image processing unit 14 determines whether or not the extraction area has been expanded.
If the extraction area is not expanded, NO is determined in step S40, the process returns to step S31, and the processes after step S31 are executed again.

これに対して、抽出領域を広げている場合には、ステップS40においてYESと判断されて、処理はステップS41に進む。   On the other hand, if the extraction area is widened, YES is determined in step S40, and the process proceeds to step S41.

ステップS41においては、撮像画像選択部51は、広げた抽出領域の幅に対応する画像を選択対象としてスキップして取得画像を選択する。即ち、撮像画像選択部51は、抽出領域が画像何枚分の抽出領域となるかを判断して、当該判断された枚数分の画像を選択しないようにスキップし、その次の画像を取得画像として選択する。具体的には、図4の例のように、2つの標準幅を拡張した場合には、2枚分の画像(撮像画像p3,p4)を選択せずにキャンセルして、キャンセルした画像の次の画像(3枚目の撮像画像p5)を選択する。
その後、処理はステップS32に戻り、ステップS32以降の処理が再び実行される。
In step S41, the captured image selection unit 51 selects an acquired image by skipping an image corresponding to the expanded width of the extraction region as a selection target. That is, the captured image selection unit 51 determines how many images the extraction area is to be extracted, skips not to select the determined number of images, and acquires the next image as an acquired image. Select as. Specifically, as in the example of FIG. 4, when two standard widths are expanded, two images (captured images p3 and p4) are canceled without being selected, and the next image after the canceled image. Image (third captured image p5) is selected.
Thereafter, the process returns to step S32, and the processes after step S32 are executed again.

これに対して、合成枚数が取得枚数に達している場合には、ステップS39においてYESと判断されて、処理はステップS42に進む。   On the other hand, if the composite number has reached the acquired number, YES is determined in step S39, and the process proceeds to step S42.

これに対して、合成に失敗した場合には、ステップS38においてYESと判断されて、処理はステップS42に進む。   On the other hand, if the composition fails, YES is determined in step S38, and the process proceeds to step S42.

ステップS42において、画像合成部55は、パノラマ画像として必要な部分(本実施形態においては、画像の下方部分の領域)をトリミングする。その後、記憶制御部56は、パノラマ画像をリムーバブルメディア31に記憶させる。
これにより、画像合成処理は終了する。
In step S42, the image composition unit 55 trims a portion necessary for the panoramic image (in the present embodiment, the region of the lower portion of the image). Thereafter, the storage control unit 56 stores the panoramic image in the removable medium 31.
Thereby, the image composition process is completed.

以上のように構成される撮像装置1は、撮像画像選択部51と、画像合成部55と、抽出候補領域判定部53と、抽出領域決定部54と、を備える。
抽出候補領域判定部53は、撮像画像選択部51により選択された撮像画像における特徴量が所定値以下か否かを判定する。
抽出領域決定部54は、抽出候補領域判定部53による判定結果に基づいて、画像合成部55により合成される画像の抽出領域を決定する。
これにより、撮像装置1においては、撮像画像における特徴量が所定値以下の場合には、合成領域を変更すること等が可能になるため、画像同士の合成処理の時間の無駄を軽減することができる。
The imaging apparatus 1 configured as described above includes a captured image selection unit 51, an image composition unit 55, an extraction candidate region determination unit 53, and an extraction region determination unit 54.
The extraction candidate area determination unit 53 determines whether or not the feature amount in the captured image selected by the captured image selection unit 51 is equal to or less than a predetermined value.
The extraction area determination unit 54 determines an extraction area of an image to be synthesized by the image synthesis unit 55 based on the determination result by the extraction candidate area determination unit 53.
Thereby, in the imaging device 1, when the feature amount in the captured image is equal to or less than the predetermined value, it is possible to change the synthesis area, and so on, and thus it is possible to reduce waste of time for the synthesis process between the images. it can.

抽出候補領域判定部53は、取得された画像における部分領域の特徴量が所定の閾値以下か否かを判定する。
これにより、撮像装置1においては、撮像画像における特徴量が所定値以下の場合には、合成領域を変更することが可能になるため、画像同士の合成処理の時間の無駄を軽減することができる。
The extraction candidate area determination unit 53 determines whether or not the feature amount of the partial area in the acquired image is equal to or less than a predetermined threshold value.
Thereby, in the imaging device 1, when the feature amount in the captured image is equal to or less than the predetermined value, it is possible to change the synthesis area, and thus it is possible to reduce the waste of time for the synthesis process between the images. .

抽出候補領域判定部53は、判定結果として特徴量が所定の閾値以下と判定されると、所定の部分領域から所定の幅ずれた領域における特徴量が所定の閾値以下か否かを繰り返し判定する。
抽出領域決定部54は、抽出候補領域判定部53により特徴量が所定の閾値以下と判定された領域を統合して抽出領域として決定する。
これにより、撮像装置1においては、複数の領域が統合されて抽出領域となるため、当該領域における合成を行う必要がなく画像同士の合成処理の時間の無駄を軽減することができる。
When it is determined that the feature amount is equal to or smaller than the predetermined threshold as a determination result, the extraction candidate region determination unit 53 repeatedly determines whether or not the feature amount in the region shifted by a predetermined width from the predetermined partial region is equal to or smaller than the predetermined threshold. .
The extraction area determination unit 54 integrates the areas determined by the extraction candidate area determination unit 53 to have a feature amount equal to or less than a predetermined threshold value, and determines as an extraction area.
Thereby, in the imaging device 1, since a plurality of areas are integrated into an extraction area, it is not necessary to perform synthesis in the area, and waste of time for synthesizing the images can be reduced.

抽出領域決定部54は、抽出候補領域判定部53により特徴量が所定の閾値以上であると判定されると、所定の一部の領域を抽出領域として決定する。
これにより、撮像装置1においては、閾値以上であるために適切な合成を行うことができるため、確実に画像同士の合成処理を行うことができるようになる。
When the extraction candidate region determination unit 53 determines that the feature amount is equal to or greater than a predetermined threshold, the extraction region determination unit 54 determines a predetermined part of the region as the extraction region.
Thereby, in the imaging device 1, since it is more than a threshold value and appropriate composition can be performed, composition processing of images can be surely performed.

撮像画像選択部51は、抽出領域決定部54により決定された抽出領域に応じた間隔で複数の撮像画像を選択する。
画像合成部55は、抽出領域に応じた間隔で取得された複数の画像を合成する。
これにより、撮像装置1においては、抽出領域決定部54により決定された抽出領域に応じた間隔で取得された画像を合成するために、不要な合成作業が生じずに、画像同士の合成処理の時間の無駄を軽減することができる。
The captured image selection unit 51 selects a plurality of captured images at intervals according to the extraction region determined by the extraction region determination unit 54.
The image synthesis unit 55 synthesizes a plurality of images acquired at intervals according to the extraction area.
Thereby, in the imaging device 1, in order to synthesize the images acquired at intervals corresponding to the extraction regions determined by the extraction region determination unit 54, an unnecessary combining operation does not occur, and the images are combined. Time waste can be reduced.

また、撮像装置1は、特徴量算出部52を備える。
特徴量算出部52は、撮像画像間で重複した領域における特徴点の分散を特徴量として算出する。
抽出候補領域判定部53は、特徴量算出部52により算出された特徴量が所定値以下であるか否かを判定する。
従って、撮像装置1においては、撮像画像における特徴量が所定値以下の場合には、合成領域を変更すること等が可能になるため、画像同士の合成処理の時間の無駄を軽減することができる。
In addition, the imaging apparatus 1 includes a feature amount calculation unit 52.
The feature quantity calculation unit 52 calculates the variance of the feature points in the overlapping area between the captured images as the feature quantity.
The extraction candidate region determination unit 53 determines whether or not the feature amount calculated by the feature amount calculation unit 52 is equal to or less than a predetermined value.
Therefore, in the imaging device 1, when the feature amount in the captured image is equal to or smaller than the predetermined value, it is possible to change the synthesis region, and thus it is possible to reduce waste of time for synthesizing the images. .

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、1台の撮像装置を所定の撮像領域を移動させて連続的に撮像した撮像画像を用いてパノラマ画像を生成したがこれに限られない。パノラマ画像は、所定の撮像範囲を複数の撮像画像で構成し、かつ、隣り合う撮像範囲を含む撮像画像が互いに同一の撮像領域を含んでいればよく、例えば、隣り合う撮像領域が重なり合う領域を持つように撮像可能に配置された複数台の撮像装置や複数の撮像手段を備えた撮像装置からの撮像した撮像画像を用いて生成してもよい。   In the above-described embodiment, the panoramic image is generated by using the captured images that are continuously captured by moving a predetermined imaging region by one imaging device, but the present invention is not limited thereto. The panoramic image may include a plurality of captured images in a predetermined imaging range, and the captured images including adjacent imaging ranges may include the same imaging region. For example, an area where adjacent imaging regions overlap may be included. You may generate using the picked-up image imaged from the several imaging device arrange | positioned so that it may have, and the imaging device provided with the several imaging means.

また、上述の実施形態では、画像列で判断していたが、領域全体で判断してもよい。   In the above-described embodiment, the determination is made based on the image sequence.

特徴量は、領域を構成する分散を判断することで構成したがこれに限られない。特徴量は、領域を構成する画素のばらつきを判断できればよく、例えば、周波数、高周波、水平方向と垂直方向のエッジの頻度、エッジ絶対値のヒストグラム等により特徴量を判断してもよい。   The feature amount is configured by determining the variance constituting the region, but is not limited thereto. The feature amount may be determined based on, for example, frequency, high frequency, horizontal and vertical edge frequencies, edge absolute value histogram, and the like, as long as it can determine variations in pixels constituting the region.

また、上述の実施形態では、標準幅を有する抽出領域の全体の領域(全画素)の特徴量を算出・エッジの有無の判定をすることで、抽出領域を拡張するように構成したがこれに限られない。例えば、パノラマ撮影方向に対して撮像された画像中の所定画素列分(例えば、撮像装置1を右方向に移動させるパノラマ撮像を行った場合、最初の抽出候補領域における右端から2列の画素列)の領域の特徴量を算出し、当該特徴量が算出された所定画素列の領域のエッジの有無を判定し、エッジがないと判断された場合、さらに所定画素列ずらした領域について特徴量を算出・エッジの有無を判定することで抽出領域の拡張量を可変に判断するように構成してもよい。   In the above-described embodiment, the extraction area is expanded by calculating the feature amount of the entire area (all pixels) of the extraction area having the standard width and determining the presence or absence of an edge. Not limited. For example, for a predetermined pixel column in an image captured in the panorama shooting direction (for example, when panoramic imaging is performed to move the imaging device 1 in the right direction, two pixel columns from the right end in the first extraction candidate region) ) Area, and the presence or absence of an edge of the area of the predetermined pixel column for which the characteristic quantity is calculated. If it is determined that there is no edge, the characteristic amount is calculated for the area shifted by the predetermined pixel line. The amount of expansion of the extraction region may be determined variably by determining the presence / absence of calculation / edge.

また、上述の実施形態では抽出候補領域SHRにおける全て画素の行に対して特徴量を算出したがこれに限られない。本実施形態においては、図1(b)にも示したように、元画像に含まれる全ての領域R1がパノラマ画像の生成用に用いられるのではなく、元画像の中心付近の領域R2がパノラマ画像の生成用に用いられる。このため、パノラマ画像の生成用にも用いられる領域R2のみで特徴量を算出するように構成してもよい。このように構成することにより、例えば、パノラマ画像の生成用に用いられない部分にエッジが集中して特徴量が高くなってしまう等のパノラマ画像の生成用に用いられない部分の影響を受けることなく判定を行うことができる。図4の例においては、抽出領域CR1の場合には、下方の「建物」以外の「空」が写っている領域がパノラマ画像の生成用に用いられる領域となるため算出される特徴量はパノラマ画像の生成用に用いられない「建物」が写っている領域の影響を受けないことになる。   In the above-described embodiment, the feature amount is calculated for all pixel rows in the extraction candidate region SHR, but the present invention is not limited to this. In the present embodiment, as shown in FIG. 1B, not all the regions R1 included in the original image are used for generating the panoramic image, but the region R2 near the center of the original image is panoramic. Used for image generation. For this reason, the feature amount may be calculated only from the region R2 that is also used for generating a panoramic image. By being configured in this way, for example, the edge is concentrated on a portion that is not used for generating a panoramic image, and the feature amount is increased, so that it is affected by a portion that is not used for generating a panoramic image. Judgment can be made. In the example of FIG. 4, in the case of the extraction area CR1, the area where “sky” other than the “building” below is an area used for generating a panoramic image, and thus the calculated feature amount is panorama. It is not affected by the area where the “building” that is not used for image generation is shown.

また、上述の実施形態では、平坦度を考慮して、抽出領域の幅を変えるように構成したがこれに限られない。例えば、注目する被写体については抽出領域を狭くくし、注目していない被写体については、抽出領域を広げるように構成してもよい。また、注目する被写体については抽出領域を狭くし、注目しない被写体については抽出領域を狭くするように構成しても良い。
また、撮像開始時時点から終了に近づくにつれて被写体の重要は高まることから撮像順が早いものに関しては抽出領域を広くし、撮像順が後ろに行くに従って抽出領域を狭くするように構成してもよい。また、合成に不向きな複雑な被写体が写っている場合には抽出領域を広げて、当該被写体の部分を退けるように構成してもよい。
また、上述の実施形態では、抽出領域は、パノラマ合成のための略一方向に対して可変に決定されていたが、これに限られない。
つまり、略一方向に対してだけではなく、例えば、縦横方向などの二方向での撮像による広角画像の合成においては、抽出領域は縦横方向などの二方向に対して可変に決定され得る。
また、撮像方向が縦横斜め等の三方向以上の場合は、撮像方向の多さに応じて抽出領域を拡張する方向が決定され得る。
Further, in the above-described embodiment, the width of the extraction region is changed in consideration of the flatness, but is not limited thereto. For example, the extraction area may be narrowed for the subject of interest, and the extraction area may be widened for the subject not of interest. Further, the extraction area may be narrowed for a subject of interest, and the extraction area may be narrowed for a subject that is not of interest.
Further, since the importance of the subject increases as it approaches the end from the time when the imaging starts, the extraction area may be widened for those with a fast imaging order, and the extraction area may be narrowed as the imaging order goes backward. . In addition, when a complicated subject unsuitable for composition is shown, the extraction area may be widened and the subject portion may be withdrawn.
Further, in the above-described embodiment, the extraction region is variably determined with respect to substantially one direction for panorama synthesis, but is not limited thereto.
That is, for example, in the synthesis of a wide-angle image by imaging in two directions such as the vertical and horizontal directions, the extraction region can be determined variably in the two directions such as the vertical and horizontal directions.
In addition, when the imaging direction is three or more directions such as diagonally and vertically, the direction in which the extraction area is expanded can be determined according to the number of imaging directions.

また、上述の実施形態では、画像合成時の合成領域の抜き取り時に画像を判断していたが、これに限られず、撮像画像の取得時に判断するように構成してもよい。   In the above-described embodiment, the image is determined at the time of extracting the synthesis area at the time of image synthesis. However, the present invention is not limited to this, and the determination may be made at the time of acquiring the captured image.

また、上述の実施形態では、自ら撮像手段を備える装置として撮像装置を前提にしたがこれに限られず、他の撮像装置から取得した撮像画像のデータを用いて合成処理のみ自機で行うように構成してもよい。この場合、取得する撮像画像は、所定の撮像範囲を複数の撮像画像で構成し、かつ、隣り合う撮像範囲を含む撮像画像が互いに同一の撮像領域を含んでいる撮像画像であることが前提である。   Further, in the above-described embodiment, the imaging apparatus is assumed as an apparatus including the imaging unit itself. However, the present invention is not limited to this, and only the synthesis process is performed by the own apparatus using the data of the captured image acquired from another imaging apparatus. It may be configured. In this case, it is assumed that the acquired captured image is a captured image in which a predetermined imaging range includes a plurality of captured images, and captured images including adjacent imaging ranges include the same imaging region. is there.

また、上述の実施形態では、撮像毎に撮像範囲(撮像画角)が固定されている例を示したがこれに限られない。撮像毎に撮像範囲(撮像画角)を可変にする撮像手段を搭載した撮像装置を用いた場合には、例えば、取得した撮像画像から特徴量を判断して、次の撮像時には撮像範囲(撮像画角)を広げるように工学的に撮像手段を変更するように構成してもよい。   In the above-described embodiment, an example in which the imaging range (imaging field angle) is fixed for each imaging is shown, but the present invention is not limited to this. In the case of using an imaging apparatus equipped with an imaging unit that varies the imaging range (imaging angle of view) for each imaging, for example, a feature amount is determined from the acquired captured image, and the imaging range (imaging) is determined at the next imaging. The imaging means may be engineered to widen the angle of view).

また、上述の実施形態では、抽出幅の変更は、例えば、画像の合成処理を行う貼り合わせの領域(処理を回避したい領域)に貼り合わせの失敗の可能性が高める対象(非テクスチャ対象)や注目する被写体等の対象が存在している場合に、当該処理を行う領域を避けて、抽出領域を拡張等して変更することを目的としている。
また、処理を回避したい領域という観点から言えば、取得した撮像画像を判定して、例えば、撮像画像の端部に貼り合わせの失敗の可能性が高める対象(非テクスチャ対象)や注目する被写体等の対象が存在している場合に、次回の撮像範囲を変更することも、同一の思想として組み込まれるものである。
Further, in the above-described embodiment, the change in the extraction width is, for example, a target (non-texture target) that increases the possibility of a failure in pasting in a pasting region (region where processing is to be avoided) in which image composition processing is performed. The object is to expand and change the extraction area while avoiding the area to be processed when there is a target such as a subject of interest.
Also, from the viewpoint of a region where processing is to be avoided, the acquired captured image is determined, for example, a target (non-textured target) that increases the possibility of failure of pasting to the end of the captured image, a subject of interest, etc. If the target is present, changing the next imaging range is also incorporated as the same idea.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像合成機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、スマートフォン、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an image composition function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a smartphone, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 3 is merely an example, and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部21に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 2 in which the program is recorded, the hard disk included in the storage unit 21 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
複数の画像を取得する取得手段と、
前記取得手段により取得された複数の画像を合成する合成手段と、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記合成手段により合成される画像の抽出領域を決定する決定手段と、
を備えることを特徴とする画像合成装置。
[付記2]
前記判定手段は、前記取得された画像における部分領域の特徴量が所定の閾値以下か否かを判定することを特徴とする付記1に記載の画像合成装置。
[付記3]
前記判定手段は、前記判定結果として前記特徴量が所定の閾値以下と判定されると、前記所定の部分領域から所定の幅ずれた領域における特徴量が所定の閾値以下か否かを繰り返し判定し、
前記決定手段は、前記判定手段により前記特徴量が所定の閾値以下と判定された領域を統合して前記抽出領域として決定することを特徴とする付記2に記載の画像合成装置。
[付記4]
前記決定手段は、前記判定手段により特徴量が所定の閾値以上であると判定されると、前記所定の一部の領域を前記抽出領域として決定することを特徴とする付記2又は3に記載の画像合成装置。
[付記5]
前記取得手段は、前記決定手段により決定された抽出領域に応じた間隔で前記複数の画像を取得し、
前記合成手段は、前記抽出領域に応じた間隔で取得された前記複数の画像を合成する
ことを特徴とする付記1から4の何れか1つに記載の画像合成装置。
[付記6]
前記取得手段により取得された画像の特徴点の分散を前記特徴量として算出する算出手段を備え、
前記判定手段は、前記算出手段により算出された分散が所定の閾値以下か否かを判定する、
ことを特徴とする付記1から5の何れか1つに記載の画像合成装置。
[付記7]
撮像手段を制御する撮像制御手段を備え、
前記撮像手段により撮像された画像を取得する取得手段と、
前記取得手段により取得された複数の画像を合成する合成手段と、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記画像における処理回避領域を避けるように次回の撮像範囲を決定する決定手段と、
を備え、
前記撮像制御手段は、前記判定手段による判定結果に基づいて、前記撮像範囲を変更するように前記撮像手段を制御する、
ことを特徴とする画像合成装置。
[付記8]
画像合成装置を用いた画像合成方法であって、
複数の画像を取得する取得ステップと、
前記取得ステップにより取得された複数の画像を合成する合成ステップと、
前記取得ステップにより取得された画像における特徴量が所定値以下か否かを判定する判定ステップと、
前記判定ステップによる判定結果に基づいて、前記合成ステップにより合成される画像の抽出領域を決定する決定ステップと、
を含むことを特徴とする画像合成方法。
[付記9]
コンピュータを、
複数の画像を取得する取得手段、
前記取得手段により取得された複数の画像を合成する合成手段、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段、
前記判定手段による判定結果に基づいて、前記合成手段により合成される画像の抽出領域を決定する決定手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Acquisition means for acquiring a plurality of images;
Combining means for combining a plurality of images acquired by the acquiring means;
Determination means for determining whether or not a feature amount in the image acquired by the acquisition means is equal to or less than a predetermined value;
A determining unit that determines an extraction region of an image to be combined by the combining unit based on a determination result by the determining unit;
An image composition apparatus comprising:
[Appendix 2]
The image synthesizing apparatus according to claim 1, wherein the determination unit determines whether or not a feature amount of a partial region in the acquired image is equal to or less than a predetermined threshold value.
[Appendix 3]
When the determination unit determines that the feature amount is equal to or less than a predetermined threshold as the determination result, the determination unit repeatedly determines whether the feature amount in a region shifted by a predetermined width from the predetermined partial region is equal to or less than a predetermined threshold. ,
The image synthesizing apparatus according to appendix 2, wherein the determination unit integrates and determines the extraction region as a region where the determination unit determines that the feature amount is equal to or less than a predetermined threshold.
[Appendix 4]
The determination unit according to claim 2 or 3, wherein, when the determination unit determines that the feature amount is equal to or greater than a predetermined threshold, the determination unit determines the predetermined part of the region as the extraction region. Image composition device.
[Appendix 5]
The acquisition unit acquires the plurality of images at an interval according to the extraction region determined by the determination unit,
The image synthesizing device according to any one of appendices 1 to 4, wherein the synthesizing unit synthesizes the plurality of images acquired at intervals according to the extraction region.
[Appendix 6]
A calculating means for calculating a variance of the feature points of the image acquired by the acquiring means as the feature amount;
The determination unit determines whether or not the variance calculated by the calculation unit is equal to or less than a predetermined threshold;
The image synthesizing device according to any one of appendices 1 to 5, characterized in that:
[Appendix 7]
An imaging control means for controlling the imaging means,
Obtaining means for obtaining an image captured by the imaging means;
Combining means for combining a plurality of images acquired by the acquiring means;
Determination means for determining whether or not a feature amount in the image acquired by the acquisition means is equal to or less than a predetermined value;
A determination unit that determines a next imaging range so as to avoid a processing avoidance region in the image based on a determination result by the determination unit;
With
The imaging control unit controls the imaging unit to change the imaging range based on a determination result by the determination unit;
An image composition device characterized by the above.
[Appendix 8]
An image composition method using an image composition device,
An acquisition step of acquiring a plurality of images;
A combining step of combining a plurality of images acquired by the acquiring step;
A determination step of determining whether or not a feature amount in the image acquired by the acquisition step is a predetermined value or less;
A determination step for determining an extraction region of an image to be synthesized by the synthesis step based on a determination result by the determination step;
An image composition method comprising:
[Appendix 9]
Computer
An acquisition means for acquiring a plurality of images;
Combining means for combining a plurality of images acquired by the acquiring means;
Determining means for determining whether or not a feature amount in the image acquired by the acquiring means is equal to or less than a predetermined value;
A determining unit that determines an extraction region of an image to be combined by the combining unit based on a determination result by the determining unit;
A program characterized by functioning as

1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・画像処理部,15・・・バス,16・・・入出力インターフェース,17・・・撮像部,18・・・移動検出部,19・・・入力部,20・・・出力部,21・・・記憶部,22・・・通信部,23・・・ドライブ,31・・・リムーバブルメディア,51・・・撮像画像選択部,52・・・特徴量算出部,53・・・抽出候補領域判定部,54・・・領域決定部,55・・・画像合成部,56・・・記憶制御部,71・・・撮像画像記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17 ... Image pick-up unit, 18 ... movement detection unit, 19 ... input unit, 20 ... output unit, 21 ... storage unit, 22 ... communication unit, 23 ... drive, 31 ... Removable media, 51 ... picked-up image selection unit, 52 ... feature quantity calculation unit, 53 ... extraction candidate region determination unit, 54 ... region determination unit, 55 ... image composition unit, 56 ... .Storage control unit, 71 ... Captured image storage unit

Claims (9)

複数の画像を取得する取得手段と、
前記取得手段により取得された複数の画像を合成する合成手段と、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記合成手段により合成される画像の抽出領域を決定する決定手段と、
を備えることを特徴とする画像合成装置。
Acquisition means for acquiring a plurality of images;
Combining means for combining a plurality of images acquired by the acquiring means;
Determination means for determining whether or not a feature amount in the image acquired by the acquisition means is equal to or less than a predetermined value;
A determining unit that determines an extraction region of an image to be combined by the combining unit based on a determination result by the determining unit;
An image composition apparatus comprising:
前記判定手段は、前記取得された画像における部分領域の特徴量が所定の閾値以下か否かを判定することを特徴とする請求項1に記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the determination unit determines whether or not a feature amount of a partial region in the acquired image is equal to or less than a predetermined threshold value. 前記判定手段は、前記判定結果として前記特徴量が所定の閾値以下と判定されると、前記所定の部分領域から所定の幅ずれた領域における特徴量が所定の閾値以下か否かを繰り返し判定し、
前記決定手段は、前記判定手段により前記特徴量が所定の閾値以下と判定された領域を統合して前記抽出領域として決定することを特徴とする請求項2に記載の画像合成装置。
When the determination unit determines that the feature amount is equal to or less than a predetermined threshold as the determination result, the determination unit repeatedly determines whether the feature amount in a region shifted by a predetermined width from the predetermined partial region is equal to or less than a predetermined threshold. ,
The image synthesizing apparatus according to claim 2, wherein the determining unit integrates and determines the extraction region as a region in which the feature amount is determined to be equal to or less than a predetermined threshold.
前記決定手段は、前記判定手段により特徴量が所定の閾値以上であると判定されると、前記所定の一部の領域を前記抽出領域として決定することを特徴とする請求項2又は3に記載の画像合成装置。   The said determination means determines the said predetermined part area | region as the said extraction area | region, when it determines with the feature-value being more than a predetermined threshold value by the said determination means. Image synthesizer. 前記取得手段は、前記決定手段により決定された抽出領域に応じた間隔で前記複数の画像を取得し、
前記合成手段は、前記抽出領域に応じた間隔で取得された前記複数の画像を合成する
ことを特徴とする請求項1から4の何れか1項に記載の画像合成装置。
The acquisition unit acquires the plurality of images at an interval according to the extraction region determined by the determination unit,
The image synthesizing apparatus according to any one of claims 1 to 4, wherein the synthesizing unit synthesizes the plurality of images acquired at intervals corresponding to the extraction regions.
前記取得手段により取得された画像の特徴点の分散を前記特徴量として算出する算出手段を備え、
前記判定手段は、前記算出手段により算出された分散が所定の閾値以下か否かを判定する、
ことを特徴とする請求項1から5の何れか1項に記載の画像合成装置。
A calculating means for calculating a variance of the feature points of the image acquired by the acquiring means as the feature amount;
The determination unit determines whether or not the variance calculated by the calculation unit is equal to or less than a predetermined threshold;
The image synthesizing device according to claim 1, wherein the image synthesizing device is an image synthesizing device.
撮像手段を制御する撮像制御手段を備え、
前記撮像手段により撮像された画像を取得する取得手段と、
前記取得手段により取得された複数の画像を合成する合成手段と、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記画像における処理回避領域を避けるように次回の撮像範囲を決定する決定手段と、
を備え、
前記撮像制御手段は、前記判定手段による判定結果に基づいて、前記撮像範囲を変更するように前記撮像手段を制御する、
ことを特徴とする画像合成装置。
An imaging control means for controlling the imaging means,
Obtaining means for obtaining an image captured by the imaging means;
Combining means for combining a plurality of images acquired by the acquiring means;
Determination means for determining whether or not a feature amount in the image acquired by the acquisition means is equal to or less than a predetermined value;
A determination unit that determines a next imaging range so as to avoid a processing avoidance region in the image based on a determination result by the determination unit;
With
The imaging control unit controls the imaging unit to change the imaging range based on a determination result by the determination unit;
An image composition device characterized by the above.
画像合成装置を用いた画像合成方法であって、
複数の画像を取得する取得ステップと、
前記取得ステップにより取得された複数の画像を合成する合成ステップと、
前記取得ステップにより取得された画像における特徴量が所定値以下か否かを判定する判定ステップと、
前記判定ステップによる判定結果に基づいて、前記合成ステップにより合成される画像の抽出領域を決定する決定ステップと、
を含むことを特徴とする画像合成方法。
An image composition method using an image composition device,
An acquisition step of acquiring a plurality of images;
A combining step of combining a plurality of images acquired by the acquiring step;
A determination step of determining whether or not a feature amount in the image acquired by the acquisition step is a predetermined value or less;
A determination step for determining an extraction region of an image to be synthesized by the synthesis step based on a determination result by the determination step;
An image composition method comprising:
コンピュータを、
複数の画像を取得する取得手段、
前記取得手段により取得された複数の画像を合成する合成手段、
前記取得手段により取得された画像における特徴量が所定値以下か否かを判定する判定手段、
前記判定手段による判定結果に基づいて、前記合成手段により合成される画像の抽出領域を決定する決定手段、
として機能させることを特徴とするプログラム。
Computer
An acquisition means for acquiring a plurality of images;
Combining means for combining a plurality of images acquired by the acquiring means;
Determining means for determining whether or not a feature amount in the image acquired by the acquiring means is equal to or less than a predetermined value;
A determining unit that determines an extraction region of an image to be combined by the combining unit based on a determination result by the determining unit;
A program characterized by functioning as
JP2012280124A 2012-12-21 2012-12-21 Image composition apparatus, image composition method, and program Active JP5884723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012280124A JP5884723B2 (en) 2012-12-21 2012-12-21 Image composition apparatus, image composition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012280124A JP5884723B2 (en) 2012-12-21 2012-12-21 Image composition apparatus, image composition method, and program

Publications (2)

Publication Number Publication Date
JP2014123916A true JP2014123916A (en) 2014-07-03
JP5884723B2 JP5884723B2 (en) 2016-03-15

Family

ID=51404072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012280124A Active JP5884723B2 (en) 2012-12-21 2012-12-21 Image composition apparatus, image composition method, and program

Country Status (1)

Country Link
JP (1) JP5884723B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160101762A (en) * 2015-02-17 2016-08-26 서울과학기술대학교 산학협력단 The method of auto stitching and panoramic image genertation using color histogram
JP2017212698A (en) * 2016-05-27 2017-11-30 キヤノン株式会社 Imaging apparatus, control method for imaging apparatus, and program
JP2019519015A (en) * 2016-03-31 2019-07-04 クアルコム,インコーポレイテッド Geometric work scheduling with dynamic and probabilistic work reduction
CN112166456A (en) * 2018-05-30 2021-01-01 雅马哈株式会社 Image processing method and image processing apparatus
JP7448280B2 (en) 2020-03-05 2024-03-12 Necソリューションイノベータ株式会社 Image processing device, image processing method, program and recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167092A (en) * 2006-12-28 2008-07-17 Casio Comput Co Ltd Image synthesizer, image synthesis program and image synthesizing method
JP2012010275A (en) * 2010-06-28 2012-01-12 Sony Corp Information processing device, information processing method and program thereof
JP2012109863A (en) * 2010-11-18 2012-06-07 Sony Corp Imaging device and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167092A (en) * 2006-12-28 2008-07-17 Casio Comput Co Ltd Image synthesizer, image synthesis program and image synthesizing method
JP2012010275A (en) * 2010-06-28 2012-01-12 Sony Corp Information processing device, information processing method and program thereof
JP2012109863A (en) * 2010-11-18 2012-06-07 Sony Corp Imaging device and image processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160101762A (en) * 2015-02-17 2016-08-26 서울과학기술대학교 산학협력단 The method of auto stitching and panoramic image genertation using color histogram
KR101718309B1 (en) * 2015-02-17 2017-03-22 서울과학기술대학교 산학협력단 The method of auto stitching and panoramic image genertation using color histogram
JP2019519015A (en) * 2016-03-31 2019-07-04 クアルコム,インコーポレイテッド Geometric work scheduling with dynamic and probabilistic work reduction
JP2017212698A (en) * 2016-05-27 2017-11-30 キヤノン株式会社 Imaging apparatus, control method for imaging apparatus, and program
CN112166456A (en) * 2018-05-30 2021-01-01 雅马哈株式会社 Image processing method and image processing apparatus
JP7448280B2 (en) 2020-03-05 2024-03-12 Necソリューションイノベータ株式会社 Image processing device, image processing method, program and recording medium

Also Published As

Publication number Publication date
JP5884723B2 (en) 2016-03-15

Similar Documents

Publication Publication Date Title
JP5754312B2 (en) Image processing apparatus, image processing method, and program
JP5655667B2 (en) Imaging apparatus, imaging control method, image processing apparatus, image processing method, and program
JP4561845B2 (en) Imaging apparatus and image processing program
JP5163676B2 (en) Imaging apparatus, imaging method, and program
JP5799863B2 (en) Image processing apparatus, image processing method, and program
JP5664626B2 (en) Image processing apparatus, image processing method, and program
JP5884723B2 (en) Image composition apparatus, image composition method, and program
JP6786311B2 (en) Image processing equipment, image processing methods, computer programs and storage media
JP5696419B2 (en) Image processing apparatus and method, and program
JP5492651B2 (en) Photography device, panoramic photography method
JP2017011504A (en) Imaging device, image processing method and program
JP5677869B2 (en) Electronic imaging device
JP2011066827A (en) Image processing apparatus, image processing method and program
JP5267279B2 (en) Image composition apparatus and program
JP5018937B2 (en) Imaging apparatus and image processing program
JP2015041865A (en) Image processing apparatus and image processing method
JP5915720B2 (en) Imaging device
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP2011182014A (en) Image pickup device, image processing method and program
JP5741062B2 (en) Image processing apparatus, image processing method, and program
JP5948779B2 (en) Image processing apparatus, image processing method, and program
JP2014241621A (en) Imaging apparatus and program
JP6241503B2 (en) Image processing apparatus, image processing method, and program
JP6372176B2 (en) Image processing apparatus, image processing method, and program
JP6036934B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160125

R150 Certificate of patent or registration of utility model

Ref document number: 5884723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150