JP6811935B2 - Imaging equipment, image processing methods and programs - Google Patents

Imaging equipment, image processing methods and programs Download PDF

Info

Publication number
JP6811935B2
JP6811935B2 JP2016184779A JP2016184779A JP6811935B2 JP 6811935 B2 JP6811935 B2 JP 6811935B2 JP 2016184779 A JP2016184779 A JP 2016184779A JP 2016184779 A JP2016184779 A JP 2016184779A JP 6811935 B2 JP6811935 B2 JP 6811935B2
Authority
JP
Japan
Prior art keywords
image
processing target
target area
wide
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016184779A
Other languages
Japanese (ja)
Other versions
JP2018050202A (en
Inventor
藤田 健
健 藤田
智彦 村上
智彦 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016184779A priority Critical patent/JP6811935B2/en
Publication of JP2018050202A publication Critical patent/JP2018050202A/en
Application granted granted Critical
Publication of JP6811935B2 publication Critical patent/JP6811935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Description

本発明は、広角レンズによる広角撮影が可能な撮像部を備える撮像装置、画像処理方法及びプログラムに関する。 The present invention relates to an image pickup apparatus, an image processing method, and a program including an image pickup unit capable of wide-angle shooting with a wide-angle lens.

デジタルスチルカメラなどの撮像装置に採用されている魚眼レンズ(広角レンズ)は、例えば、画角が略180゜という広範囲な撮影が可能であるが、射影方式が採用されているために魚眼レンズで撮影された画像(魚眼画像、全天周画像)は、その中心部からその端部(周辺部)の方に向かうほど、大きく歪んだものとなる。このような魚眼レンズを用いて撮影された魚眼画像を表示する技術としては、例えば、撮影後に魚眼画像内から所定領域内の画像を切り出して、その切り出した領域内の画像に対して歪曲を補正する処理を施すことによって歪のない画像(補正画像)をユーザに提供するようにした技術が開示されている(特許文献1参照)。 The fisheye lens (wide-angle lens) used in image pickup devices such as digital still cameras can take pictures over a wide range, for example, with an angle of view of approximately 180 °, but because it uses a projection method, it is taken with a fisheye lens. The images (fisheye image, all-sky image) are distorted more toward the end (peripheral part) from the central part. As a technique for displaying a fisheye image taken with such a fisheye lens, for example, an image in a predetermined area is cut out from the fisheye image after shooting, and distortion is applied to the image in the cut out area. A technique is disclosed in which a distortion-free image (corrected image) is provided to a user by performing a correction process (see Patent Document 1).

実用新案登録第3066594号公報Utility Model Registration No. 3066594

ところで、一般に魚眼レンズ等の広角レンズにより撮影された撮影画像は、不必要な外光(有害な外光)による悪影響を受けやすい。例えば、広角レンズである魚眼レンズを用いて日中、屋外で撮像する際に、魚眼レンズを空側に向けて撮像すると、太陽光が広角レンズ(魚眼レンズ)の中央部から映りこみ、その影響によって撮影画像に悪影響を与えることがある。また例えば日中、カメラ光軸を水平方向に対して平行する方向に向けて撮像する場合は、太陽による外光が魚眼レンズの周辺部に影響を与えることがある。また例えば、夜間に魚眼レンズを空側に向けて撮像すると、電灯などの外光が魚眼レンズの周辺部から映りこみ、撮影画像に悪影響を与えることがある。このような場合に、上述した特許文献の技術のように、撮影画像(魚眼画像、全天周画像)内から所定領域内の画像を切り出して、その切り出した領域内の画像に対して歪曲を補正する処理を施したとしても、撮像時に受けた外光による悪影響までも抑制することはできなかった。 By the way, in general, a photographed image taken by a wide-angle lens such as a fisheye lens is susceptible to an adverse effect of unnecessary external light (harmful external light). For example, when a fisheye lens, which is a wide-angle lens, is used to take an image outdoors during the daytime, when the fisheye lens is directed toward the sky, sunlight is reflected from the center of the wide-angle lens (fisheye lens), and the photographed image is affected by the effect. May have an adverse effect on. Further, for example, when the camera optical axis is oriented in a direction parallel to the horizontal direction during the daytime, the external light from the sun may affect the peripheral portion of the fisheye lens. Further, for example, when the fisheye lens is imaged toward the sky at night, external light such as an electric lamp may be reflected from the peripheral portion of the fisheye lens, which may adversely affect the captured image. In such a case, as in the technique of the patent document described above, an image in a predetermined region is cut out from the photographed image (fisheye image, all-sky image), and the image in the cut out region is distorted. Even if the processing for correcting the above was performed, it was not possible to suppress even the adverse effect of the external light received at the time of imaging.

本発明の課題は、広角撮像時に受ける外光が与える撮像画像に対する悪影響を適切に抑制できるようにすることである。 An object of the present invention is to make it possible to appropriately suppress the adverse effect of external light received during wide-angle imaging on a captured image.

上述した課題を解決するために本発明は、
広角レンズによる広角撮影が可能な撮像部を備える撮像装置であって、
前記撮像部で撮像される画像から所定の被写体を検出する検出手段と、
前記撮像部の広角レンズを用いた撮像時に、撮像される広角画像の中で外光による悪影響を受ける所定の領域を除き、且つ、前記検出手段によって検出された所定の被写体に基づいた他の領域を処理対象領域として設定する設定手段と、
前記撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、前記設定手段によって設定された前記処理対象領域に対して実行する処理手段と、
を備えることを特徴とする。
In order to solve the above-mentioned problems, the present invention
An imaging device equipped with an imaging unit capable of wide-angle photography with a wide-angle lens.
A detection means for detecting a predetermined subject from an image captured by the imaging unit , and
When imaging with the wide-angle lens of the imaging unit, a predetermined region that is adversely affected by external light is excluded from the captured wide-angle image, and another region based on a predetermined subject detected by the detection means. And the setting means to set as the processing target area,
A processing means for executing a predetermined process for recording and saving the captured wide-angle image as a captured image for the processing target area set by the setting means, and a processing means.
It is characterized by having.

本発明によれば、広角撮像時に受ける外光が与える撮像画像に対する悪影響を適切に抑制することができる。 According to the present invention, it is possible to appropriately suppress the adverse effect of the external light received during wide-angle imaging on the captured image.

(1)は、撮像装置として適用したデジタルカメラを構成する撮像装置10と本体装置20とを一体的に組み合わせた状態を表す外観図、(2)は、撮像装置10と本体装置20とを分離した状態を表す外観図。(1) is an external view showing a state in which an image pickup device 10 constituting a digital camera applied as an image pickup device and a main body device 20 are integrally combined, and (2) is an external view showing a state in which the image pickup device 10 and the main body device 20 are separated. External view showing the state of the camera. (1)は、撮像装置10の構成を示すブロック図、(2)は、本体装置20の構成を示すブロック図。(1) is a block diagram showing the configuration of the imaging device 10, and (2) is a block diagram showing the configuration of the main body device 20. (1)は、撮像時における撮像装置10の姿勢として魚眼レンズ16Bの光軸方向を空に向けた状態(天頂姿勢)を示し、(2)は、その姿勢で撮像された広角画像(魚眼画像)を例示した図。(1) shows a state in which the optical axis direction of the fisheye lens 16B is directed to the sky (zenith posture) as the posture of the image pickup device 10 at the time of imaging, and (2) is a wide-angle image (fisheye image) captured in that posture. ) Is illustrated. (1)と(2)、(3)と(4)は、魚眼レンズ16Bで撮像された円形の広角画像(魚眼画像)にデジタルズーム処理を施して長方形のパノラマ画像に変換する場合を説明するための図。(1) and (2), (3) and (4) are for explaining a case where a circular wide-angle image (fisheye image) captured by the fisheye lens 16B is digitally zoomed and converted into a rectangular panoramic image. Figure. (1)、(2)は、図4に続いて、魚眼画像にデジタルズーム処理を施してパノラマ画像に変換する場合を説明するための図。(1) and (2) are diagrams for explaining a case where a fisheye image is digitally zoomed and converted into a panoramic image, following FIG. 4. 魚眼レンズ16Bを用いたパノラマ画像生成モード(魚眼パノラマ撮影モード)に切り替えられた際に実行開始されるフローチャート。The flowchart which starts execution when it is switched to the panorama image generation mode (fisheye panorama shooting mode) using the fisheye lens 16B. 図6に続く動作を示したフローチャート。The flowchart which showed the operation following FIG. 第2実施形態において、パノラマ画像生成モード(魚眼パノラマ撮影モード)に切り替えられた際に実行開始されるフローチャート。In the second embodiment, the flowchart which is started to be executed when the panorama image generation mode (fisheye panorama shooting mode) is switched. 図8に続く動作を示したフローチャート。The flowchart which showed the operation following FIG.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
まず、図1〜図7を参照して本発明の第1実施形態を説明する。
本実施形態は、撮像装置としてデジタルカメラに適用した場合を例示したもので、このデジタルカメラは、後述する撮像部を備える撮像装置10と、後述する表示部を備える本体装置20とに分離可能なセパレート型デジタルカメラである。図1(1)は、撮像装置10と本体装置20とを一体的に組み合わせた状態を示し、図1(2)は、撮像装置10と本体装置20とを分離した状態を示している。このセパレート型デジタルカメラを構成する撮像装置10と本体装置20とは、それぞれが利用可能な無線通信を用いてペアリング(無線接続認識)が可能なもので、無線通信としては、無線LAN(Wi−Fi)又はBluetooth(登録商標)を使用している。本体装置20は、撮像装置10側で撮像された画像を受信取得して、この撮像画像(ライブビュー画像)をタッチ画面に表示するようにしている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First Embodiment)
First, the first embodiment of the present invention will be described with reference to FIGS. 1 to 7.
This embodiment illustrates a case where it is applied to a digital camera as an image pickup device, and the digital camera can be separated into an image pickup device 10 having an image pickup unit described later and a main body device 20 having a display unit described later. It is a separate digital camera. FIG. 1 (1) shows a state in which the image pickup device 10 and the main body device 20 are integrally combined, and FIG. 1 (2) shows a state in which the image pickup device 10 and the main body device 20 are separated. The image pickup device 10 and the main body device 20 constituting this separate digital camera can be paired (wireless connection recognition) using the wireless communication that can be used by each, and the wireless communication is a wireless LAN (Wi). -Fi) or Bluetooth® is used. The main body device 20 receives and acquires an image captured by the image pickup device 10 side, and displays the captured image (live view image) on the touch screen.

図2(1)は、撮像装置10の構成を示すブロック図であり、図2(2)は、本体装置20の構成を示すブロック図である。
図2(1)において、撮像装置10は、制御部11、電源部12、記憶部13、通信部14、操作部15、撮像部16、姿勢検出部17などを備えている。制御部11は、電源部(二次電池)12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの撮像装置10の全体動作を制御するもので、この制御部11には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部13は、例えば、ROM、フラッシュメモリなどを有する構成で、本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されている。通信部14は、撮影画像を本体装置20側に送信したり、本体装置20からの操作指示信号などを受信したりする通信インターフェイスである。操作部15は、電源スイッチなどの基本的な操作キー(ハードウェアキー)を備えている。
FIG. 2 (1) is a block diagram showing the configuration of the imaging device 10, and FIG. 2 (2) is a block diagram showing the configuration of the main body device 20.
In FIG. 2 (1), the image pickup apparatus 10 includes a control unit 11, a power supply unit 12, a storage unit 13, a communication unit 14, an operation unit 15, an image pickup unit 16, a posture detection unit 17, and the like. The control unit 11 operates by supplying power from the power supply unit (secondary battery) 12, and controls the overall operation of the image pickup device 10 according to various programs in the storage unit 13. Is provided with a CPU (Central Processing Unit) and a memory (not shown). The storage unit 13 has, for example, a configuration including a ROM, a flash memory, and the like, and stores a program, various applications, and the like for realizing the present embodiment. The communication unit 14 is a communication interface for transmitting a captured image to the main body device 20 side and receiving an operation instruction signal or the like from the main body device 20. The operation unit 15 includes basic operation keys (hardware keys) such as a power switch.

撮像部16は、被写体を高精細に撮影可能なカメラ部を構成するもので、この撮像部16のレンズユニット16Aには、魚眼レンズ16B、撮像素子16Cなどが設けられている。なお、本実施形態のカメラは、通常の撮像レンズ(図示省略)と魚眼レンズ16Bとが交換可能なもので、図示の例は、魚眼レンズ16Bを装着した状態を示している。この魚眼レンズ16Bは、例えば、3枚構成のレンズ系からなり、画角が略180゜という広範囲な撮影が可能な円周魚眼レンズ(全周魚眼レンズ)であり、この魚眼レンズ16Bによって撮影された広角画像(魚眼画像、全天周画像)の全体は、円形の画像となる。この場合、射影方式を採用しているために、魚眼レンズ16Bで撮影された広角画像(魚眼画像)は、その中心から端部(周辺部)に向かう程、大きく歪んだものとなる。 The image pickup unit 16 constitutes a camera unit capable of photographing a subject with high definition, and the lens unit 16A of the image pickup unit 16 is provided with a fisheye lens 16B, an image pickup element 16C, and the like. In the camera of the present embodiment, a normal image pickup lens (not shown) and a fisheye lens 16B can be exchanged, and the illustrated example shows a state in which the fisheye lens 16B is attached. This fisheye lens 16B is, for example, a circumferential fisheye lens (all-around fisheye lens) that is composed of a three-element lens system and can take a wide range of images with an angle of view of approximately 180 °, and is a wide-angle image (a wide-angle image) taken by the fisheye lens 16B. The entire fisheye image (fisheye image, all-sky image) is a circular image. In this case, since the projection method is adopted, the wide-angle image (fisheye image) taken by the fisheye lens 16B becomes greatly distorted from the center toward the end (peripheral part).

このような魚眼レンズ16Bによる被写体像(光学像)が撮像素子(例えば、CMOS又はCCD)16Cに結像されると、この撮像素子16Cによって光電変換された画像信号(アナログ値の信号)は、図示省略のA/D変換部によってデジタル信号に変換されると共に、所定の画像処理が施された後、本体装置20側に送信されてモニタ表示される。姿勢検出部17は、撮像装置10に加わる加速度を検出する3軸加速度センサであり、撮像時における撮像装置10のカメラ姿勢を検出して制御部11に与える。ここで、カメラ姿勢とは、例えば、カメラ光軸(魚眼レンズ16Bの光軸方向)を天頂方向(反重力方向)、又は天頂方向に対して所定の角度範囲内となる方向(略天頂方向)に向けて撮像する場合のカメラ姿勢(天頂姿勢)、やカメラ光軸を水平方向に対して平行する方向、又は水平方向に対して所定の角度範囲内となる方向(略水平方向)に向けて撮像する場合のカメラ姿勢(水平姿勢)などを意味している。 When a subject image (optical image) by such a fisheye lens 16B is imaged on an image sensor (for example, CMOS or CCD) 16C, an image signal (analog value signal) photoelectrically converted by the image sensor 16C is shown in the figure. It is converted into a digital signal by the omitted A / D conversion unit, and after being subjected to predetermined image processing, it is transmitted to the main unit 20 side and displayed on the monitor. The posture detection unit 17 is a 3-axis acceleration sensor that detects the acceleration applied to the image pickup device 10, and detects the camera posture of the image pickup device 10 at the time of imaging and gives it to the control unit 11. Here, the camera posture means, for example, a direction in which the camera optical axis (optical axis direction of the fisheye lens 16B) is in the zenith direction (anti-gravity direction) or within a predetermined angle range with respect to the zenith direction (approximately zenith direction). Imaging in the camera orientation (zenith orientation) when imaging toward the camera, in the direction parallel to the horizontal direction of the camera optical axis, or in the direction within a predetermined angle range with respect to the horizontal direction (approximately horizontal direction). It means the camera posture (horizontal posture) when doing so.

図2(2)において、本体装置20は、魚眼レンズなどを使用して撮影された画像を再生する再生機能を有し、制御部21、電源部22、記憶部23、通信部24、操作部25、タッチ表示部26、時計部27などを備えている。制御部21は、電源部(二次電池)22からの電力供給によって動作し、記憶部23内の各種のプログラムに応じてこの本体装置20の全体動作を制御するもので、この制御部21には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部23は、例えば、ROM、フラッシュメモリなどを有する構成で、本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ23A、この本体装置20が動作するために必要となる各種の情報(例えば、フラグなど)を一時的に記憶するワークメモリ23Bなどを有している。 In FIG. 2 (2), the main body device 20 has a reproduction function of reproducing an image taken by using a fisheye lens or the like, and has a control unit 21, a power supply unit 22, a storage unit 23, a communication unit 24, and an operation unit 25. , Touch display unit 26, clock unit 27, and the like. The control unit 21 operates by supplying electric power from the power supply unit (secondary battery) 22, and controls the overall operation of the main body device 20 according to various programs in the storage unit 23. Is provided with a CPU (Central Processing Unit) and a memory (not shown). The storage unit 23 has, for example, a configuration including a ROM, a flash memory, and the like, and is necessary for the main body device 20 to operate the program memory 23A in which the program for realizing the present embodiment and various applications are stored. It has a work memory 23B or the like that temporarily stores various kinds of information (for example, flags).

通信部24は、撮像装置10との間で各種のデータの送受信を行う通信インターフェイスである。操作部25は、電源ボタン、レリーズボタンタン、露出やシャッタスピードなどの撮影条件を設定する設定ボタンなど、押しボタン式の各種のキーを備えたもので、制御部21は、この操作部25からの入力操作信号に応じた処理を実行したり、入力操作信号を撮像装置10に対して送信したりする。タッチ表示部26は、高精細液晶などのディスプレイ26A上にタッチパネル26Bを積層配置した構成で、その表示画面は、撮影された画像(魚眼画像)をリアルタイムに表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像を再生する再生画面となったり、各種の動作モードを選択する選択画面となったりする。ここで、本実施形態においては、魚眼レンズ16Bを用いて撮影する動作モードとして、円形の魚眼画像を記録保存する魚眼撮影モードの他、円形の魚眼画像を長方形のパノラマ画像に変換して記録保存する魚眼パノラマ撮影モードを有している。時計部27は、現在の日時情報(年月日、時分秒)を計時するもので、制御部21は、この日時情報を撮影日時として取得する。 The communication unit 24 is a communication interface for transmitting and receiving various data to and from the image pickup apparatus 10. The operation unit 25 is provided with various push-button type keys such as a power button, a release button tongue, and a setting button for setting shooting conditions such as exposure and shutter speed. The control unit 21 is operated from the operation unit 25. Processes according to the input operation signal of the above are executed, and the input operation signal is transmitted to the image pickup apparatus 10. The touch display unit 26 has a configuration in which a touch panel 26B is laminated on a display 26A such as a high-definition liquid crystal, and the display screen thereof is a monitor screen (live view screen) that displays a captured image (fisheye image) in real time. , A playback screen for playing back captured images, or a selection screen for selecting various operation modes. Here, in the present embodiment, as an operation mode for shooting using the fisheye lens 16B, in addition to the fisheye shooting mode for recording and saving a circular fisheye image, the circular fisheye image is converted into a rectangular panoramic image. It has a fisheye panoramic shooting mode for recording and saving. The clock unit 27 measures the current date and time information (year, month, day, hour, minute, second), and the control unit 21 acquires this date and time information as the shooting date and time.

本体装置20側において制御部21は、2段押し構成のレリーズボタン(図示省略)が半押し操作(ハーフシャッタ操作)されると、撮像装置10に対して撮影準備動作を指示することにより、撮像装置10に自動焦点調整(AF処理)、自動露出調整(AE処理)などを実行させる。また、レリーズボタンが全押し操作(フルシャッタ操作)されると、撮像装置10に対して撮影指示を行い、そのときの撮像画像を取得して現像処理及び画像圧縮処理などを施すことによって撮影画像を生成すると共に、標準的なファイル形式に変換した後、この撮影画像を記憶部23の記録メディアに記録保存させる撮影処理を行う。この場合、制御部21は、魚眼画像に対して歪曲を補正する処理を施すようにしている。 When the release button (not shown) of the two-step pressing configuration is half-pressed (half-shutter operation) on the main unit 20 side, the control unit 21 instructs the imaging device 10 to perform a shooting preparation operation to perform imaging. The device 10 is made to perform automatic focus adjustment (AF processing), automatic exposure adjustment (AE processing), and the like. When the release button is fully pressed (full shutter operation), a shooting instruction is given to the imaging device 10, the captured image at that time is acquired, and the captured image is subjected to development processing, image compression processing, and the like. Is generated, and after conversion to a standard file format, a shooting process is performed in which the captured image is recorded and saved on the recording medium of the storage unit 23. In this case, the control unit 21 performs a process of correcting distortion on the fisheye image.

図3は、撮像時における撮像装置10の姿勢と、その姿勢で撮像された広角画像(魚眼画像)を例示した図である。
図3(1)は、カメラ光軸(魚眼レンズ16Bの光軸方向)を天頂方向(反重力方向)、又は天頂方向に対して所定の角度範囲内となる方向(略天頂方向)に向けて撮像する場合のカメラ姿勢(天頂姿勢)を示し、図3(2)は、このカメラ姿勢(天頂姿勢)のときに撮像された魚眼画像(ライブビュー画像)を示している。図示の例は、ビル群の囲まれた場所で魚眼レンズ16Bを空側(天頂)に向けて撮像した画像を示し、その魚眼画像の中央部の領域には青空が写り、その周辺部の領域にはビル群が写っている場合である。
FIG. 3 is a diagram illustrating the posture of the imaging device 10 at the time of imaging and the wide-angle image (fisheye image) captured in that posture.
FIG. 3 (1) is taken with the camera optical axis (the optical axis direction of the fisheye lens 16B) oriented toward the zenith direction (anti-gravity direction) or a direction within a predetermined angular range with respect to the zenith direction (approximately zenith direction). The camera posture (zenith posture) is shown, and FIG. 3 (2) shows a fisheye image (live view image) captured in this camera posture (zenith posture). The illustrated example shows an image of a fisheye lens 16B taken toward the sky (zenith) in a place surrounded by a group of buildings, and a blue sky appears in the central region of the fisheye image, and the peripheral region thereof. Is the case where a group of buildings is shown.

図4は、魚眼レンズ16Bで撮像された円形の広角画像(魚眼画像)にデジタルズーム処理(トリミング処理)を施して長方形のパノラマ画像に変換した場合を説明するための図である。
図4(1)は、魚眼画像内にパノラマズームの対象領域を設定するために、魚眼画像の全体を仮想的に複数の領域に区分した状態を示している。すなわち、魚眼画像は、その中心点に一致する複数(本実施形態では8個)の同心円によって画像全体を複数の領域(8個の領域)a1〜a8に仮想的に区分するようにしている。
FIG. 4 is a diagram for explaining a case where a circular wide-angle image (fisheye image) captured by the fisheye lens 16B is digitally zoomed (trimmed) and converted into a rectangular panoramic image.
FIG. 4 (1) shows a state in which the entire fisheye image is virtually divided into a plurality of areas in order to set a target area for panoramic zoom in the fisheye image. That is, in the fisheye image, the entire image is virtually divided into a plurality of regions (8 regions) a1 to a8 by a plurality of concentric circles (8 in the present embodiment) that coincide with the center point. ..

区分領域a1は、最も内側、つまり、複数の同心円のうち、魚眼画像の中心点に最も近い同心円によって形成された領域(円形の領域)を示している。区分領域a2は、次に近い(2番目に近い)同心円によって形成された領域、つまり、区分領域a1の外隣に位置する領域(環状の領域)を示している。区分領域a3は、更に次に近い(3番目に近い)同心円によって形成された領域、つまり、区分領域a2の外隣に位置する領域(環状の領域)を示している。以下、同様であり、区分領域a8は、魚眼画像の中心点から最も遠い同心円によって形成された領域、つまり、最外郭の領域(環状の領域)を示している。 The division region a1 indicates the innermost region (circular region) formed by the concentric circles closest to the center point of the fisheye image among the plurality of concentric circles. The division region a2 indicates a region formed by the next closest (closest to the second) concentric circles, that is, a region (annular region) located on the outer side of the division region a1. The division region a3 indicates a region formed by concentric circles that are the next closest (closest to the third), that is, a region (annular region) located outside the division region a2. Hereinafter, the same applies, and the division region a8 indicates a region formed by concentric circles farthest from the center point of the fisheye image, that is, the outermost region (annular region).

図4(2)は、図4(1)で示したように仮想的に複数の領域a1〜a8に区分した魚眼画像にパノラマ処理を施してパノラマ展開したパノラマ画像を示し、魚眼画像の複数の区分領域a1〜a8と、パノラマ画像の複数の区分領域a1〜a8との位置関係を示している。このパノラマ画像は、そのアスペクト比が、例えば、1対2.85であり、そのパノラマ画像の上側の各領域a1、a2は、魚眼画像の内側方向(中心部方向)の領域a1、a2、…に対応し、下側の各領域a7、a8は、魚眼画像の外側方向(中心方向とは逆の方向)の領域a7、a8に対応している。すなわち、パノラマ画像は、その上から順に複数の区分領域a1〜a8に区分されている。 FIG. 4 (2) shows a panoramic image obtained by performing panoramic processing on a fisheye image virtually divided into a plurality of regions a1 to a8 as shown in FIG. 4 (1) and panoramicly developing the fisheye image. The positional relationship between the plurality of division areas a1 to a8 and the plurality of division areas a1 to a8 of the panoramic image is shown. The aspect ratio of this panoramic image is, for example, 1: 2.85, and the upper regions a1 and a2 of the panoramic image are the regions a1 and a2 in the inner direction (center direction) of the fisheye image. ..., The lower regions a7 and a8 correspond to the regions a7 and a8 in the outer direction (direction opposite to the center direction) of the fisheye image. That is, the panoramic image is divided into a plurality of division areas a1 to a8 in order from above.

図4(3)は、魚眼画像内の複数の区分領域a1〜a8のうち、魚眼画像の中心点に近い内側方向の区分領域を中央部領域(内側領域)、その中心点から離れる外側方向の区分領域を周辺部領域(外側領域)として、その中央部領域、周辺部領域を除く他の区分領域(中間領域)を、後述する所定の処理(パノラマズーム処理、露出処理など)を実行する処理対象領域として設定した場合を示している。図示の例では、魚眼画像の中心点に最も近い区分領域a1を中央部領域(内側領域)とし、魚眼画像の中心点から最も遠い最外郭の区分領域a8及び次に遠い区分領域a7を周辺部領域(外側領域)とした場合である。 FIG. 4 (3) shows the central region (inner region) of the plurality of compartmentalized regions a1 to a8 in the fisheye image in the medial direction near the center point of the fisheye image, and the outer region away from the central point. With the division area in the direction as the peripheral area (outer area), the other division areas (intermediate area) excluding the central area and the peripheral area are subjected to predetermined processing (panorama zoom processing, exposure processing, etc.) described later. It shows the case where it is set as the processing target area to be processed. In the illustrated example, the division region a1 closest to the center point of the fisheye image is set as the central region (inner region), and the outermost division region a8 and the next farthest division region a7 from the center point of the fisheye image are designated. This is the case of the peripheral region (outer region).

すなわち、この中央部領域a1と周辺部領域a7及びa8を除く他の区分領域(中間領域)a2〜a6を所定の処理を実行する処理対象領域として設定すると共に、この処理対象領域を除く他の領域である中央部領域a1と周辺部領域a7及びa8を、所定の処理を実行しない非処理対象の領域として設定した場合である。なお、設定した処理対象領域の全体形状は、環状の領域であり、処理対象領域と非処理対象領域とは相対的な関係にあり、その幅(処理対象領域を構成する2つの同心円の間隔)及び位置は、非処理対象領域の設定の仕方によって相対的に変化する。 That is, the central region a1 and the other compartmentalized regions (intermediate regions) a2 to a6 excluding the peripheral regions a7 and a8 are set as the processing target regions for executing the predetermined processing, and the other compartmentalized regions excluding this processing target region are set. This is a case where the central region a1 and the peripheral regions a7 and a8, which are regions, are set as non-processed regions that do not execute a predetermined process. The overall shape of the set processing target area is a circular area, and the processing target area and the non-processing target area are in a relative relationship, and the width thereof (the distance between two concentric circles constituting the processing target area). The position and position change relatively depending on how the non-processed area is set.

本実施形態においては、撮像時に、その魚眼画像内に処理対象領域及び非処理対象領域を自動的に設定するようにしたもので、本体装置20は、撮像装置10の姿勢検出部17で検出された姿勢情報を取得すると共に、時計部27から現在日の日時情報を取得し、更に魚眼画像(ライブビュー画像)から明度情報を取得した後、この姿勢情報、日時情報、明度情報に基づいて、魚眼画像内に処理対象領域と非処理対象領域を設定するようにしている。例えば、カメラの姿勢が魚眼レンズ16Bの光軸方向が天頂方向に向かっている姿勢(天頂姿勢)の状態で、空が明るい時間帯の場合に、魚眼画像の明度情報が所定の閾値以上であれば、図4(3)に示すように、処理対象領域を“a2〜a6”とし、非処理対象領域を“a1、a7、a8”として設定するようにしている。 In the present embodiment, the processing target area and the non-processing target area are automatically set in the fisheye image at the time of imaging, and the main body device 20 is detected by the posture detection unit 17 of the imaging device 10. After acquiring the obtained posture information, the date and time information of the current date from the clock unit 27, and the brightness information from the fisheye image (live view image), the posture information, the date and time information, and the brightness information are used. Therefore, the processing target area and the non-processing target area are set in the fisheye image. For example, when the camera is in a posture in which the optical axis direction of the fisheye lens 16B is toward the zenith (zenith posture) and the sky is bright, the brightness information of the fisheye image may be equal to or higher than a predetermined threshold. For example, as shown in FIG. 4 (3), the processing target area is set as “a2 to a6” and the non-processing target area is set as “a1, a7, a8”.

図4(4)は、図4(3)で示したように処理対象領域を“a2〜a6”とし、非処理対象領域を“a1、a7、a8”とした魚眼画像にデジタルズーム処理を施してパノラマ展開したパノラマ画像を示し、この処理対象領域a2〜a6の画像部分に対してデジタルズーム処理を行ってパノラマ展開すると、図4(3)に示すように、魚眼像全体の半径r1と、処理対象領域a2〜a6の最大半径(領域a6の半径r2)との比率によって決まるズーム倍率で拡大されたものとなる。すなわち、処理対象領域の帯幅に応じてズーム倍率が決定されるため、設定した処理対象領域の幅が狭いと、ズーム倍率は大きくなる。なお、魚眼レンズ16Bで所定の被写体(例えば、人物)を撮像した場合に、所定の被写体までの距離が遠いと、その所定の被写体は小さく写ってしまうが、処理対象領域にデジタルズーム処理を施してパノラマ展開すると、所定の被写体はそのズーム倍率に応じて大きくなる。 In FIG. 4 (4), as shown in FIG. 4 (3), the fisheye image in which the processing target area is “a2 to a6” and the non-processing target area is “a1, a7, a8” is subjected to digital zoom processing. When the panoramic image developed in panorama is shown and the image portions of the processing target areas a2 to a6 are subjected to digital zoom processing to be panoramicly developed, as shown in FIG. 4 (3), the radius r1 of the entire fisheye image and The image is magnified at a zoom magnification determined by the ratio to the maximum radius of the processing target areas a2 to a6 (radius r2 of the area a6). That is, since the zoom magnification is determined according to the bandwidth of the processing target area, the zoom magnification becomes large when the set width of the processing target area is narrow. When a predetermined subject (for example, a person) is imaged with the fisheye lens 16B, if the distance to the predetermined subject is long, the predetermined subject appears small, but the processing target area is subjected to digital zoom processing to perform panorama. When unfolded, the predetermined subject becomes larger according to its zoom magnification.

一方、図4(3)に示すように魚眼画像には所定の被写体(例えば、人物)が含まれているが、この魚眼画像内に処理対象領域a2〜a6が設定されると、この所定の被写体の全体が処理対象領域内に収まらず、その一部(図示の例では人物の足先部分)が処理対象領域からはみ出してしまうため、そのパノラマ画像にも人物の足先部分が含まれなくなる。そこで、本実施形態は、所定の被写体の写り具合に応じて処理対象領域と非処理対象領域の設定を変更するようにしている。 On the other hand, as shown in FIG. 4 (3), the fisheye image includes a predetermined subject (for example, a person), but when the processing target areas a2 to a6 are set in the fisheye image, this Since the entire predetermined subject does not fit in the processing target area and a part of it (the toe part of the person in the illustrated example) protrudes from the processing target area, the panoramic image also includes the toe part of the person. It will not be possible. Therefore, in the present embodiment, the settings of the processing target area and the non-processing target area are changed according to the appearance of a predetermined subject.

図5は、図4に続いて、魚眼画像にデジタルズーム処理を施してパノラマ画像に変換する場合を説明するための図である。
図5(1)は、所定の被写体の全体が処理対象領域内に収まるように、処理対象領域及び非処理対象領域の設定を変更した後の状態を示したもので、魚眼画像内において処理対象領域を“a2〜a6”から“a3〜a7”に変更した場合である。すなわち、図示の例は、外側の非処理対象領域の幅(面積)が1段階狭くなるように“a7及びa8”から“a8”に減らすと共に、内側の非処理対象領域の面積が1段階広くなるように、“a1”からa1及びa2に増やす変更を行った場合を示し、これによって処理対象領域は、“a2〜a6”から“a3〜a7”に変更されることになる。
FIG. 5 is a diagram for explaining a case where the fisheye image is digitally zoomed and converted into a panoramic image, following FIG. 4.
FIG. 5 (1) shows a state after changing the settings of the processing target area and the non-processing target area so that the entire predetermined subject fits within the processing target area, and is processed in the fisheye image. This is a case where the target area is changed from “a2 to a6” to “a3 to a7”. That is, in the illustrated example, the width (area) of the outer non-processed area is reduced from "a7 and a8" to "a8" so as to be one step narrower, and the area of the inner non-processed area is increased by one step. As a result, the case where the change from “a1” to a1 and a2 is performed is shown, and the processing target area is changed from “a2 to a6” to “a3 to a7”.

このように本実施形態においては、魚眼画像内に含まれる所定の被写体を検出し、この所定の被写体に基づいて、処理対象領域を設定する際に、この所定の被写体のはみ出し部分が少なくなるように処理対象領域を設定するようにしている。
図5(2)は、図5(1)に示すように処理対象領域を“a2〜a6”から“a3〜a7”、非処理対象領域を“a1”から“a1及びa2、a8”に設定変更した魚眼画像にデジタルズーム処理を施してパノラマ展開したパノラマ画像を示し、所定の被写体である人物の全身がパノラマ画像内に含まれることになる。
As described above, in the present embodiment, when a predetermined subject included in the fisheye image is detected and the processing target area is set based on the predetermined subject, the protruding portion of the predetermined subject is reduced. The processing target area is set so as to.
In FIG. 5 (2), as shown in FIG. 5 (1), the processing target area is set from “a2 to a6” to “a3 to a7”, and the non-processing target area is set from “a1” to “a1 and a2, a8”. A panoramic image developed by performing digital zoom processing on the changed fisheye image is shown, and the whole body of a person who is a predetermined subject is included in the panoramic image.

次に、第1実施形態におけるデジタルカメラの動作概念を図6及び図7に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図6及び図7は、カメラの全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図6及び図7のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。 Next, the operation concept of the digital camera in the first embodiment will be described with reference to the flowcharts shown in FIGS. 6 and 7. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. It is also possible to sequentially execute operations according to the above-mentioned program code transmitted via a transmission medium such as a network. This also applies to other embodiments described later, and in addition to the recording medium, it is also possible to execute an operation peculiar to the present embodiment by using a program / data externally supplied via a transmission medium. Note that FIGS. 6 and 7 are flowcharts showing an outline of the operation of the featured portion of the present embodiment in the overall operation of the camera, and when the flow of FIGS. 6 and 7 is exited, the overall operation is performed. Return to the main flow (not shown).

図6及び図7は、魚眼レンズ16Bを用いたパノラマ画像生成モード(魚眼パノラマ撮影モード)に切り替えられた際に実行開始されるフローチャートである。
まず、本体装置20側の制御部21は、撮像装置10から取得した魚眼画像をライブビュー画像としてタッチ表示部26に逐次表示させる動作を開始(図6のステップA1)させると共に、図4(1)、(2)に示す状態(処理対象領域が設定されていない状態)となるようにパノラマズーム位置を初期化する処理を行う(ステップA2)。その後、レリーズ半押し操作(ハーフシャッタ操作)の待ち状態となる(ステップA3)。
6 and 7 are flowcharts that are started to be executed when the panoramic image generation mode (fisheye panorama shooting mode) using the fisheye lens 16B is switched.
First, the control unit 21 on the main unit 20 side starts an operation of sequentially displaying the fisheye image acquired from the image pickup device 10 on the touch display unit 26 as a live view image (step A1 in FIG. 6), and in FIG. The process of initializing the panoramic zoom position is performed so as to be in the state shown in 1) and (2) (the state in which the processing target area is not set) (step A2). After that, the release state is in a waiting state for a half-press operation (half-shutter operation) (step A3).

いま、レリーズ半押し操作が行われると(ステップA3でYES)、撮像装置10に対して撮影準備動作を指示することにより自動焦点調整(AF処理)を行わせる(ステップA4)。その後、撮像装置10から取得した魚眼画像(ライブビュー画像)を一時記憶する処理(ステップA5)を行った後、撮像装置10の姿勢検出部17から検出結果(姿勢情報)を取得して撮像時におけるカメラ姿勢を判別する(ステップA6)。例えば、姿勢検出部17からの姿勢情報に基づいて、例えば、カメラ光軸を天頂方向、又は略天頂方向に向けて撮像するカメラ姿勢(天頂姿勢)であるか、水平方向に対して平行する方向、又は略平行方向に向けて撮像するカメラ姿勢(水平姿勢)であるかを判別したりする。 Now, when the release half-press operation is performed (YES in step A3), the image pickup device 10 is instructed to perform the shooting preparation operation to perform automatic focus adjustment (AF processing) (step A4). Then, after performing a process (step A5) of temporarily storing the fisheye image (live view image) acquired from the image pickup device 10, the detection result (posture information) is acquired from the posture detection unit 17 of the image pickup device 10 and imaged. The camera posture at the time is determined (step A6). For example, based on the posture information from the posture detection unit 17, for example, the camera posture (zenith posture) in which the camera optical axis is imaged in the zenith direction or substantially the zenith direction, or a direction parallel to the horizontal direction. Or, it is determined whether the camera is in a camera posture (horizontal posture) for capturing images in a substantially parallel direction.

また、時計部27から計時情報を取得し、この計時情報(現在日時)に基づいて、現在の時間帯を判別する(ステップA7)。例えば、季節に応じて昼間の時間帯であるか、夜間の時間帯であるかを判別する。更に、魚眼画像(ライブビュー画像)内から所定領域の明度情報を取得して、他の領域の明るさと比較する(ステップA8)。例えば、図4(1)に示すように、魚眼画像の全体を複数の領域(8個の領域)a1〜a8に仮想的に区分している場合に、天頂姿勢であれば、外光による悪影響を受けやすい最も内側の区分領域(中央部領域)a1を所定領域としてその明度情報を検出するが、水平姿勢であれば、外光による悪影響を受けやすい最外郭の領域(周辺部領域)a8を所定領域としてその明度情報を検出する。そして、この所定領域の明度情報と他の区分領域の明度情報とを比較してその差分を求める。なお、本実施形態においては、画素の三原色R、G、Bの最大値をその画素の明度値として求め、1つの区分領域内の全画素の明度平均値をその区分領域の明度情報として取得するようにしているが、その他の方法で区分領域毎にその明度情報を取得するようにしてもよい。 Further, the timekeeping information is acquired from the clock unit 27, and the current time zone is determined based on the timekeeping information (current date and time) (step A7). For example, it is determined whether it is a daytime time zone or a nighttime time zone according to the season. Further, the brightness information of a predetermined region is acquired from the fisheye image (live view image) and compared with the brightness of the other region (step A8). For example, as shown in FIG. 4 (1), when the entire fisheye image is virtually divided into a plurality of regions (8 regions) a1 to a8, the zenith posture is due to external light. The brightness information is detected with the innermost division region (central region) a1 that is susceptible to adverse effects as a predetermined region, but in the horizontal posture, the outermost region (peripheral region) a8 that is susceptible to adverse effects from external light. The brightness information is detected with the area as a predetermined area. Then, the brightness information of this predetermined area is compared with the brightness information of another division area, and the difference is obtained. In the present embodiment, the maximum values of the three primary colors R, G, and B of the pixel are obtained as the brightness value of the pixel, and the average brightness value of all the pixels in one division area is acquired as the brightness information of the division area. However, the brightness information may be acquired for each division area by another method.

ここで、所定領域の明度情報と他の領域の明度情報とを比較した結果(ステップA8)、その差分が所定の閾値以上であるかを調べ(ステップA9)、所定の閾値未満であれば、つまり、明るさの差が小さければ(ステップA9でNO)、外光による悪影響が少ないと判断して、ステップA10に移り、予め決められている基本的な処理対象領域及び非処理対象領域を魚眼画像内に設定する処理を行う。例えば、天頂姿勢であれば、時間帯に拘わらず、最も内側の区分領域(中央部領域)a1を基本的な非処理対象領域として設定し、その他の全ての区分領域a2〜a8を基本的な処理対象領域として設定する。また、水平姿勢であれば、時間帯に拘わらず、最外郭の区分領域a8を基本的な非処理対象領域として設定し、その他の全ての区分領域a1〜a7を基本的な処理対象領域として設定する。なお、外光による悪影響が少ない場合、処理対象領域の設定は、これに限らず、任意であり、例えば、区分領域a1及びa8を非処理対象領域として設定してもよく、また、時間帯に応じて設定するようにしてもよいし、非処理対象領域を設定することなくa1〜a8を処理対象領域に設定してもよい。 Here, as a result of comparing the brightness information of the predetermined region with the brightness information of the other region (step A8), it is examined whether the difference is equal to or greater than the predetermined threshold value (step A9), and if it is less than the predetermined threshold value, That is, if the difference in brightness is small (NO in step A9), it is judged that the adverse effect of external light is small, and the process proceeds to step A10, and the predetermined basic processing target area and non-processing target area are set as fish. Performs the process of setting in the eye image. For example, in the zenith posture, the innermost division area (central area) a1 is set as a basic non-processing target area, and all other division areas a2 to a8 are basic regardless of the time zone. Set as the processing target area. In the horizontal posture, the outermost division area a8 is set as the basic non-processing target area, and all other division areas a1 to a7 are set as the basic processing target areas regardless of the time zone. To do. When the adverse effect of external light is small, the processing target area is not limited to this, and may be arbitrarily set. For example, the division areas a1 and a8 may be set as non-processing target areas, and may be set in a time zone. It may be set accordingly, or a1 to a8 may be set as the processing target area without setting the non-processing target area.

一方、差分が所定の閾値以上であれば(ステップA9でYES)、外光による悪影響が多いと判断して、ステップA11に移り、姿勢情報、日時情報、明度情報に基づいて処理対象領域及び非処理対象領域を魚眼画像内に設定する処理を行う。例えば、天頂姿勢の場合で昼間の時間帯であれば、明るさに応じて、外光(自然光)による悪影響を受けやすい内側の中央部領域a1+a2、又はa1+a2+a3を非処理対象領域として設定する。つまり、自然光による悪影響が特に多ければ、“a1+a2+a3”を非処理対象領域として設定し、その他の区分領域a4〜a8を処理対象領域として設定し、また、それよりも少なければ、“a1+a2”を非処理対象領域として設定し、その他の区分領域a3〜a8を処理対象領域として設定する。なお、外光による悪影響が多い場合、処理対象領域の設定は、これに限らないことは勿論である。 On the other hand, if the difference is equal to or greater than a predetermined threshold value (YES in step A9), it is determined that there is a large adverse effect due to external light, and the process proceeds to step A11. Performs processing to set the processing target area in the fisheye image. For example, in the case of the zenith posture and in the daytime time zone, the inner central region a1 + a2 or a1 + a2 + a3, which are easily adversely affected by external light (natural light), is set as the non-processing target region depending on the brightness. That is, if the adverse effect of natural light is particularly large, "a1 + a2 + a3" is set as the non-processing target area, the other division areas a4 to a8 are set as the processing target area, and if it is less than that, "a1 + a2" is not set. It is set as a processing target area, and the other division areas a3 to a8 are set as processing target areas. Needless to say, the setting of the processing target area is not limited to this when there are many adverse effects due to external light.

また、例えば、水平姿勢の場合で夜間の時間帯であれば、明るさに応じて、外光(ネオンの光などの人工光)による悪影響を受けやすい外側の領域a7+a8、又はa6+a7+a8を非処理対象領域とする。つまり、人工光による悪影響が特に多ければ、“a6+a7+a8”非処理対象領域として設定し、その他の領域a1〜a5を処理対象領域として設定し、また、それよりも少なければ、“a7+a8”を非処理対象領域として設定し、その他の領域a1〜a6を処理対象領域として設定する。なお、その他の姿勢の場合でも同様に、時間帯、明るさに応じて異なる処理対象領域及び非処理対象領域を魚眼画像内に設定する。なお、本実施形態では、図4(3)にも記載してあるように、内側の領域a1と外側の領域a8及びa7を非処理対象領域と設定しているが、このように、姿勢情報、日時情報、明度情報に基づいて設定された非処理領域に加えて、例えば内側の中央部領域を非処理領域としたならば外側の領域を、又は外側の領域を非処理領域としたならば内側の中央部領域を、そもそも被写体が存在する可能性が低い領域として、基本的な非処理対象領域として設定するようにしてもよい。 Further, for example, in the case of a horizontal posture and at night time, the outer region a7 + a8 or a6 + a7 + a8 that is easily adversely affected by external light (artificial light such as neon light) is not processed depending on the brightness. Let it be an area. That is, if the adverse effect of artificial light is particularly large, "a6 + a7 + a8" is set as the non-processing target area, the other areas a1 to a5 are set as the processing target area, and if it is less than that, "a7 + a8" is not processed. It is set as a target area, and the other areas a1 to a6 are set as a processing target area. Similarly, in the case of other postures, different processing target areas and non-processing target areas are set in the fisheye image according to the time zone and brightness. In this embodiment, as described in FIG. 4 (3), the inner region a1 and the outer regions a8 and a7 are set as non-processing target regions. In this way, the posture information , Date and time information, In addition to the non-processed area set based on the brightness information, for example, if the inner central area is the non-processed area, the outer area is the non-processed area, or if the outer area is the non-processed area. The inner central region may be set as a basic non-processing target region as an region where the subject is unlikely to exist in the first place.

このようにして処理対象領域及び非処理対象領域を設定する処理が終ると、図7のフローに移り、設定した処理対象領域内に所定の被写体(例えば、人物)が含まれているかを調べる(ステップA12)。ここで、所定の被写体が含まれていなければ(ステップA12でNO)、ステップA16に移るが、図4(3)に示すように処理対象領域内に所定の被写体が含まれていれば(ステップA12でYES)、その人物の写り具合を解析し(ステップA13)、処理対象領域内から所定の被写体の一部がはみ出しているか、つまり、人物の全身が処理対象領域内に収まっているかを判別する(ステップA14)。なお、この判別処理は、制御部11によって行われてもよいし、制御部11とは別に用意された判別部によって行われてもよい。 When the process of setting the processing target area and the non-processing target area is completed in this way, the process proceeds to the flow of FIG. 7 and it is examined whether or not a predetermined subject (for example, a person) is included in the set processing target area (for example). Step A12). Here, if a predetermined subject is not included (NO in step A12), the process proceeds to step A16, but if a predetermined subject is included in the processing target area as shown in FIG. 4 (3) (step). YES in A12), analyze the appearance of the person (step A13), and determine whether a part of the predetermined subject protrudes from the processing target area, that is, whether the whole body of the person is within the processing target area. (Step A14). Note that this discrimination process may be performed by the control unit 11 or by a discrimination unit prepared separately from the control unit 11.

いま、図4(3)に示す場合には、処理対象領域内から所定の被写体の一部(人物の足先部分)がはみ出しているので(ステップA14でYES)、この所定の被写体の一部が処理対象領域内からはみ出ないように、つまり、処理対象領域から所定の被写体のはみ出す部分が少なくなるように(その被写体全体が可能な限り収まるように)、処理対象領域及び非処理対象領域の設定を変更する(ステップA15)。この場合、外側の非処理対象領域は、“a7及びa8”、内側の非処理対象領域は、“a1”、処理対象領域は、“a2〜a6”であり、人物の足先部分は、非処理対象領域a7内に含まれているため、人物の全身が処理対象領域内に収まるように、外側の非処理対象領域として設定されている区分領域“a7”を処理対象領域に変更すると共に、処理対象領域として設定されている区分領域“a2”を内側の非処理対象領域に変更する。すなわち、外側の非処理対象領域の面積を1段階(1区分領域)狭める代わりに、内側の非処理対象領域の面積を1段階(1区分領域)広げる変更を行う。 Now, in the case shown in FIG. 4 (3), since a part of the predetermined subject (the toe part of the person) protrudes from the processing target area (YES in step A14), a part of the predetermined subject. Does not protrude from the processing target area, that is, the portion of the predetermined subject that protrudes from the processing target area is reduced (so that the entire subject fits as much as possible) in the processing target area and the non-processing target area. Change the setting (step A15). In this case, the outer non-processed area is "a7 and a8", the inner non-processed area is "a1", the processed area is "a2 to a6", and the toes of the person are non-processed. Since it is included in the processing target area a7, the division area "a7" set as the outer non-processing target area is changed to the processing target area so that the whole body of the person fits in the processing target area. The division area "a2" set as the processing target area is changed to the inner non-processing target area. That is, instead of narrowing the area of the outer non-processing target area by one step (one division area), the area of the inner non-processing target area is widened by one step (one division area).

これによって、図5(1)に示すように、魚眼画像内において外側の非処理対象領域は、“a7及びa8”から“a8”に変更され、内側の非処理対象領域は、“a1”から“a1及びa2”に変更され、処理対象領域は、“a2〜a6”から“a3〜a7”に変更される。すなわち、非処理対象領域である中央部領域と周辺部領域の面積が反比例の関係で増減するように処理対象領域の設定を変更する。このように処理対象領域の設定を変更することによって、その後、この魚眼画像にデジタルズーム処理を施してパノラマ展開したものとすると、そのパノラマ画像は、図5(2)に示すようになり、パノラマ画像内には、所定の被写体である人物の全身が含まれることになる。 As a result, as shown in FIG. 5 (1), the outer non-processed area in the fisheye image is changed from "a7 and a8" to "a8", and the inner non-processed area is "a1". Is changed to "a1 and a2", and the processing target area is changed from "a2 to a6" to "a3 to a7". That is, the setting of the processing target area is changed so that the areas of the central region and the peripheral region, which are non-processing target regions, increase or decrease in an inversely proportional relationship. By changing the setting of the processing target area in this way, and then performing digital zoom processing on this fisheye image to develop a panorama, the panoramic image becomes as shown in FIG. 5 (2), and the panorama The whole body of a person who is a predetermined subject is included in the image.

なお、図4(3)では、外側と内側に非処理対象領域が設定されている場合にその内側と外側の非処理対象領域の面積が反比例の関係となるように増減する場合を示したが、外側の非処理対象領域、又は内側の非処理対象領域だけが設定されている場合には、その非処理対象領域の面積を1段階狭める変更を行なえばよい。人物の頭部分が処理対象領域からはみ出している場合には、内側の非処理対象領域の面積を1段階狭めると共に、その代わりに、外側の非処理対象領域の面積を1段階広げる変更を行なえばよい。更に、図5(1)の例では、外側の非処理対象領域の面積を1段階(1区分領域)狭めても外側の非処理対象領域が存在する場合を示したが、外側の非処理対象領域が“a8”だけの場合には、その面積を1段階(1区分領域)狭めることによって外側の非処理対象領域が存在しなくなる場合も起こり得る。 Note that FIG. 4 (3) shows a case where the non-processed area is set on the outside and the inside, and the area of the non-processed area on the inside and the outside is increased or decreased so as to have an inverse proportional relationship. , When only the outer non-processing target area or the inner non-processing target area is set, the area of the non-processing target area may be reduced by one step. If the head of the person protrudes from the processing target area, the area of the inner non-processing target area can be narrowed by one step, and instead, the area of the outer non-processing target area can be expanded by one step. Good. Further, in the example of FIG. 5 (1), the case where the outer non-processed area exists even if the area of the outer non-processed area is narrowed by one step (1 division area) is shown, but the outer non-processed area is present. When the area is only "a8", it may occur that the outer non-processed area does not exist by narrowing the area by one step (one division area).

このようにして処理対象領域が確定すると、撮影準備動作として、処理対象領域に対して露出調整(AE処理)、ホワイトバランス調整、色相補正などの処理を行う(ステップA16)。なお、自動焦点調整(AF処理)がコントラスト検出方式であれば、処理対象領域が確定した時点で、露出調整や色相補正などと共に、AF処理を実行するようにしてもよい。この撮影準備動作が完了すると、レリーズ全押し操作が行われたかを調べ(ステップA17)、レリーズ全押し操作が行われるまで(ステップA17でNO)、図6のステップA4に戻り、以下、上述の動作を繰り返す。 When the processing target area is determined in this way, as a shooting preparation operation, processing such as exposure adjustment (AE processing), white balance adjustment, and hue correction is performed on the processing target area (step A16). If the automatic focus adjustment (AF processing) is a contrast detection method, the AF processing may be executed together with the exposure adjustment and the hue correction when the processing target area is determined. When this shooting preparation operation is completed, it is checked whether the release full push operation has been performed (step A17), and the process returns to step A4 in FIG. 6 until the release full push operation is performed (NO in step A17). Repeat the operation.

いま、レリーズ全押し操作が行われると(ステップA17でYES)、魚眼画像内に設定した処理対象領域に対して、魚眼歪補正処理、デジタルズーム処理、パノラマ処理、現像処理を実行して撮影画像(パノラマ画像)を生成し(ステップA18)、この生成した撮影画像に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部23の記録メディアに記録保存させる(ステップA19)。次に、パノラマ撮影モードが解除されてそのモードの終了がユーザ操作によって指示されたかを調べ(ステップA20)、パノラマ撮影モードのままであれば(ステップA20でNO)、図6のフローに戻り、パノラマ位置の初期化処理(ステップA2)を行って、レリーズ半押し操作の待ち状態となる(ステップA3)。以下、パノラマ撮影モードの終了が指示されるまで上述の動作を繰り返す。 Now, when the release full press operation is performed (YES in step A17), the fisheye distortion correction processing, digital zoom processing, panorama processing, and development processing are executed for the processing target area set in the fisheye image to take a picture. An image (panoramic image) is generated (step A18), the generated captured image is subjected to image compression processing to be converted into a standard file format, and then recorded and saved in the recording medium of the storage unit 23 (step A19). ). Next, it is checked whether the panoramic shooting mode is canceled and the end of the mode is instructed by the user operation (step A20), and if the panoramic shooting mode remains (NO in step A20), the flow returns to FIG. The panorama position initialization process (step A2) is performed, and the state waits for the release half-press operation (step A3). Hereinafter, the above operation is repeated until the end of the panoramic shooting mode is instructed.

以上のように、第1実施形態において本体装置20は、撮像部16の広角レンズ(魚眼レンズ16B)を用いた撮像時に、撮像される広角画像の中で外光による悪影響を受ける所定の領域を除く他の領域を処理対象領域として設定し、この撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、設定した処理対象領域に対して実行するようにしたので、広角撮像時に受ける外光が与える撮像画像に対する悪影響を適切に抑制することができる。 As described above, in the first embodiment, the main body device 20 excludes a predetermined region of the wide-angle image captured by the wide-angle lens (fish-eye lens 16B) of the image pickup unit 16 that is adversely affected by external light. Since another area is set as the processing target area and the predetermined processing performed until the captured wide-angle image is recorded and saved as the captured image is executed for the set processing target area, the wide-angle imaging is performed. It is possible to appropriately suppress the adverse effect of the external light that is sometimes received on the captured image.

本体装置20は、撮像された広角画像(魚眼画像)の中から少なくともその中央部領域、周辺部領域のいずれかを除く他の領域を処理対象領域として設定し、この撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、設定した処理対象領域に対して実行するようにしたので、広角撮像時に受ける外光が与える撮像画像に対する悪影響を適切に抑制することができる他に、狭めた処理対象領域に対して所定の処理を実行するためその処理を効率良く行うことが可能となる。 The main body device 20 sets a region other than at least one of the central region and the peripheral region of the captured wide-angle image (fisheye image) as a processing target region, and sets the captured wide-angle image as a processing target region. Since the predetermined processing performed before recording and saving as a captured image is executed for the set processing target area, it is possible to appropriately suppress the adverse effect of the external light received during wide-angle imaging on the captured image. In addition, since a predetermined process is executed for the narrowed process target area, the process can be efficiently performed.

魚眼画像は、その中心点に一致する複数の同心円によって画像全体を仮想的に区分することによって形成された複数の区分領域a1〜a8を有し、本体装置20は、複数の区分領域a1〜a8のうち、魚眼画像の中心点に近い内側の区分領域を中央部領域とし、その中心点から離れる外側の区分領域を周辺部領域として、少なくともその中央部領域、周辺部領域のいずれかを除く他の区分領域を処理対象領域として設定するようにしたので、外光による悪影響を受けやすい区分領域を除く他の区分領域を処理対象領域として設定することができる。 The fisheye image has a plurality of division areas a1 to a8 formed by virtually dividing the entire image by a plurality of concentric circles corresponding to the center points of the fisheye image, and the main body device 20 has the plurality of division areas a1 to a1. Of a8, the inner division region near the center point of the fisheye image is the central region, the outer division region away from the center point is the peripheral region, and at least one of the central region and the peripheral region is defined as the peripheral region. Since the other division areas to be excluded are set as the processing target areas, it is possible to set the other division areas excluding the division areas that are easily adversely affected by external light as the processing target areas.

撮像装置10は、姿勢検出部17を備え、本体装置20は、撮像装置10から姿勢検出部17によって検出された撮像装置10の姿勢を取得し、この姿勢に基づいて、魚眼画像の中から少なくともその中央部領域、周辺部領域のいずれかを除く他の区分領域を処理対象領域として設定するようにしたので、撮像装置10の姿勢に応じて外光による悪影響を受けやすい区分領域が異なったとしても、その姿勢に適した処理対象領域を設定することができる。 The image pickup device 10 includes a posture detection unit 17, and the main body device 20 acquires the posture of the image pickup device 10 detected by the posture detection unit 17 from the image pickup device 10, and based on this posture, from the fisheye image. Since at least the other division areas other than the central region and the peripheral region are set as the processing target regions, the division regions that are susceptible to adverse effects from external light differ depending on the posture of the image pickup apparatus 10. However, the processing target area suitable for the posture can be set.

本体装置20は、撮像部16による撮像時に、時計部27によって計時された現在日時に基づいて、魚眼画像の中から少なくともその中央部領域、周辺部領域のいずれかを除く他の区分領域を処理対象領域として設定するようにしたので、季節や時間帯に応じて外光による悪影響を受けやすい区分領域が異なったとしても、現在日時に適した処理対象領域を設定することができる。 Based on the current date and time measured by the clock unit 27 at the time of imaging by the image pickup unit 16, the main unit device 20 obtains other division regions from the fisheye image excluding at least one of the central region and the peripheral region. Since the processing target area is set, the processing target area suitable for the current date and time can be set even if the division area that is easily affected by external light differs depending on the season or time zone.

本体装置20は、撮像された広角画像から明度情報を取得し、この明度情報に基づいて、広角画像の中から少なくともその中央部領域、周辺部領域のいずれかを除く他の区分領域を処理対象領域として設定するようにしたので、処理対象領域をより適切に設定することができる。 The main unit 20 acquires brightness information from the captured wide-angle image, and based on this brightness information, processes another division area other than at least one of the central region and the peripheral region of the wide-angle image. Since it is set as an area, the processing target area can be set more appropriately.

本体装置20は、魚眼画像に含まれる所定の被写体(例えば、人物)を検出し、この所定の被写体に基づいて、処理対象領域を設定するようにしたので、所定の被写体の写り具合から処理対象領域を適切に設定することができる。 The main unit device 20 detects a predetermined subject (for example, a person) included in the fisheye image and sets the processing target area based on the predetermined subject. Therefore, the processing is performed based on the appearance of the predetermined subject. The target area can be set appropriately.

本体装置20は、処理対象領域から所定の被写体のはみ出す部分が少なくなるように処理対象領域を設定するようにしたので、所定の被写体の全体を含めた処理対象領域を設定することができる。 Since the main unit device 20 sets the processing target area so that the portion of the predetermined subject protruding from the processing target area is reduced, the processing target area including the entire predetermined subject can be set.

本体装置20は、撮像された広角画像の中からその中央部領域及び周辺部領域を除く他の領域を処理対象領域として設定した後、その処理対象領域の設定の変更が指示された場合に、非処理対象領域である中央部領域と周辺部領域の面積が反比例の関係で増減するように処理対象領域の設定を変更するようにしたので、その変更前後において処理対象領域の面積を変えず、その領域の位置だけを変化させることができる。 When the main unit 20 sets a region other than the central region and the peripheral region of the captured wide-angle image as the processing target area and then is instructed to change the setting of the processing target area, the main unit 20 sets the processing target area. Since the setting of the processing target area is changed so that the areas of the central area and the peripheral area, which are non-processing target areas, increase or decrease in an inversely proportional relationship, the area of the processing target area is not changed before and after the change. Only the position of that area can be changed.

本体装置20は、設定した処理対象領域に対して、少なくとも露出調整、ホワイトバランス調整、色相補正のいずれかを所定の処理として実行するようにしたので、撮影準備動作の段階で外光による悪影響を抑制することができる。例えば、天頂姿勢で青空を撮影した場合、空の明るさや青さなどに影響されて所望する被写体に露出、ホワイトバランス、色相が合わなくなるという問題を解消することができる。更に、狭めた処理対象領域に対して露出調整、ホワイトバランス調整、色相補正などの撮影準備動作を行うことができるため、その準備動作を効率良く行うことが可能となる。 Since the main unit 20 executes at least one of exposure adjustment, white balance adjustment, and hue correction as a predetermined process for the set processing target area, the adverse effect of external light is exerted at the stage of the shooting preparation operation. It can be suppressed. For example, when a blue sky is photographed in a zenith posture, it is possible to solve the problem that the exposure, white balance, and hue of a desired subject are not matched due to the influence of the brightness and blueness of the sky. Further, since it is possible to perform shooting preparation operations such as exposure adjustment, white balance adjustment, and hue correction for the narrowed processing target area, it is possible to efficiently perform the preparation operations.

本体装置20は、設定した処理対象領域に対して画像処理を施して記録保存する撮影処理を行うようにしたので、外光による悪影響の抑制と共に、その撮影処理を効率良く行うことが可能となる。 Since the main unit device 20 performs image processing on the set processing target area and performs image processing for recording and saving, it is possible to suppress adverse effects due to external light and efficiently perform the image processing. ..

本体装置20は、設定した処理対象領域の画像部分に対してデジタルズーム処理を施すと共に、このズーム処理後の画像部分をパノラマ展開するようにしたので、狭めた処理対象領域をデジタルズームによって拡大してパノラマ展開することができ、魚眼画像に比べ、大幅に視認性が富んだものとなる。 The main unit 20 performs digital zoom processing on the set image portion of the processing target area and panoramicly expands the image portion after the zoom processing. Therefore, the narrowed processing target area is enlarged by digital zoom to panorama. It can be expanded, and the visibility is significantly higher than that of a fisheye image.

(変形例1)
なお、上述した第1実施形態においては、処理対象領域から所定の被写体(例えば、人物)のはみ出す部分が少なくなるように(その被写体全体が可能な限り収まるように)、処理対象領域の設定を変更するようにしたが、所定の被写体が処理対象領域内に一杯に収まるように、処理対象領域の幅(処理対象領域を区分する2つの同心円の間隔)を調整するようにしてもよい。例えば、魚眼画像内で被写体が大きく写っていれば、その大きさに合わせて処理対象領域の幅が広くなるように変更し、被写体が小さく写っていれば、その大きさに合わせて処理対象領域の幅が狭くなるように変更するようにしてもよい。このように所定の被写体の大きさに合わせて、処理対象領域の幅を変更し後、処理対象領域の画像部分に対してデジタルズーム処理を施すと共に、このズーム処理後の画像部分をパノラマ展開する処理を実行するようにすればよい。
(Modification example 1)
In the first embodiment described above, the processing target area is set so that the portion of the predetermined subject (for example, a person) protruding from the processing target area is reduced (so that the entire subject fits as much as possible). Although it has been changed, the width of the processing target area (the distance between two concentric circles that divide the processing target area) may be adjusted so that the predetermined subject fits within the processing target area. For example, if the subject is large in the fisheye image, the width of the processing target area is changed to be wide according to the size, and if the subject is small, the processing target is adjusted to the size. It may be changed so that the width of the area becomes narrower. In this way, after changing the width of the processing target area according to the size of the predetermined subject, digital zoom processing is performed on the image portion of the processing target area, and the image portion after the zoom processing is panoramicly expanded. Should be executed.

ところで、一般に、魚眼レンズなどの広角レンズを用いて撮像すると、その広角画像(魚眼画像)の周辺部は引き伸ばされた画像となり、その中央部は圧縮された画像となり、しかも撮像装置10から被写体が離れていると、その被写体の像は小さくて見難くなる。このような広角画像を、例え、パノラマ展開したとしても、被写体の大きさは変わらず、小さなままである。そこで、パノラマ展開後にそのパノラマ画像を拡大補正することも考えられるが、このようなやり方だと、大きいなパノラマ画像を作成する必要が生じ、処理が重くなってしまうが、上述のように所定の被写体が処理対象領域内に一杯に収まるように処理対象領域の幅を調整した後、処理対象領域の画像部分に対してデジタルズーム処理及びパノラマ処理を実行するようにすれば、被写体は大きく見易いものとなる。 By the way, in general, when an image is taken using a wide-angle lens such as a fisheye lens, the peripheral portion of the wide-angle image (fisheye image) becomes a stretched image, the central portion thereof becomes a compressed image, and the subject is displayed from the imaging device 10. At a distance, the image of the subject is small and difficult to see. Even if such a wide-angle image is panoramicly developed, the size of the subject does not change and remains small. Therefore, it is conceivable to enlarge and correct the panoramic image after the panoramic development, but in such a method, it becomes necessary to create a large panoramic image, which makes the processing heavy. If the width of the processing target area is adjusted so that the subject fits within the processing target area, and then digital zoom processing and panoramic processing are performed on the image portion of the processing target area, the subject will be large and easy to see. Become.

また、上述した第1実施形態においては、撮像時における撮像装置10の姿勢、現在日時、魚眼画像の明度情報に基づいて、魚眼画像内に処理対象領域を設定した後、この処理対象領域内に含まれる所定の被写体を検出し、この所定の被写体の写り具合に基づいて、処理対象領域の設定を変更するようにしたが、撮像時における撮像装置10の姿勢、現在日時、撮像された魚眼画像の明度情報、所定の被写体の写り具合に基づいて、魚眼画像内に処理対象領域を設定するようにしてもよい。つまり、処理対象領域を設定する際には、所定の被写体の写り具合も考慮に入れて行うようにしてもよい。 Further, in the above-described first embodiment, after setting the processing target area in the fisheye image based on the posture of the imaging device 10 at the time of imaging, the current date and time, and the brightness information of the fisheye image, this processing target area A predetermined subject included in the image was detected, and the setting of the processing target area was changed based on the image quality of the predetermined subject. However, the posture of the image pickup device 10 at the time of imaging, the current date and time, and the image were captured. The processing target area may be set in the fisheye image based on the brightness information of the fisheye image and the appearance of a predetermined subject. That is, when setting the processing target area, the appearance of a predetermined subject may be taken into consideration.

また、上述した第1実施形態においては、処理対象領域の設定とその設定の変更を自動的に行うようにしたが、撮像装置10の姿勢情報、現在の日時情報、魚眼画像の明度情報に基づいて、処理対象領域を設定した後、その処理対象領域の設定をユーザ操作によって変更(微調整)するようにしてもよい。つまり、処理対象領域の自動設定とユーザ操作による設定の変更(微調整)を行うようにしてもよい。 Further, in the first embodiment described above, the processing target area is set and the setting is automatically changed, but the posture information of the image pickup apparatus 10, the current date and time information, and the brightness information of the fisheye image are used. Based on this, after setting the processing target area, the setting of the processing target area may be changed (fine-tuned) by a user operation. That is, the processing target area may be automatically set and the setting may be changed (fine adjustment) by user operation.

また、上述した第1実施形態においては、姿勢情報、日時情報、明度情報の全てを用いて処理対象領域を設定するようにしたが、姿勢情報、日時情報、明度情報のいずれか1つ、又は2つの組み合わせによって処理対象領域を設定するようにしてもよい。 Further, in the above-described first embodiment, the processing target area is set by using all of the posture information, the date and time information, and the brightness information, but any one of the posture information, the date and time information, and the brightness information, or The processing target area may be set by a combination of the two.

(第2実施形態)
以下、この発明の第2実施形態について図8及び図9を参照して説明する。
なお、上述した第1実施形態においては、撮像時における撮像装置10の姿勢情報、現在の日時情報、撮像された魚眼画像の明度情報に基づいて、魚眼画像内に処理対象領域を設定し、その後、この処理対象領域内に含まれる所定の被写体を検出し、この所定の被写体の写り具合に基づいて、処理対象領域の設定を変更するようにしたが、この第2実施形態においては、ユーザ操作に応じて魚眼画像内に処理対象領域を設定したり、ユーザ操作に応じて処理対象領域の設定を変更したりするようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
Hereinafter, the second embodiment of the present invention will be described with reference to FIGS. 8 and 9.
In the first embodiment described above, the processing target area is set in the fisheye image based on the attitude information of the image pickup device 10 at the time of imaging, the current date and time information, and the brightness information of the captured fisheye image. After that, a predetermined subject included in the processing target area is detected, and the setting of the processing target area is changed based on the image quality of the predetermined subject. However, in the second embodiment, the processing target area is changed. The processing target area is set in the fisheye image according to the user operation, and the setting of the processing target area is changed according to the user operation. Here, those having the same basic or nominal name in both embodiments are indicated with the same reference numerals, the description thereof will be omitted, and the feature portions of the second embodiment will be mainly described below. ..

図8及び図9は、第2実施形態において、魚眼レンズ16Bを用いたパノラマ画像生成モード(魚眼パノラマ撮影モード)に切り替えられた際に実行開始されるフローチャートである。
まず、本体装置20側の制御部21は、撮像装置10から受信取得した魚眼画像をライブビュー画像としてタッチ表示部26に逐次表示させる動作を開始(図8のステップB1)させると共に、図4(1)、(2)に示す状態(処理対象領域が設定されていない状態)となるようにパノラマズーム位置を初期化する処理を行う(ステップB2)。この状態において、後述するデジタルズーム操作が行われたか調べたり(ステップB3)、後述するムーブ操作が行われたか調べたり(ステップB7)、レリーズ半押し操作が行われたか調べたりする。(図9のステップB11)。
8 and 9 are flowcharts that are started to be executed when the panoramic image generation mode (fisheye panorama shooting mode) using the fisheye lens 16B is switched to in the second embodiment.
First, the control unit 21 on the main unit 20 side starts an operation of sequentially displaying the fisheye image received and acquired from the image pickup device 10 on the touch display unit 26 as a live view image (step B1 in FIG. 8), and FIG. The process of initializing the panoramic zoom position is performed so as to be in the state shown in (1) and (2) (the state in which the processing target area is not set) (step B2). In this state, it is checked whether the digital zoom operation described later is performed (step B3), whether the move operation described later is performed (step B7), or whether the release half-press operation is performed. (Step B11 in FIG. 9).

このデジタルズーム操作は、魚眼パノラマ撮影モードにおいて撮像された魚眼画像がライブビュー画像として表示されているタッチ表示部26上で行われるピンチイン、又はピンチアウト操作であり、撮像された魚眼画像内に処理対象領域や非処理対象領域を設定すべきことを指示する領域設定操作である。すなわち、デジタルズーム操作が行われると(ステップB3でYES)、そのデジタルズーム操作は、ピンチアウト操作であるかを調べ(ステップB4)、ピンチアウト操作であれば(ステップB4でYES)、ズームアウト処理として、魚眼画像内に処理対象領域及び非処理対象領域を設定する処理を行う(ステップB5)。このズームアウト処理は、ピンチアウト操作毎に、魚眼画像内に非処理対象領域の面積を1段階(1区分領域)広げる処理、つまり、処理対象領域の面積を1段階(1区分領域)狭める処理であり、最初は、パノラマズーム位置が初期化されているので、この初期状態でピンチアウト操作が行われると、魚眼画像内に新たな非処理対象領域を出現させることになる。 This digital zoom operation is a pinch-in or pinch-out operation performed on the touch display unit 26 in which the fisheye image captured in the fisheye panorama shooting mode is displayed as a live view image, and is within the captured fisheye image. It is an area setting operation that instructs that the processing target area and the non-processing target area should be set. That is, when the digital zoom operation is performed (YES in step B3), it is checked whether the digital zoom operation is a pinch-out operation (step B4), and if it is a pinch-out operation (YES in step B4), the zoom-out process is performed. , Perform the process of setting the processing target area and the non-processing target area in the fisheye image (step B5). This zoom-out process expands the area of the non-processed area in the fisheye image by one step (1 segmented area) for each pinch-out operation, that is, narrows the area of the processed target area by one step (1 segmented area). Since this is a process and the panoramic zoom position is initially initialized, if a pinch-out operation is performed in this initial state, a new non-process target area will appear in the fisheye image.

また、デジタルズーム操作がピンチイン操作であれば(ステップB4でNO)、ズームイン処理として、魚眼画像内に処理対象領域及び非処理対象領域を設定する処理を行う(ステップB)。このズームイン処理は、ピンチイン操作毎に、魚眼画像内に非処理対象領域の面積を1段階(1区分領域)狭める処理、つまり、処理対象領域の面積を1段階(1区分領域)広げる処理である。なお、パノラマズーム位置が初期化されている状態でのピンチイン操作は無効となる。また、非処理対象領域を魚眼画像の中央部とするか、周辺部とするか、その両方とするかは、デジタルズーム操作時の最初のタッチ位置でユーザが任意に選択するようにしているが、それに限らず、撮像装置10の姿勢情報に基づいて自動的に選択するようにしてもよい。 If the digital zoom operation is a pinch-in operation (NO in step B4), a process of setting a processing target area and a non-processing target area in the fisheye image is performed as the zoom-in process (step B). This zoom-in process is a process of narrowing the area of the non-processing target area in the fisheye image by one step (one division area) for each pinch-in operation, that is, a process of expanding the area of the processing target area by one step (one division area). is there. The pinch-in operation is invalid when the panoramic zoom position is initialized. In addition, whether the non-processed area is the central part, the peripheral part, or both of the fisheye image is arbitrarily selected by the user at the first touch position during the digital zoom operation. However, the selection may be made automatically based on the posture information of the image pickup device 10.

上述のムーブ操作は、魚眼パノラマ撮影モードにおいて撮像された魚眼画像がライブビュー画像として表示されているタッチ表示部26上で行われる上フリック、又は下フリック操作であり、魚眼画像内に設定されている処理対象領域や非処理対象領域を所定の被写体(例えば、人物)の写り具合に応じて変更すべきことを領域設定変更操作する。すなわち、ムーブ操作が行われると(ステップB7でYES)、上フリック操作であるかを調べ(ステップB8)、上フリック操作であれば(ステップB8でYES)、ムーブイン処理として、その所定の被写体の全てが処理対象領域内に含まれるように、処理対象領域及び非処理対象領域の設定を変更する(ステップB9)。すなわち、所定の被写体が処理対象領域からはみ出す部分が少なくなる方向に処理対象領域の設定を変更する。 The above-mentioned move operation is an upper flick or a lower flick operation performed on the touch display unit 26 in which the fisheye image captured in the fisheye panoramic shooting mode is displayed as a live view image, and is included in the fisheye image. The area setting change operation is performed to change the set processing target area or non-processing target area according to the appearance of a predetermined subject (for example, a person). That is, when the move operation is performed (YES in step B7), it is checked whether the operation is an upper flick operation (step B8), and if it is an upper flick operation (YES in step B8), the move-in process is performed on the predetermined subject. The settings of the processing target area and the non-processing target area are changed so that all of them are included in the processing target area (step B9). That is, the setting of the processing target area is changed so that the portion where the predetermined subject protrudes from the processing target area is reduced.

また、ムーブ操作が下フリック操作であれば(ステップB8でNO)、ムーブアウト処理として、所定の被写体が非処理対象領域内に隠れるように、処理対象領域及び非処理対象領域の設定を変更する(ステップB10)。すなわち、所定の被写体が処理対象領域からはみ出す部分が多くなる方向に処理対象領域の設定を変更する。例えば、人物の全身が処理対象領域内に収まるようにするのではなく、上半身や顔部分を処理対象領域内に収まるように処理対象領域の設定を変更する。なお、上述した第1実施形態と同様に、非処理対象領域が中央部と周辺部の両方に設定されている場合には、その中央部領域と周辺部領域の面積が反比例の関係で増減するように非処理対象領域の設定を変更するようにしている。 If the move operation is a down flick operation (NO in step B8), the settings of the processing target area and the non-processing target area are changed so that the predetermined subject is hidden in the non-processing target area as the move-out process. (Step B10). That is, the setting of the processing target area is changed so that the portion where the predetermined subject protrudes from the processing target area increases. For example, instead of making the whole body of the person fit within the processing target area, the setting of the processing target area is changed so that the upper body and the face part fit within the processing target area. As in the first embodiment described above, when the non-processing target area is set in both the central portion and the peripheral portion, the areas of the central portion region and the peripheral portion region increase or decrease in an inversely proportional relationship. The setting of the non-processing target area is changed so as to.

いま、レリーズ半押し操作が行われると(図9のステップB11でYES)、上述のように設定した処理対象領域に対して、撮影準備動作のAF処理、露出調整(AE処理)、ホワイトバランス調整、色相補正などの処理を実行する(ステップB12)。その後、レリーズ全押し操作が行われたかを調べ(ステップB13)、レリーズ全押し操作が行われなければ(ステップB13でNO)、上述のステップB12に戻って撮影準備動作を行うが、レリーズ全押し操作が行われると(ステップB13でYES)、処理対象領域に対して魚眼歪補正処理、デジタルズーム処理、パノラマ処理、現像処理などを実行して撮影画像を生成し(ステップB14)、この生成した撮影画像に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部23の記録メディアに記録保存させる(ステップB15)。 Now, when the release half-press operation is performed (YES in step B11 in FIG. 9), AF processing, exposure adjustment (AE processing), and white balance adjustment of the shooting preparation operation are performed for the processing target area set as described above. , Hue correction and other processes are executed (step B12). After that, it is checked whether the release full push operation is performed (step B13), and if the release full push operation is not performed (NO in step B13), the process returns to the above step B12 to perform the shooting preparation operation, but the release full push operation is performed. When the operation is performed (YES in step B13), fisheye distortion correction processing, digital zoom processing, panorama processing, development processing, etc. are executed on the processing target area to generate a captured image (step B14), and this generation is generated. The captured image is subjected to image compression processing to be converted into a standard file format, and then recorded and saved in the recording medium of the storage unit 23 (step B15).

次に、パノラマ撮影モードが解除されてそのモードの終了がユーザ操作によって指示されたかを調べ(ステップB16)、パノラマ撮影モードのままであれば(ステップB16でNO)、図8のフローに戻り、パノラマ位置の初期化処理を行う(ステップB2)。以下、パノラマ撮影モードの終了が指示されるまで上述の動作を繰り返す。 Next, it is checked whether the panoramic shooting mode is canceled and the end of the mode is instructed by the user operation (step B16), and if the panoramic shooting mode remains (NO in step B16), the flow returns to FIG. Initialize the panorama position (step B2). Hereinafter, the above operation is repeated until the end of the panoramic shooting mode is instructed.

以上のように、第2実施形態において本体装置20は、撮像時に魚眼画像内に処理対象領域を設定すべきことがユーザ操作(デジタルズーム操作:ピンチイン操作やピンチアウト操作)によって指示された際に、このユーザ指示に基づいて、魚眼画像の中から少なくともその中央部領域、周辺部領域のいずれかを除く他の領域を処理対象領域として設定するようにしたので、撮像時に受ける外光による悪影響を適切に抑制することができると共に、ユーザの意向に応じて処理対象領域を任意に設定することができる。 As described above, in the second embodiment, when the main unit device 20 is instructed by the user operation (digital zoom operation: pinch-in operation or pinch-out operation) that the processing target area should be set in the fisheye image at the time of imaging. , Based on this user instruction, the fisheye image is set to the area other than at least the central area and the peripheral area as the processing target area, so that the adverse effect of the external light received at the time of imaging is adversely affected. Can be appropriately suppressed, and the processing target area can be arbitrarily set according to the user's intention.

本体装置20は、設定した処理対象領域の変更がユーザ操作(ムーブ操作:上フリック操作や下フリック操作)によって指示された際に、そのユーザ指示に基づいて、処理対象領域の設定を変更するようにしたので、ユーザの意向に応じて処理対象領域の設定を変更することができ、これによって例えば、所定の被写体(例えば、人物)などの写り具合の微調整が可能となる。 When the change of the set processing target area is instructed by a user operation (move operation: up flick operation or down flick operation), the main unit 20 changes the setting of the processing target area based on the user instruction. Therefore, the setting of the processing target area can be changed according to the intention of the user, which makes it possible to finely adjust the appearance of a predetermined subject (for example, a person).

なお、上述した第2実施形態においては、デジタルズーム操作(ピンチイン操作やピンチアウト操作)によってユーザの所望する処理対象領域を設定するようにしたが、ピンチイン操作やピンチアウト操作に限らず、その他の操作で処理対象領域を設定すべきことを指示するようにしてもよく、また、上述した第2実施形態においては、ムーブ操作(上フリック操作や下フリック操作)によって処理対象領域の設定を変更するようにしたが、その他の操作でその設定を変更すべきことを指示するようにしてもよい。 In the second embodiment described above, the processing target area desired by the user is set by the digital zoom operation (pinch-in operation or pinch-out operation), but the operation is not limited to the pinch-in operation or the pinch-out operation. May indicate that the processing target area should be set, and in the second embodiment described above, the processing target area setting is changed by a move operation (up flick operation or down flick operation). However, you may instruct that the setting should be changed by other operations.

上述した第2実施形態においては、ムーブ操作が行われた際に、所定の被写体(例えば、人物)などの写り具合に応じて処理対象領域の設定を変更(微調整)するようにしたが、デジタルズーム操作時に所定の被写体(例えば、人物)などの写り具合を考慮に入れて処理対象領域を設定するようにしてもよい。 In the second embodiment described above, when the move operation is performed, the setting of the processing target area is changed (fine-tuned) according to the image condition of a predetermined subject (for example, a person). The processing target area may be set in consideration of the appearance of a predetermined subject (for example, a person) during the digital zoom operation.

また、上述した各実施形態においては、魚眼レンズ16Bで撮像された円形の広角画像(魚眼画像)を長方形のパノラマ画像に変換して記録保存するようにしたが、魚眼画像も含めて記録保存するようにしてもよい。また、魚眼画像の全体を仮想的に複数の領域に区分する場合に、複数の同心円によって区分にする場合に限らず、外光による悪影響を抑制することができれば、同心円に限らず、任意である。 Further, in each of the above-described embodiments, the circular wide-angle image (fisheye image) captured by the fisheye lens 16B is converted into a rectangular panoramic image and recorded and saved, but the fisheye image is also recorded and saved. You may try to do it. Further, when the entire fisheye image is virtually divided into a plurality of areas, it is not limited to the case where it is divided by a plurality of concentric circles, and it is not limited to the concentric circles as long as the adverse effect of external light can be suppressed. is there.

上述した各実施形態においては、魚眼レンズ16Bを用いて撮影する範囲を180°撮影を例示したが、これに限らず、例えば、前方180°撮影と後方180°撮影の2回に分けて360°撮影を行ってその複数の魚眼画像を組とするようにしてもよい。また、魚眼レンズ16Bに限らず、その他の広角レンズであってもよい。 In each of the above-described embodiments, 180 ° imaging is exemplified in the range of imaging using the fisheye lens 16B, but the present invention is not limited to this, and for example, 360 ° imaging is divided into two times of front 180 ° imaging and rear 180 ° imaging. May be performed to form a set of the plurality of fisheye images. Further, the lens is not limited to the fisheye lens 16B, and other wide-angle lenses may be used.

上述した各実施形態において所定の被写体として人物を例示したが、それに限らず、ペット、花、樹木、建物などを所定の被写体としてもよい。 In each of the above-described embodiments, a person is illustrated as a predetermined subject, but the present invention is not limited to this, and a pet, a flower, a tree, a building, or the like may be a predetermined subject.

また、上述した各実施形態においては、撮像装置10と本体装置20とを分離可能なセパレート型デジタルカメラに適用したが、一体型のデジタルカメラであってもよく、更には、カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・
タブレット端末装置・スマートフォンなどの携帯電話機・電子ゲーム・音楽プレイヤーなどに適用するようにしてもよい。
Further, in each of the above-described embodiments, the image pickup device 10 and the main body device 20 are applied to a separate type digital camera that can be separated, but it may be an integrated digital camera, and further, a personal computer with a camera function.・ PDA (Personal Digital Camera) ・
It may be applied to a tablet terminal device, a mobile phone such as a smartphone, an electronic game, a music player, or the like.

また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。 Further, the "device" and "part" shown in each of the above-described embodiments may be separated into a plurality of housings according to functions, and are not limited to a single housing. Further, each step described in the above-mentioned flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or may be processed separately and independently.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
広角レンズによる広角撮影が可能な撮像部を備える撮像装置であって、
前記撮像部の広角レンズを用いた撮像時に、撮像される広角画像の中で外光による悪影響を受ける所定の領域を除く他の領域を処理対象領域として設定する設定手段と、
前記撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、前記設定手段によって設定された処理対象領域に対して実行する処理手段と、
を備えることを特徴とする。
(請求項2)
請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記設定手段は、前記撮像部の広角レンズを用いた撮像時に、外交による悪影響を抑制するために、撮像される広角画像の中から少なくともその中央領域及び/又は周辺領域を除く他の領域を処理対象領域として設定する、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項2に記載の撮像装置において、
前記広角画像は、その中心点に一致する複数の同心円によって画像全体を仮想的に区分することによって形成された複数の区分領域を有し、
前記設定手段は、前記複数の区分領域のうち、前記広角画像の中心点に近い内側の区分領域を中央部領域とし、その中心点から離れる外側の区分領域を周辺部領域として、少なくともその中央部領域、周辺部領域のいずれかを除く他の区分領域を処理対象領域として設定する、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項1乃至3の何れかに記載の撮像装置において、
当該撮像装置の姿勢を検出する姿勢検出手段と、を更に備え、
前記設定手段は、前記撮像部による撮像時に、前記姿勢検出手段によって検出された当該撮像装置の姿勢に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を処理対象領域として設定する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項1乃至4の何れか1項に記載の撮像装置において、
現在日時を計時する計時手段と、を更に備え、
前記設定手段は、前記撮像部による撮像時に、前記計時手段によって計時された現在日時に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を処理対象領域として設定する、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項1乃至5の何れか1項に記載の撮像装置において、
前記撮像部によって撮像された広角画像から明度情報を取得する取得手段と、を更に備え、
前記設定手段は、前記取得手段により取得された明度情報に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を処理対象領域として設定する、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項1乃至6の何れか1項に記載の撮像装置において、
前記撮像部による撮像時に、前記処理対象領域の設定をユーザ操作によって指示する設定指示手段と、を更に備え、
前記設定手段は、前記設定指示手段からのユーザ指示に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を処理対象領域として設定する、
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項1乃至7の何れか1項に記載の撮像装置において、
前記広角画像に含まれる所定の被写体を検出手段と、を更に備え、
前記設定手段は、前記検出手段によって検出された所定の被写体に基づいて、処理対象領域を設定する、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項8に記載の撮像装置において、
前記設定手段は、前記検出手段によって検出された所定の被写体が処理対象領域からはみ出す部分が少なくなるように処理対象領域を設定する、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項8に記載の撮像装置において、
前記設定手段は、前記検出手段によって検出された所定の被写体が前記処理対象領域内に一杯に収まるように処理対象領域を設定し、
前記処理手段は、前記設定手段によって設定された処理対象領域の画像部分に対して拡大処理を施した後、この拡大処理後の画像部分をパノラマ展開する処理を実行する、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、請求項1乃至10の何れか1項に記載の撮像装置において、
前記設定手段によって設定された処理対象領域の変更を、ユーザ操作によって指示する変更指示手段と、を更に備え、
前記設定手段は、前記変更指示手段からのユーザ指示に基づいて、前記処理対象領域の設定を変更する、
ことを特徴とする。
(請求項12)
請求項12に記載の発明は、請求項1乃至11の何れか1項に記載の撮像装置において、
前記設定手段は、撮像された広角画像の中からその中央部領域及び周辺部領域を除く他の領域を処理対象領域として設定した後に、その処理対象領域の設定の変更する場合に、非処理対象領域である中央部領域と周辺部領域の面積が反比例の関係で増減するように処理対象領域の設定を変更する、
ことを特徴とする。
(請求項13)
請求項13に記載の発明は、請求項1乃至12の何れか1項に記載の撮像装置において、
前記処理手段は、前記設定手段によって設定された処理対象領域に対して、少なくとも露出調整、ホワイトバランス調整、色相補正、拡大処理又はパノラマ展開処理のいずれかの処理を実行する、
ことを特徴とする請求項1乃至12の何れか1項に記載の撮像装置。
(請求項14)
請求項14に記載の発明は、請求項1乃至13の何れか1項に記載の撮像装置において、
前記処理手段は、撮影指示に応答して、前記撮像部によって撮像された画像を取得して、画像処理を施した後に記録保存する際に、前記設定手段によって設定された処理対象領域に対して画像処理を施して記録保存する撮影処理を行う、
ことを特徴とする。
(請求項15)
請求項15に記載の発明は、
広角レンズによる広角撮影が可能な撮像部を備える撮像装置の画像処理方法であって、
前記撮像部の広角レンズを用いた撮像時に、撮像される広角画像の中の外光による悪影響を受ける所定の領域を除く他の領域を処理対象領域として設定するステップと、
前記撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、前記設定された処理対象領域に対して実行するステップと、
を含むことを特徴とする。
(請求項16)
請求項16に記載の発明は、
広角レンズによる広角撮影が可能な撮像部を備える撮像装置のコンピュータに対して、
前記撮像部の広角レンズを用いた撮像時に、撮像される広角画像の中の外光による悪影響を受ける領域を除く他の領域を処理対象領域として設定する機能と、
前記撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、前記設定された処理対象領域に対して実行する機能と、
を実現させるためのプログラムである。
Although the embodiments of the present invention have been described above, the present invention is not limited to this, and includes the invention described in the claims and the equivalent range thereof.
Hereinafter, the inventions described in the claims of the present application will be added.
(Additional note)
(Claim 1)
The invention according to claim 1
An imaging device equipped with an imaging unit capable of wide-angle photography with a wide-angle lens.
A setting means for setting a region other than a predetermined region that is adversely affected by external light in the captured wide-angle image as a processing target region during imaging using the wide-angle lens of the imaging unit.
A processing means for executing a predetermined process for recording and saving the captured wide-angle image as a captured image for a processing target area set by the setting means, and a processing means.
It is characterized by having.
(Claim 2)
The invention according to claim 2 is the imaging device according to claim 1.
The setting means processes at least a central region and / or a peripheral region of the captured wide-angle image in order to suppress an adverse effect of diplomacy during imaging using the wide-angle lens of the imaging unit. Set as the target area,
It is characterized by that.
(Claim 3)
The invention according to claim 3 is the imaging device according to claim 2.
The wide-angle image has a plurality of division regions formed by virtually dividing the entire image by a plurality of concentric circles corresponding to its center point.
Of the plurality of division regions, the setting means has an inner division region close to the center point of the wide-angle image as a central region, and an outer division region away from the center point as a peripheral region, at least the central portion thereof. Set other division areas other than either the area or the peripheral area as the processing target area.
It is characterized by that.
(Claim 4)
The invention according to claim 4 is the imaging device according to any one of claims 1 to 3.
Further equipped with a posture detecting means for detecting the posture of the imaging device,
The setting means sets a region other than the predetermined region from the wide-angle image as a processing target region based on the posture of the imaging device detected by the posture detecting means at the time of imaging by the imaging unit. To do
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the imaging device according to any one of claims 1 to 4.
Further equipped with a timekeeping means to measure the current date and time,
The setting means sets a region other than the predetermined region from the wide-angle image as a processing target region based on the current date and time measured by the timing means at the time of imaging by the imaging unit.
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the imaging device according to any one of claims 1 to 5.
Further provided with an acquisition means for acquiring brightness information from a wide-angle image captured by the imaging unit.
The setting means sets a region other than the predetermined region from the wide-angle image as a processing target region based on the brightness information acquired by the acquisition means.
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the imaging device according to any one of claims 1 to 6.
Further, a setting instruction means for instructing the setting of the processing target area by a user operation at the time of imaging by the imaging unit is provided.
The setting means sets a region other than the predetermined region from the wide-angle image as a processing target region based on a user instruction from the setting instruction means.
It is characterized by that.
(Claim 8)
The invention according to claim 8 is the imaging device according to any one of claims 1 to 7.
Further provided with a means for detecting a predetermined subject included in the wide-angle image.
The setting means sets a processing target area based on a predetermined subject detected by the detection means.
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the imaging device according to claim 8.
The setting means sets a processing target area so that a portion of a predetermined subject detected by the detecting means protruding from the processing target area is reduced.
It is characterized by that.
(Claim 10)
The invention according to claim 10 is the imaging device according to claim 8.
The setting means sets the processing target area so that the predetermined subject detected by the detecting means fits within the processing target area.
The processing means performs a process of enlarging the image portion of the processing target area set by the setting means, and then executes a process of panoramic expansion of the image portion after the enlarging process.
It is characterized by that.
(Claim 11)
The invention according to claim 11 is the imaging device according to any one of claims 1 to 10.
Further provided with a change instruction means for instructing a change of the processing target area set by the setting means by a user operation.
The setting means changes the setting of the processing target area based on the user instruction from the change instruction means.
It is characterized by that.
(Claim 12)
The invention according to claim 12 is the imaging device according to any one of claims 1 to 11.
The setting means is a non-processing target when the setting of the processing target area is changed after setting other areas other than the central region and the peripheral region from the captured wide-angle image as the processing target area. Change the setting of the processing target area so that the areas of the central area and the peripheral area, which are the areas, increase or decrease in an inversely proportional relationship.
It is characterized by that.
(Claim 13)
The invention according to claim 13 is the imaging device according to any one of claims 1 to 12.
The processing means executes at least one of exposure adjustment, white balance adjustment, hue correction, enlargement processing, and panoramic expansion processing on the processing target area set by the setting means.
The imaging device according to any one of claims 1 to 12, wherein the image pickup apparatus is characterized by the above.
(Claim 14)
The invention according to claim 14 is the imaging device according to any one of claims 1 to 13.
When the processing means acquires an image captured by the imaging unit in response to a shooting instruction, performs image processing, and then records and saves the image, the processing target area set by the setting means is used. Performs image processing and shooting processing to record and save,
It is characterized by that.
(Claim 15)
The invention according to claim 15
It is an image processing method of an image pickup apparatus provided with an image pickup unit capable of wide-angle shooting with a wide-angle lens.
A step of setting a region other than a predetermined region in the captured wide-angle image that is adversely affected by external light as a processing target region during imaging using the wide-angle lens of the imaging unit.
A step of executing a predetermined process for recording and saving the captured wide-angle image as a captured image for the set processing target area, and
It is characterized by including.
(Claim 16)
The invention according to claim 16
For a computer of an imaging device equipped with an imaging unit capable of wide-angle shooting with a wide-angle lens,
A function of setting a region other than an region affected by external light in the captured wide-angle image as a processing target region during imaging using the wide-angle lens of the imaging unit.
A function of executing a predetermined process for recording and saving the captured wide-angle image as a captured image for the set processing target area, and
It is a program to realize.

10 撮像装置
20 本体装置
11、21 制御部
13、23 記憶部
23A プログラムメモリ
14、24 通信部
16 撮像部
16B 魚眼レンズ
16C 撮像素子
17 姿勢検出部
25 操作部
26 タッチ表示部
27 時計部
a1〜a8 区分領域
10 Image sensor 20 Main unit 11, 21 Control unit 13, 23 Storage unit 23A Program memory 14, 24 Communication unit 16 Image sensor 16B Fisheye lens 16C Image sensor 17 Posture detection unit 25 Operation unit 26 Touch display unit 27 Clock unit a1 to a8 region

Claims (15)

広角レンズによる広角撮影が可能な撮像部を備える撮像装置であって、
前記撮像部で撮像される画像から所定の被写体を検出する検出手段と、
前記撮像部の広角レンズを用いた撮像時に、撮像される広角画像の中で外光による悪影響を受ける所定の領域を除き、且つ、前記検出手段によって検出された所定の被写体に基づいた他の領域を処理対象領域として設定する設定手段と、
前記撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、前記設定手段によって設定された前記処理対象領域に対して実行する処理手段と、
を備えることを特徴とする撮像装置。
An imaging device equipped with an imaging unit capable of wide-angle photography with a wide-angle lens.
A detection means for detecting a predetermined subject from an image captured by the imaging unit , and
When imaging with the wide-angle lens of the imaging unit, a predetermined region that is adversely affected by external light is excluded from the captured wide-angle image, and another region based on a predetermined subject detected by the detection means. And the setting means to set as the processing target area,
A processing means for executing a predetermined process for recording and saving the captured wide-angle image as a captured image for the processing target area set by the setting means, and a processing means.
An imaging device characterized by comprising.
前記設定手段は、前記撮像部の広角レンズを用いた撮像時に、外光による悪影響を抑制するために、撮像される広角画像の中から少なくともその中央領域及び/又は周辺領域を除く他の領域を前記処理対象領域として設定する、
ことを特徴とする請求項1に記載の撮像装置。
In order to suppress the adverse effect of external light during imaging using the wide-angle lens of the imaging unit, the setting means captures at least a central region and / or a peripheral region of the captured wide-angle image. Set as the processing target area,
The imaging device according to claim 1.
前記広角画像は、その中心点に一致する複数の同心円によって画像全体を仮想的に区分することによって形成された複数の区分領域を有し、
前記設定手段は、前記複数の区分領域のうち、前記広角画像の中心点に近い内側の区分領域を中央部領域とし、その中心点から離れる外側の区分領域を周辺部領域として、少なくともその中央部領域、周辺部領域のいずれかを除く他の区分領域を前記処理対象領域として設定する、
ことを特徴とする請求項2に記載の撮像装置。
The wide-angle image has a plurality of division regions formed by virtually dividing the entire image by a plurality of concentric circles corresponding to its center point.
Of the plurality of division regions, the setting means has an inner division region close to the center point of the wide-angle image as a central region, and an outer division region away from the center point as a peripheral region, at least the central portion thereof. Other division areas other than either the area or the peripheral area are set as the processing target area.
2. The imaging device according to claim 2.
当該撮像装置の姿勢を検出する姿勢検出手段と、を更に備え、
前記設定手段は、前記撮像部による撮像時に、前記姿勢検出手段によって検出された当該撮像装置の姿勢に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を前記処理対象領域として設定する、
ことを特徴とする請求項1乃至3の何れかに記載の撮像装置。
Further equipped with a posture detecting means for detecting the posture of the imaging device,
The setting means sets a region other than the predetermined region from the wide-angle image as the processing target region based on the posture of the imaging device detected by the posture detecting means at the time of imaging by the imaging unit. Set,
The imaging device according to any one of claims 1 to 3.
現在日時を計時する計時手段と、を更に備え、
前記設定手段は、前記撮像部による撮像時に、前記計時手段によって計時された現在日時に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を前記処理対象領域として設定する、
ことを特徴とする請求項1乃至4の何れか1項に記載の撮像装置。
Further equipped with a timekeeping means to measure the current date and time,
The setting means sets a region other than the predetermined region from the wide-angle image as the processing target region based on the current date and time measured by the timing means at the time of imaging by the imaging unit.
The imaging device according to any one of claims 1 to 4, wherein the image pickup apparatus is characterized by the above.
前記撮像部によって撮像された広角画像から明度情報を取得する取得手段と、を更に備え、
前記設定手段は、前記取得手段により取得された明度情報に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を処理対象領域として設定する、
ことを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。
Further provided with an acquisition means for acquiring brightness information from a wide-angle image captured by the imaging unit.
The setting means sets a region other than the predetermined region from the wide-angle image as a processing target region based on the brightness information acquired by the acquisition means.
The imaging device according to any one of claims 1 to 5, wherein the image pickup apparatus is characterized by the above.
前記撮像部による撮像時に、前記処理対象領域の設定をユーザ操作によって指示する設定指示手段と、を更に備え、
前記設定手段は、前記設定指示手段からのユーザ指示に基づいて、前記広角画像の中から前記所定の領域を除く他の領域を前記処理対象領域として設定する、
ことを特徴とする請求項1乃至6の何れか1項に記載の撮像装置。
Further, a setting instruction means for instructing the setting of the processing target area by a user operation at the time of imaging by the imaging unit is provided.
Based on the user instruction from the setting instruction means, the setting means sets other areas other than the predetermined area from the wide-angle image as the processing target area.
The imaging device according to any one of claims 1 to 6, wherein the image pickup apparatus is characterized by the above.
前記設定手段は、前記検出手段によって検出された所定の被写体が前記処理対象領域からはみ出す部分が少なくなるように処理対象領域を設定する、
ことを特徴とする請求項1乃至7の何れか1項に記載の撮像装置。
The setting means sets a processing target area so that a predetermined subject detected by the detecting means has a small portion protruding from the processing target area.
The imaging apparatus according to any one of claims 1 to 7.
前記設定手段は、前記検出手段によって検出された所定の被写体が前記処理対象領域内に一杯に収まるように処理対象領域を設定し、
前記処理手段は、前記設定手段によって設定された処理対象領域の画像部分に対して拡大処理を施した後、この拡大処理後の画像部分をパノラマ展開する処理を実行する、
ことを特徴とする請求項8に記載の撮像装置。
The setting means sets the processing target area so that the predetermined subject detected by the detecting means fits within the processing target area.
The processing means performs a process of enlarging the image portion of the processing target area set by the setting means, and then executes a process of panoramic expansion of the image portion after the enlarging process.
The image pickup apparatus according to claim 8.
前記設定手段によって設定された前記処理対象領域の変更を、ユーザ操作によって指示する変更指示手段を更に備え、
前記設定手段は、前記変更指示手段からのユーザ指示に基づいて、前記処理対象領域の設定を変更する、
ことを特徴とする請求項1乃至9の何れか1項に記載の撮像装置。
Further provided with a change instruction means for instructing a change of the processing target area set by the setting means by a user operation.
The setting means changes the setting of the processing target area based on the user instruction from the change instruction means.
The imaging device according to any one of claims 1 to 9, wherein the image pickup apparatus is characterized by the above.
前記設定手段は、撮像された広角画像の中からその中央部領域及び周辺部領域を除く他の領域を処理対象領域として設定した後に、その処理対象領域の設定の変更する場合に、非処理対象領域である中央部領域と周辺部領域の面積が反比例の関係で増減するように前記処理対象領域の設定を変更する、
ことを特徴とする請求項1乃至10の何れか1項に記載の撮像装置。
The setting means is a non-processing target when the setting of the processing target area is changed after setting other areas other than the central region and the peripheral region from the captured wide-angle image as the processing target area. The setting of the processing target area is changed so that the areas of the central area and the peripheral area, which are the areas, increase or decrease in an inversely proportional relationship.
The imaging apparatus according to any one of claims 1 to 10.
前記処理手段は、前記設定手段によって設定された前記処理対象領域に対して、少なくとも露出調整、ホワイトバランス調整、色相補正、拡大処理又はパノラマ展開処理のいずれかの処理を実行する、
ことを特徴とする請求項1乃至11の何れか1項に記載の撮像装置。
The processing means executes at least one of exposure adjustment, white balance adjustment, hue correction, enlargement processing, and panoramic expansion processing on the processing target area set by the setting means.
The imaging device according to any one of claims 1 to 11.
前記処理手段は、撮影指示に応答して、前記撮像部によって撮像された画像を取得して、画像処理を施した後に記録保存する際に、前記設定手段によって設定された前記処理対象領域に対して画像処理を施して記録保存する撮影処理を行う、
ことを特徴とする請求項1乃至12の何れか1項に記載の撮像装置。
When the processing means acquires an image captured by the imaging unit in response to a shooting instruction, performs image processing, and then records and saves the image, the processing means sets the processing target area set by the setting means. Perform image processing and perform shooting processing to record and save,
The imaging device according to any one of claims 1 to 12, wherein the image pickup apparatus is characterized by the above.
広角レンズによる広角撮影が可能な撮像部を備える撮像装置の画像処理方法であって、
撮像される画像から所定の被写体を検出するステップと、
前記撮像部の広角レンズを用いた撮像時に、撮像される広角画像の中で外光による悪影響を受ける所定の領域を除き、且つ、検出された所定の被写体に基づいた他の領域を処理対象領域として設定するステップと、
前記撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、前記設定された前記処理対象領域に対して実行するステップと、
を含むことを特徴とする画像処理方法。
It is an image processing method of an image pickup apparatus provided with an image pickup unit capable of wide-angle shooting with a wide-angle lens.
The step of detecting a predetermined subject from the captured image and
When imaging with the wide-angle lens of the imaging unit, a predetermined region that is adversely affected by external light is excluded from the captured wide-angle image, and another region based on the detected predetermined subject is processed. And the steps to set as
A step of executing a predetermined process for recording and saving the captured wide-angle image as a captured image for the set processing target area, and
An image processing method characterized by including.
広角レンズによる広角撮影が可能な撮像部を備える撮像装置のコンピュータに対して、
撮像される画像から所定の被写体を検出する機能と
前記撮像部の広角レンズを用いた撮像時に、撮像される広角画像の中で外光による悪影響を受ける所定の領域を除き、且つ、検出された所定の被写体に基づいた他の領域を処理対象領域として設定する機能と、
前記撮像された広角画像を撮影画像として記録保存するまでに行われる所定の処理を、前記設定された処理対象領域に対して実行する機能と、
を実現させるためのプログラム。
For a computer of an imaging device equipped with an imaging unit capable of wide-angle shooting with a wide-angle lens,
A function of detecting a predetermined subject from an image to be captured and a predetermined region of the wide-angle image to be captured that is adversely affected by external light are excluded and detected during imaging using the wide-angle lens of the imaging unit. A function to set another area based on a predetermined subject as a processing target area, and
A function of executing a predetermined process for recording and saving the captured wide-angle image as a captured image for the set processing target area, and
A program to realize.
JP2016184779A 2016-09-21 2016-09-21 Imaging equipment, image processing methods and programs Active JP6811935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016184779A JP6811935B2 (en) 2016-09-21 2016-09-21 Imaging equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016184779A JP6811935B2 (en) 2016-09-21 2016-09-21 Imaging equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018050202A JP2018050202A (en) 2018-03-29
JP6811935B2 true JP6811935B2 (en) 2021-01-13

Family

ID=61767825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016184779A Active JP6811935B2 (en) 2016-09-21 2016-09-21 Imaging equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6811935B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014230088A (en) * 2013-05-22 2014-12-08 ソニー株式会社 Image adjustment device, image adjustment method, image adjustment program, and imaging device
JP6467787B2 (en) * 2014-05-27 2019-02-13 株式会社リコー Image processing system, imaging apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2018050202A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP5971207B2 (en) Image adjustment apparatus, image adjustment method, and program
US9426372B2 (en) Imaging device and imaging method
US20140022415A1 (en) Imaging apparatus
KR102235231B1 (en) Imaging control apparatus and control method therefor
JP6119235B2 (en) Imaging control apparatus, imaging system, imaging control method, and program
US11843852B2 (en) Imaging apparatus for generating image from first image corresponding to first field of view and second image corresponding to second field of view
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
US11622175B2 (en) Electronic apparatus and control method thereof
JP7383911B2 (en) Imaging system, image processing device, imaging device and program
JP2015050498A (en) Imaging device, imaging method, and recording medium
JP6811935B2 (en) Imaging equipment, image processing methods and programs
EP3739864A1 (en) Electronic apparatus, control method of electronic apparatus, program, and computer readable medium
JP2015204516A (en) Imaging device, control method and control program thereof
JP7051586B2 (en) Imaging equipment, imaging methods and programs
KR20130024021A (en) Digital photographing apparatus and control method thereof
JP7379884B2 (en) Imaging device, image processing system, method and program
JP7451888B2 (en) Imaging device, imaging system, method and program
US11558599B2 (en) Electronic apparatus, control method for electronic apparatus, and non-transitory computer-readable storage medium
JP5658580B2 (en) Imaging apparatus, control method therefor, program, and recording medium
JP6525533B2 (en) Image processing apparatus and control method thereof
JP2024084281A (en) Control device, method and program for imaging device
CN116782014A (en) Image pickup apparatus, control method therefor, and computer-readable medium
JP2020016883A (en) Image capture device
JP2014135589A (en) Image processing device, control method therefor, and control program
JP2016201615A (en) Image processing apparatus, control method and control program therefor, and imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201129

R150 Certificate of patent or registration of utility model

Ref document number: 6811935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150