JP5495760B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5495760B2
JP5495760B2 JP2009286658A JP2009286658A JP5495760B2 JP 5495760 B2 JP5495760 B2 JP 5495760B2 JP 2009286658 A JP2009286658 A JP 2009286658A JP 2009286658 A JP2009286658 A JP 2009286658A JP 5495760 B2 JP5495760 B2 JP 5495760B2
Authority
JP
Japan
Prior art keywords
unit
image
imaging device
imaging
imaging apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009286658A
Other languages
Japanese (ja)
Other versions
JP2011130180A (en
Inventor
沙智子 田嶋
嗣基 小杉山
公晴 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009286658A priority Critical patent/JP5495760B2/en
Priority to US13/023,327 priority patent/US9113064B2/en
Publication of JP2011130180A publication Critical patent/JP2011130180A/en
Application granted granted Critical
Publication of JP5495760B2 publication Critical patent/JP5495760B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Description

この発明は、撮像装置、詳しくは手で構えることなくハンズフリーの状態でも撮影動作を行い得る撮像装置に関するものである。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that can perform a shooting operation in a hands-free state without being held by hand.

従来、撮影光学系により結像された光学像を固体撮像素子等の光電変換素子によって順次画像信号に変換し、こうして得られた画像信号を所定の形態の画像データとして記録媒体に記録し得ると共に、この記録媒体に記録された画像データを画像として再生表示する液晶表示装置(LCD)等の画像表示装置を備えて構成されるデジタルカメラ等の撮像装置が一般に実用化され、広く普及している。   Conventionally, an optical image formed by a photographing optical system can be sequentially converted into an image signal by a photoelectric conversion element such as a solid-state imaging element, and the image signal thus obtained can be recorded on a recording medium as image data in a predetermined form. An imaging device such as a digital camera configured to include an image display device such as a liquid crystal display (LCD) that reproduces and displays image data recorded on the recording medium as an image is generally put into practical use and widely used. .

このような形態の撮像装置によって取得され記録される画像データは、主にデジタルデータである。このデジタルデータは、取り扱いが極めて容易なものである。例えば、従来の撮像装置においては、撮像素子により取得された画像データに対して内部処理回路を用いて種々の信号処理が施される。そうして生成された信号処理済みの画像データが記録媒体に記録されるようになっている。   Image data acquired and recorded by such an imaging apparatus is mainly digital data. This digital data is very easy to handle. For example, in a conventional imaging device, various signal processing is performed on image data acquired by an imaging device using an internal processing circuit. The signal processed image data generated in this way is recorded on a recording medium.

つまり、従来の撮像装置においては、固体撮像素子等によって取得された画像信号に対して撮像装置内の処理回路を用いて各種の信号処理を適切に実行することによって、様々な撮影状況に対応しながら、常に適切な画像を取得するようになっている。   In other words, the conventional imaging apparatus can cope with various shooting situations by appropriately executing various signal processing on the image signal acquired by the solid-state imaging device or the like using the processing circuit in the imaging apparatus. While always getting the right image.

また、従来の撮像装置においては、撮影動作を開始させる操作としては、例えば機械的なスイッチ(メカスイッチ)等に連動するレリーズボタン等の操作部材を使用者が操作するといった手段が普通であった。   Further, in the conventional imaging apparatus, as an operation for starting the photographing operation, for example, a means in which a user operates an operation member such as a release button that is interlocked with a mechanical switch (mechanical switch) or the like is common. .

この場合、レリーズボタン等の操作部材の操作が行われると、まず撮影動作の予備動作、即ち自動露出設定動作,自動焦点調節動作,オートホワイトバランス動作等等が実行された後、続いてレリーズ動作、即ち撮像素子,シャッター機構,絞り機構等が駆動される露出動作と、その後の画像処理動作,記録動作等といった一連の動作処理が実行されるようになっている。   In this case, when an operation member such as a release button is operated, first a preliminary operation of the photographing operation, that is, an automatic exposure setting operation, an automatic focus adjustment operation, an auto white balance operation, etc. is executed, and then a release operation is performed. That is, a series of operation processes such as an exposure operation for driving the image sensor, shutter mechanism, diaphragm mechanism, and the like, and subsequent image processing operation, recording operation, and the like are executed.

近年の撮像装置においては、このようなレリーズボタン等の操作部材に代えて、例えば画像表示装置の表面を使用者が指等で触れる(タッチする)ことによって一連の撮影動作処理を実行することができるようにしたもの等、従来とは異なる方式の操作体系についての種々の提案が、例えば特開2007−36492号公報等によってなされている。   In recent imaging apparatuses, instead of the operation member such as the release button, a series of photographing operation processes can be executed by a user touching (touching) the surface of the image display apparatus with a finger or the like. Various proposals regarding an operation system of a method different from the conventional one, such as what can be performed, have been made by, for example, Japanese Patent Application Laid-Open No. 2007-36492.

上記特開2007−36492号公報によって開示されている撮像装置等、従来の撮像装置では、使用者が撮像装置を手に保持した状態で、または三脚等を用いて撮像装置自体を固定した状態で、所定の操作を行なうことで一連の撮影動作が開始されることが前提となっている。   In a conventional imaging device such as the imaging device disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 2007-36492, the user holds the imaging device in his hand, or the imaging device itself is fixed using a tripod or the like. It is assumed that a series of photographing operations is started by performing a predetermined operation.

その一方で、近年においては、使用者が撮像装置を手に保持することなく所望の撮影動作を実行し得るようにする工夫が、例えば特開2006−60584号公報等によって種々提案されている。   On the other hand, in recent years, various ideas have been proposed by, for example, Japanese Patent Application Laid-Open No. 2006-60584, etc., so that a user can perform a desired photographing operation without holding the imaging device in his / her hand.

上記特開2006−60584号公報によって開示されている撮像装置は、手の平又は手の甲に表示装置を有する本体部を、手指に撮像部をそれぞれ装着すると共に、複数本の手指の曲がりを検出する検出手段を有し、検出手段が検出する複数本の手指の曲がりの状態に応じて動作モードを切り換えるように制御するというものである。   The imaging device disclosed by the above Japanese Patent Application Laid-Open No. 2006-60584 is a detection means for mounting a main body having a display device on the palm or back of the hand and mounting the imaging unit on the fingers, and detecting bending of a plurality of fingers. And the control is performed so as to switch the operation mode according to the bending state of the plurality of fingers detected by the detecting means.

特開2007−36492号公報JP 2007-36492 A 特開2006−60584号公報JP 2006-60584 A

ところが、上記特開2006−60584号公報等によって開示されている撮像装置は、手指の曲がり具合を検出する等、動作制御のための検出手段等が必要となることから、所定の用途に特化した専用装置であると言える。   However, the imaging device disclosed in the above Japanese Patent Application Laid-Open No. 2006-60584 or the like is specialized for a predetermined application because it requires a detecting means for operation control such as detecting the bending state of a finger. It can be said that this is a dedicated device.

本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、撮像装置を用いて撮影を行う際に、使用者は撮像装置を手に保持して構えることなく、また撮像装置の操作部材を操作することなく、身体の一部に撮像装置を装着した状態で自然な動作を行うことで撮影動作を実行し得ると共に、この撮影動作によって得られた画像データについて各種の信号処理を施すことによって自然な構図で違和感のない静止画像を取得し得るように構成した撮像装置を提供することである。   The present invention has been made in view of the above-described points, and the object of the present invention is to hold the image pickup apparatus in the hand when taking a picture using the image pickup apparatus. In addition, it is possible to perform a photographing operation by performing a natural operation in a state where the imaging device is mounted on a part of the body without operating an operation member of the imaging device, and various kinds of image data obtained by the photographing operation. It is an object of the present invention to provide an imaging apparatus configured to obtain a still image with a natural composition and without a sense of incongruity by performing the above signal processing.

上記目的を達成するために、本発明による撮像装置は、撮像部からの出力信号に基く画像信号を記録する撮像装置において、使用者が表示画面の確認をせずに撮影を行うノーファインダー状態かを判断する判断手段と、上記判断手段によってノーファインダー状態と判断された際に、上記撮像装置の姿勢変化を検出する加速度検出部と、上記加速度検出部の出力信号に基づいて上記撮像装置の姿勢変化が検出された際に、連続撮影動作を上記撮像部に開始させて一連の複数の画像信号を取得し、当該一連の複数の画像信号に基づいて当該一連の複数画像信号により現わされる画像を繋ぎ合わせるパノラマ合成処理を行う信号処理制御部と、を具備し、上記信号処理制御部は、上記パノラマ合成処理を行う際、上記加速度検出部からの加速度が所定値よりも大きい場合には上記連続撮影動作によって得られた一連の複数画像から一コマ置きに選択する。 In order to achieve the above object, the imaging apparatus according to the present invention is an imaging apparatus that records an image signal based on an output signal from an imaging unit, and is in a no-finder state in which a user performs shooting without checking the display screen. A determination means for determining the position of the imaging apparatus when the determination means determines that the camera is in a no finder state, and an acceleration detection section for detecting a change in attitude of the imaging apparatus, When a change is detected, the imaging unit starts a continuous shooting operation to acquire a series of a plurality of image signals, and is represented by the series of a plurality of image signals based on the series of the plurality of image signals. A signal processing control unit that performs panorama synthesis processing for joining images, and the signal processing control unit receives acceleration from the acceleration detection unit when performing the panorama synthesis processing. It is greater than value selects every other frame from a sequence of multiple images obtained al a by the continuous shooting operation.

本発明によれば、撮像装置を用いて撮影を行う際に、使用者は撮像装置を手に保持して構えることなく、また撮像装置の操作部材を操作することなく、身体の一部に撮像装置を装着した状態で自然な動作を行うことで撮影動作を実行し得ると共に、この撮影動作によって得られた画像データについて各種の信号処理を施すことによって自然な構図で違和感のない静止画像を取得し得るように構成した撮像装置を提供することができる。   According to the present invention, when taking a picture using the imaging device, the user takes an image of a part of the body without holding the imaging device in his hand and operating the operation member of the imaging device. Capturing can be performed by performing natural operations with the device attached, and still images with a natural composition can be obtained by applying various signal processing to the image data obtained by the photographing operations. An imaging device configured to be able to be provided can be provided.

本発明の一実施形態の撮像装置の内部構成の概略を示すブロック構成図、1 is a block configuration diagram showing an outline of the internal configuration of an imaging apparatus according to an embodiment of the present invention; 図1の撮像装置における加速度検出部を取り出して、その構造を示す概略斜視図、FIG. 1 is a schematic perspective view showing the structure of an acceleration detection unit taken out of the imaging apparatus of FIG. 図1の撮像装置における加速度検出部の配置状態の概略を示す配置図、FIG. 2 is a layout diagram illustrating an outline of a layout state of an acceleration detection unit in the imaging apparatus of FIG. 1; 図1の撮像装置におけるカメラ制御の作用の概略を示すフローチャート、FIG. 3 is a flowchart showing an outline of the operation of camera control in the imaging apparatus of FIG. 図4のカメラ制御の処理シーケンスのうち所定条件識別処理(ステップS102の処理)の詳細(サブルーチン)を示すフローチャート、FIG. 5 is a flowchart showing details (subroutine) of predetermined condition identification processing (step S102) in the camera control processing sequence of FIG. 4; 図4のカメラ制御の処理シーケンスのうち連続撮影処理(ステップS103の処理)の詳細(サブルーチン)を示すフローチャート、FIG. 5 is a flowchart showing details (subroutine) of continuous shooting processing (processing in step S103) in the camera control processing sequence of FIG. 4; 図1の撮像装置によるカメラ制御が実行される際の具体的な状況の一例を示す図、The figure which shows an example of the specific condition at the time of the camera control by the imaging device of FIG. 1 being performed, 図1の撮像装置によるカメラ制御が実行される際の具体的な状況の一例を示す図、The figure which shows an example of the specific condition at the time of the camera control by the imaging device of FIG. 1 being performed, 図1の撮像装置を図8に示す状況下において使用する際の作用を説明する図、The figure explaining the effect | action at the time of using the imaging device of FIG. 1 in the condition shown in FIG. 図1の撮像装置を図8に示す状況下において使用する際の作用を説明する図、The figure explaining the effect | action at the time of using the imaging device of FIG. 1 in the condition shown in FIG. 図6の連続撮影動作が行われた場合に取得される複数画像の一例(a)と、これら複数画像から合成画像処理の結果生成される合成画像の一例(b)を示す図、FIG. 7 is a diagram illustrating an example (a) of a plurality of images acquired when the continuous shooting operation of FIG. 6 is performed, and an example (b) of a composite image generated as a result of composite image processing from the plurality of images. 図1の撮像装置によるカメラ制御が実行される際の具体的な状況の他の一例を示す図、The figure which shows another example of the concrete condition at the time of camera control by the imaging device of FIG. 1 being performed, 図1の撮像装置によるカメラ制御が実行される際の具体的な状況の別の一例を示す図、The figure which shows another example of the concrete condition at the time of the camera control by the imaging device of FIG. 1 being performed, 図1の撮像装置によるカメラ制御が実行される際の具体的な状況のさらに別の一例を示す図、The figure which shows another example of the concrete condition at the time of camera control by the imaging device of FIG. 1 being performed, 図13,図14の使用状況下における撮像装置の姿勢変化を示し、(a)は重力方向に対して正位置となる姿勢を、(b)はあおり動作がなされた場合の姿勢を、それぞれ示す図、FIGS. 13 and 14 show changes in the posture of the imaging device under the usage conditions, where (a) shows the posture in the normal position with respect to the direction of gravity, and (b) shows the posture when the tilting operation is performed. Figure, 図1の撮像装置による連続撮影動作時の撮影結果の例を示し、(a)は重複領域が大となる例を、(b)は重複領域の適例を、(c)は重複領域が得られなかった例をそれぞれ示す図、FIGS. 1A and 1B show examples of imaging results during continuous shooting operation by the imaging apparatus of FIG. 1, where FIG. 1A shows an example where the overlapping area becomes large, FIG. 1B shows an appropriate example of the overlapping area, and FIG. Figure showing each example that was not, 図12の使用状況下における撮像装置の移動状況を示す図、The figure which shows the movement condition of the imaging device under the use condition of FIG. 図9〜図10若しくは図13,図14の使用状況下における撮像装置の移動状況を示す図、The figure which shows the movement condition of the imaging device in the use condition of FIGS. 9-10 or FIG. 13, FIG. 図1の撮像装置による連続撮影動作時の撮影結果の他の例を示す図、The figure which shows the other example of the imaging | photography result at the time of the continuous imaging operation | movement by the imaging device of FIG. 図19の撮影結果に基いて実行される合成画像処理の流れを説明する概念図FIG. 19 is a conceptual diagram illustrating the flow of composite image processing executed based on the imaging result of FIG.

以下、図示の実施の形態によって本発明を説明する。   The present invention will be described below with reference to the illustrated embodiments.

本発明の一実施形態は、例えば光学レンズにより形成される光学像を固体撮像素子を用いて光電変換し、これによって得られる画像信号を静止画像又は動画像を表わすデジタル画像データに変換した後、生成されたデジタル画像データを記録媒体に記録する一方、記録媒体に記録されたデジタル画像データに基く静止画像又は動画像を表示装置を用いて再生表示し得るように構成されるデジタルカメラ等の撮像装置を一例として示すものである。   In one embodiment of the present invention, for example, an optical image formed by an optical lens is photoelectrically converted using a solid-state imaging device, and an image signal obtained thereby is converted into digital image data representing a still image or a moving image. Imaging of a digital camera or the like configured to record the generated digital image data on a recording medium, and to reproduce and display a still image or a moving image based on the digital image data recorded on the recording medium using a display device An apparatus is shown as an example.

なお、以下の説明に用いる各図においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせてあるものであり、本発明は、これらの図に記載された構成要素の数量、構成要素の形状、構成要素の大きさの比率、及び各構成要素の相対的な位置関係のみに限定されるものではない。   In each drawing used for the following description, the scale is different for each component in order to make each component large enough to be recognized on the drawing. It is not limited only to the quantity of the component described in the figure, the shape of the component, the ratio of the size of the component, and the relative positional relationship of each component.

図1〜図20は、本発明の一実施形態を説明する図である。このうち、図1は本実施形態の撮像装置の内部構成の概略を示すブロック構成図である。図2は、図1の撮像装置における加速度検出部を取り出してその構造を示す概略斜視図である。図3は、図1の撮像装置における加速度検出部の配置状態の概略を示す配置図である。図4は、図1の撮像装置におけるカメラ制御の作用の概略を示すフローチャートである。図5は、図4のカメラ制御の処理シーケンスのうち所定条件識別処理(ステップS102の処理)の詳細(サブルーチン)を示すフローチャートである。図6は、図4のカメラ制御の処理シーケンスのうち連続撮影処理(ステップS103の処理)の詳細(サブルーチン)を示すフローチャートである。図7〜図10は、図1の撮像装置によるカメラ制御が実行される際の具体的な状況の一例を示す図である。図11は、図6の連続撮影動作が行われた際に取得される複数画像の一例(a)と、これら複数画像から合成画像処理の結果生成される合成画像の一例(b)を示す図である。   1-20 is a figure explaining one Embodiment of this invention. Among these, FIG. 1 is a block configuration diagram showing an outline of the internal configuration of the imaging apparatus of the present embodiment. FIG. 2 is a schematic perspective view showing the structure of the acceleration detection unit extracted from the imaging apparatus of FIG. FIG. 3 is an arrangement diagram illustrating an outline of an arrangement state of the acceleration detection units in the imaging apparatus of FIG. 1. FIG. 4 is a flowchart showing an outline of the operation of camera control in the imaging apparatus of FIG. FIG. 5 is a flowchart showing details (subroutine) of the predetermined condition identification process (the process of step S102) in the camera control process sequence of FIG. FIG. 6 is a flowchart showing details (subroutine) of the continuous shooting process (the process of step S103) in the camera control process sequence of FIG. 7 to 10 are diagrams illustrating examples of specific situations when camera control is performed by the imaging apparatus of FIG. FIG. 11 is a diagram illustrating an example (a) of a plurality of images acquired when the continuous shooting operation of FIG. 6 is performed, and an example (b) of a composite image generated as a result of composite image processing from the plurality of images. It is.

図12〜図14は、本実施形態の撮像装置によるカメラ制御が実行される際の具体的な状況における異なる例をそれぞれ示している。図15は、図13,図14の使用状況下における撮像装置の姿勢変化を示し、このうち、(a)は重力方向に対して正位置となる姿勢を、(b)はあおり動作がなされた場合の姿勢を、それぞれ示している。図16は、本実施形態の撮像装置による連続撮影動作時の撮影結果の例を示す図であって、このうち(a)は重複領域が大となる例を、(b)は重複領域の適例を、(c)は重複領域が得られなかった例をそれぞれ示している。図17は、図12の使用状況下における撮像装置の移動状況を示している。図18は、図9〜図10若しくは図13,図14の使用状況下における撮像装置の移動状況を示している。   12 to 14 respectively show different examples in specific situations when camera control is executed by the imaging apparatus of the present embodiment. FIG. 15 shows the posture change of the imaging device under the usage conditions of FIG. 13 and FIG. 14. Of these, (a) shows the posture in the normal position with respect to the direction of gravity, and (b) shows the tilting operation. Each case's posture is shown. FIG. 16 is a diagram illustrating an example of a photographing result at the time of a continuous photographing operation by the imaging apparatus of the present embodiment, in which (a) shows an example in which the overlapping area becomes large, and (b) shows an appropriateness of the overlapping area. For example, (c) shows an example in which no overlapping region was obtained. FIG. 17 shows the movement status of the imaging apparatus under the usage status of FIG. FIG. 18 shows a moving state of the imaging apparatus under the usage state of FIGS. 9 to 10 or FIGS. 13 and 14.

図19は、本実施形態の撮像装置による連続撮影動作時の撮影結果の他の例を示している。図20は、図19の例の撮影結果に基いて実行される合成画像処理の流れを説明する概念図である。   FIG. 19 shows another example of the imaging result during the continuous imaging operation by the imaging apparatus of the present embodiment. FIG. 20 is a conceptual diagram illustrating the flow of composite image processing executed based on the imaging result of the example of FIG.

まず、本発明の一実施形態の撮像装置1の内部構成の概略を、図1のブロック図を用いて以下に説明する。   First, the outline of the internal configuration of the imaging apparatus 1 according to an embodiment of the present invention will be described below with reference to the block diagram of FIG.

本実施形態の撮像装置1は、撮像部2と、顔検出部3と、記録部4と、マイクロフォン5と、加速度検出部6と、操作部7と、表示部8と、タッチパネル8bと、時計9と、信号処理・制御部11と、通信部12と、レンズユニット20(図1では不図示;図3等を参照)等を具備して構成されている。   The imaging apparatus 1 according to the present embodiment includes an imaging unit 2, a face detection unit 3, a recording unit 4, a microphone 5, an acceleration detection unit 6, an operation unit 7, a display unit 8, a touch panel 8b, and a watch. 9, a signal processing / control unit 11, a communication unit 12, a lens unit 20 (not shown in FIG. 1; see FIG. 3), and the like.

信号処理・制御部11は、撮像装置1の全体を統括的に制御する制御回路であって、撮像装置1内の各構成ブロックから入力される各種の信号を受けて各種の制御処理を行う制御回路である。信号処理・制御部11は、内部に表示制御部11b,信号圧縮伸張部11c,画像信号加工処理部11d,トリミング部11e等の回路部を有している。   The signal processing / control unit 11 is a control circuit that performs overall control of the entire imaging apparatus 1, and performs various control processes in response to various signals input from each component block in the imaging apparatus 1. Circuit. The signal processing / control unit 11 includes circuit units such as a display control unit 11b, a signal compression / expansion unit 11c, an image signal processing unit 11d, and a trimming unit 11e.

このうち、表示制御部11bは、撮像部2から連続的に出力される画像信号に基くリアルタイム画像の連続表示や記録済み画像の再生表示、若しくは各種設定のためのメニュー表示やタッチパネル8bに対応する操作用表示(例えばソフトウエアキーボードの表示等)等を表示部8の表示画面に表示させる表示関連の制御を行う制御部である。   Among these, the display control unit 11b corresponds to a continuous display of a real time image based on an image signal continuously output from the imaging unit 2, a playback display of a recorded image, a menu display for various settings, and a touch panel 8b. This is a control unit that performs display-related control to display an operation display (for example, display of a software keyboard) on the display screen of the display unit 8.

信号圧縮伸張部11cは、撮像部2によって取得された画像信号を受けて記録媒体に記録するのに最適な形態の画像データに変換するための信号圧縮処理を行ったり、記録媒体に記録済みの圧縮画像データを読み込んで、例えば表示部8等を用いて再生表示するのに最適な形態の画像信号に変換するための信号伸張処理等の信号処理を実行する処理回路である。なお、信号圧縮伸張部11cは、画像信号(静止画像,動画像)の圧縮伸長処理のほかに、音声信号の圧縮伸長処理を扱うことができるようになっている。   The signal compression / decompression unit 11c receives the image signal acquired by the imaging unit 2 and performs a signal compression process for converting the image signal into an image data having an optimum form for recording on the recording medium, or has been recorded on the recording medium. This is a processing circuit that reads compressed image data and executes signal processing such as signal expansion processing for converting it into an image signal in a form optimal for reproduction and display using the display unit 8 or the like. The signal compression / decompression unit 11c can handle the compression / decompression processing of audio signals in addition to the compression / decompression processing of image signals (still images and moving images).

画像信号加工処理部11dは、撮像部2によって取得された画像信号であって、後述する第1仮記録部4aに一時記録されている複数の画像信号に基いて所定の画像加工を施す所定の信号処理、例えばパノラマ合成処理(画像繋ぎ処理)等の画像合成処理等を行なう処理回路である。   The image signal processing unit 11d is an image signal acquired by the imaging unit 2, and is a predetermined image processor that performs predetermined image processing based on a plurality of image signals temporarily recorded in a first temporary recording unit 4a described later. It is a processing circuit that performs signal processing, for example, image synthesis processing such as panorama synthesis processing (image connection processing).

トリミング部11eは、上記画像信号加工処理部11dによって生成された合成画像信号であって、後述する第2仮記録部4bに一時記録されているに画像信号に基いて必要な画像領域を切り取り加工を施すトリミング処理を行う処理回路である。   The trimming unit 11e is a composite image signal generated by the image signal processing unit 11d, and cuts out a necessary image area based on the image signal that is temporarily recorded in the second temporary recording unit 4b described later. 2 is a processing circuit that performs trimming processing.

撮像部2は、レンズユニット20によって結像された光学像を受光して、該光学像に対応する電気信号に変換する光電変換素子と、この光電変換素子により生成された画像信号の前処理を行う信号処理回路等によって構成される。撮像部2により生成された画像信号は、信号処理・制御部11へと出力される。なお、光電変換素子としては、CCD(Charge Coupled Device;電荷結合素子),CMOS(Complementary Metal Oxide Semiconductor;相補型金属酸化膜半導体)等の固体撮像素子等が適用される。   The imaging unit 2 receives an optical image formed by the lens unit 20 and converts it into an electric signal corresponding to the optical image, and pre-processes an image signal generated by the photoelectric conversion element. It is comprised by the signal processing circuit etc. to perform. The image signal generated by the imaging unit 2 is output to the signal processing / control unit 11. As the photoelectric conversion element, a solid-state imaging element such as a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like is applied.

顔検出部3は、撮像部2によって取得された画像信号に基く画像の中から、例えば人間の顔領域を検出するいわゆる顔検出機能を実現するための構成ブロックである。この顔検出機能を実現する技術については、従来、撮像装置において広く普及しているものである。本実施形態の撮像装置1においても、従来の技術と同様のものが適用されるものとして、その詳細説明は省略する。   The face detection unit 3 is a configuration block for realizing a so-called face detection function that detects, for example, a human face region from an image based on an image signal acquired by the imaging unit 2. A technique for realizing this face detection function has been widely used in imaging apparatuses. Also in the imaging apparatus 1 of the present embodiment, the same description as that of the conventional technique is applied, and detailed description thereof is omitted.

記録部4は、撮像部2によって取得され信号処理・制御部11において各種の信号処理が施された後、最終的に信号圧縮伸張部11cにおいて生成される記録用画像データを受けて記録蓄積するための記録媒体と、該記録媒体に対する画像データの記録処理や記録済み画像データの読み出し処理等、記録媒体を駆動する駆動回路等からなる。   The recording unit 4 receives and records and stores recording image data finally generated in the signal compression / decompression unit 11c after various signal processing is performed by the signal processing / control unit 11 acquired by the imaging unit 2. And a drive circuit for driving the recording medium, such as recording processing of image data on the recording medium and reading processing of recorded image data.

なお、記録部4には、トリミング部11eにおいてトリミング処理が施されて生成された画像信号(即ち、後述する自動撮影モードによって取得される最終形態の画像を表わす画像信号)に対応する記録用画像データも記録されるようになっている。   Note that the recording unit 4 includes an image for recording corresponding to an image signal generated by performing trimming processing in the trimming unit 11e (that is, an image signal representing an image in a final form acquired by an automatic photographing mode described later). Data is also recorded.

また、本実施形態の撮像装置1における記録部4は、第1仮記録部4a及び第2仮記録部4b等を内部に具備している。   In addition, the recording unit 4 in the imaging apparatus 1 of the present embodiment includes a first temporary recording unit 4a, a second temporary recording unit 4b, and the like.

第1仮記録部4aは、上記自動撮影モードで撮影動作を実行した時に撮像部2によって連続的に取得された複数の静止画像に対応する複数の画像信号を一時的に記録する記録領域である。   The first temporary recording unit 4a is a recording area for temporarily recording a plurality of image signals corresponding to a plurality of still images continuously acquired by the imaging unit 2 when a shooting operation is executed in the automatic shooting mode. .

第2仮記録部4bは、信号処理・制御部11の画像信号加工処理部11dによって生成された合成画像信号を一時的に記録する記録領域である。   The second temporary recording unit 4 b is a recording area for temporarily recording the composite image signal generated by the image signal processing unit 11 d of the signal processing / control unit 11.

マイクロフォン(以下、単にマイクという)5は、音声等を電気信号に変換する構成部である。マイク5によって取得された音声信号は、信号処理・制御部11において所定の信号処理が施された後、音声データとして記録部4の記録媒体に記録される。   A microphone (hereinafter simply referred to as a microphone) 5 is a component that converts sound or the like into an electrical signal. The audio signal acquired by the microphone 5 is subjected to predetermined signal processing in the signal processing / control unit 11 and then recorded as audio data on the recording medium of the recording unit 4.

なお、信号処理・制御部11において記録用の音声信号に対して施される所定の信号処理としては、例えば圧縮処理や記録用音声データへの変換処理、若しくは画像データと関連付ける処理等、各種の処理が動作モードや設定条件にしたがって適宜実行される。   The predetermined signal processing performed on the recording audio signal in the signal processing / control unit 11 includes various processes such as compression processing, conversion to recording audio data, or processing associated with image data. Processing is appropriately executed according to the operation mode and setting conditions.

通常の場合、音声データは、動画像若しくは静止画像の撮影動作時に音声記録動作を同時に行なって記録されるほか、音声のみを単独で記録する動作モード時に記録される。   In normal cases, audio data is recorded by performing an audio recording operation simultaneously with a moving image or still image shooting operation, or in an operation mode in which only audio is recorded alone.

また、本実施形態の撮像装置1においては、マイク5によって取得された音声信号は、所定の動作モード時に記録されるほか、例えば自動撮影モードで取得された複数画像から主要被写体101を検出するのに利用するようにしてもよい(詳細は後述する)。   In the imaging apparatus 1 of the present embodiment, the audio signal acquired by the microphone 5 is recorded in a predetermined operation mode, and the main subject 101 is detected from a plurality of images acquired in the automatic shooting mode, for example. (The details will be described later).

加速度検出部6は、撮像装置1の姿勢変化や移動状況等を検出する姿勢検出部である。この加速度検出部6は、例えば加速度を検出する加速度センサ等からなる検出センサと、この検出センサの出力信号を受信して所定の指示信号を発生させる回路等により構成される。なお、姿勢検出部としては、上記加速度センサに代えて、角速度を検出する角速度センサ(ジャイロスコープ)を適用することもできる。   The acceleration detection unit 6 is a posture detection unit that detects a posture change or a movement state of the imaging apparatus 1. The acceleration detection unit 6 includes a detection sensor including, for example, an acceleration sensor that detects acceleration, and a circuit that receives an output signal of the detection sensor and generates a predetermined instruction signal. In addition, as an attitude | position detection part, it can replace with the said acceleration sensor and can also apply the angular velocity sensor (gyroscope) which detects angular velocity.

つまり、加速度検出部6は、これを配置した撮像装置1に加えられた重力加速度や振動等を検出することによって、使用者による撮像装置1の保持状態、即ち手振れ状態や、撮像装置1の傾き状態等の姿勢検出や移動状況の検出を行う構成部である。   That is, the acceleration detection unit 6 detects the gravitational acceleration, vibration, and the like applied to the imaging device 1 in which the acceleration detection unit 6 is disposed, thereby holding the imaging device 1 by the user, that is, the hand shake state and the inclination of the imaging device 1. It is a component that detects postures such as states and movement status.

従来の撮像装置1においては、加速度検出部6の検出結果に基いて、手ブレ補正機構を駆動制御することによって手ブレ補正機能を実現している。   In the conventional imaging apparatus 1, the camera shake correction function is realized by driving and controlling the camera shake correction mechanism based on the detection result of the acceleration detection unit 6.

これに加えて、本実施形態の撮像装置1においては、加速度検出部6の出力信号を用いて、撮影動作を行う際の制御にも利用するようにしている。   In addition, in the imaging apparatus 1 of the present embodiment, the output signal of the acceleration detection unit 6 is used for control when performing a shooting operation.

ここで、加速度検出部6における検出センサの構成及び作用の概略を、図2,図3を用いて簡単に説明する。   Here, the outline of the configuration and operation of the detection sensor in the acceleration detection unit 6 will be briefly described with reference to FIGS.

本実施形態の撮像装置1における加速度検出部6における検出センサは、図2に示すように、架橋された金属部6aとチップ表面の金属部6bとの位置が加速度によって変化する構造を内部に有する構成部材である。   As shown in FIG. 2, the detection sensor in the acceleration detection unit 6 in the imaging device 1 of the present embodiment has a structure in which the positions of the cross-linked metal part 6 a and the metal part 6 b on the chip surface are changed by acceleration. It is a structural member.

このように構成される加速度検出部6の検出センサは、その姿勢が変化した時には、検出センサに対する重力のかかり具合によって金属部6aに撓みが生じる。これにより、金属部6a,6bの相対的な位置変化が生じて、出力信号が変化するようになっている。   When the posture of the detection sensor of the acceleration detection unit 6 configured as described above is changed, the metal portion 6a bends due to the degree of gravity applied to the detection sensor. Thereby, the relative position change of the metal parts 6a and 6b occurs, and the output signal changes.

このような形態の検出センサを、例えば図3に示すように撮像装置1の内部において上面1x,一方の側面1y,底面1xの各面部に配置したとする。   For example, as shown in FIG. 3, it is assumed that such a form of the detection sensor is arranged on each surface portion of the upper surface 1 x, one side surface 1 y, and the bottom surface 1 x inside the imaging device 1.

この場合において、撮像装置1の上面1xに配置する検出センサを符号6xa,6xbで、一側面1yに配置する検出センサを符号6yで、底面1zに配置する検出センサを符号6zで、それぞれ示す。   In this case, the detection sensors disposed on the upper surface 1x of the imaging device 1 are denoted by reference numerals 6xa and 6xb, the detection sensor disposed on the one side surface 1y is denoted by reference numeral 6y, and the detection sensor disposed on the bottom surface 1z is denoted by reference numeral 6z.

ここで、撮像装置1のレンズユニット20の撮影レンズ20aが設けられている面を撮像装置1の前面というものとする。また、撮影レンズ20aの光軸は、この撮像装置1の前面に対して直交する方向に配置されているものとする。そして、図3に示すように、撮影レンズ20aの光軸に沿う方向をZ方向と、このZ方向に対し水平に直交する方向をX方向と、Z方向に対し鉛直に直交する方向をY方向と、それぞれいうものとする。   Here, the surface on which the photographing lens 20a of the lens unit 20 of the imaging device 1 is provided is referred to as the front surface of the imaging device 1. Further, it is assumed that the optical axis of the photographing lens 20a is arranged in a direction orthogonal to the front surface of the imaging device 1. Then, as shown in FIG. 3, the direction along the optical axis of the taking lens 20a is the Z direction, the direction horizontally orthogonal to the Z direction is the X direction, and the direction perpendicular to the Z direction is the Y direction. And shall be referred to respectively.

したがって、撮像装置1の上面1x,底面1zはX方向及びZ方向を含む面で構成されるものとする。このとき、上面1xと底面1zとは所定の距離だけ離して互いに対向するように配置される。また、撮像装置1の一側面1yはY方向及びZ方向を含む面で構成されるものとする。   Therefore, the upper surface 1x and the bottom surface 1z of the imaging device 1 are configured by surfaces including the X direction and the Z direction. At this time, the top surface 1x and the bottom surface 1z are arranged so as to face each other with a predetermined distance therebetween. In addition, one side surface 1y of the imaging device 1 is configured by a surface including the Y direction and the Z direction.

この場合において、検出センサ6xa,6xbはX方向の姿勢変化や移動状況を検出するように、その検出方向が設定配置されている。また、検出センサ6yはY方向の姿勢変化や移動状況を検出するように、その検出方向が設定配置されている。検出センサ6zはZ方向の姿勢変化を検出するように、その検出方向が設定配置されている。   In this case, the detection directions of the detection sensors 6xa and 6xb are set and arranged so as to detect the posture change and the movement state in the X direction. Further, the detection direction of the detection sensor 6y is set and arranged so as to detect the posture change and the movement state in the Y direction. The detection direction of the detection sensor 6z is set so as to detect a change in posture in the Z direction.

撮像装置1の姿勢が変化する状況(急激な移動変化を含む)としては、例えば撮像装置1が机上等に載置された状態から使用者が持ち上げた場合や、使用者が撮像装置1を手に保持した状態である状態から任意の方向へと振り向けた場合(あおり動作若しくは,振り返り動作等)等が考えられる。   As a situation in which the posture of the imaging device 1 changes (including a sudden change in movement), for example, when the user lifts the imaging device 1 from a state where the imaging device 1 is placed on a desk or the like, or the user holds the imaging device 1 by hand. A case where the robot is turned in an arbitrary direction from the state held in the state (tilting operation, turning-back operation, or the like) can be considered.

上述のような姿勢変化が生じたとき、図3に示すように、X軸,Y軸,Z軸の3軸に対応させて撮像装置1の内部の所定部位に設置した各検出センサ6xa,6xb,6y,6zの出力信号の変化を監視することにより、撮像装置1がどのように動いたか、どのように姿勢変化したかを判定することができるようになっている。   When the posture change as described above occurs, as shown in FIG. 3, each of the detection sensors 6xa and 6xb installed at a predetermined portion inside the imaging apparatus 1 corresponding to the three axes of the X axis, the Y axis, and the Z axis. , 6y, 6z can be monitored to determine how the imaging apparatus 1 has moved and how the posture has changed.

また、X軸方向については、同方向の水平方向の移動を検出するには、1つの検出センサを設ければよいが、2つの検出センサ6xa,6xbを設けることにより、例えば撮像装置1が水平面に対しては水平方向のみに移動されつつ、光軸に直交する軸のうちY軸周りに回転するような移動が行われる場合の状況を検出することができる。この場合には、撮像装置1が所定方向に回転されるときの回転半径の外側に位置する検出センサ(6xa)と内側に位置する検出センサ(6xb)との間に加速度の相違が検出されることになることから判定が可能である。   In addition, with respect to the X-axis direction, one detection sensor may be provided in order to detect horizontal movement in the same direction. However, by providing two detection sensors 6xa and 6xb, for example, the imaging apparatus 1 can be moved horizontally. In contrast, it is possible to detect a situation in which movement is performed only in the horizontal direction while rotating around the Y axis among the axes orthogonal to the optical axis. In this case, a difference in acceleration is detected between the detection sensor (6xa) located outside the rotation radius when the imaging device 1 is rotated in a predetermined direction and the detection sensor (6xb) located inside. Judgment is possible from this.

図1に戻って、操作部7は、撮像装置1の外面に設けられる各種の操作部材(図示せず)と、これら操作部材にそれぞれ連動する複数のスイッチ等と、操作部材が使用者により操作されることによって生じる指示信号を信号処理・制御部11へと伝達する処理回路等からなる。操作部7には、例えばシャッターレリーズボタン(及び同スイッチ)や、動作モード切り換えダイヤル(及び同スイッチ)等等がある。   Returning to FIG. 1, the operation unit 7 includes various operation members (not shown) provided on the outer surface of the imaging apparatus 1, a plurality of switches and the like that are respectively linked to these operation members, and operation members operated by the user. And a processing circuit for transmitting an instruction signal generated as a result to the signal processing / control unit 11. The operation unit 7 includes, for example, a shutter release button (and the same switch), an operation mode switching dial (and the same switch), and the like.

表示部8は、信号処理・制御部11の表示制御部11bによる信号処理の結果生成された表示用画像信号に基く画像表示や設定メニュー表示,操作用表示等を表示させる表示装置である。この表示部8としては、例えば液晶表示装置(LCD)や有機ELディスプレイ等が適用される。   The display unit 8 is a display device that displays image display, setting menu display, operation display, and the like based on a display image signal generated as a result of signal processing by the display control unit 11b of the signal processing / control unit 11. For example, a liquid crystal display (LCD) or an organic EL display is applied as the display unit 8.

撮像装置1を撮影動作モードで使用する時、使用者は表示部8に表示されるリアルタイム画像を見ながら構図やシャッターレリーズを行うタイミングを決定する。つまり、撮影動作時には、表示部8は主にファインダーとして機能する。また、表示部8に設定メニュー表示を表示させた時には、使用者は各種の操作部材を利用して撮像装置1の各種の設定選択操作を行なうことができる。さらに、撮像装置1を再生動作モードで使用する時、表示部8には記録済み画像データに基く画像等が表示される。   When the imaging apparatus 1 is used in the shooting operation mode, the user determines the composition and timing for shutter release while viewing the real-time image displayed on the display unit 8. That is, during the shooting operation, the display unit 8 mainly functions as a viewfinder. When the setting menu display is displayed on the display unit 8, the user can perform various setting selection operations of the imaging apparatus 1 using various operation members. Further, when the imaging apparatus 1 is used in the reproduction operation mode, an image based on recorded image data is displayed on the display unit 8.

これに加えて、本実施形態における表示部8は、特に図示していないが、例えばマイク5によって取得された音声信号若しくは記録部4に記録済みの音声データ等に基いて音声を発音させるスピーカ等の音声出力装置を含むものとする。   In addition to this, the display unit 8 in the present embodiment is not particularly shown, but for example, a speaker or the like for generating a sound based on an audio signal acquired by the microphone 5 or audio data recorded in the recording unit 4 or the like Audio output device.

タッチパネル8bは、表示部8の表示画面上に配置される位置入力装置と、表示部8に表示される操作用表示等によって構成される。   The touch panel 8b includes a position input device arranged on the display screen of the display unit 8, an operation display displayed on the display unit 8, and the like.

使用者がタッチパネル8bに対して所定のタッチ操作(接触操作)を行うと、タッチパネル8bは、タッチ操作された位置若しくは領域等に関する信号を発生させて信号処理・制御部11へと出力する。これを受けて、信号処理・制御部11(のタッチ点判定部(図示せず))は、表示部8の表示画面上におけるタッチ操作のタッチポイント等を検出し判定する。さらに、タッチ操作の変化等を検出することで、タッチ操作時における使用者の指の動かし方等をも検出し判定する。   When the user performs a predetermined touch operation (contact operation) on the touch panel 8b, the touch panel 8b generates a signal related to the touched position or region and outputs the signal to the signal processing / control unit 11. In response to this, the signal processing / control unit 11 (its touch point determination unit (not shown)) detects and determines a touch point of a touch operation on the display screen of the display unit 8. Furthermore, by detecting a change in touch operation or the like, it is also detected and determined how the user's finger is moved during the touch operation.

そして、タッチパネル8bに対するタッチ操作の検出結果にしたがって表示制御部11bは、表示部8の表示画面に表示される内容を制御するようになっている。これにより、タッチパネル8bは、操作部7による操作の補助をする役目をしている。例えば、撮像装置1が撮影動作モードにおける所定の撮影モード(例えばプログラム撮影モード等)で動作している時(かつ電源オン状態にある時)、操作部7若しくはタッチパネル8bが使用者により操作されると、撮影動作モードのうち他の撮影モード(例えば絞り優先自動露出(AE)モード,シャッター速度優先自動露出モード等)への切り換え設定等や、各撮影モード内での個々の撮影条件の任意の設定変更等を容易に行うことができるようになっている。   The display control unit 11b controls the contents displayed on the display screen of the display unit 8 according to the detection result of the touch operation on the touch panel 8b. As a result, the touch panel 8 b serves to assist the operation by the operation unit 7. For example, when the imaging apparatus 1 is operating in a predetermined shooting mode (for example, a program shooting mode) in the shooting operation mode (and when the power is on), the operation unit 7 or the touch panel 8b is operated by the user. And switching settings to other shooting modes (for example, aperture priority automatic exposure (AE) mode, shutter speed priority automatic exposure mode, etc.) of the shooting operation mode, and any shooting conditions within each shooting mode. Settings can be changed easily.

このタッチパネル8bは、従来一般に普及し実用化されているデジタルカメラ等の撮像装置に適用されるものと略同様構成のものが適用される。したがって、本実施形態の構成を説明するのに際しては、タッチパネル8bの構成の詳細な図示及び説明は省略する。   The touch panel 8b has a configuration substantially similar to that applied to an imaging apparatus such as a digital camera that has been widely spread and put into practical use. Therefore, in describing the configuration of the present embodiment, detailed illustration and description of the configuration of the touch panel 8b are omitted.

時計9は、本撮像装置1における内部電気回路の制御等において必要となる計時動作等に寄与する計時回路等からなる。なお、本実施形態の説明では、時計9を単独の構成ブロックとして適用した例を示すが(図1参照)、これに代えて信号処理・制御部11の内部に含めて構成するような形態としてもよい。   The timepiece 9 includes a timing circuit that contributes to a timing operation and the like necessary for controlling the internal electric circuit in the imaging apparatus 1. In the description of the present embodiment, an example in which the timepiece 9 is applied as a single constituent block is shown (see FIG. 1). However, instead of this, a configuration in which the timepiece 9 is included in the signal processing / control unit 11 is configured. Also good.

通信部12は、撮像装置1に対して接続される外部機器との間で通信を行うための通信回路等からなる。外部機器との間の通信形態としては、ケーブル接続による有線通信や、無線接続による無線通信等、各種の形態が適用可能である。したがって、本撮像装置1によって取得された画像データ等は、通信部12を介して外部機器へと出力することが可能となっている。   The communication unit 12 includes a communication circuit for performing communication with an external device connected to the imaging device 1. Various forms such as wired communication by cable connection and wireless communication by wireless connection can be applied as a form of communication with an external device. Therefore, the image data acquired by the imaging device 1 can be output to an external device via the communication unit 12.

レンズユニット20(図3等参照)は、撮影対象物(被写体)からの光束を集光して撮像部2の受光面上に結像させる複数の光学レンズと、これら複数の光学レンズをそれぞれ保持するレンズ保持枠及びその駆動部と、絞り機構やシャッター機構及びその駆動部等のほか、その他電気的な構成部材等を含んで構成されている。このレンズユニット20は、従来一般に普及し実用化されているデジタルカメラ等の撮像装置に適用されるものと略同様構成のものが適用される。したがって、本実施形態の構成を説明するのに際しては、レンズユニット20の構成の詳細な図示及び説明は省略する。なお、レンズユニット20は、撮像装置1に対して着脱自在に構成したもの、若しくは撮像装置1と一体に構成したもの等、種々の形態のものが適用され得る。   The lens unit 20 (see FIG. 3 and the like) holds a plurality of optical lenses that collect a light beam from an object to be photographed (subject) and form an image on the light receiving surface of the imaging unit 2, and each of the plurality of optical lenses. In addition to the lens holding frame and its driving unit, the aperture mechanism, the shutter mechanism, and its driving unit, etc., other electrical components are also included. The lens unit 20 has a configuration substantially the same as that applied to an imaging apparatus such as a digital camera that has been widely spread and put into practical use. Therefore, in describing the configuration of the present embodiment, detailed illustration and description of the configuration of the lens unit 20 are omitted. The lens unit 20 may be applied in various forms, such as a lens unit that is detachable from the imaging device 1 or a lens unit that is integrated with the imaging device 1.

本実施形態の撮像装置1は、上述した構成部材以外にも、種々の構成部材を具備して構成されるものであるが、上述の構成部材以外の構成については、本発明に直接関連しない構成である。したがって、上述の構成部材以外の構成は図面の煩雑化を避けるために、その図示を省略すると共に、従来の撮像装置等と同様の構成を有するものとして、それらの詳細説明を省略する。   The imaging device 1 of the present embodiment is configured to include various structural members in addition to the above-described structural members. However, configurations other than the above-described structural members are not directly related to the present invention. It is. Therefore, in order to avoid complication of the drawings, the configuration other than the above-described components is omitted, and the detailed description thereof is omitted assuming that the configuration is the same as that of a conventional imaging device or the like.

このように構成された本実施形態の撮像装置1を用いて撮影を行う際の作用について、図4〜図6のフローチャート及び図7〜図18等を用いて以下に説明する。   The operation when photographing is performed using the imaging apparatus 1 of the present embodiment configured as described above will be described below with reference to the flowcharts of FIGS. 4 to 6 and FIGS.

まず、撮像装置1による「カメラ制御」に関する処理シーケンスが実行される際の概略的な使用状況について、図7,図8を用いて簡単に説明する。   First, a brief usage situation when a processing sequence related to “camera control” by the imaging apparatus 1 is executed will be briefly described with reference to FIGS. 7 and 8.

図7に示すように、本撮像装置1の使用者100は、例えば外出先等において両手に荷物等を持っているような状態であり、したがって、使用者100は、手を用いて撮像装置1を保持することができない状況にあるものとする。さらに、このとき使用者100は、被写体101となる子供を連れて歩いているものとする。   As shown in FIG. 7, the user 100 of the imaging apparatus 1 is in a state where he / she has a baggage or the like in his / her hands, for example, in a place where he / she is out, and therefore the user 100 uses his / her hand to capture the imaging apparatus 1. Is in a situation where it cannot be held. Further, at this time, it is assumed that the user 100 is walking with a child as the subject 101.

このような状況下においても、使用者100は、子供を撮影対象としての被写体101として撮影したいと思う瞬間が多々あるハズである。しかしながら、上述したように撮像装置1を手に持つことができない状況にある場合、従来の撮像装置では、撮影を行うことは困難であり、子供との貴重なひとときや、せっかくのシャッターチャンスを逃してしまうことになる。   Even under such circumstances, the user 100 has a lot of moments when he / she wants to photograph the child as the subject 101 as the photographing object. However, when the imaging apparatus 1 cannot be held in the hand as described above, it is difficult to take a picture with the conventional imaging apparatus, and a precious moment with a child or a precious photo opportunity is missed. It will end up.

そこで、本実施形態の撮像装置1においては、このような状況下にあっても、撮像装置1を手に保持することなく、使用者100が所定の所作等による使用者100の意思をトリガー(起点)として撮像装置1を作動させて連続撮影を行い、これによって取得された複数の撮影画像の各画像信号についての所定の信号処理(例えばパノラマ合成処理,画像繋ぎ処理,トリミング処理等の画像合成処理等)を行って、そうして生成された合成画像信号を記録するといった一連の撮影処理シーケンスを自動的に行う撮影モードとしての「自動撮影モード」を具備している。   Therefore, in the imaging apparatus 1 of the present embodiment, the user 100 triggers the intention of the user 100 by a predetermined action or the like without holding the imaging apparatus 1 even in such a situation ( The image pickup apparatus 1 is operated as a starting point to perform continuous shooting, and predetermined signal processing (for example, panorama combining processing, image joining processing, trimming processing, etc.) for each image signal of a plurality of captured images acquired thereby. The automatic image capturing mode is provided as an image capturing mode for automatically performing a series of image capturing processing sequences such as recording the composite image signal generated by the processing.

なお、作動開始のトリガーとしての所定の所作としては、例えば撮像装置1を保持する使用者100が背後に居る被写体101の側に振り返る所作を想定している。それだけでなく、これに加えてさらに、使用者100と被写体101間の会話(音声)を検出したり、取得された画像信号に基いて被写体101の顔検出を行う等の技術を用いることにより、より高精度に適切な撮影を行なうことができるようになる。なお、このような補助的な技術を合わせて適用する場合には、これらの検出を行う以前に、撮影動作を開始しておく必要がある。   In addition, as the predetermined operation as a trigger for starting the operation, for example, an operation in which the user 100 holding the imaging device 1 looks back toward the subject 101 behind is assumed. In addition to this, by using a technique such as detecting conversation (sound) between the user 100 and the subject 101 or detecting the face of the subject 101 based on the acquired image signal, Appropriate shooting can be performed with higher accuracy. In addition, when applying such an auxiliary technique together, it is necessary to start an imaging operation before performing these detections.

そのために、使用者100は、図7,図8に示すように、ベルト状の保持部材1aを用いて、自身の腕等に本実施形態の撮像装置1を固定保持することができるようになっている。ここで、使用者100が撮像装置1を自身の腕等に固定保持した時、当該撮像装置1は、撮影レンズが外方を向くような姿勢で固定している。また、撮像装置1は、撮影動作を実行し得るように電源オン状態となっており、かつ動作モードが撮影動作モードに設定されているものとする。   Therefore, as shown in FIGS. 7 and 8, the user 100 can use the belt-shaped holding member 1a to fix and hold the imaging device 1 of the present embodiment on his / her arm or the like. ing. Here, when the user 100 holds the imaging device 1 on his / her arm or the like, the imaging device 1 is fixed in a posture such that the photographing lens faces outward. In addition, it is assumed that the imaging apparatus 1 is in a power-on state so that a shooting operation can be performed, and the operation mode is set to the shooting operation mode.

なお、撮像装置1が完全に電源オン状態になっている必要は無く、例えば信号処理・制御部11の一部の機能だけが起動しており、撮像部2,表示部8等、消費電力が比較的大きな構成ブロックを待機させた状態とする省電力モード等による待機状態となっているようにしてもよい。   The imaging device 1 does not need to be completely powered on. For example, only some functions of the signal processing / control unit 11 are activated, and the imaging unit 2, the display unit 8, and the like consume power. You may make it be in the standby state by the power saving mode etc. which make the state which made the comparatively big structural block wait.

この場合には、撮像装置1は、使用者100によるなんらかの所作、例えば図9に示すように使用者100が被写体101に対して声をかけたり、被写体101の方に振り向いたり、または、立ち止まったりといった所作等をトリガーとして、待機状態にある撮像装置1が即座に撮影可能状態に復帰するような処理シーケンスを設ければよい。   In this case, the imaging apparatus 1 may perform some operation by the user 100, for example, as shown in FIG. 9, the user 100 speaks to the subject 101, turns around the subject 101, or stops. A processing sequence may be provided in which the imaging device 1 in the standby state immediately returns to the photographing enabled state with such an operation as a trigger.

撮像装置1が、このような状況下にあるとき、まず、図4のステップS101において、信号処理・制御部11は、加速度検出部6からの出力信号等を監視して撮像装置1の姿勢状態を判定する。ここで、撮像装置1の姿勢等の状態がノーファインダー状態であるか否かの確認を行う。   When the imaging apparatus 1 is in such a situation, first, in step S101 of FIG. 4, the signal processing / control unit 11 monitors the output signal from the acceleration detection unit 6 and the posture state of the imaging apparatus 1. Determine. Here, it is confirmed whether or not the state of the imaging device 1 is the no-finder state.

このノーファインダー状態とは、使用者100が表示部8の表示画面の確認をせずに撮影を行う際の状態をいうものとする。   The no-finder state refers to a state when the user 100 performs shooting without checking the display screen of the display unit 8.

通常の場合、撮像装置1を用いて撮影を行う際には、使用者100は、撮像装置1を手に保持した状態(若しくは三脚等の固定具に固定した状態)で、該撮像装置1の背面側に通常設けられるファインダー装置としての表示部8の表示画面に連続的に表示される画像を観察しながら構図等を決定した上で、シャッターレリーズ等の操作を行う。   In a normal case, when shooting using the imaging device 1, the user 100 holds the imaging device 1 in a hand (or a state where the imaging device 1 is fixed to a fixture such as a tripod). While observing images continuously displayed on the display screen of the display unit 8 as a finder device normally provided on the back side, the composition and the like are determined, and then operations such as shutter release are performed.

しかしながら、上述したように、撮像装置1が、図7,図8等に示すような状態で固定保持されている状態では、使用者100は、撮像装置1の表示部8の表示画面を確認することができない。したがって、表示部8の表示画面による正しいフレーミングや意図する構図での撮影を行うことができないが、使用者100は、撮像装置1の光軸方向と撮影レンズによる撮影画角等を考慮することにより、表示画面を確認することなく所望の被写体を撮影画角内にとらえることはある程度できる。このように、使用者100がファインダー装置(表示部)を確認せずに撮影を行うことは、ノーファインダー撮影といわれるものであって、写真撮影手法としては、従来一般に行われている撮影手法のひとつである。   However, as described above, in a state where the imaging device 1 is fixedly held in the state illustrated in FIGS. 7 and 8, the user 100 checks the display screen of the display unit 8 of the imaging device 1. I can't. Accordingly, although correct framing on the display screen of the display unit 8 and shooting with an intended composition cannot be performed, the user 100 considers the optical axis direction of the imaging apparatus 1 and the shooting angle of view by the shooting lens. The desired subject can be captured within the shooting angle of view without checking the display screen. As described above, when the user 100 performs shooting without checking the viewfinder device (display unit), it is called no-finder shooting, and as a photography method, a conventional photographing method is generally used. One.

しかしながら、ノーファインダー撮影は、構図を確認することなく撮影動作を行うことになるので、その結果は得られる画像は、使用者が意図する画像になるとは限らない。   However, since no-finder shooting performs a shooting operation without confirming the composition, an image obtained as a result is not always an image intended by the user.

そこで、本実施形態の撮像装置1においては、ノーファインダー撮影による連続撮影を行なって複数の撮影画像を取得し、取得した複数画像を繋ぎ合わせて一つの画像となるように合成する等の信号処理を行なったり、さらにこの合成画像のうち所望の部分、例えば被写体101の像を中心とする所定の一領域を切り出すトリミング処理等の信号処理を駆使して所望の静止画像を生成するようにしている。   Therefore, in the imaging apparatus 1 of the present embodiment, signal processing such as performing continuous shooting by no-finder shooting to acquire a plurality of captured images, and combining the acquired plurality of images to form one image. In addition, a desired still image is generated using signal processing such as trimming processing for cutting out a predetermined portion of the composite image, for example, a predetermined region centered on the image of the subject 101. .

撮像装置1がノーファインダー状態にあるか否かの判断は、上述のように、加速度検出部6からの出力信号等に基いて行われる。   The determination as to whether or not the imaging device 1 is in the no-finder state is made based on the output signal from the acceleration detection unit 6 as described above.

また、それ以外にも、例えば保持部材1aの装着状態を検出する手段を設けてもよいし、表示部8に対向する位置に撮影者が存在するか否かの検出を行う手段を設けてもよいし、撮像装置1のグリップ部(撮像装置1を通常状態で手で保持するときに手がかかる部位)等に使用者の手がかかっているかの検出を行う手段を設ける等、各種の検出手段によって撮像装置1の状態を検出するようにしてもよい。   In addition, for example, a means for detecting the mounting state of the holding member 1a may be provided, or a means for detecting whether a photographer is present at a position facing the display unit 8 may be provided. In addition, various detections such as a means for detecting whether the user's hand is applied to the grip portion of the imaging device 1 (the portion that is handed when the imaging device 1 is held by a hand in a normal state) or the like are provided. The state of the imaging device 1 may be detected by means.

さらに、これらの状態検出手段に代えて、撮影動作のモード設定のうちに「ノーファインダーモード」を設け、上記ステップS101の処理において信号処理・制御部11が設定されているモードを確認するようにしてもよい。   Further, in place of these state detection means, a “no finder mode” is provided in the mode setting of the photographing operation, and the mode in which the signal processing / control unit 11 is set is confirmed in the processing of step S101. May be.

なお、上述したような所作等(図9参照))をトリガーとして撮像装置1を待機状態から撮影可能状態に復帰させる処理シーケンスを挿入する場合には、その復帰処理の後、ただちに上記ステップS101の処理を行うようにすればよい。   When a processing sequence for returning the imaging apparatus 1 from the standby state to the photographing enabled state is inserted using the above-described operation or the like (see FIG. 9) as a trigger, immediately after the return processing, the process of step S101 is performed. What is necessary is just to make it process.

上記ステップS101の処理において、撮像装置1が「ノーファインダー状態」にあることが確認された場合には、次のステップS102の処理に進む。そして、このステップS102以降の処理において、信号処理・制御部11は「自動撮影モード」による処理シーケンスを実行する。   When it is confirmed in the process of step S101 that the imaging apparatus 1 is in the “no finder state”, the process proceeds to the next step S102. In the processing subsequent to step S102, the signal processing / control unit 11 executes a processing sequence in the “automatic imaging mode”.

ステップS102において、信号処理・制御部11は、加速度検出部6の出力信号やマイク5により取得される音声信号等を監視して、「自動撮影モード」を実行するのに適した「所定条件」が満たされているか否かの確認を行う。この「所定条件」確認の処理シーケンスの詳細は図5に示す通りである。   In step S <b> 102, the signal processing / control unit 11 monitors the output signal of the acceleration detection unit 6, the audio signal acquired by the microphone 5, etc., and “predetermined conditions” suitable for executing the “automatic shooting mode”. Confirm whether or not is satisfied. The details of this “predetermined condition” confirmation processing sequence are as shown in FIG.

ここで、「自動撮影モード」の処理シーケンスを実行するための「所定条件」を確認する処理シーケンスの詳細を、図5のフローチャートによって説明する。   Here, the details of the processing sequence for confirming the “predetermined condition” for executing the processing sequence of the “automatic photographing mode” will be described with reference to the flowchart of FIG.

まず、図5のステップS151において、信号処理・制御部11は、加速度検出部6の出力信号に基いて撮像装置1に加わる重力方向を判定する重力方向判定処理を実行する。その後、ステップS152の処理に進む。   First, in step S151 of FIG. 5, the signal processing / control unit 11 executes a gravity direction determination process for determining the direction of gravity applied to the imaging device 1 based on the output signal of the acceleration detection unit 6. Thereafter, the process proceeds to step S152.

ステップS152において、信号処理・制御部11は、上述のステップS151の処理による判定結果に基いて、撮像装置1において重力方向(図3のY軸方向)及び光軸方向(図3のZ軸方向)に直交する方向(図3のX軸方向;水平方向)の加速度が生じているか否かの確認を行う。ここで、水平(X軸)方向の加速度が生じていることが確認された場合には、次のステップS153の処理に進む。また、水平(X軸)方向の加速度が生じていないことが確認された場合には、ステップS161の処理に進む。   In step S152, the signal processing / control unit 11 determines the gravitational direction (Y-axis direction in FIG. 3) and the optical axis direction (Z-axis direction in FIG. 3) in the imaging apparatus 1 based on the determination result obtained in step S151. ) (X-axis direction in FIG. 3; horizontal direction) whether or not acceleration is occurring is confirmed. Here, when it is confirmed that the acceleration in the horizontal (X-axis) direction is generated, the process proceeds to the next step S153. If it is confirmed that no acceleration in the horizontal (X-axis) direction occurs, the process proceeds to step S161.

続いてステップS153において、信号処理・制御部11は、上述のステップS151の処理による判定結果に基いて、重力(Y軸)方向における変化の有無を確認する。ここで、重力(Y軸)方向における変化が無いことが確認された場合には、次のステップS154の処理に進む。また、上述のステップS153の処理において、重力(Y軸)方向における変化が確認された場合には、加速度条件が不適(NG)であると判断されて、一連の処理シーケンスを終了する。そして、図4のステップS102の処理にて「所定条件」が満たされていないものとして、図4のステップS101の処理に戻り、以降の処理を繰り返す。   Subsequently, in step S153, the signal processing / control unit 11 checks whether or not there is a change in the gravity (Y-axis) direction based on the determination result obtained by the processing in step S151 described above. If it is confirmed that there is no change in the gravity (Y-axis) direction, the process proceeds to the next step S154. Further, in the process of step S153 described above, when a change in the gravity (Y-axis) direction is confirmed, it is determined that the acceleration condition is inappropriate (NG), and the series of processing sequences is terminated. Then, assuming that the “predetermined condition” is not satisfied in the process of step S102 of FIG. 4, the process returns to the process of step S101 of FIG. 4 and the subsequent processes are repeated.

つまり、上述のステップS151の処理にて、水平(X軸)方向の加速度が確認され、かつ上述のステップS154の処理にて、重力(Y軸)方向の変化が確認される場合、即ち撮像装置1が主に水平(X軸)方向に移動した場合の状況としては、例えば図9,図10に示すような状況が考えられる。   That is, when the acceleration in the horizontal (X-axis) direction is confirmed in the process in step S151 and the change in the gravity (Y-axis) direction is confirmed in the process in step S154, that is, the imaging apparatus. As a situation when 1 moves mainly in the horizontal (X-axis) direction, for example, the situations shown in FIGS. 9 and 10 can be considered.

即ち、図8に示すような状況下にあるとき、使用者100が、図9,図10に示す矢印R方向に振り向いた場合を考えてみる。   That is, consider the case where the user 100 turns around in the direction of the arrow R shown in FIGS. 9 and 10 when the situation is as shown in FIG.

このときの状況を、図9,図10に示すように使用者100の頭上より俯瞰してみたとすると、使用者100の腕に固定された撮像装置1は、使用者100の身体を回転中心として図9,図10の矢印R方向に弧を描くように移動することになる。この場合における移動に際しては、撮像装置1に対して水平(X軸)方向の加速度がかかる一方、重力(Y軸)方向に変化はみられない。   If the situation at this time is viewed from the overhead of the user 100 as shown in FIGS. 9 and 10, the imaging device 1 fixed to the arm of the user 100 has the body of the user 100 as the center of rotation. As shown in FIG. 9 and FIG. During movement in this case, acceleration in the horizontal (X-axis) direction is applied to the imaging apparatus 1, while no change is seen in the gravity (Y-axis) direction.

また、図9,図10に示す状況とは別の状況として、撮像装置1が水平(X軸)方向に移動する場合の例としては、例えば図12に示すような状況も考えられる。   Further, as a situation different from the situation shown in FIGS. 9 and 10, as an example of the case where the imaging apparatus 1 moves in the horizontal (X-axis) direction, a situation as shown in FIG.

図12に示す状況は、撮像装置1を上述の図8〜図10と同様の方法で腕に保持した状態の使用者100が自転車等の乗り物に乗車して移動している状況を示している。   The situation shown in FIG. 12 shows a situation where the user 100 in a state where the imaging apparatus 1 is held on the arm in the same manner as in the above-described FIGS. 8 to 10 gets on a vehicle such as a bicycle and moves. .

この場合において、使用者100が図12に示す地点[A]から地点[B]へと移動した場合を考えてみる。   In this case, consider a case where the user 100 moves from the point [A] to the point [B] shown in FIG.

このとき撮像装置1は、地点[A]から地点[B]の間で水平(X軸)方向に移動するのみである。したがって、撮像装置1に対しては、水平(X軸)方向の加速度がかかる一方、重力(Y軸)方向に変化はみられない。   At this time, the imaging apparatus 1 only moves in the horizontal (X-axis) direction between the point [A] and the point [B]. Therefore, the imaging device 1 is accelerated in the horizontal (X-axis) direction, but no change is observed in the gravity (Y-axis) direction.

図5に戻って、ステップS154において、信号処理・制御部11は、マイク5により取得される音声信号を監視して、使用者(撮影者)100の声が検出されたか否かの確認を行う。   Returning to FIG. 5, in step S <b> 154, the signal processing / control unit 11 monitors the audio signal acquired by the microphone 5 and confirms whether or not the voice of the user (photographer) 100 is detected. .

ここで、「自動撮影モード」開始条件項目として、上述の撮像装置1の状態変化だけでなく、これに加えて音声信号の検出による撮影者の声の確認処理を挿入している。これにより、「自動撮影モード」の開始条件を厳しくして誤動作を防止することができる。   Here, not only the state change of the imaging apparatus 1 described above but also a confirmation process of the photographer's voice by detecting an audio signal is inserted as the “automatic shooting mode” start condition item. As a result, the start condition of the “automatic photographing mode” can be tightened to prevent malfunction.

なお、マイク5により取得された音声信号から、使用者(撮影者)100の声を検出するための手段としては、例えば予め使用者(撮影者)の声を記録部4等に登録しておき、その音声データに基くとマイク5で取得した音声信号とを比較することにより可能である。   As a means for detecting the voice of the user (photographer) 100 from the audio signal acquired by the microphone 5, for example, the voice of the user (photographer) is registered in advance in the recording unit 4 or the like. Based on the audio data, it is possible to compare the audio signal acquired by the microphone 5.

上述のステップS154の処理において、撮影者の声に基く音声信号の検出が確認された場合には、次のステップS155の処理に進む。また、撮影者の声に基く音声信号の検出が確認されない場合には、加速度条件が不適(NG)であると判断されて、一連の処理シーケンスを終了する。そして、図4のステップS102の処理にて「所定条件」が満たされていないものとして、図4のステップS101の処理に戻り、以降の処理を繰り返す。   If the detection of the audio signal based on the photographer's voice is confirmed in the process of step S154 described above, the process proceeds to the next step S155. If the detection of the audio signal based on the photographer's voice is not confirmed, it is determined that the acceleration condition is inappropriate (NG), and the series of processing sequences is terminated. Then, assuming that the “predetermined condition” is not satisfied in the process of step S102 of FIG. 4, the process returns to the process of step S101 of FIG. 4 and the subsequent processes are repeated.

次に、ステップS155において、信号処理・制御部11は、上述のステップS151の処理による判定結果に基いて得られる撮像装置1の移動方向(移動パターン),加速度等の状態情報を図示しない一時記録部若しくは記録部4の記録媒体等に記録する。その後、「所定条件」は適する状態にあると判断して一連の処理シーケンスを終了する。そして、図4のステップS102の処理にて「所定条件」が満たされているものとして、図4のステップS103の処理に進む。   Next, in step S155, the signal processing / control unit 11 temporarily records state information such as the moving direction (movement pattern) and acceleration of the imaging apparatus 1 obtained based on the determination result obtained in step S151 described above. Or the recording medium of the recording unit 4 or the like. Thereafter, it is determined that the “predetermined condition” is in a suitable state, and a series of processing sequences is terminated. Then, assuming that the “predetermined condition” is satisfied in the process of step S102 of FIG. 4, the process proceeds to the process of step S103 of FIG.

一方、図5のステップS152において、水平(X軸)方向の加速度が確認されずに、ステップS161の処理に進むと、このステップS161において、信号処理・制御部11は、上述のステップS151の処理による判定結果に基いて、重力(Y軸)方向における加速度の有無を確認する。ここで、重力(Y軸)方向における加速度が生じていることが確認された場合には、次のステップS162の処理に進む。また、重力(Y軸)方向における加速度が生じていないことが確認された場合には、加速度条件が不適(NG)であると判断されて、一連の処理シーケンスを終了する。そして、図4のステップS102の処理にて「所定条件」が満たされていないものとして、図4のステップS101の処理に戻り、以降の処理を繰り返す。   On the other hand, if the acceleration in the horizontal (X-axis) direction is not confirmed in step S152 in FIG. 5 and the process proceeds to step S161, in step S161, the signal processing / control unit 11 performs the process in step S151 described above. The presence or absence of acceleration in the direction of gravity (Y-axis) is confirmed based on the determination result by. Here, when it is confirmed that the acceleration in the gravity (Y-axis) direction is generated, the process proceeds to the next step S162. If it is confirmed that no acceleration in the gravity (Y-axis) direction has occurred, it is determined that the acceleration condition is inappropriate (NG), and the series of processing sequences is terminated. Then, assuming that the “predetermined condition” is not satisfied in the process of step S102 of FIG. 4, the process returns to the process of step S101 of FIG. 4 and the subsequent processes are repeated.

ステップS162の処理において、信号処理・制御部11は、上述のステップS151の処理による判定結果に基いて、撮像装置1のあおり角に変化が生じたか否かの確認を行う。このあおり角とは、水平方向のX軸と光軸方向のZ軸とのなす角度をいう。   In the process of step S162, the signal processing / control unit 11 checks whether or not the tilt angle of the imaging apparatus 1 has changed based on the determination result obtained by the process of step S151 described above. The tilt angle is an angle formed by the horizontal X axis and the optical axis Z axis.

ここで、撮像装置1のあおり角の変化が生じる場合の状況としては、例えば図13,図14に示すような状況が考えられる。   Here, as a situation when the tilt angle of the imaging apparatus 1 changes, for example, situations as shown in FIGS. 13 and 14 are conceivable.

このうち図13に示す状況は、使用者100が、撮像装置1を上述の図8〜図10と同様の方法で腕に保持した状態の使用者100が腕を振って歩行している状況を示している。   Among these, the situation shown in FIG. 13 is a situation in which the user 100 is walking with his / her arm swinging while the user 100 holds the imaging apparatus 1 on the arm in the same manner as in FIGS. 8 to 10 described above. Show.

この場合において、使用者100が図13に示す地点[A]から地点[B]へと移動した場合を考えてみる。   In this case, consider a case where the user 100 moves from the point [A] to the point [B] shown in FIG.

このとき撮像装置1は、使用者100が歩行するのにしたがって振られる腕と共に所定の範囲で移動する。使用者100が地点[A]から地点[B]へと歩行するとき、撮像装置1のあおり角、即ち光軸(Z軸)の向く方向が変化する。この変化によって加速度検出部6の出力信号にも変化が生じることになる。   At this time, the imaging apparatus 1 moves within a predetermined range together with the arm that is swung as the user 100 walks. When the user 100 walks from the point [A] to the point [B], the tilt angle of the imaging device 1, that is, the direction in which the optical axis (Z axis) faces changes. This change also causes a change in the output signal of the acceleration detector 6.

また、図14に示す状況は、使用者100が、撮像装置1を自身の身体の前面、例えば胸上に保持部材を用いて固定した状態において、被写体となる人物103に対面している場合を想定している。   The situation shown in FIG. 14 is a case where the user 100 faces the person 103 as a subject in a state where the imaging apparatus 1 is fixed to the front surface of his / her body using a holding member, for example, on the chest. Assumed.

そして、使用者100が人物103に対して略正対している状態(不図示)にあるとき、使用者100が図14の矢印Rに示す方向に胸を反らせるような所作を行ったとする。この場合において、撮像装置1は、使用者100の所作に伴って、その光軸(Z軸)が上向くことになる。つまり、撮像装置1のあおり角(光軸(Z軸)の向く方向)が変化する。   Then, when the user 100 is in a state (not shown) substantially facing the person 103, it is assumed that the user 100 has performed an action of bending the chest in the direction indicated by the arrow R in FIG. In this case, the image pickup apparatus 1 has its optical axis (Z-axis) pointing up with the user's 100 work. That is, the tilt angle (the direction in which the optical axis (Z axis) faces) of the imaging device 1 changes.

この場合の撮像装置1の挙動は、図15のように示すことができる。即ち、図14の状況下において、使用者100が人物103に正対している時、撮像装置1は図15(a)の状態となる。この状態において、撮像装置1には重力(Y軸)方向の力量Fがかかっている。   The behavior of the imaging apparatus 1 in this case can be shown as shown in FIG. That is, in the situation of FIG. 14, when the user 100 is directly facing the person 103, the imaging apparatus 1 is in the state of FIG. In this state, the imaging device 1 is applied with a force F in the gravity (Y-axis) direction.

この状態から、上述したように使用者100が胸を反らす所作を行うと、撮像装置1は図15(a)の状態から図15(b)の状態へと姿勢を変化させる。この姿勢変化(あおり角の変化)に伴って、重力(Y軸)方向の力量Fが撮像装置1に対してかかる方向に変化が生じる。この変化によって加速度検出部6の出力信号にも変化が生じることになる。   From this state, when the user 100 performs the action of bending the chest as described above, the imaging device 1 changes the posture from the state of FIG. 15A to the state of FIG. Along with this change in posture (change in tilt angle), a change occurs in the direction in which the force F in the direction of gravity (Y-axis) is applied to the imaging device 1. This change also causes a change in the output signal of the acceleration detector 6.

図5に戻って、上述のステップS162の処理において、撮像装置1のあおり角に変化が生じたことが確認された場合には、上述のステップS154の処理に進み、以降同様の処理が行われる。また、撮像装置1のあおり角の変化が確認されない場合には、加速度条件が不適(NG)であると判断されて、一連の処理シーケンスを終了する。そして、図4のステップS102の処理にて「所定条件」が満たされていないものとして、図4のステップS101の処理に戻り、以降の処理を繰り返す。   Returning to FIG. 5, when it is confirmed in the process of step S162 described above that the tilt angle of the imaging device 1 has changed, the process proceeds to the process of step S154 described above, and thereafter the same process is performed. . If no change in the tilt angle of the imaging device 1 is confirmed, it is determined that the acceleration condition is inappropriate (NG), and the series of processing sequences is terminated. Then, assuming that the “predetermined condition” is not satisfied in the process of step S102 of FIG. 4, the process returns to the process of step S101 of FIG. 4 and the subsequent processes are repeated.

以上のように、「所定条件」確認の処理シーケンス(図5)を含む上述のステップS102の処理(図4)において、「所定条件」が満たされていないことが確認されると、上述のステップS101の処理に戻って以降の処理を繰り返す一方、「所定条件」が満たされていることが確認されると、次のステップS103の処理に進む。   As described above, when it is confirmed that the “predetermined condition” is not satisfied in the process of step S102 (FIG. 4) including the processing sequence (FIG. 5) for confirming the “predetermined condition”, the above step While returning to the process of S101 and repeating the subsequent processes, if it is confirmed that the “predetermined condition” is satisfied, the process proceeds to the next step S103.

続いて、ステップS103において、信号処理・制御部11は、所定の構成ブロックを制御して複数の撮影動作を連続的に実行する連続撮影動作を実行する。この連続撮影動作は、通常の静止画像の取得動作を連続的に行う動作である。   Subsequently, in step S103, the signal processing / control unit 11 executes a continuous shooting operation in which a predetermined configuration block is controlled and a plurality of shooting operations are continuously executed. This continuous shooting operation is an operation for continuously performing a normal still image acquisition operation.

例えば、図8,図9の状況下において使用者100が振り向く所作を行ったとき、撮像装置1も図9,図10の矢印R方向に回転移動することになる。この所作の期間中に連続撮影動作が行われてたとすると、その連続撮影動作によって取得される複数の撮影画像は、例えば図11(a)に示すようになる。   For example, when the user 100 performs an action that turns around in the situation of FIGS. 8 and 9, the imaging apparatus 1 also rotates in the direction of arrow R in FIGS. 9 and 10. If a continuous shooting operation is performed during the period of this operation, a plurality of captured images acquired by the continuous shooting operation are as shown in FIG.

図11(a)は、一連の連続撮影動作によって取得される複数画像を左から順に並べて示すものである。ここで、図11(a)に示す符号[No.x](x=1〜5)は、撮影された撮影画像の順番を示している。このとき、各撮影画像の長辺方向(即ち撮像装置1の移動方向である)の端部領域に重複領域Wが存在するようになっているのが望ましい。本発明においては、この重複領域Wを利用して後述する画像合成処理を行うようにしている。   FIG. 11A shows a plurality of images obtained by a series of continuous shooting operations in order from the left. Here, reference numerals [No. x] (x = 1 to 5) indicates the order of the captured images. At this time, it is desirable that the overlapping region W exists in the end region in the long side direction of each captured image (that is, the moving direction of the imaging device 1). In the present invention, the overlapping region W is used to perform image composition processing to be described later.

しかしながら、連続撮影が行われる際における撮像装置1の姿勢変化や移動の状況によっては、例えば図16(a)に示すように1枚分の撮影画像領域に比較して重複領域Wが大きくなってしまったり、図16(c)に示すように連続する前後の画像に重複する領域が得られない場合もあり得る。図16(a)のように重複領域Wが大きい場合には、必要となる画像数が多くなる等の理由から、画像合成処理を行うのに負担が大きくなってしまう。また、図16(c)のように重複領域を得られなければ画像合成処理を行うことができないことになる。   However, depending on the posture change and movement of the imaging apparatus 1 when continuous shooting is performed, the overlap area W becomes larger than the one shot image area as shown in FIG. 16A, for example. There may be a case where an overlapping area is not obtained between images before and after successive images as shown in FIG. When the overlapping area W is large as shown in FIG. 16A, the burden of performing the image composition processing increases because the number of necessary images increases. Also, as shown in FIG. 16C, the image composition process cannot be performed unless an overlapping region is obtained.

撮像装置1の姿勢変化や移動状況としては、例えば図12で示す例のように撮像装置1が高速で直進移動する場合(簡略に示すと図17のようになる。符号Uが直進移動方向)と、図9,図10若しくは図13や図14で示す例のように撮像装置1が水平又は垂直方向に移動する際に回転を伴って移動する場合(簡略に示すと図18のようになる。符号Rが回転方向)等が考えられ、前者と後者とでは撮像装置1自体の移動速度が異なる。   As the posture change and the movement state of the imaging apparatus 1, for example, when the imaging apparatus 1 moves straight forward at high speed as in the example shown in FIG. 12 (simply shown in FIG. 17, reference sign U is the straight traveling direction). When the image pickup apparatus 1 moves with rotation when moving in the horizontal or vertical direction as in the example shown in FIG. 9, FIG. 10, FIG. 13 or FIG. 14 (simply shown in FIG. 18). The moving speed of the imaging device 1 itself is different between the former and the latter.

したがって、迅速かつ正確な画像合成処理を行うためには、連続撮影動作によって得られる複数枚の画像を適切なものとする必要がある。そのために、連続撮影動作によって取得される画像数はできるだけ少なく、かつ図16(b)に示すように重複領域Wを得ながらも、その重複領域Wが少ない面積であるのが望ましいといえる。   Therefore, in order to perform quick and accurate image composition processing, it is necessary to make a plurality of images obtained by the continuous photographing operation appropriate. Therefore, it can be said that the number of images acquired by the continuous photographing operation is as small as possible, and it is desirable that the overlapping area W has a small area while obtaining the overlapping area W as shown in FIG.

このことを実現するために、本実施形態における連続撮影動作の処理シーケンスでは、撮像装置1の姿勢変化や移動状況にしたがって連続撮影速度を制御するようにしている。   In order to realize this, in the processing sequence of the continuous shooting operation in the present embodiment, the continuous shooting speed is controlled in accordance with the posture change and movement state of the imaging apparatus 1.

ここで、上述のステップS103の連続撮影動作の処理シーケンスの詳細を、図6のフローチャートを用いて説明する。   Here, the details of the processing sequence of the continuous shooting operation in step S103 described above will be described with reference to the flowchart of FIG.

上述した手順にて図4のステップS103の処理において連続撮影動作が実行されると、まず、図6のサブルーチンのステップS171において、信号処理・制御部11は、連続的に行う撮影動作(以下、連写という)をできる限り高速で実行する「高フレームレート撮影」処理を実行する。   When the continuous shooting operation is executed in the process of step S103 of FIG. 4 according to the above-described procedure, first, in step S171 of the subroutine of FIG. The “high frame rate shooting” process is executed to execute as fast as possible).

次いで、ステップS172において、信号処理・制御部11は、上述の図5のステップS155の処理にて一時的に記録してある状態情報に基いて主要移動方向の加速度を判定する処理を行う。   Next, in step S172, the signal processing / control unit 11 performs a process of determining the acceleration in the main movement direction based on the state information temporarily recorded in the process of step S155 of FIG.

続いて、ステップS173において、信号処理・制御部11は、上述のステップS172の処理における判定結果に基いて、撮像装置1の姿勢変化や移動状況として、回転(角度変化)を伴っているか否かの確認を行う。ここで、回転を伴っていないことが確認された場合には、次のステップS174の処理に進む。   Subsequently, in step S173, the signal processing / control unit 11 determines whether or not rotation (angle change) is involved as the posture change or movement state of the imaging device 1 based on the determination result in the process of step S172 described above. Confirm. If it is confirmed that there is no rotation, the process proceeds to the next step S174.

ここで、回転を伴っていない移動状況とは、例えば上述の図12,図17で示すような移動である。この場合には画像の変化が少ないので、連写した複数画像のうち隣接する画像は、図16(a)に示す例のように重複領域Wが大きくなる可能性がある。   Here, the movement state not accompanied by rotation is, for example, movement as shown in FIGS. 12 and 17 described above. In this case, since there is little change in the image, there is a possibility that the overlap area W of the adjacent images among the plurality of continuously shot images becomes large as in the example shown in FIG.

したがって、次のステップS174の処理において、信号処理・制御部11は、上述のステップS172の処理の判定結果に基く加速度情報にしたがって、記録フレームの取捨選択処理を行った上、選択画像のみが第1仮記録部4aに一時的に記録されるようにするための処理を行う。なお、実際の記録処理は、一連の連続撮影処理の終了後に行われる(後述する図4のステップS104参照)。   Therefore, in the process of the next step S174, the signal processing / control unit 11 performs the selection process of the recording frame according to the acceleration information based on the determination result of the process of step S172 described above, and only the selected image is the first. Processing for temporarily recording in one temporary recording unit 4a is performed. The actual recording process is performed after the end of a series of continuous shooting processes (see step S104 in FIG. 4 described later).

ここで行われる記録フレームの取捨選択処理の例としては、例えば加速度が大きい場合には連写された一連の複数画像から一コマ置きに選択し、加速度が小さい場合には二コマ置きに選択する等の処理である。その後、ステップS176の処理に進む。   As an example of the selection process of the recording frame performed here, for example, when the acceleration is high, a frame is selected from a series of continuously shot images, and when the acceleration is low, the frame is selected every other frame. And so on. Thereafter, the process proceeds to step S176.

一方、上述のステップS173の処理にて、回転を伴っていることが確認された場合には、ステップS175の処理に進む。   On the other hand, when it is confirmed in the process of step S173 described above that rotation is involved, the process proceeds to step S175.

ここで、回転を伴う移動状況とは、例えば上述の図9,図10や図13や図14等、図18で簡略的に示されるような移動である。この場合には、画像の変化が大きいので、連写した複数画像のうち隣接する画像は、図16(b)に示す例のように重複領域Wが小さくなる可能性がある。   Here, the movement state with rotation is, for example, movement as shown in FIG. 18, such as FIG. 9, FIG. 10, FIG. 13, FIG. In this case, since the change of the image is large, there is a possibility that the overlapping area W of the adjacent images among the plurality of continuously shot images becomes small as in the example shown in FIG.

したがって、ステップS175の処理において、信号処理・制御部11は、連写によって得られた複数画像の全てを、第1仮記録部4aに一時的に記録されるようにするための処理を行う。なお、実際の記録処理は、一連の連続撮影処理の終了後に行われる(後述する図4のステップS104参照)。その後、ステップS176の処理に進む。   Therefore, in the process of step S175, the signal processing / control unit 11 performs a process for temporarily recording all of the plurality of images obtained by continuous shooting in the first temporary recording unit 4a. The actual recording process is performed after the end of a series of continuous shooting processes (see step S104 in FIG. 4 described later). Thereafter, the process proceeds to step S176.

ステップS176において、信号処理・制御部11は、加速度検出部6の出力信号を監視して撮像装置1の移動状況が略停止したか否かの確認を行う。ここで、撮像装置1が未だ移動中であり停止していないことが確認された場合には、上述のステップS172の処理に戻り、以降の処理を繰り返す。また、撮像装置1が移動を停止したことが確認された場合には、次のステップS177の処理に進む。   In step S <b> 176, the signal processing / control unit 11 monitors the output signal of the acceleration detection unit 6 and confirms whether or not the movement state of the imaging device 1 has substantially stopped. If it is confirmed that the imaging apparatus 1 is still moving and has not been stopped, the process returns to the above-described step S172, and the subsequent processes are repeated. If it is confirmed that the imaging apparatus 1 has stopped moving, the process proceeds to the next step S177.

ステップS177において、信号処理・制御部11は、撮影動作を終了する処理を実行し、その後、一連の処理を終了し、元の処理に戻る(リターン)。   In step S177, the signal processing / control unit 11 executes processing for ending the photographing operation, thereafter ends a series of processing, and returns to the original processing (return).

図4に戻って、上述のようにして図6のサブルーチン、即ちステップS103の処理が終了したら、次のステップS104の処理に進む。   Returning to FIG. 4, when the subroutine of FIG. 6, that is, the process of step S103 is completed as described above, the process proceeds to the next step S104.

ステップS104において、信号処理・制御部11は、上述のステップS103の処理によって取得し、記録されるべきものとされている複数の画像信号を第1仮記録部4aに一時的に記録する。その後、ステップS105の処理に進む。   In step S104, the signal processing / control unit 11 temporarily records a plurality of image signals to be acquired and recorded in the first temporary recording unit 4a by the processing in step S103 described above. Thereafter, the process proceeds to step S105.

ステップS105において、信号処理・制御部11の画像信号加工処理部11dは、第1仮記録部4aに一時記録された複数の画像信号を繋ぎ合わせるパノラマ合成処理(画像繋ぎ処理)を実行し、その処理結果の合成画像信号を第2仮記録部4bに一時的に記録する。その後、ステップS106の処理に進む。   In step S105, the image signal processing unit 11d of the signal processing / control unit 11 executes panorama synthesis processing (image connection processing) for connecting a plurality of image signals temporarily recorded in the first temporary recording unit 4a. The composite image signal obtained as a result of processing is temporarily recorded in the second temporary recording unit 4b. Thereafter, the process proceeds to step S106.

ここで、画像信号加工処理部11dにより実行されるパノラマ合成処理(画像繋ぎ処理)は、次のような処理となる。   Here, the panorama synthesizing process (image joining process) executed by the image signal processing unit 11d is as follows.

例えば、図11(a)に示す[No.1]〜[No.5]の一連の複数画像が取得されているものとすると、これら複数画像の各重複領域Wを合致させて繋ぎ合わせる画像合成処理である。この処理によって生成されるパノラマ合成画像は、図4(a)の符号Gで示される横長の画像となる。   For example, as shown in FIG. 1] to [No. 5], it is assumed that the plurality of images are acquired, and this is an image composition process in which the overlapping regions W of these images are matched and connected. The panorama composite image generated by this processing is a horizontally long image indicated by the symbol G in FIG.

続いて、ステップS106において、信号処理・制御部11のトリミング部11eは、第2仮記録部4bに一時記録された合成画像信号に基いて主要被写体を中心とする所定の領域の画像を切り出し処理するトリミング処理を実行する。その後、ステップS107の処理に進む。   Subsequently, in step S106, the trimming unit 11e of the signal processing / control unit 11 cuts out an image of a predetermined region centered on the main subject based on the composite image signal temporarily recorded in the second temporary recording unit 4b. Execute trimming processing. Thereafter, the process proceeds to step S107.

ここで、トリミング部11eにより実行されるトリミング処理は、次のような処理である。   Here, the trimming process executed by the trimming unit 11e is as follows.

例えば、図11(a)に示すように連続撮影によって取得された複数画像(図11の例では5枚)から生成されたパノラマ合成画像Gのうち所望の主要な被写体101の像は、[No.4],[No.5]に撮影されているものとする。   For example, as shown in FIG. 11A, the desired main subject 101 image among the panoramic composite images G generated from a plurality of images (five in the example of FIG. 11) acquired by continuous shooting is [No . 4], [No. 5].

トリミング処理は、このパノラマ合成画像Gのうち主要被写体101が画面の略中心となるように所定の領域Tを切り出す処理である。その結果生成されるトリミング画像は、図4(b)で示すような画像となる。   The trimming process is a process of cutting out a predetermined region T in the panorama composite image G so that the main subject 101 is substantially at the center of the screen. The trimmed image generated as a result is an image as shown in FIG.

なお、上記トリミング処理を行う際に、パノラマ合成画像Gの中から主要被写体101を検出する手段としては、予め被写体101の顔画像を登録しておき、その登録情報に基いて顔検出部3を利用することにより可能である。   When performing the trimming process, as means for detecting the main subject 101 from the panorama composite image G, the face image of the subject 101 is registered in advance, and the face detection unit 3 is used based on the registration information. It is possible by using it.

続いて、図4のステップS107において、信号処理・制御部11は、上述のステップS106の処理により生成されたトリミング画像信号を、所定の処理を施した後に、記録部4の記録媒体に記録する。その後、一連の処理を終了する(リターン)。   Subsequently, in step S107 of FIG. 4, the signal processing / control unit 11 records the trimmed image signal generated by the above-described processing of step S106 on the recording medium of the recording unit 4 after performing predetermined processing. . Thereafter, the series of processes is terminated (return).

なお、このステップS107の処理において、記録部4の記録媒体に記録される画像データとしては、トリミング処理済みの合成画像信号のみでなく、一連の連続撮影動作によって取得され第1仮記録部4aに一時記録されている複数の画像信号や、第2仮記録部4bに一時記録されているパノラマ合成画像等を含めてもよい。   In the process of step S107, the image data recorded on the recording medium of the recording unit 4 is acquired not only by the trimmed composite image signal but also by a series of continuous shooting operations and is stored in the first temporary recording unit 4a. A plurality of temporarily recorded image signals, a panoramic composite image temporarily recorded in the second temporary recording unit 4b, and the like may be included.

本実施形態の撮像装置1による「カメラ制御」(図4)のうち「自動撮影モード」時の処理シーケンスは、以上である。   Of the “camera control” (FIG. 4) by the imaging apparatus 1 of the present embodiment, the processing sequence in the “automatic shooting mode” is as described above.

一方、上述のステップS101の処理において、撮像装置1が「ノーファインダー状態」ではないことが確認された場合には、ステップS111の処理に進む。そして、このステップS111以降において、信号処理・制御部11は通常の動作モードによる処理シーケンスを実行する。   On the other hand, when it is confirmed in the process of step S101 described above that the imaging apparatus 1 is not in the “no finder state”, the process proceeds to step S111. In step S111 and subsequent steps, the signal processing / control unit 11 executes a processing sequence in a normal operation mode.

まず、ステップS111において、信号処理・制御部11は、操作部7からの出力信号を監視して、撮影動作の開始を指示するシャッターレリーズ信号が生じているか否かの確認を行う。この確認は、例えば使用者100によって操作部7のうち撮影動作を指示する所定の操作、即ちシャッターレリーズボタン等の操作が行われたか否かの確認を行う。ここで、シャッターレリーズ信号が確認された場合には、次のステップS112の処理に進む。   First, in step S111, the signal processing / control unit 11 monitors an output signal from the operation unit 7 and confirms whether or not a shutter release signal instructing the start of the photographing operation is generated. This confirmation is performed by, for example, confirming whether a predetermined operation for instructing a photographing operation in the operation unit 7 by the user 100, that is, an operation of a shutter release button or the like has been performed. If the shutter release signal is confirmed here, the process proceeds to the next step S112.

ステップS112において、従来の撮像装置1において一般に行われているような通常撮影処理が実行される。その後、ステップS107の処理に進む。   In step S <b> 112, normal shooting processing that is generally performed in the conventional imaging apparatus 1 is executed. Thereafter, the process proceeds to step S107.

また、上記ステップS111の処理において、信号処理・制御部11は、レリーズ信号が確認されない場合には、ステップS121の処理に進む。   In the process of step S111, if the release signal is not confirmed, the signal processing / control unit 11 proceeds to the process of step S121.

ステップS121において、信号処理・制御部11は、操作部7からの出力信号を監視して再生モードへの切換指示信号が生じているか否かの確認を行う。ここで、再生モードへの切換信号により動作モードが再生モードに設定されたことが確認されると、次のステップS122の処理に進む。また、再生モードへの切換信号が確認されない場合には、上述のステップS101の処理に戻り、以降の処理を繰り返す。   In step S121, the signal processing / control unit 11 monitors the output signal from the operation unit 7 and confirms whether or not a switching instruction signal to the reproduction mode is generated. Here, when it is confirmed that the operation mode is set to the reproduction mode by the switching signal to the reproduction mode, the process proceeds to the next step S122. On the other hand, when the signal for switching to the reproduction mode is not confirmed, the process returns to the above-described step S101 and the subsequent processes are repeated.

ステップS122において、信号処理・制御部11は、所定の構成ブロックを制御して画像再生処理を実行する。その後、上述のステップS121の処理に戻り、以降の処理を繰り返す。   In step S <b> 122, the signal processing / control unit 11 controls a predetermined configuration block to execute image reproduction processing. Thereafter, the processing returns to the above-described step S121, and the subsequent processing is repeated.

なお、上述の実施形態において、パノラマ合成処理やトリミング処理等を行う際には、マイク5によって取得される被写体からの音声信号を利用するといったことも考えられる。   In the above-described embodiment, when performing panorama synthesis processing, trimming processing, or the like, it may be possible to use an audio signal from a subject acquired by the microphone 5.

例えば、連続撮影動作を行なって取得された複数の画像の例として、図19に示すよう場合を考えてみる。   For example, consider a case as shown in FIG. 19 as an example of a plurality of images acquired by performing a continuous shooting operation.

図19において、矢印Sは、撮像装置1が移動しながら連続撮影を行なった際の移動方向を示している。図19に示す例では、連続撮影動作によって三枚分の画像[No.1].[No.2],[No.3]が取得されたものとし、そのいずれの撮影コマにも、主要な被写体101の像が撮影されている物とする。   In FIG. 19, an arrow S indicates a moving direction when the imaging apparatus 1 performs continuous shooting while moving. In the example shown in FIG. 19, three images [No. 1]. [No. 2], [No. 3] is acquired, and it is assumed that an image of the main subject 101 is captured in any of the captured frames.

ここで、図19に示す3つの画像[No.1].[No.2],[No.3]に基いてパノラマ合成処理を実行するのに際して、3つの画像のうちのいずれの主要被写体101の像を選択するべきかの条件として、被写体101が返事をしたタイミングで撮影された画像を優先的に選択する。   Here, the three images [No. 1]. [No. 2], [No. 3], when the panorama synthesis process is executed, priority is given to an image taken at the timing when the subject 101 responds as a condition for selecting which of the main subjects 101 of the three images should be selected. To choose.

例えば、図9のように使用者100が被写体101に向けて声をかけたて振り向く所作を行った場合を考えてみる。   For example, let us consider a case where the user 100 performs an action in which the user 100 turns and speaks toward the subject 101 as shown in FIG.

このとき、例えば撮像装置1が起動すると共に、連続撮影動作を開始したとする。したがって、使用者100の声が発生した時点から連続撮影動作が始まり、使用者が振り向く所作の間、連続撮影は継続する。そして、その間に被写体101が返事をしたとすると、その発音タイミングが記録される。この発音タイミングの情報は、パノラマ合成処理等の信号処理等の信号処理が行われる際に適宜参照される。   At this time, for example, it is assumed that the imaging device 1 is activated and a continuous shooting operation is started. Accordingly, the continuous shooting operation starts from the time when the voice of the user 100 is generated, and the continuous shooting is continued during the work that the user turns around. If the subject 101 answers in the meantime, the sound generation timing is recorded. The sound generation timing information is appropriately referred to when signal processing such as panorama synthesis processing is performed.

ここで、図19に示す連続撮影の結果得られる個々の画像を分解して示すと図20(a)のようになる。ここで、被写体101が発音したタイミングと略同等のタイミングで撮影された画像を符号[No.3]で示す画像とする。   Here, each image obtained as a result of the continuous shooting shown in FIG. 19 is disassembled and shown in FIG. Here, an image photographed at a timing substantially equivalent to the timing at which the subject 101 pronounced is denoted by [No. 3].

この場合において、パノラマ画像処理を実行すると、主要被写体101を含む画像としては、画像[No.3]が優先して選択され、次いで、これに隣接する画像[No.2]が選択される。そして、画像[No.3]の被写体101の部分が前面になるように、図20(b)に示すように画像[No.2]とのパノラマ合成処理がなされる。   In this case, when panoramic image processing is executed, the image [No. 3] is preferentially selected, and then the image [No. 2] is selected. The image [No. 3] image [No. 3] as shown in FIG. 2] is performed.

図19,図20の例では、図19の矢印Sで示すように、撮像装置1は若干斜め方向に移動しているので、長方形状の画像を生成するためには、処理済みのパノラマ合成画像の高さ方向についてのトリミングが必要になる。   In the example of FIGS. 19 and 20, as indicated by the arrow S in FIG. 19, the imaging apparatus 1 is slightly moved in the oblique direction. Therefore, in order to generate a rectangular image, a processed panorama composite image Trimming in the height direction is required.

そこで、図20(b)に示すように、領域Tの部分を切り取るトリミング処理を行って、その結果生成される画像が符号T(幅P×高さHで示される長方形画像)で示すようになる。   Therefore, as shown in FIG. 20B, a trimming process for cutting out the portion of the region T is performed, and an image generated as a result is indicated by a code T (rectangular image indicated by width P × height H). Become.

このように、マイク5により取得し得る音声信号を画像加工処理時に有効利用することによって、例えば使用者100と被写体101との間でコミュニケーションがなされた瞬間前後の画像記録を行うことができる。   Thus, by effectively using the audio signal that can be acquired by the microphone 5 during image processing, for example, image recording before and after the moment when communication between the user 100 and the subject 101 is performed can be performed.

以上説明したように上記第1の実施形態によれば、撮像装置1がノーファインダー状態で保持した使用者100の所作等を加速度検出部6の出力信号に基いて判定して、所定の条件が合致した時には、連続撮影動作を実行し、これによって連続した複数の一連の画像を取得する。そして、これら複数の画像を繋ぎ合わせるパノラマ合成処理を行い、さらに、生成されたパノラマ合成画像について所望の被写体を略中心とする所定の範囲の領域を切り出すトリミング処理を実行して、最終的に生成された一つの静止画像を記録するようにしている。   As described above, according to the first embodiment, the operation of the user 100 held in the no-finder state by the imaging apparatus 1 is determined based on the output signal of the acceleration detection unit 6, and the predetermined condition is satisfied. When they match, a continuous shooting operation is executed, thereby acquiring a plurality of continuous images. Then, panorama synthesis processing is performed to connect the plurality of images, and further, trimming processing is performed to cut out a region in a predetermined range that is approximately centered on a desired subject from the generated panorama composite image, and finally generated. One still image recorded is recorded.

このような一連の処理が自動的に実行されるように構成したので、使用者は、撮像装置を手に保持しつつ構図を意識したり撮影のための操作を行うことなく、いわゆるノーファインダー状態において所定の所作を行うことにより適確に所望の被写体を含む静止画像を取得することが容易にできる。   Since such a series of processing is automatically executed, the user can hold the image pickup device in his / her hand without being aware of the composition or performing an operation for photographing, so-called no-finder state. It is possible to easily acquire a still image including a desired subject accurately by performing a predetermined operation in step.

本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   The present invention is not limited to the above-described embodiments, and it is needless to say that various modifications and applications can be implemented without departing from the spirit of the invention. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the above-described embodiment, if the problem to be solved by the invention can be solved and the effect of the invention can be obtained, this constituent requirement is deleted. The configured structure can be extracted as an invention.

本発明は、デジタルカメラ等の撮影機能に特化した電子機器としての撮像装置の形態に限られることはなく、撮影機能を備えた他の形態の電子機器、例えば録音機器,携帯電話,電子手帳,パーソナルコンピューター,ゲーム機器,デジタルメディアプレーヤー,テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の撮影機能付き電子機器に広く適用することができる。   The present invention is not limited to the form of an imaging device as an electronic device specialized for a photographing function such as a digital camera, and other forms of electronic devices having a photographing function, such as a recording device, a mobile phone, and an electronic notebook , Personal computers, game devices, digital media players, televisions, watches, navigation devices using GPS (Global Positioning System), and other electronic devices with various shooting functions.

1……撮像装置
1a……保持部材
2……撮像部
3……顔検出部
4……記録部
4a……第1仮記録部
4b……第2仮記録部
5……マイクロフォン
6……加速度検出部
7……操作部
8……表示部
8b……タッチパネル
11……信号処理・制御部
11b……表示制御部
11c……信号圧縮伸張部
11d……画像信号加工処理部
11e……トリミング部
20……レンズユニット
20a……撮影レンズ
DESCRIPTION OF SYMBOLS 1 ... Imaging device 1a ... Holding member 2 ... Imaging part 3 ... Face detection part 4 ... Recording part 4a ... 1st temporary recording part 4b ... 2nd temporary recording part 5 ... Microphone 6 ... Acceleration Detecting unit 7 ...... Operation unit 8 ... Display unit 8b ... Touch panel 11 ... Signal processing / control unit 11b ... Display control unit 11c ... Signal compression / decompression unit 11d ... Image signal processing unit 11e ... Trimming unit 20 …… Lens unit 20a …… Shooting lens

Claims (7)

撮像部からの出力信号に基く画像信号を記録する撮像装置において、
使用者が表示画面の確認をせずに撮影を行うノーファインダー状態かを判断する判断手段と、
上記判断手段によってノーファインダー状態と判断された際に、上記撮像装置の姿勢変化を検出する加速度検出部と、
上記加速度検出部の出力信号に基づいて上記撮像装置の姿勢変化が検出された際に、連続撮影動作を上記撮像部に開始させて一連の複数の画像信号を取得し、当該一連の複数の画像信号に基づいて当該一連の複数画像信号により現わされる画像を繋ぎ合わせるパノラマ合成処理を行う信号処理制御部と、
を具備し、
上記信号処理制御部は、上記パノラマ合成処理を行う際、上記加速度検出部からの加速度が所定値よりも大きい場合には上記連続撮影動作によって得られた一連の複数画像から一コマ置きに選択することを特徴とする撮像装置。
In an imaging device that records an image signal based on an output signal from an imaging unit,
A determination means for determining whether the user is in a no-finder state in which shooting is performed without checking the display screen;
An acceleration detection unit that detects a change in posture of the imaging device when the determination unit determines that the camera is in a no-finder state;
When a change in posture of the imaging device is detected based on the output signal of the acceleration detection unit, the imaging unit starts a continuous shooting operation to acquire a series of image signals, and the series of images A signal processing control unit for performing a panoramic synthesis process for joining images represented by the series of multiple image signals based on the signal;
Comprising
The signal processing control unit, when performing the panorama composing process, selecting every other frame from the thus found a series of multiple images by the continuous shooting operation if the acceleration is greater than a predetermined value from the acceleration detecting portion An imaging apparatus characterized by:
上記信号処理制御部は、さらに、上記パノラマ合成処理を行う際、上記加速度検出部からの加速度が所定値よりも小さい場合には二コマ置きに選択することを特徴とする請求項1に記載の撮像装置。   2. The signal processing control unit according to claim 1, wherein, when performing the panorama synthesis processing, the signal processing control unit selects every other frame if the acceleration from the acceleration detection unit is smaller than a predetermined value. Imaging device. 上記信号処理制御部は、上記加速度検出部によって検出した加速度に応じて上記連続撮影動作の撮影速度を制御することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the signal processing control unit controls a shooting speed of the continuous shooting operation according to the acceleration detected by the acceleration detection unit. 更に、上記信号処理制御部は、上記パノラマ合成処理により生成されたパノラマ画像から、主要被写体が画面の略中心となるように一部の領域を切り出すトリミング処理を行うトリミング部を有することを特徴とする請求項1に記載の撮像装置。   Further, the signal processing control unit includes a trimming unit that performs a trimming process for cutting out a partial area from the panorama image generated by the panorama synthesis process so that the main subject is substantially at the center of the screen. The imaging device according to claim 1. 音声を電気信号に変換するマイクロフォンと、
上記パノラマ合成処理されたパノラマ画像を記する記部と、更に、有し、
上記信号処理制御部は、被写体からの音声信号が上記マイクロフォンによって取得される発音タイミングで上記連続撮影動作を開始させ、当該連続撮影動作によって得られた連続撮影画像をパノラマ合成処理して上記記録部に記録させることを特徴とする請求項1に記載の撮像装置。
A microphone that converts sound into an electrical signal;
A record unit that records the panoramic image which is the panorama stitching process, further comprises,
The signal processing control unit starts the continuous shooting operation at a sounding timing at which an audio signal from a subject is acquired by the microphone, performs panorama synthesis processing on the continuously shot image obtained by the continuous shooting operation, and records the recording unit. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is recorded .
上記発音タイミングの情報は上記記録部に記され、上記パノラマ合成処理は上記発音タイミングの情報に基づいて行われることを特徴とする請求項5に記載の撮像装置。 Information of the sound generation timing is recorded in the recording unit, the panorama composing process imaging apparatus according to claim 5, characterized in that it is performed based on information of the sound generation timing. 顔検出部を、さらに具備し、
上記トリミング部は、上記顔検出部による検出結果に基いて上記トリミング処理におけるトリミング領域を設定することを特徴とする請求項4に記載の撮像装置。
A face detection unit;
The trimming unit, the imaging apparatus according to claim 4, characterized in that to set the trimming area in the detection result based on Dzu have been the trimming process by the face detection unit.
JP2009286658A 2009-11-05 2009-12-17 Imaging device Active JP5495760B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009286658A JP5495760B2 (en) 2009-12-17 2009-12-17 Imaging device
US13/023,327 US9113064B2 (en) 2009-11-05 2011-02-08 Image pickup apparatus and image acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009286658A JP5495760B2 (en) 2009-12-17 2009-12-17 Imaging device

Publications (2)

Publication Number Publication Date
JP2011130180A JP2011130180A (en) 2011-06-30
JP5495760B2 true JP5495760B2 (en) 2014-05-21

Family

ID=44292279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009286658A Active JP5495760B2 (en) 2009-11-05 2009-12-17 Imaging device

Country Status (1)

Country Link
JP (1) JP5495760B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5991741B2 (en) * 2012-07-03 2016-09-14 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP6120071B2 (en) * 2013-06-26 2017-04-26 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program
JP6234333B2 (en) * 2014-06-25 2017-11-22 オリンパス株式会社 Imaging system and imaging method
CN104243819B (en) * 2014-08-29 2018-02-23 小米科技有限责任公司 Photo acquisition methods and device
JP6464934B2 (en) 2015-06-11 2019-02-06 富士通株式会社 Camera posture estimation apparatus, camera posture estimation method, and camera posture estimation program
JP6623578B2 (en) * 2015-06-30 2019-12-25 キヤノンマーケティングジャパン株式会社 Information processing apparatus, its processing method and program
JP2021019228A (en) * 2019-07-17 2021-02-15 キヤノン株式会社 Imaging apparatus, computer program, and recording medium
JP6810367B2 (en) * 2019-10-01 2021-01-06 キヤノンマーケティングジャパン株式会社 System, its processing method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311789A (en) * 2004-04-22 2005-11-04 Fuji Photo Film Co Ltd Digital camera
JP4892927B2 (en) * 2005-10-26 2012-03-07 ヤマハ株式会社 Imaging apparatus and communication conference system
JP2008067219A (en) * 2006-09-08 2008-03-21 Sony Corp Imaging apparatus and imaging method
JP4894708B2 (en) * 2007-10-02 2012-03-14 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2011130180A (en) 2011-06-30

Similar Documents

Publication Publication Date Title
JP5495760B2 (en) Imaging device
JP6678122B2 (en) Image processing apparatus, image processing method, and image processing program
JP4510713B2 (en) Digital camera
US9113064B2 (en) Image pickup apparatus and image acquisition method
US9338362B2 (en) Image capturing apparatus, image capturing control method and storage medium for capturing a subject to be recorded with intended timing
US10931855B2 (en) Imaging control based on change of control settings
JP5040959B2 (en) Imaging device
JP5819564B2 (en) Image determination apparatus, imaging apparatus, three-dimensional measurement apparatus, image determination method, and program
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
JP2005003719A (en) Photographing device
JP2005333396A (en) Imaging apparatus and method therefor
JP2010193031A (en) Photographic apparatus and method for controlling the same
JP6518409B2 (en) Imaging apparatus and imaging method
JP2005328497A (en) Image pickup apparatus and image pickup method
WO2015093083A1 (en) Image pickup apparatus and image pickup apparatus control method
JP2011237716A (en) Digital camera and method for controlling the same
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP2010109477A (en) Imaging apparatus, control method thereof and program
JP2014007516A (en) Photographing apparatus and photographing method
JP5750637B2 (en) Imaging device
JP5513078B2 (en) Imaging device
JP2010148028A (en) Observation instrument
JP6657929B2 (en) Portable device, system, control method, and program
JP5166966B2 (en) Camera device, composite image creation support device, composite image creation support method, and composite image creation support program
JP5860914B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140304

R151 Written notification of patent or utility model registration

Ref document number: 5495760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250