JP2011101155A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2011101155A
JP2011101155A JP2009253800A JP2009253800A JP2011101155A JP 2011101155 A JP2011101155 A JP 2011101155A JP 2009253800 A JP2009253800 A JP 2009253800A JP 2009253800 A JP2009253800 A JP 2009253800A JP 2011101155 A JP2011101155 A JP 2011101155A
Authority
JP
Japan
Prior art keywords
unit
camera
image
image data
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009253800A
Other languages
Japanese (ja)
Other versions
JP2011101155A5 (en
JP5513078B2 (en
Inventor
Kazuya Nakabe
和也 中部
Kimiharu Asami
公晴 浅見
Eriko Kagami
恵理子 鏡
Yuji Nakamura
祐史 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009253800A priority Critical patent/JP5513078B2/en
Priority to US13/023,327 priority patent/US9113064B2/en
Publication of JP2011101155A publication Critical patent/JP2011101155A/en
Publication of JP2011101155A5 publication Critical patent/JP2011101155A5/ja
Application granted granted Critical
Publication of JP5513078B2 publication Critical patent/JP5513078B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus which can perform release operation even in the state in which a release button cannot be pressed by hand. <P>SOLUTION: The imaging apparatus includes an acceleration detection part 6 for detecting acceleration in a first direction applied to a camera 10 and also detecting acceleration in a second direction different from the first direction. When it is determined that the detection output of the acceleration detection part 6 when a photographer 21 sticks his/her chest out has a peak value at timing t13 and is stabilized at timing t14 thereafter, the release operation is performed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置に関し、詳しくは、ファインダを通して構図を決めることなく行うノーファインダ撮影を可能にする撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly, to an imaging apparatus that enables no-finder imaging performed without determining a composition through a finder.

近年、カメラのデジタル化が進むことにより、内部機構のレイアウトの自由度が向上し、小型化や携帯性が改善されてきている。このため、ウエラブルで撮影できるカメラデザインが可能となってきている。例えば、薄型にすることによりポケットに入れたり、軽量化することによってクリップで留めたり、ストラップでアクセサリ代わりに保持する方法等が可能になってきている。   In recent years, with the progress of digitalization of cameras, the degree of freedom in layout of internal mechanisms has been improved, and miniaturization and portability have been improved. For this reason, it has become possible to design a camera that can be photographed wearable. For example, it has become possible to put it in a pocket by making it thin, fasten it with a clip by reducing its weight, or hold it in place of an accessory with a strap.

また、アウトドア等では両手がふさがっている場合が多く、ウエラブルで撮影を行いたい場合がある。両手が空いている通常の撮影の場合には、図19(a)に示すように、カメラ100の左右を両手で把持し、背面に設けられた表示部127を観察しながら、構図を決めて撮影することができる。この場合、両手でカメラ100をしっかり保持しており、撮影者の意図する構図になったタイミングでレリーズ釦を操作し、撮影を行うことができる。しかし、図19(b)に示すように、カメラ100がポケット110に入れられており、かつ両手が塞がっている状態では、カメラ100のシャッタ釦に触れにくく、シャッタレリーズを行うことができない。   Also, in outdoor situations, both hands are often occupied, and there are cases where it is desired to perform wearable photography. In the case of normal shooting where both hands are free, as shown in FIG. 19A, the left and right sides of the camera 100 are held with both hands, and the composition is determined while observing the display unit 127 provided on the back surface. You can shoot. In this case, the camera 100 can be held firmly with both hands, and the release button can be operated at the timing when the composition intended by the photographer is achieved, and photographing can be performed. However, as shown in FIG. 19B, when the camera 100 is in the pocket 110 and both hands are closed, it is difficult to touch the shutter button of the camera 100 and shutter release cannot be performed.

特許文献1には、被写体が所望の方向を向いた際に撮影を行う撮像装置が開示されている。この特許文献1に開示の撮像装置は、被写体の顔が向いたことを検出した際に、自動的に撮影動作を行うことから、被写体として自分自身を撮影する自分撮りモードに適している。また、特許文献2には、左右にレリーズ釦を備え、タッチパネルによっていずれのレリーズ釦を有効にするかを設定できるデジタルカメラが開示されている。自分撮りを行う際に、左右いずれかのレリーズ釦を有効にすることが示唆されている。   Patent Document 1 discloses an imaging apparatus that performs imaging when a subject faces a desired direction. The image pickup apparatus disclosed in Patent Document 1 is suitable for a self-shooting mode in which the subject is automatically photographed when it is detected that the face of the subject is facing, and the subject is photographed as a subject. Further, Patent Document 2 discloses a digital camera that has release buttons on the left and right sides and can set which release button is to be activated by a touch panel. It has been suggested that one of the left and right release buttons is enabled when taking a selfie.

特開2003−224761号公報Japanese Patent Laid-Open No. 2003-224761 特開2007−036492号公報JP 2007-036492 A

上述した特許文献には、被写体自身を撮影する自分撮りについて開示されているが、ファインダによって被写体を確認せずに行う撮影(以下、「ノーファインダ撮影」という)については、何ら提案されていない。さらに、ノーファインダ撮影を行うにあたって、両手が塞がっている等、手でレリーズ動作を行うことができない場合についてまで配慮した撮像装置は何ら開示されていない。   The above-described patent document discloses self-portrait for photographing the subject itself, but does not propose any photographing (hereinafter referred to as “no-finder photographing”) performed without confirming the subject by the finder. In addition, no imaging device that takes into account the case where the release operation cannot be performed by hand, such as when both hands are closed, is disclosed.

本発明は、このような事情を鑑みてなされたものであり、レリーズ釦を手で押すことができない状態であっても、レリーズ動作を可能とする撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging apparatus that can perform a release operation even when the release button cannot be pressed by hand.

上記目的を達成するため第1の発明に係わる撮像装置は、被写体像を光電変換し画像データを出力する撮像部と、上記画像データを記録する記録部と、当該撮像装置に加えられた第1の方向の加速度を検出する第1加速度検出部と、上記第1の方向とは異なる第2の方向の加速度を検出する第2加速度検出部と、上記第1及び第2の加速度の変化に基づいて、上記画像データの記録を制御する記録制御部と、を有する。   In order to achieve the above object, an imaging apparatus according to a first aspect of the present invention includes an imaging unit that photoelectrically converts a subject image and outputs image data, a recording unit that records the image data, and a first unit added to the imaging apparatus. Based on a change in the first and second accelerations, a first acceleration detection unit that detects accelerations in the direction of the second acceleration, a second acceleration detection unit that detects accelerations in a second direction different from the first direction, and And a recording control unit for controlling the recording of the image data.

第2の発明に係わる撮像装置は、上記第1の発明において、上記第1の加速度は、上記撮像装置に加えられた重力方向に逆らう加速度であり、上記第2の加速度は、上記撮像装置の上記撮像部が上方に向けられる加速度である。
第3の発明に係わる撮像装置は、上記第1の発明において、上記撮像部の裏面側に設けられ、上記画像データに基づいて上記被写体像を表示する表示部と、上記表示部近傍が覆われた状態であるか否かを判定する検出部と、を有し、上記記録制御部は、上記検出部によって上記表示部の近傍が覆われた状態であると判定した場合に、上記画像データの記録を行う。
In the imaging device according to a second invention, in the first invention, the first acceleration is an acceleration against the direction of gravity applied to the imaging device, and the second acceleration is a value of the imaging device. This is the acceleration at which the imaging unit is directed upward.
An imaging apparatus according to a third invention is the imaging apparatus according to the first invention, provided on the back side of the imaging unit, and the display unit for displaying the subject image based on the image data and the vicinity of the display unit are covered. A detection unit that determines whether or not the display unit is in a state in which the display control unit detects that the vicinity of the display unit is covered by the detection unit. Make a record.

第4の発明に係わる撮像装置は、上記第3の発明において、上記検出部は、上記表示部の近傍に配置された受光部を有し、上記表示部から照射された光を上記受光部による受光状態に基づいて、上記表示部の近傍が覆われた状態であるか否かを判定する。
第5の発明に係わる撮像装置は、上記第4の発明において、上記検出部は、上記表示部上に設けられたタッチパネルを有し、上記タッチパネルが上記光を照射する。
第6の発明に係わる撮像装置は、上記第1の発明において、上記画像データから円形の画像データに変換する画像処理部を有し、上記記録制御部は、上記画像処理部によって処理された円形の画像データを記録する。
In the imaging device according to a fourth invention, in the third invention, the detection unit has a light receiving unit disposed in the vicinity of the display unit, and the light irradiated from the display unit is transmitted by the light receiving unit. Based on the light receiving state, it is determined whether or not the vicinity of the display unit is covered.
In the imaging device according to a fifth aspect of the present invention, in the fourth aspect, the detection unit includes a touch panel provided on the display unit, and the touch panel irradiates the light.
An image pickup apparatus according to a sixth invention has an image processing unit for converting the image data into circular image data in the first invention, and the recording control unit is a circular processed by the image processing unit. Record image data.

第7の発明に係わる撮像装置は、被写体像を光電変換し画像データを出力する撮像部と、上記画像データを記録する記録部と、当該撮像装置に加えられた動きを検出する動き検出部と、上記動き検出部の検出出力に基づいて、撮影者が胸をそらす動作を検出した後に、その状態が安定していた場合に、上記画像データの記録制御を行う制御部と、を有する。   An imaging device according to a seventh aspect of the present invention is an imaging unit that photoelectrically converts a subject image and outputs image data, a recording unit that records the image data, and a motion detection unit that detects a motion applied to the imaging device. And a control unit that controls the recording of the image data when the state is stable after detecting the movement of the photographer turning the chest based on the detection output of the motion detection unit.

第8の発明に係わる撮像装置は、上記第7の発明において、当該撮像装置の背面が覆われていることを判定する判定部を有し、上記制御部は、上記判定部によって当該撮像装置の背面が覆われている際に、上記動き検出部の検出出力に基づいて、撮影者が胸をそらす動作を検出した後に、その状態が安定していた場合に、上記画像データの記録制御を行う。   An imaging apparatus according to an eighth aspect of the present invention includes a determination unit that determines that the back surface of the imaging apparatus is covered in the seventh aspect of the invention. When the back surface is covered, the image data recording control is performed when the state is stable after the photographer detects the action of turning the chest based on the detection output of the motion detection unit. .

本発明によれば、レリーズ釦を手で押すことができない状態であっても、レリーズ動作を可能とする撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus that enables a release operation even when the release button cannot be pressed by hand.

本発明の第1実施形態に係わるカメラの主として電気的構成を示すブロック図である。It is a block diagram which shows mainly an electrical structure of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラのタッチパネルの構造と使用状態を示す図であり、(a)はタッチパネルに指が近付いているときのタッチパネルの断面図であり、(b)はタッチパネルの表面に指が密着したときのタッチパネルの断面図であり、(c)はカメラがポケットに入れられたときのタッチパネルの断面図である。It is a figure which shows the structure and use condition of the touch panel of the camera concerning 1st Embodiment of this invention, (a) is sectional drawing of a touch panel when a finger approaches the touch panel, (b) is the surface of a touch panel It is sectional drawing of a touch panel when a finger | toe closely_contact | adheres, (c) is sectional drawing of a touch panel when a camera is put in the pocket. 本発明の第1実施形態に係わるカメラの加速度検知部の構造と作用を示す図であり、(a)は加速度センサの構造を示す透視斜視図であり、(b)は加速度センサのカメラ内における配置を示す斜視図であり、(c)は加速度センサの信号出力を示すグラフである。It is a figure which shows the structure and effect | action of the acceleration detection part of the camera concerning 1st Embodiment of this invention, (a) is a perspective view which shows the structure of an acceleration sensor, (b) is in the camera of an acceleration sensor. It is a perspective view which shows arrangement | positioning, (c) is a graph which shows the signal output of an acceleration sensor. 本発明の第1実施形態に係わるカメラにおいて、ノーファインダ撮影の様子を示す図であり、(a)はカメラの外観図であり、(b)〜(c)はカメラをノーファインダ状態で携帯している様子を示す図である。FIG. 2 is a view showing a state of no-finder shooting in the camera according to the first embodiment of the present invention, (a) is an external view of the camera, and (b) to (c) are carried in a no-finder state. FIG. 本発明の第1実施形態に係わるカメラにおいて、ノーファインダ撮影の様子を示す図であり、(a)は撮影者がカメラを首から下げている様子を示しており、(b)はカメラを首から下げた状態における撮影範囲を示す図である。2A and 2B are diagrams illustrating a state of no-finder shooting in the camera according to the first embodiment of the present invention, in which FIG. 1A illustrates a state where a photographer has lowered the camera from the neck, and FIG. It is a figure which shows the imaging | photography range in the state lowered | hung from. 本発明の第1実施形態におけるカメラにおいて、ノーファインダ撮影の様子を示す図であり、(a)はノーファインダ撮影でレリーズを行うときの動作を示し、(b)(c)はカメラにかかる重力方向を示し、特に、(b)は撮影準備状態の重力方向を、(c)は撮影時の重力方向を示す図である。FIG. 4 is a diagram showing a state of no-finder shooting in the camera according to the first embodiment of the present invention, where (a) shows an operation when releasing with no-finder shooting, and (b) and (c) are gravity applied to the camera. In particular, (b) shows the direction of gravity in the shooting preparation state, and (c) shows the direction of gravity during shooting. 本発明の第1実施形態におけるカメラにおいて、撮影者がノーファインダ状態でカメラを持っている際の動きと、加速度センサの出力変化を示す図である。In the camera in 1st Embodiment of this invention, it is a figure which shows the motion at the time of a photographer holding a camera in a no finder state, and the output change of an acceleration sensor. 本発明の第1実施形態におけるカメラにおいて、クリップを有する場合のノーファインダ撮影を示す図であって、(a)はクリップを有するカメラの外観図であり、(b)(c)はこのカメラを胸ポケットに入れた状態を示す図である。In the camera in 1st Embodiment of this invention, it is a figure which shows no-finder imaging | photography in the case of having a clip, Comprising: (a) is an external view of a camera which has a clip, (b) (c) is this camera. It is a figure which shows the state put in the breast pocket. 本発明の第1実施形態におけるカメラにおいて、ノーファインダ状態か否かの判定を説明する図であって、(a)は通常撮影の場合を示し、(b)はノーファインダ状態を示す図である。In the camera according to the first embodiment of the present invention, it is a diagram for explaining whether or not the camera is in a no-finder state, where (a) shows a case of normal shooting and (b) shows a no-finder state. . 本発明の第1実施形態に係わるカメラのカメラ制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera control of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラのノーファインダ判定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the no finder determination of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラの加速度条件の判定動作を示すフローチャートである。It is a flowchart which shows the determination operation | movement of the acceleration condition of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラの画像再生の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image reproduction of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラにおいて、撮影時に画像データを円形にトリミングして記録する様子を説明する図であり、(a)(b)は従来における記録方法であり、(c)(d)は本実施形態における記録方法である。FIGS. 3A and 3B are diagrams for explaining a state in which image data is trimmed and recorded in a circle at the time of shooting in the camera according to the first embodiment of the present invention, FIGS. d) is a recording method in the present embodiment. 本発明の第1実施形態に係わるカメラにおいて、撮影画像から円形画像を生成し、さらに傾き補正を行う様子を示す図である。It is a figure which shows a mode that the camera concerning 1st Embodiment of this invention produces | generates a circular image from a picked-up image, and also performs inclination correction. 本発明の第1実施形態に係わるカメラにおいて、再生時における再生画像を示す図である。It is a figure which shows the reproduction | regeneration image at the time of reproduction | regeneration in the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラにおいて、再生時にサムネイル表示を行った際の再生画像を示す図である。It is a figure which shows the reproduction | regeneration image at the time of performing the thumbnail display at the time of reproduction | regeneration in the camera concerning 1st Embodiment of this invention. 本発明の第2実施形態に係わるカメラのカメラ制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera control of the camera concerning 2nd Embodiment of this invention. 従来におけるカメラ撮影を説明する図である。It is a figure explaining the camera photography in the past.

以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。本発明の好ましい実施形態に係わるカメラ10は、デジタルカメラであり、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にライブビュー表示する。通常撮影時には、撮影者はライブビュー表示を観察することにより、構図やシャッタチャンスを決定する。ノーファインダ撮影時には、撮影者が胸をそらす動作を行うと、レリーズ動作を行う。レリーズがなされると、画像データを記録媒体に記録し、このとき併せて撮影日時、撮影モード等の情報を記録する。また、記録媒体に記録した撮影画像は、再生モードを選択すると、表示部に再生表示することができる。   Hereinafter, a preferred embodiment will be described using a camera to which the present invention is applied according to the drawings. A camera 10 according to a preferred embodiment of the present invention is a digital camera, has an imaging unit, converts a subject image into image data by the imaging unit, and converts the subject image into a main body based on the converted image data. Live view is displayed on the display unit placed on the back of the camera. During normal shooting, the photographer determines the composition and photo opportunity by observing the live view display. At the time of no-finder shooting, a release operation is performed when the photographer performs an action of turning his / her chest. When the release is performed, the image data is recorded on the recording medium, and information such as the shooting date and time and the shooting mode is also recorded. The captured image recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.

図1に示すブロック図を用いて、本発明の第1実施形態に係わるカメラ10の構成について説明する。カメラ10は、画像処理及び制御部1、撮像部2、顔検出部3、記録部4、仮記録部4a、4b、加速度検知部6、操作部7、表示部8、タッチパネル8b、時計部9、通信部12等から構成される。   The configuration of the camera 10 according to the first embodiment of the present invention will be described using the block diagram shown in FIG. The camera 10 includes an image processing and control unit 1, an imaging unit 2, a face detection unit 3, a recording unit 4, temporary recording units 4a and 4b, an acceleration detection unit 6, an operation unit 7, a display unit 8, a touch panel 8b, and a clock unit 9. The communication unit 12 is configured.

撮像部2は、ズーム機能を有する撮影レンズ(ズームレンズ)や、シャッタ・絞り等の露出制御部、撮像素子、撮像素子の駆動及び読出回路等を含み、撮影レンズによって形成された被写体像を撮像素子によって画像データに変換し、これを出力する。なお、本明細書においては、画像データは、撮像素子から出力されるデータに限らず、後述する画像処理及び制御部1によって処理された画像データ、および記録部4に記録されている画像データについても使用する。   The imaging unit 2 includes a photographing lens (zoom lens) having a zoom function, an exposure control unit such as a shutter / aperture, an imaging element, a driving and reading circuit for the imaging element, and the like, and captures an object image formed by the photographing lens. It is converted into image data by the element and output. In this specification, the image data is not limited to data output from the image sensor, but is image data processed by the image processing and control unit 1 described later and image data recorded in the recording unit 4. Also used.

画像処理及び制御部1は、CPU(Central Processing Unit:中央処理装置)およびその周辺のハードウエア回路によって構成され、不図示の記憶部に記憶されているプログラムに従ってカメラ10の全体のシーケンスを制御する。画像処理及び制御部1は、表示制御部1b、画像圧縮部1c、画像加工部1d、トリミング部1eを含む。   The image processing and control unit 1 includes a CPU (Central Processing Unit) and peripheral hardware circuits, and controls the entire sequence of the camera 10 according to a program stored in a storage unit (not shown). . The image processing and control unit 1 includes a display control unit 1b, an image compression unit 1c, an image processing unit 1d, and a trimming unit 1e.

表示制御部1bは、後述する表示部8に、撮像部2からの画像データに基づいて行うライブビュー表示を制御し、また、記録部4に記録されている画像データを読み出し、画像再生の表示の制御等を行う。画像圧縮部1cは、仮記録部4a、4bに一時記憶された静止画や動画の画像データをJPEGやTIFF等の圧縮方式により圧縮し、また表示等のために伸張する。なお、画像圧縮はJPEGやTIFFに限らず、他の圧縮方式も適用できる。   The display control unit 1b controls the live view display performed based on the image data from the imaging unit 2 on the display unit 8 to be described later, reads out the image data recorded in the recording unit 4, and displays image reproduction. Control. The image compression unit 1c compresses still image or moving image image data temporarily stored in the temporary recording units 4a and 4b by a compression method such as JPEG or TIFF, and expands the data for display or the like. Note that image compression is not limited to JPEG or TIFF, and other compression methods can be applied.

トリミング部1eは、画像データの一部を切り出す画像処理を行う。トリミング処理にあたっては、後述する仮記録部4a、4bに一時記憶した画像データから所定形状に画像を切り出し、仮記録部4a、4bに仮記録する。このときの切出し形状としては、矩形に限らず円形等が可能である。後述するように、本実施形態においては、ノーファインダ撮影の際には、画像データから円形の画像データを切り出す。   The trimming unit 1e performs image processing for cutting out part of the image data. In the trimming process, an image is cut out in a predetermined shape from image data temporarily stored in temporary recording units 4a and 4b, which will be described later, and temporarily recorded in the temporary recording units 4a and 4b. The cutout shape at this time is not limited to a rectangle, but may be a circle or the like. As will be described later, in the present embodiment, circular image data is cut out from image data at the time of no-finder shooting.

画像加工部1dは、トリミング以外の種々の画像加工を行い、例えば、トリミング部1eによって切り出された画像データを、後述する加速度検知部6によって検出された傾き値に基づいて、画像の傾きの補正を行う。また、画像を再生表示する際に、カメラ10の姿勢に応じて、画像の傾きの補正を行う。さらに、サムネイル画像を表示する場合、指示に応じて、画面上の各円形画像について、各画像の鉛直軸が表示部8の画面の中央から外側に向かって放射状に並ぶように、各円形画像を回転させて表示する。その他、種々の画像処理を行う。   The image processing unit 1d performs various image processing other than trimming. For example, the image data cut out by the trimming unit 1e is corrected based on the inclination value detected by the acceleration detection unit 6 described later. I do. Further, when the image is reproduced and displayed, the inclination of the image is corrected according to the posture of the camera 10. Further, when displaying thumbnail images, each circular image on the screen is displayed according to an instruction so that the vertical axis of each image is arranged radially from the center of the screen of the display unit 8 to the outside. Rotate and display. In addition, various image processing is performed.

顔検出部3は、撮像部2によって取得された画像を入力し、画像の中に顔の部分が含まれているか、また含まれていた場合には、その位置や大きさを検出し、検知結果を画像処理及び制御部1に送信する。   The face detection unit 3 inputs the image acquired by the imaging unit 2, detects whether the face part is included in the image, and if it is included, detects its position and size, and detects The result is transmitted to the image processing and control unit 1.

記録部4は、カメラ本体に脱着自在な記録媒体から構成される。記録部4には、撮像部2から出力され、画像処理及び制御部1によって画像処理された画像データが記録される。また、仮記録部4a、4bは、SDRAM等の一時記憶部から構成される。この仮記録部4a、4bは、撮像部2から出力される画像データの一時記憶に用いられる。後述する円形画像を記録するために、仮記憶部4aと仮記憶部4bに割り当てられている。   The recording unit 4 is composed of a recording medium that is detachable from the camera body. The recording unit 4 records image data output from the imaging unit 2 and subjected to image processing by the image processing and control unit 1. The temporary recording units 4a and 4b are composed of a temporary storage unit such as an SDRAM. The temporary recording units 4a and 4b are used for temporary storage of image data output from the imaging unit 2. In order to record a circular image, which will be described later, it is allocated to the temporary storage unit 4a and the temporary storage unit 4b.

加速度検知部6は、カメラ本体の内部に配置された複数の加速度センサとそのドライバ等から構成され、カメラの姿勢やカメラに加えられた振動を検出する。加速度検知部6の検出結果は、画像処理及び制御部1に出力され、防振動作に用いられると共に、ノーファインダ状態を検出する手段ともなる。また、加速度検知部6の検知出力を用いて、撮影者が胸をそらす動作を行ったか否かの判定も行う。この胸そらし動作を行うと、本実施形態においては、レリーズ動作を実行する。加速度検知部6の詳細については図3を用いて後述する。   The acceleration detection unit 6 includes a plurality of acceleration sensors disposed inside the camera body and its driver, and detects the posture of the camera and vibration applied to the camera. The detection result of the acceleration detection unit 6 is output to the image processing and control unit 1 and used for the image stabilization operation, and also serves as a means for detecting the no-finder state. Further, it is also determined whether or not the photographer has performed an action of turning his / her chest using the detection output of the acceleration detection unit 6. When this chest distraction operation is performed, a release operation is performed in the present embodiment. Details of the acceleration detector 6 will be described later with reference to FIG.

操作部7は、カメラ10の外装に配置されたレリーズ釦、電源釦、再生釦、ズーミングのためのテレ・ズーム(TW)釦、メニュー釦等の各種操作部材からなり、撮影者の指示を制御部11に入力する。なお、ノーファインダ撮影は、メニュー釦によって設定されるメニュー画面において、直接設定し、また解除することができる。ノーファインダ撮影を一定時間継続しておきたい場合には、直接設定した方が、検出ミスのおそれがないからである。ノーファインダ撮影専用カメラの場合には、ノーファインダ撮影の設定を省略できるので、ノーファインダ撮影設定のための操作部材を具備しなくてもよい。なお、ノーファインダ撮影を手動で設定する以外にも、ノーファインダ撮影を自動設定するようにしてもよい。自動設定としては、所定の方向、例えば、ストラップ108(図4参照)と反対方向に重力がかかった状態になったことを検出した際に設定するようにしてもよい。あるいは、カメラ10が縦位置や横位置のような定位置に構えられていないことを検出した際に自動設定してもよい。さらに、カメラ10がホールディングされているか否かを検出する保持検出スイッチを設け、この保持検出スイッチの検出結果に応じて自動設定してもよい。これ以外にも、後述する図10のS11および図12のノーファインダ判定と同様の判定を行い、この判定結果に基づいて、自動設定してもよい。   The operation unit 7 includes various operation members such as a release button, a power button, a playback button, a tele zoom (TW) button for zooming, and a menu button arranged on the exterior of the camera 10, and controls the photographer's instructions. Input to section 11. Note that no-finder shooting can be set directly or canceled on a menu screen set by a menu button. This is because when no-finder shooting is desired to be continued for a certain period of time, setting directly does not cause a detection error. In the case of a camera dedicated to no-finder shooting, setting for no-finder shooting can be omitted, and therefore an operation member for setting for no-finder shooting need not be provided. In addition to manually setting no-finder shooting, no-finder shooting may be set automatically. The automatic setting may be set when it is detected that gravity is applied in a predetermined direction, for example, a direction opposite to the strap 108 (see FIG. 4). Alternatively, it may be automatically set when it is detected that the camera 10 is not held at a fixed position such as a vertical position or a horizontal position. Furthermore, a holding detection switch for detecting whether or not the camera 10 is held may be provided and automatically set according to the detection result of the holding detection switch. In addition to this, determination similar to S11 in FIG. 10 and no-finder determination in FIG. 12 described later may be performed, and automatic setting may be performed based on the determination result.

表示部8は、画像処理及び制御部1の表示部制御部1bに接続されており、本体の背面等に配置された液晶モニタや有機EL等のディスプレイを有し、表示制御部1bによる制御により画面に所定の画像が表示される。表示部8の前面には、タッチパネル8bが一体に構成されている。タッチパネル8bは、表示部8の画面をユーザがタッチすると、タッチ位置に応じた信号を、画像処理及び制御部1に出力し、画像処理及び制御部1はタッチ位置に基づいて種々の処理を行う。また、ノーファインダ状態を検出する手段ともなる。タッチパネル8bの詳細については図2を用いて後述する。   The display unit 8 is connected to the display unit control unit 1b of the image processing and control unit 1 and has a display such as a liquid crystal monitor or an organic EL arranged on the back surface of the main body. The display unit 8 is controlled by the display control unit 1b. A predetermined image is displayed on the screen. On the front surface of the display unit 8, a touch panel 8b is integrally formed. When the user touches the screen of the display unit 8, the touch panel 8 b outputs a signal corresponding to the touch position to the image processing and control unit 1, and the image processing and control unit 1 performs various processes based on the touch position. . It also serves as means for detecting the no-finder state. Details of the touch panel 8b will be described later with reference to FIG.

時計部9は、計時機能を有し、また日時情報を出力する。撮影時には、この日時情報が画像データと共に記録部4の記録媒体に記録される。通信部12は、USB端子を介して外部と通信を行う。通信方式としては、有線通信以外にも無線通信でも赤外線通信でも勿論かまわない。   The clock unit 9 has a time measuring function and outputs date / time information. At the time of shooting, this date / time information is recorded on the recording medium of the recording unit 4 together with the image data. The communication unit 12 communicates with the outside via a USB terminal. As a communication method, of course, wireless communication or infrared communication other than wired communication may be used.

次に、タッチパネル8bの構成と、その動作について、図2を用いて説明する。前述したように、タッチパネル8bは、表示部8の表示面上でのユーザのタッチ位置を検出すると共に、カメラ10の背面が覆われた状態であるか否かを判定する。   Next, the configuration and operation of the touch panel 8b will be described with reference to FIG. As described above, the touch panel 8b detects the touch position of the user on the display surface of the display unit 8 and determines whether or not the back surface of the camera 10 is covered.

本実施形態におけるタッチパネル8bは、表示部8の液晶部内に光センサ8cをマトリックス状に所定間隔で2次元配置している。また、タッチパネル8bの背面側には、バックライト8dを配置しており、このバックライト8dから発光光41aが表示面側に照射される。この発光光41aが物体に照射し、その反射光41bを光センサ8cで受光すると、その受光位置に基づいて、タッチ位置を検出することができる。したがって、本実施形態においては、タッチパネル8bは、表示部8を構成する液晶パネルの上に配置されるのではなく、液晶パネル内に一体に構成される。   In the touch panel 8b in the present embodiment, the optical sensors 8c are two-dimensionally arranged in a matrix at predetermined intervals in the liquid crystal unit of the display unit 8. Further, a backlight 8d is disposed on the back side of the touch panel 8b, and emitted light 41a is emitted from the backlight 8d to the display surface side. When the emitted light 41a irradiates an object and the reflected light 41b is received by the optical sensor 8c, the touch position can be detected based on the light receiving position. Therefore, in the present embodiment, the touch panel 8b is not disposed on the liquid crystal panel constituting the display unit 8, but is integrally configured in the liquid crystal panel.

図2(a)はユーザの指43がタッチパネル8bに接近している場合、また図2(b)はユーザの指43がタッチパネル8bに密着した場合における、タッチパネル8bの模式的な断面図である。バックライト8dからの発光光41aは、ユーザの指43に反射されない場合には、図2(a)に示すように、そのまま外部に発散していく。また、ユーザの指41がタッチパネル8bより少し離れているが、近接している場合には、図2(a)に示すように、発光光41bは指43で反射され、その反射光の一部は光センサ8cによって受光され検出信号を反射検出部11aに出力する。このとき検出した光センサ8cの位置に基づいて、タッチ位置を検出することができる。また、複数の位置にタッチした場合には、複数の光センサ8cが反応するので、反応した光センサ8cの位置を検出することにより、複数のタッチ位置を検出することができる。   2A is a schematic cross-sectional view of the touch panel 8b when the user's finger 43 is close to the touch panel 8b, and FIG. 2B is a schematic view of the touch panel 8b when the user's finger 43 is in close contact with the touch panel 8b. . When the emitted light 41a from the backlight 8d is not reflected by the user's finger 43, as shown in FIG. Further, when the user's finger 41 is slightly away from the touch panel 8b, but is close to the user's finger 41, the emitted light 41b is reflected by the finger 43 and a part of the reflected light as shown in FIG. Is received by the optical sensor 8c and outputs a detection signal to the reflection detector 11a. The touch position can be detected based on the position of the optical sensor 8c detected at this time. In addition, when a plurality of positions are touched, the plurality of optical sensors 8c react, so that the plurality of touch positions can be detected by detecting the position of the reacted optical sensor 8c.

さらに、ユーザの指43がタッチパネル8bに近づくと、図2(b)に示すように、バックライト8dからの発光光41aが、指43によって反射され、光センサ8cによって検出される。   Further, when the user's finger 43 approaches the touch panel 8b, the emitted light 41a from the backlight 8d is reflected by the finger 43 and detected by the optical sensor 8c, as shown in FIG. 2 (b).

また、タッチパネル8bは、指43によるタッチ以外にも、カメラ10が首に掛けられる等によって、タッチパネル8bの全面、言い換えると、カメラ10の背面側の全部が服45等によって覆われる場合も検出することができる。図2(c)は、カメラ10が首に掛けられた時の様子を示している。この場合には、服45によって、バックライト8dからの発光光41aが、略全面に亘って反射される。このため、略全部の光センサ8cが反射光41bを受光し、検出信号を画像処理及び制御部1に出力する。従って、略全部の光センサ14が反射光41bを検出した場合には、服45等によってカメラ10の背面側が覆われている可能性が高いと判定できる。なお、本実施形態においては、タッチパネル8bによって、カメラ10の背面側が覆われたことを検出するが、タッチパネル8b以外の手段によってこのことを検出しても良い。   In addition to touching with the finger 43, the touch panel 8b also detects a case where the entire surface of the touch panel 8b, in other words, the entire back side of the camera 10 is covered with clothes 45 or the like when the camera 10 is put on the neck. be able to. FIG. 2C shows a state when the camera 10 is hung on the neck. In this case, the emitted light 41a from the backlight 8d is reflected by the clothes 45 over substantially the entire surface. For this reason, almost all the optical sensors 8 c receive the reflected light 41 b and output detection signals to the image processing and control unit 1. Therefore, when almost all the optical sensors 14 detect the reflected light 41b, it can be determined that there is a high possibility that the back side of the camera 10 is covered with the clothing 45 or the like. In the present embodiment, it is detected that the back side of the camera 10 is covered by the touch panel 8b, but this may be detected by means other than the touch panel 8b.

次に、加速度検知部6の構成と、その動作について、図3を用いて説明する。前述したように、加速度検知部6を構成する加速度センサは、カメラ10に加えられた振動を検出すると共に、撮影者が胸そらし動作を行ったか否か、およびカメラ10がノーファインダ状態特有の姿勢にあるか否かを判定する。   Next, the configuration and operation of the acceleration detector 6 will be described with reference to FIG. As described above, the acceleration sensor that constitutes the acceleration detection unit 6 detects vibration applied to the camera 10, determines whether or not the photographer has performed a chest-turning operation, and indicates that the camera 10 has a posture unique to the no-finder state. It is determined whether or not.

加速度検知部6の加速度センサは、図3(a)に示すように、チップ表面の固定金属部62a、62bと、架橋された金属部61から構成されており、例えばMEMSプロセス等によって製造される。金属部61は、4つの基点61aとこの基点61aによって保持されるH形状をした架橋部61bと、固定金属部62a、62bとはす向かいに対向する可動部61cとから構成される。加速度センサは、可動部61cと固定金属部62a、62bで構成されるコンデンサの静電容量を検知する。   As shown in FIG. 3A, the acceleration sensor of the acceleration detection unit 6 includes fixed metal portions 62a and 62b on the chip surface and a cross-linked metal portion 61, and is manufactured by, for example, a MEMS process. . The metal part 61 includes four base points 61a, an H-shaped bridging part 61b held by the base point 61a, and a movable part 61c opposed to the fixed metal parts 62a and 62b. The acceleration sensor detects the capacitance of a capacitor composed of the movable part 61c and the fixed metal parts 62a and 62b.

カメラ10の姿勢を変えると、重力の加わる方向が変化し、そのため可動部61cがたわんで変化し、コンデンサの静電容量が変化する。また、図3(a)中の矢印の方向に金属部61が移動すると、コンデンサの静電容量が変化することから、この変化量を求めることにより、矢印方向の加速度αを検知することができる。   When the posture of the camera 10 is changed, the direction in which gravity is applied is changed, so that the movable portion 61c is bent and changed, and the capacitance of the capacitor is changed. Further, when the metal part 61 moves in the direction of the arrow in FIG. 3A, the capacitance of the capacitor changes. Therefore, by obtaining this amount of change, the acceleration α in the direction of the arrow can be detected. .

カメラ10を動かすと、そのときの加速度αがプラスであるかマイナスであるかに基づいて、どちらの方向に動かされたのかが分かる。本実施形態においては、上下方向に動かされたか、左右(X方向)に動かされたか、前後方向(Z方向)に動かされたかを、検出できるようするために、カメラ10内に加速度センサを、図3(b)に示すように、3つの方向に沿ってそれぞれ配置している。   When the camera 10 is moved, it can be determined in which direction it is moved based on whether the acceleration α at that time is positive or negative. In the present embodiment, an acceleration sensor is provided in the camera 10 so that it can be detected whether it is moved in the vertical direction, moved in the left-right direction (X direction), or moved in the front-rear direction (Z direction). As shown in FIG.3 (b), it has arrange | positioned along three directions, respectively.

図3(b)は、カメラ10の背面側からみた透視斜視図であり、加速度センサ150x、150y、150zをカメラ10のボディ内の3か所に配置し、XYZ軸の3方向の加速度(αx、αy、αz)を検出する例を示す。カメラ10の背面には表示部8が設けられており、カメラ10の内部には、加速度センサ150x、150y、150zが配置されている。加速度センサ150xは、カメラ10の上部に幅方向(カメラの長手方向)の加速度αxを検出する向きに配置されている。加速度センサ150yは、カメラ10の背面側から見て左端部に上下方向の加速度αyを検出する向きに配置されている。加速度センサ150zは、カメラ10の底部に厚さ方向(撮像部2の撮影レンズの光軸方向と同じ方向)の加速度αzを検出する向きに配置されている。   FIG. 3B is a perspective view seen from the back side of the camera 10, and the acceleration sensors 150x, 150y, and 150z are arranged at three locations in the body of the camera 10, and accelerations in three directions of the XYZ axes (αx , Αy, αz) is shown. A display unit 8 is provided on the rear surface of the camera 10, and acceleration sensors 150 x, 150 y, and 150 z are arranged inside the camera 10. The acceleration sensor 150x is arranged on the upper part of the camera 10 in a direction for detecting the acceleration αx in the width direction (longitudinal direction of the camera). The acceleration sensor 150y is arranged in a direction to detect the acceleration αy in the vertical direction at the left end as viewed from the back side of the camera 10. The acceleration sensor 150z is arranged on the bottom of the camera 10 in a direction to detect the acceleration αz in the thickness direction (the same direction as the optical axis direction of the photographing lens of the imaging unit 2).

加速度センサは、図3(b)に示す各方向にカメラ10の移動が有った場合には、図3(c)に示すような信号を出力する。すなわち、時刻t1にて、一方向に移動すると、図示するように定常状態よりはマイナス側にパルス状に信号が変化し、時刻t2にて、他方向に移動すると、図示するように定常状態よりはプラス側にパルス状に信号が変化する。   When the camera 10 moves in each direction shown in FIG. 3B, the acceleration sensor outputs a signal as shown in FIG. That is, when moving in one direction at time t1, the signal changes in a pulse shape to the minus side from the steady state as shown in the figure, and when moving in the other direction at time t2, the signal changes from the steady state as shown in the figure. The signal changes in a pulse shape to the plus side.

次に、本実施形態に係わるカメラ10を撮影者の首に掛け、ノーファインダ撮影を行う場合の動作と、そのときの加速度検知部6の検知信号について、図4ないし図7を用いて説明する。図4は、カメラ10を撮影者21の首に掛けている様子を示す。このカメラ10は、図4(a)に示すように、カメラ10のサイド側の2か所に、ストラップ108を通すためのストラップピン104が設けられている。   Next, the operation when the camera 10 according to the present embodiment is put on the neck of the photographer and no-finder shooting is performed, and the detection signal of the acceleration detection unit 6 at that time will be described with reference to FIGS. . FIG. 4 shows a state where the camera 10 is hung on the neck of the photographer 21. As shown in FIG. 4A, the camera 10 is provided with strap pins 104 for passing the strap 108 at two locations on the side of the camera 10.

ストラップ108を利用してカメラ10を撮影者21に掛ける方法は様々である。例えば、図4(b)は、2か所のストラップピン104にストラップ108を通して撮影者21の首に掛ける場合であり、カメラ10の画面の長手方向と直交する方向が大体水平線の方向となる。また、図4(c)は、1か所のストラップピン104にストラップ108を通して撮影者21の首に掛けた場合である。この場合には、カメラ10の画面の長手方向が水平線や鉛直線に沿うようにすることは殆ど困難である。   There are various methods for placing the camera 10 on the photographer 21 using the strap 108. For example, FIG. 4B shows a case where the strap 108 is hooked on two strap pins 104 through the strap 108 around the neck of the photographer 21, and the direction orthogonal to the longitudinal direction of the screen of the camera 10 is roughly the horizontal line direction. FIG. 4C shows a case where the strap pin 104 is put on one neck of the photographer 21 through the strap 108. In this case, it is almost difficult for the longitudinal direction of the screen of the camera 10 to be along a horizontal line or a vertical line.

さらに、図4(d)は、撮影者21の腕に鞄112と共にカメラ10が引っ掛けられている場合を示す。この場合も図4(c)の場合と同様に、カメラ10の画面の長手方向が水平線や鉛直線に沿うようにすることは殆ど困難である。このように、撮影者21が直接手でカメラ10を持つことなく、ストラップ108を利用して保持する場合には、撮影者21は表示部8に表示されるライブビュー表示を確認することは困難である。また、撮影時のカメラの画面の傾きを予想することは困難である。   Further, FIG. 4D shows a case where the camera 10 is hooked on the arm of the photographer 21 together with the heel 112. In this case as well, as in the case of FIG. 4C, it is almost difficult to make the longitudinal direction of the screen of the camera 10 along the horizontal line or the vertical line. Thus, when the photographer 21 does not hold the camera 10 directly by hand and holds it using the strap 108, it is difficult for the photographer 21 to check the live view display displayed on the display unit 8. It is. In addition, it is difficult to predict the tilt of the camera screen during shooting.

カメラ10を直接手で保持することなく、ノーファインダ撮影を行う場合の様子を図5(a)に示す。図示の状態は、撮影者21は首にストラップ108を介してカメラ10を掛けており、また両手は荷物131を持っている。登山で多数の荷物を持っているような状況である。このため、撮影者21は、表示部8に表示されるライブビュー表示を確認することができず、また、両手が荷物131によって塞がっていることから、レリーズ釦を操作することもできない。   FIG. 5A shows a state in which no-finder shooting is performed without directly holding the camera 10 by hand. In the state shown in the figure, the photographer 21 has the camera 10 hung on the neck via the strap 108, and both hands have the luggage 131. It is like having a lot of luggage when climbing. For this reason, the photographer 21 cannot confirm the live view display displayed on the display unit 8 and cannot operate the release button because both hands are blocked by the luggage 131.

図5(a)に示すような状況では、カメラ10は撮影者21の首から下がっていることから、カメラ10の撮影範囲133は図5(b)に示す範囲となる。この状態で、人物である被写体23をノーファインダで撮影しようとすると、被写体23の顔の部分が切れてしまう。このため、撮影者21が被写体23の顔の部分まで画面内に入るようにするために、図6(a)に示すように、胸をそらせ、カメラ10の撮影範囲133を上に向けることになる。   In the situation shown in FIG. 5A, since the camera 10 is lowered from the neck of the photographer 21, the shooting range 133 of the camera 10 is the range shown in FIG. 5B. In this state, if the subject 23 as a person is to be photographed with the no finder, the face portion of the subject 23 is cut off. For this reason, in order for the photographer 21 to enter the face portion of the subject 23 within the screen, as shown in FIG. 6A, the chest is deflected and the photographing range 133 of the camera 10 is directed upward. Become.

撮影者21が胸をそらせることにより、カメラ10には、上方向に向けての加速度が加わる。すなわち、胸をそらす前は、カメラ10には、図6(b)に示すように、下向き(−X方向)の重力Gが掛かっている。この状態から撮影者21が胸をそらすと、図6(c)に示すように、カメラ10は斜めになり、−X方向と−Z方向に分解される方向に、重力Gが掛かる。また、カメラ10が上方に引き上げられるので、重力に逆らう大きな加速度が発生する。本実施形態においては、この重力Gの方向の変化を加速度検知部6によって検知し、胸をそらす動作がなされた場合に、レリーズ動作を実行するようにしている。   When the photographer 21 deflects his / her chest, the camera 10 is subjected to an upward acceleration. That is, before the chest is deflected, as shown in FIG. 6B, the camera 10 is applied with gravity G in the downward direction (−X direction). When the photographer 21 turns his / her chest from this state, as shown in FIG. 6C, the camera 10 is inclined, and gravity G is applied in the direction of being decomposed into the −X direction and the −Z direction. In addition, since the camera 10 is pulled upward, a large acceleration against gravity is generated. In the present embodiment, the change in the direction of gravity G is detected by the acceleration detection unit 6, and the release operation is executed when the operation of deflecting the chest is performed.

図7は、撮影者21が歩行、停止、胸そらしを順次行った際の加速度検知部6の検知出力の変化を示す。すなわち、時刻t11付近においては、撮影者21は歩行しており、カメラ10の加速度検知部6のX軸方向の加速度センサ150x、Y軸方向の加速度センサ10y、Z軸方向の加速度センサ150zの各検知出力は、図7中のグラフに示すように、歩行に応じて、変化している。特に、カメラ10にストラップ108によって吊り下げられていることから、X方向にのみ重力がかかっており、図示の如く、X方向の加速度センサ150xの検知出力が他のセンサの検知出力よりも大きい。   FIG. 7 shows changes in the detection output of the acceleration detector 6 when the photographer 21 sequentially walks, stops, and turns the chest. That is, the photographer 21 is walking near the time t11, and each of the acceleration sensor 150x in the X-axis direction, the acceleration sensor 10y in the Y-axis direction, and the acceleration sensor 150z in the Z-axis direction of the acceleration detection unit 6 of the camera 10 is used. As shown in the graph in FIG. 7, the detection output changes according to walking. In particular, since the camera 10 is suspended by the strap 108, gravity is applied only in the X direction, and the detection output of the acceleration sensor 150x in the X direction is larger than the detection outputs of other sensors as shown in the figure.

時刻t12付近で、撮影者21が被写体を撮影しようと思い停止すると、加速度センサ150x〜150zの各検知出力は、図7中のグラフの破線円形部分に示すように、変化が緩やかになる。そして、時刻t13付近において、撮影を行うために、胸をそらすと、この動きに応じて、加速度センサ150x、150zの検知出力が大きく変化する。すなわち、加速度センサ150xと150zには、カメラ10が吊り上げられる時の斜め方向の加速度がかかるので、図7に示すようなセンサピークが発生し、加速度センサ150yには大きな変化が発生しない。   When the photographer 21 stops thinking about photographing a subject around time t12, the detection outputs of the acceleration sensors 150x to 150z change gradually as shown by the broken-line circles in the graph of FIG. Then, when the chest is deflected in order to perform photographing in the vicinity of time t13, the detection outputs of the acceleration sensors 150x and 150z greatly change according to this movement. That is, since acceleration in the oblique direction when the camera 10 is lifted is applied to the acceleration sensors 150x and 150z, a sensor peak as shown in FIG. 7 occurs, and a large change does not occur in the acceleration sensor 150y.

加速度センサ150xと150zのセンサピークが発生した後、時刻t14付近において、これらのセンサの検知出力は安定状態となる。これは、撮影者21が胸をそらし、被写体23に向けてカメラ10を構えるような感じでカメラ10を静止状態にするためである。このときの加速度センサ150xと150zの検知出力をGX、GZとすると、カメラ10の撮影レンズの光軸と水平線とのなす角度をθは、下記式より求めることができる。なお、図7において、GXとGZは、ずらした位置としているが、同一時刻における測定値である。
tanθ=GZ/GX
After the sensor peaks of the acceleration sensors 150x and 150z are generated, the detection outputs of these sensors are in a stable state around time t14. This is because the photographer 21 turns his / her chest and puts the camera 10 in a stationary state as if holding the camera 10 toward the subject 23. If the detection outputs of the acceleration sensors 150x and 150z at this time are GX and GZ, the angle formed by the optical axis of the photographing lens of the camera 10 and the horizontal line can be obtained from the following equation. In FIG. 7, GX and GZ are measured positions at the same time although they are shifted positions.
tanθ = GZ / GX

従って、撮影者21が胸をそらしたときの角度θは、arctan(GZ/GX)より求められ、この角度θが、撮影レンズの画角の半分±10度程度を撮影OK(レリーズ)の判定基準とすれば良い。すなわち、加速度センサ150xおよび150zの検知出力がピーク値となった後、arctan(GZ/GX)より求めた角度θが上記判定基準となれば、そのタイミングで、レリーズ動作を実行すれば、撮影者21の意図に沿って被写体23をノーファインダ撮影することができる。   Accordingly, the angle θ when the photographer 21 deflects his / her chest is obtained from arctan (GZ / GX), and this angle θ is about half of the angle of view of the photographing lens ± 10 degrees. It can be used as a standard. In other words, after the detection outputs of the acceleration sensors 150x and 150z reach the peak value, if the angle θ obtained from arctan (GZ / GX) is the determination criterion, the release operation is performed at that timing. The subject 23 can be photographed with no finder according to the intention of 21.

本実施形態において、ノーファインダ撮影として、ストラップ108を首等に掛けて撮影する場合を説明したが、ストラップ108を首等に掛ける以外にも、カメラ10をポケット110に入れて撮影する方法もある。図8は、クリップ付きカメラを利用したノーファインダ撮影の態様を示す図である。カメラ10には、図8(a)に示すように、背面に表示部8が設けられていると共に、クリップ109が設けられている。このクリップ109によって、図8(b)(c)に示すように、撮影者21のポケット110内にカメラ10を取り付けることができる。カメラ10のレンズがポケット110の外で露呈していれば、両手が塞がった状態であっても、前述したような撮影者21の胸のそらしに応じてレリーズ動作を行うことができる。   In this embodiment, the case of shooting with the strap 108 on the neck or the like has been described as no-finder shooting, but there is also a method of shooting with the camera 10 in the pocket 110 in addition to the strap 108 on the neck or the like. . FIG. 8 is a diagram illustrating an aspect of no-finder shooting using a camera with a clip. As shown in FIG. 8A, the camera 10 is provided with a display unit 8 on the back surface and a clip 109. With this clip 109, the camera 10 can be mounted in the pocket 110 of the photographer 21 as shown in FIGS. If the lens of the camera 10 is exposed outside the pocket 110, the release operation can be performed in accordance with the above-described distraction of the chest of the photographer 21 even when both hands are closed.

また、カメラ10のポケット110への取り付け角度は、図8(b)ではカメラ10の上下左右と、撮影画面の水平線と鉛直線の方向が略一致している。しかし、図8(c)に示す例では、これらの方向が一致していない。このように、カメラ10の角度は撮影者21の好み等により変化することから、カメラ画面の傾きを予想することは、ストラップ108による場合と同様、困難である。   In addition, in FIG. 8B, the mounting angle of the camera 10 to the pocket 110 is substantially the same as the vertical and horizontal directions of the camera screen and the horizontal and vertical directions of the shooting screen. However, in the example shown in FIG. 8C, these directions do not match. As described above, since the angle of the camera 10 changes depending on the preference of the photographer 21 and the like, it is difficult to predict the tilt of the camera screen, as in the case of the strap 108.

図9(b)は、撮影者21がカメラ10を手に持った状態でノーファインダ撮影を行っている様子を示す。通常の撮影にあたっては、図9(a)に示すように、撮影者21はカメラ10から十分離し、表示部8に表示されるライブビュー表示を観察しながら、構図を決定する。ノーファインダ撮影では、図9(b)に示すように、カメラ10の背面に配置された表示部8を観察することなく、撮影を行う。この状態では、カメラ10の撮影レンズは、被写体の方向を向いており、かつカメラ10の背面側は撮影者21に近接している。したがって、ノーファインダ撮影か否かを判定するにあたって、カメラ10の背面が服等によって覆われているか否かが1つの判定条件となる。   FIG. 9B shows a situation where the photographer 21 is performing no-finder shooting with the camera 10 in his / her hand. In normal photographing, as shown in FIG. 9A, the photographer 21 is separated from the camera 10 and determines the composition while observing the live view display displayed on the display unit 8. In no-finder shooting, as shown in FIG. 9B, shooting is performed without observing the display unit 8 disposed on the back surface of the camera 10. In this state, the photographing lens of the camera 10 faces the direction of the subject, and the back side of the camera 10 is close to the photographer 21. Accordingly, in determining whether or not no-finder shooting is performed, one determination condition is whether or not the back surface of the camera 10 is covered with clothes or the like.

次に、本実施形態における動作について、図10ないし図13に示すフローチャートを用いて説明する。このフローは主に画像処理及び制御部1によって実行される。カメラ制御のフローに入ると、まず、ノーファインダ判定を行う(S11)。ここでは、撮影者21が表示部8におけるライブビュー表示によって被写体像を観察することなく撮影を行うノーファインダ撮影か否かの判定を行う。本実施形態におけるノーファインダ状態の判定条件としては、
(1)カメラ10の背面が覆われた状態であること、
(2)カメラ10がノーファインダ状態特有の姿勢にあること、
(3)カメラ10の撮影レンズが露出していること、
であり、これら3つの条件を満たしているか否かの判定を行う。このノーファインダ判定の詳細については、図11を用いて後述する。なお、メニュー画面において、ノーファインダ撮影が直接設定された場合には、ステップS13における判定処理は省略し、ステップS13に進む。
Next, the operation in the present embodiment will be described with reference to the flowcharts shown in FIGS. This flow is mainly executed by the image processing and control unit 1. In the camera control flow, first, no-finder determination is performed (S11). Here, it is determined whether or not the photographer 21 performs no-finder shooting in which shooting is performed without observing the subject image by live view display on the display unit 8. As the determination condition of the no-finder state in the present embodiment,
(1) The back surface of the camera 10 is covered.
(2) The camera 10 is in a posture unique to the no-finder state,
(3) The taking lens of the camera 10 is exposed,
It is determined whether these three conditions are satisfied. Details of this no-finder determination will be described later with reference to FIG. If no-finder shooting is directly set on the menu screen, the determination process in step S13 is omitted, and the process proceeds to step S13.

ステップS11におけるノーファインダ判定を行うと、次に、この判定結果に基づいて、現在、ノーファインダ状態にあるか否かの判定を行う(S12)。後述する図11のフローにおいて、ステップS44またはS45において、ノーファインダ判定が設定されたか、ノーファインダ以外が設定されたかに基づいて判定を行う。   Once the no-finder determination in step S11 is performed, it is next determined whether or not the camera is currently in the no-finder state based on the determination result (S12). In the flow of FIG. 11, which will be described later, in step S44 or S45, the determination is made based on whether no finder determination is set or other than no finder is set.

ステップS12における判定の結果、ノーファインダであった場合には、次に、加速度条件を満たしているかを検出する(S13)。ここでは、撮影者21が胸をそらしレリーズ動作を行うタイミングであるか否かを判定するために加速度条件を満たしているかを検出する。すなわち、加速度センサ150x〜150zの検知出力に基づいて、図7において時刻t13から時刻t14におけるセンサ出力と同様な傾向の波形を描いているかを検知する。この加速度条件の詳細については、図12を用いて詳述する。   If the result of determination in step S12 is no finder, it is next detected whether the acceleration condition is satisfied (S13). Here, it is detected whether or not the acceleration condition is satisfied in order to determine whether or not it is time for the photographer 21 to take the chest and perform the release operation. That is, based on the detection outputs of the acceleration sensors 150x to 150z, it is detected whether a waveform having the same tendency as the sensor output from time t13 to time t14 is drawn in FIG. Details of the acceleration condition will be described in detail with reference to FIG.

ステップS13において、加速度条件を検出すると、この検出結果に基づいて、加速度条件がOKであるか否かの判定を行う(S14)。この判定の結果、加速度条件がOKでなかった場合には、ステップS11に戻る。一方、加速度条件がOKであった場合には、撮影者12が胸をそらし、レリーズ動作を行ったことから、ステップS15以下において、撮影動作を行う。   When the acceleration condition is detected in step S13, it is determined whether or not the acceleration condition is OK based on the detection result (S14). As a result of this determination, if the acceleration condition is not OK, the process returns to step S11. On the other hand, if the acceleration condition is OK, since the photographer 12 has deflected the chest and performed the release operation, the image capturing operation is performed in step S15 and subsequent steps.

まず、円形撮影を行う(S15)。ここでは、撮像部2からの画像データを取得し、この画像データを用いて画像処理及び制御部1中のトリミング部1eにおいて円形にトリミング処理を行う。前述したように、ノーファインダ撮影の場合には、カメラ10の画面の長手方向(またはこれと直交する方向)を水平線に一致させることは困難である。図14(a)は、ノーファインダ撮影によって水平線が傾いている画像の例である。このような場合には、図14(b)に示すように水平線を一致させるように画像処理を行うのが一般的であるが、本実施形態においては、図14(c)に示すように、円形に画像データをトリミングするようにしている。円形画像の場合には、多少、水平線が傾いていても、違和感が少ないからである。なお、本実施形態においては、図14(d)に示すように、傾き情報を用いて、円形画像の傾きを補正している。   First, circular imaging is performed (S15). Here, image data from the imaging unit 2 is acquired, and the image processing and trimming unit 1e in the control unit 1 performs a trimming process in a circle using the image data. As described above, in the case of no-finder shooting, it is difficult to make the longitudinal direction of the screen of the camera 10 (or the direction orthogonal thereto) coincide with the horizontal line. FIG. 14A is an example of an image in which the horizontal line is inclined by no-finder shooting. In such a case, it is common to perform image processing so that the horizontal lines coincide as shown in FIG. 14B, but in this embodiment, as shown in FIG. The image data is trimmed in a circle. This is because in the case of a circular image, even if the horizon is slightly inclined, there is little discomfort. In this embodiment, as shown in FIG. 14D, the inclination of the circular image is corrected using the inclination information.

円形撮影を行うと、次に、仮記録を行う(S16)。ここでは、ステップS15において取得した円形の画像データから、円形領域71の画像(円形画像)を排除した部分を黒画像に変換し(図15(b)参照)、この画像データを仮記録部4aに一時記録する。また、円形画像の画像データについては、仮記録部4bに一時記録する。   Once the circular shooting is performed, temporary recording is performed (S16). Here, from the circular image data acquired in step S15, a portion where the image of the circular region 71 (circular image) is excluded is converted into a black image (see FIG. 15B), and this image data is converted into the temporary recording unit 4a. To temporarily record. Further, the image data of the circular image is temporarily recorded in the temporary recording unit 4b.

仮記録を行うと、次に、傾き情報で補正を行う(S17)。傾き情報による補正は、まず、仮記録部4bに一時記録された円形画像を、図15(c)に示すような傾きのない画像データに回転補正する。続いて、仮記録部4aに一時記録されている黒画像と、回転補正後の円形画像を合成する。   Once provisional recording has been performed, next, correction is performed using the tilt information (S17). In the correction using the tilt information, first, the circular image temporarily recorded in the temporary recording unit 4b is rotationally corrected into image data having no tilt as shown in FIG. Subsequently, the black image temporarily recorded in the temporary recording unit 4a and the circular image after the rotation correction are combined.

ステップS12における判定の結果、ノーファインダでなかった場合には、次に、レリーズか否かの判定を行う(S21)。ノーファインダ撮影でないことから、ステップS21以下において、通常のレリーズ釦によるレリーズ動作を行う。このステップでは、操作部7のレリーズ釦が押されたか否かを判定する。   If the result of determination in step S12 is that there is no finder, it is next determined whether or not it is a release (S21). Since it is not no-finder shooting, a release operation with a normal release button is performed in step S21 and subsequent steps. In this step, it is determined whether or not the release button of the operation unit 7 has been pressed.

ステップS21における判定の結果、レリーズであった場合には、次に、通常撮影モードを実行する(S22)。ここでは、通常行われている公知の撮影動作であり、細かくは説明しないが、撮像部2によって取得した画像データを画像処理する。なお、ノーファインダ撮影の際には、円形画像を生成した後に記録していたが、通常撮影モードの場合には、矩形の画像データのまま画像圧縮し、記録部4に記録する。   If the result of determination in step S <b> 21 is release, then the normal shooting mode is executed (S <b> 22). Here, it is a well-known shooting operation that is normally performed, and although not described in detail, image data acquired by the imaging unit 2 is subjected to image processing. In the case of no-finder shooting, a circular image is generated and recorded. However, in the normal shooting mode, the image is compressed and recorded in the recording unit 4 as rectangular image data.

ステップS22における通常撮影モードによる画像データの取得を行うと、または、ステップS17における傾き情報で補正を行うと、それぞれのステップで得られた画像データを画像圧縮部1cによって圧縮処理を行った後、記録部4に記録する(S18)。記録部4に画像データを記録すると、メインフローに戻る。   When the image data is acquired in the normal shooting mode in step S22, or when correction is performed with the tilt information in step S17, the image data obtained in each step is subjected to compression processing by the image compression unit 1c. Recording is performed in the recording unit 4 (S18). When image data is recorded in the recording unit 4, the process returns to the main flow.

ステップS21における判定の結果、レリーズでなかった場合には、次に、再生か否かの判定を行う(S24)。操作部7の再生釦が操作されると再生モードに切り換わるので、このステップでは、再生釦の操作状態を判定する。この判定の結果、再生でなかった場合には、ステップS11に戻る。   If the result of determination in step S21 is not release, it is next determined whether or not to play back (S24). Since the playback mode is switched to when the playback button of the operation unit 7 is operated, the operation state of the playback button is determined in this step. If the result of this determination is that playback has not been made, processing returns to step S11.

一方、ステップS24における判定の結果、再生であった場合には、画像再生を行う(S25)。ここでは、記録部4に記録されている画像データを読み出し、表示部8に表示する。この再生表示の際、カメラ10の姿勢を検知し、この検知結果に応じて、円形画像の傾きを補正する。また、円形の単独画像を再生する場合には、画面をタッチしながら回転させることにより、その傾きを変えることができる。さらに、みんなで見るモードを選択すると、円形画像の鉛直線方向が表示部8の中心部から放射状に沿って、画像の傾きが補正され、複数人で囲んで見やすい配置となる。この画像再生の詳細については、図13を用いて後述する。画像再生を行うとステップS24に戻る。   On the other hand, if the result of determination in step S24 is playback, image playback is performed (S25). Here, the image data recorded in the recording unit 4 is read and displayed on the display unit 8. At the time of this reproduction display, the posture of the camera 10 is detected, and the inclination of the circular image is corrected according to the detection result. When reproducing a circular single image, the tilt can be changed by rotating the screen while touching it. Furthermore, when the mode for viewing with everyone is selected, the vertical direction of the circular image extends radially from the center of the display unit 8 so that the inclination of the image is corrected, and the arrangement is easy to view by being surrounded by a plurality of people. Details of this image reproduction will be described later with reference to FIG. When the image reproduction is performed, the process returns to step S24.

このように、カメラ制御のフローでは、カメラ10がノーファインダ状態にあるか否かを判定し(S11、S12)、ノーファインダ状態にある場合には、撮影者が胸をそらす動きをしたかを判定し(S13、S14)、胸をそらす動作をした場合には、レリーズ動作(撮影動作)を行うようにしている(S15)。このため、撮影者21はカメラ10を手で把持し、表示部8のライブビュー表示を観察しなくても撮影を行うことができる。また、胸を反らすことにより、撮影レンズが上を少し向き、適度に離れて対抗する人物の顔の方向に向けられるという効果もある。この場合、適度の距離としては、2〜3mであり、通常の焦点距離で撮影すると、半身から全身像となり、バックの風景と人物のバランスが取れる撮影距離である。これにより近距離では、背景があまり写りこまず、どこで撮影した写真か分からなくなり、また、これより遠距離では人物の顔が小さくなって表情が分かりにくくなる。また、胸を反らして撮影する場合のカメラの角度の条件については、撮影者の背の高さや、撮影レンズの画角や、ストラップの長さ等も考慮して設定できるようにしてもよい。   In this way, in the camera control flow, it is determined whether or not the camera 10 is in the no finder state (S11, S12). If the camera 10 is in the no finder state, it is determined whether the photographer has moved his / her chest. When the determination is made (S13, S14) and the operation of turning the chest is performed, the release operation (imaging operation) is performed (S15). For this reason, the photographer 21 can take a picture without holding the camera 10 by hand and observing the live view display on the display unit 8. Further, by curving the chest, there is also an effect that the photographing lens is directed slightly upward and is directed toward the face of the person facing away from the camera. In this case, the appropriate distance is 2 to 3 m, and when shooting at a normal focal length, the shooting distance is such that a half body becomes a full-body image, and the back landscape and the person can be balanced. As a result, the background does not appear so well at short distances, and it is difficult to know where the photograph was taken, and at a longer distance, the face of a person becomes smaller and the expression becomes difficult to understand. In addition, the camera angle condition when photographing with the chest bent may be set in consideration of the height of the photographer, the angle of view of the photographing lens, the length of the strap, and the like.

次に、ステップS11におけるノーファインダ判定について、図11に示すフローチャートを用いて説明する。ノーファインダ判定のフローに入ると、まず、バックライトが全面反射しているか否かの判定を行う(S41)。ここでは、前述のノーファインダ判定の第1番目の条件、すなわち、カメラ10の背面が覆われた状態であるか否かを判定している。このために、バックライト8dから発光光41aを照射し、服45等からの反射光41bが存在するか否かを光センサ8cによって検出する。ノーファインダ状態の場合には、服45等によって、表示部8の略全面が覆われることから、略全ての光センサ8cによって反射光41bを受光したか否かによって判定する。   Next, no-finder determination in step S11 will be described using the flowchart shown in FIG. If the no-finder determination flow is entered, it is first determined whether or not the backlight is totally reflected (S41). Here, it is determined whether or not the first condition of the above-described no-finder determination, that is, whether or not the back surface of the camera 10 is covered. For this purpose, the emitted light 41a is emitted from the backlight 8d, and whether or not the reflected light 41b from the clothing 45 or the like is present is detected by the optical sensor 8c. In the no-finder state, since substantially the entire surface of the display unit 8 is covered with the clothing 45 or the like, the determination is made based on whether or not the reflected light 41b is received by almost all the optical sensors 8c.

ステップS41における判定の結果、バックライト全面反射が有った場合には、次に、ストラップ108と反対方向に重力が有るか否かの判定を行う(S42)。ここでは、前述のノーファインダ判定の第2番目の条件、すなわち、カメラ10がノーファインダ状態特有の姿勢にあるか否かを判定している。このために、加速度検知部6の検知出力に基づいて、ストラップ108と反対方向に重力があるか否かを判定している。なお、クリップ109付きのカメラ等の場合にも、加速度センサ150x等の検知出力に基づいて、判定すれば良い。   If the result of determination in step S41 is that there is backlight overall reflection, it is next determined whether or not there is gravity in the direction opposite to the strap 108 (S42). Here, it is determined whether or not the second condition of the above-described no-finder determination, that is, whether or not the camera 10 is in a posture unique to the no-finder state. For this reason, it is determined whether or not there is gravity in the direction opposite to the strap 108 based on the detection output of the acceleration detector 6. In the case of a camera with a clip 109 or the like, the determination may be made based on the detection output of the acceleration sensor 150x or the like.

ステップS42における判定の結果、ストラップと反対方向に重力が有った場合には、次に、撮像結果画像が有るか否かの判定を行う(S43)。ここでは、前述のノーファインダ判定の第3番目の条件、すなわち、カメラ10の撮影レンズが露出しているか否かを判定している。このために、撮像部2からの画像データに基づいて、撮影結果画像があるか否かを判定している。鞄やポケットで撮影レンズが覆われている場合には、真っ黒な画像しか取得できないが、撮影レンズが露呈してれば、何らかの撮影結果画像を得られるからである。この場合、撮影画像を解析しても良いが、画像データの平均輝度が所定値以上あれば、撮像結果画像があると判定しても良い。   If the result of determination in step S42 is that there is gravity in the direction opposite to the strap, it is next determined whether or not there is a captured image (S43). Here, it is determined whether or not the third condition of the above-described no-finder determination, that is, whether or not the photographing lens of the camera 10 is exposed. For this reason, based on the image data from the imaging unit 2, it is determined whether there is a captured result image. This is because when the photographing lens is covered with a bag or pocket, only a black image can be obtained, but if the photographing lens is exposed, some kind of photographing result image can be obtained. In this case, the photographed image may be analyzed, but if the average luminance of the image data is equal to or greater than a predetermined value, it may be determined that there is a captured image.

ステップS43における判定の結果、撮像結果画像が有れば、ノーファインダ判定を設定する(S44)。一方、ステップS41、S42、またはS43のいずれかにおいて、Noと判定されると、ノーファインダ以外を設定する(S45)。前述したように、ステップS44、またはS45における設定に応じて、ステップS12(図10)における判定がなされる。ステップS44またはS45における設定を行うと、元のフローに戻る。   If the result of determination in step S43 is that there is a captured image, no-finder determination is set (S44). On the other hand, if it is determined No in any of steps S41, S42, or S43, other than the no finder is set (S45). As described above, the determination in step S12 (FIG. 10) is made according to the setting in step S44 or S45. When the setting in step S44 or S45 is performed, the process returns to the original flow.

このように、ノーファインダ判定のフローにおいて、ノーファインダ状態であるかを判定している。この判定結果に応じて、カメラ10をノーファインダ撮影モードに自動的に切り換えることができる。なお、本実施形態においては、ノーファインダ状態の判定にあたっては、前述の(1)〜(3)の3つの条件を満足した場合に、ノーファインダ状態と判定していた。しかし、3つの条件を満足していなくても、(1)+(2)、(1)+(3)、(2)+(3)のように、3つの内の2つの条件を満足した場合、あるいは、(1)または(2)のいずれか単独の条件を満たした場合に、ノーファインダ状態と判定するようにしても良い。各検出手段自体の精度、あるいは求めるノーファインダ状態の判定精度のレベルによって、適宜組み合わせれば良い。   In this way, in the no finder determination flow, it is determined whether or not it is in the no finder state. The camera 10 can be automatically switched to the no-finder shooting mode according to the determination result. In the present embodiment, in determining the no-finder state, it is determined as the no-finder state when the above three conditions (1) to (3) are satisfied. However, even if the three conditions are not satisfied, two of the three conditions are satisfied, such as (1) + (2), (1) + (3), (2) + (3) In this case, or when either one of the conditions (1) or (2) is satisfied, the no-finder state may be determined. What is necessary is just to combine suitably according to the level of the precision of each detection means itself, or the determination precision of the no finder state to obtain | require.

次に、ステップS13における加速度条件について、図12に示すフローチャートを用いて説明する。加速度条件のフローに入ると、まず、ストラップ方向にパルスがあるか否かの判定を行う(S31)。図7を用いて前述したように、撮影者21は、胸をそらして撮影を行う場合には、まず時刻t13付近において、x軸方向およびz軸方向にパルス状の加速度が発生し、このため、加速度センサ150x、150zにピーク値が生じる。このステップS31においては、このパルス状の加速度が発生したか否かを判定する。   Next, the acceleration condition in step S13 will be described using the flowchart shown in FIG. If the acceleration condition flow is entered, it is first determined whether or not there is a pulse in the strap direction (S31). As described above with reference to FIG. 7, when the photographer 21 takes a picture while turning his / her chest, first, pulse-like acceleration is generated in the x-axis direction and the z-axis direction in the vicinity of time t13. , Peak values occur in the acceleration sensors 150x and 150z. In step S31, it is determined whether or not this pulse-like acceleration has occurred.

ステップS31における判定の結果、ストラップ方向にパルスが発生した場合には、次に、ストラップと反対方向に重力(GX)が安定しているか否かの判定を行う(S32)。前述したように、時刻t13付近で加速度にピークが発生した後、時刻t14付近になると加速度センサ150x、150zの検知出力は安定状態となる。このステップS32においては、加速度センサ150xの検知出力(GX)が安定しているか否かを判定する。   If a pulse is generated in the strap direction as a result of the determination in step S31, it is next determined whether gravity (GX) is stable in the direction opposite to the strap (S32). As described above, the detection output of the acceleration sensors 150x and 150z is in a stable state near the time t14 after a peak occurs in the vicinity of the time t13. In step S32, it is determined whether or not the detection output (GX) of the acceleration sensor 150x is stable.

ステップS32における判定の結果、ストラップ反対方向に重力が安定していた場合には、次に、撮像部と反対方向に重力(GZ)が安定しているか否かの判定を行う(S33)。撮像部2の光軸方向はZ軸方向であり、ここでは、加速度センサ150zの検知出力(GZ)が安定しているか否かを判定する。   If the result of determination in step S32 is that gravity is stable in the direction opposite to the strap, it is next determined whether or not gravity (GZ) is stable in the direction opposite to the imaging unit (S33). The optical axis direction of the imaging unit 2 is the Z-axis direction, and here, it is determined whether or not the detection output (GZ) of the acceleration sensor 150z is stable.

ステップS33における判定の結果、撮像部反対方向に重力が安定していた場合には、次に、GZ/GXが所定範囲内になるか否かの判定を行う(S34)。前述したように、角度θ、すなわち、arctan(GZ/GX)が撮影レンズの画角の半分±10度程度であれば良いことから、これを考慮して決められた範囲内にGZ/GXが有るか否かを判定する。   If the result of determination in step S33 is that gravity is stable in the direction opposite to the imaging unit, it is next determined whether or not GZ / GX is within a predetermined range (S34). As described above, the angle θ, that is, arctan (GZ / GX) may be about ± 10 degrees which is a half of the angle of view of the photographing lens. Therefore, GZ / GX is within a range determined in consideration of this. It is determined whether or not there is.

ステップS34における判定の結果、GZ/GXが所定範囲内にあった場合には、加速度条件OKを設定する(S35)。一方、ステップS32〜S34における判定の結果、いずれかがNoであった場合には、次に、所定時間経過したか否かを判定する(S36)。ここでは、撮影者21が撮影を意図して胸をそらした際に、カメラ10が被写体23に向き、安定しているか否かを判定する。この判定にあたって、ステップS31においてストラップ方向にパルスが発生してからの時間を時計部9によって計時する。この判定の結果、所定時間が経過していなかった場合には、ステップS32に戻る。   If the result of determination in step S34 is that GZ / GX is within the predetermined range, an acceleration condition OK is set (S35). On the other hand, if any of the determinations in steps S32 to S34 is No, it is next determined whether or not a predetermined time has elapsed (S36). Here, when the photographer 21 intends to shoot and deflects his / her chest, the camera 10 faces the subject 23 and determines whether or not it is stable. In this determination, the time after the pulse is generated in the strap direction in step S31 is measured by the clock unit 9. If it is determined that the predetermined time has not elapsed, the process returns to step S32.

一方、ステップS36における判定の結果、所定時間が経過した場合、またはステップS31における判定の結果、ストラップ方向にパルスが発生していなかった場合には、加速度条件NGを設定する(S37)。ステップS35またはステップS37においてOKまたはNGを設定すると、元のフローに戻る。   On the other hand, if a predetermined time has passed as a result of the determination in step S36, or if a pulse has not occurred in the strap direction as a result of the determination in step S31, an acceleration condition NG is set (S37). If OK or NG is set in step S35 or step S37, the process returns to the original flow.

このように、加速度条件のフローでは、ストラップ方向に吊り上げられるようなパルスが発生したことをトリガとし(S31)、この後に続いて、安定した重力が検出された場合に、加速度条件OKを設定している。なお、安定したか否かは、複数回、判定した結果が、所定のバラツキ以下で有れば良い。   As described above, the acceleration condition flow is triggered by the occurrence of a pulse that is lifted in the strap direction (S31). Subsequently, when stable gravity is detected, the acceleration condition OK is set. ing. It should be noted that the result of the determination a plurality of times may be equal to or less than a predetermined variation as to whether or not it is stable.

次に、ステップS25における画像再生について、図13に示すフローチャートを用いて説明する。画像再生のフローに入ると、まず、サムネイル表示か否かを判定する(S51)。サムネイル表示は、記録部4に記録されている画像を縮小し、複数の画像を一度に表示部8に表示するモードである。本実施形態においては、このサムネイル表示がデフォルト値として設定されている。テレ・ワイド釦を操作することにより、サムネイル表示と単独表示を交互に切り換えることができる。   Next, the image reproduction in step S25 will be described using the flowchart shown in FIG. If the flow of image reproduction is entered, it is first determined whether or not thumbnail display is performed (S51). The thumbnail display is a mode in which an image recorded in the recording unit 4 is reduced and a plurality of images are displayed on the display unit 8 at a time. In the present embodiment, this thumbnail display is set as a default value. By operating the tele / wide button, the thumbnail display and the single display can be switched alternately.

ステップS51における判定の結果、サムネイル表示でなかった場合には、画像の拡大表示を行う(S61)。ここでは、記録部4に記憶されている画像データを読み出し、この読み出された画像データに基づいて、表示部8に拡大表示する。   If the result of determination in step S51 is not thumbnail display, an enlarged image is displayed (S61). Here, the image data stored in the recording unit 4 is read out, and enlarged and displayed on the display unit 8 based on the read out image data.

画像の拡大表示を行うと、次に、姿勢によって回転補正を行う(S62)。ここでは、まず、カメラ10の現在の姿勢、例えば縦位置にあるか横位置にあるか等を、加速度検知部6によって検出する。そして、この検出されたカメラの姿勢に基づいて、画像加工部1dによって円形画像の回転補正を行う。   Once the image is enlarged and displayed, rotation correction is performed according to the posture (S62). Here, first, the acceleration detection unit 6 detects the current posture of the camera 10, for example, whether it is in the vertical position or the horizontal position. Based on the detected camera attitude, the image processing unit 1d corrects the rotation of the circular image.

姿勢によって回転補正を行うと、次に、タッチスライドがなされたか否かの判定を行う(S63)。ユーザが表示部8の表示画面に表示されている円形画像a(図16(a)参照)を、手動により回転させたい場合には、回転方向に沿って指をP方向にスライドする(図16(b)参照)。そこで、このステップでは、タッチパネル8b上の指の動きを検出する。   Once the rotation correction is performed according to the posture, it is next determined whether or not the touch slide has been performed (S63). When the user wants to manually rotate the circular image a (see FIG. 16A) displayed on the display screen of the display unit 8, the user slides his / her finger in the P direction along the rotation direction (FIG. 16). (See (b)). Therefore, in this step, the movement of the finger on the touch panel 8b is detected.

ステップS63における判定の結果、タッチスライドがあった場合には、スライド方向に応じて、回転補正を行う(S64)。ここでは、スライド方向に応じて、画像加工部1dが、図16(c)に示すように、円形画像aに対して回転補正を行う。   If the result of determination in step S63 is that there is a touch slide, rotation correction is performed according to the slide direction (S64). Here, according to the slide direction, the image processing unit 1d performs rotation correction on the circular image a as shown in FIG.

ステップS51における判定の結果、サムネイル表示であった場合には、次に表示画像の読出しを行う(S52)。ここでは、記録部4に記録されているサムネイル表示用の複数の画像データを読出す。続いて、ステップS62と同様に、姿勢によって回転補正を行う(S53)。ここでは、検出された現在のカメラの姿勢に基づいて、画像加工部1dによって円形画像の回転補正を行う。この回転補正により、カメラ10の姿勢に応じた見やすい画像となる。   If the result of determination in step S51 is thumbnail display, the display image is next read (S52). Here, a plurality of image data for thumbnail display recorded in the recording unit 4 is read. Subsequently, as in step S62, rotation correction is performed according to the posture (S53). Here, based on the detected current camera posture, the image processing unit 1d corrects the rotation of the circular image. By this rotation correction, an easy-to-view image corresponding to the posture of the camera 10 is obtained.

姿勢による回転補正を行うと、次に、みんなで見るか否かの判定を行う(S54)。「みんなで見る」は、図17(c)に示すように、複数人でカメラ10の表示部8に再生されているサムネイル表示を見るためのモードである。すなわち、サムネイル表示を図17(c)に示すように、複数人でカメラ10を囲むように見ている場合に、各人から見やすくするために、図17(b)に示すように円形画像の向きを放射状に変更する表示方法である。このみんなで見るモードは、操作部7のみんなで見る釦を操作することによって設定できるので、このステップでは、この釦が操作されたか否かを判定する。   Once the rotation correction based on the posture is performed, it is next determined whether or not everyone sees it (S54). “View with everyone” is a mode for viewing a thumbnail display reproduced on the display unit 8 of the camera 10 by a plurality of people as shown in FIG. That is, when the thumbnail display is viewed so as to surround the camera 10 by a plurality of people as shown in FIG. 17C, a circular image is displayed as shown in FIG. This is a display method in which the orientation is changed radially. Since the mode for viewing with everyone can be set by operating the button for viewing with everyone in the operation unit 7, it is determined in this step whether or not this button has been operated.

ステップS54における判定の結果、みんなで見るが選択されていた場合には、次に、画面中央が上方向に回転補正を行う(S55)。ここでは、画像加工部1dによって、各円形画像の鉛直線方向が、表示画面の中心から放射線状になるように、回転補正を行う。なお、この回転補正は、カメラ10を見る者に見やすくするためであることから、厳密に放射線状にならなくても良い。   As a result of the determination in step S54, if viewing together has been selected, the center of the screen is then subjected to rotation correction in the upward direction (S55). Here, the image processing unit 1d performs rotation correction so that the vertical line direction of each circular image becomes radial from the center of the display screen. Note that this rotation correction is intended to make it easier for the viewer to see the camera 10, so that it does not have to be strictly radial.

ステップS55において、画面中央が上方向に回転補正を行うと、またはステップS54における判定の結果、みんなで見るが選択されなかった場合には、次に、画像選択がなされたか否かの判定を行う(S56)。サムネイル表示された画像の中から、ユーザが単独画像で見たい場合には、その画像をタッチ等により選択するので、ここでは、タッチ等により画像が選択されたか否かを判定する。この判定の結果、画像が選択された場合には、前述のステップS61に進み、選択された画像の拡大表示を行う。   In step S55, if the rotation of the center of the screen is corrected upward, or if the result of determination in step S54 is that everyone has not selected viewing, it is next determined whether or not an image has been selected. (S56). When the user wants to view a single image from among the images displayed as thumbnails, the user selects the image by touching or the like. Here, it is determined whether or not the image has been selected by touching or the like. If the result of this determination is that an image has been selected, the process proceeds to step S61 described above to perform enlarged display of the selected image.

ステップS56における判定の結果、画像選択がなされなかった場合、またはステップS64においてタッチスライドで回転補正を行った場合、またはステップS63における判定の結果、タッチスライドがなされていなかった場合には、次に、別画像の指示がなされたか否かの判定を行う(S71)。サムネイル表示の場合には、操作部7の十字釦等によりサムネイル画面のページ送り・戻しを行い、また単独画像表示の場合には、十字釦等により画像送り・戻しを行うので、ここでは、十字釦等により、別画像の指示がなされたか否かの判定を行う。別画像の指示があった場合には、ステップS51に戻る。   If the result of determination in step S56 is that no image has been selected, or if rotation correction has been performed with touch slide in step S64, or if the result of determination in step S63 is that no touch slide has been made, Then, it is determined whether or not another image has been instructed (S71). In the case of the thumbnail display, the page of the thumbnail screen is moved / returned by the cross button or the like of the operation unit 7, and in the case of the single image display, the image is moved / returned by the cross button or the like. It is determined whether or not another image is instructed by a button or the like. If there is an instruction for another image, the process returns to step S51.

一方、ステップS71における判定の結果、別画像の指示がなかった場合には、再生終了か否かの判定を行う(S72)。ここでは、再生釦が再度、操作されたか否かの判定を行う。この判定の結果、終了でなかった場合には、ステップS51に戻る。一方、終了であった場合には、再生終了処理を行った後、元のフローに戻る。   On the other hand, if the result of determination in step S71 is that there has been no instruction for another image, it is determined whether or not playback has ended (S72). Here, it is determined whether or not the playback button has been operated again. If the result of this determination is not end, processing returns to step S51. On the other hand, if it is the end, the reproduction end process is performed and then the original flow is returned.

このように、本実施形態における再生においては、単独画像を再生する場合には、カメラ姿勢に応じて、円形画像の回転補正を行っている。このため、カメラの姿勢に応じた見やすい画像となる。また、単独画像の再生表示の場合、タッチスライドにより、円形画像の向きを変更可能としている。このため、ユーザの意図に沿った向きで画像を表示することができる。   As described above, in the reproduction in the present embodiment, when a single image is reproduced, the rotation correction of the circular image is performed according to the camera posture. For this reason, the image is easy to see according to the posture of the camera. In the case of reproduction display of a single image, the orientation of the circular image can be changed by touch slide. For this reason, an image can be displayed in the direction according to the user's intention.

また、本実施形態においては、カメラ姿勢に応じて円形画像の回転補正を行っている。このため、カメラの姿勢に応じた見やすい画像となる。また、みんなで見る指示がなされると、放射状に回転補正を行っている。このため、カメラ10を囲んで色々な方向から同時に鑑賞することができ、新たな鑑賞方法を提案できる。なお、本実施形態においては、タッチスライドにより円形画像の向きを変更していたが、これ以外にも、例えば、ダイヤル等によって向きを変更するようにしても勿論かまわない。   In the present embodiment, the rotation correction of the circular image is performed according to the camera posture. For this reason, the image is easy to see according to the posture of the camera. In addition, when everyone is instructed to view, the rotation is corrected radially. Therefore, it is possible to view the camera 10 from various directions at the same time, and to propose a new appreciation method. In the present embodiment, the orientation of the circular image is changed by touch slide. However, other than this, for example, the orientation may be changed by a dial or the like.

次に、本発明の第2実施形態について、図18を用いて説明する。第1実施形態においては、ノーファインダ状態であるかを常に検出し、ノーファインダ状態であった場合には、加速度検出部6によって撮影者が胸をそらす動作を行ったかを常に検出していた。第2実施形態においては、ストラップ方向に力が印加された場合にパルスを発生させ、このパルスを検出した場合に、ノーファインダ撮影か否かを判定の上、ノーファインダ撮影を実行するようにしている。ノーファインダ状態であるか否かの検出を最小限に抑えている。   Next, a second embodiment of the present invention will be described with reference to FIG. In the first embodiment, it is always detected whether or not the camera is in the no-finder state, and when the camera is in the no-finder state, it is always detected by the acceleration detection unit 6 whether the photographer has performed an action of turning the chest. In the second embodiment, when a force is applied in the strap direction, a pulse is generated. When this pulse is detected, it is determined whether or not no-finder imaging is performed, and no-finder imaging is executed. Yes. Detection of whether or not in a no-finder state is minimized.

本実施形態における構成は、図1に示したブロック図において、加速度検知部6には、微小電力(10mW程度)でも動作するコンパレータが設けられており、このコンパレータは加速度センサ150x、150zが、ストラップ方向に所定値以上の振動を検出した場合には、検知信号を出力する。これ以外の構成は、図1に示した構成と略同様であるので、詳しい説明は省略する。   In the configuration of this embodiment, in the block diagram shown in FIG. 1, the acceleration detection unit 6 is provided with a comparator that operates even with a minute electric power (about 10 mW). When a vibration of a predetermined value or more is detected in the direction, a detection signal is output. Since the configuration other than this is substantially the same as the configuration shown in FIG.

次に、図18に示すフローチャートを用いて、本実施形態の動作について説明する。カメラ制御のフローに入ると、まず、ステップS21と同様に、レリーズを行うか否かの判定を行う(S81)。このステップでは、操作部7のレリーズ釦が操作されたか否かを判定する。この判定の結果、レリーズであった場合には、通常撮影を行い(S82)、ここで取得した画像データを記録部4に記録する(S83)。ここでは、公知の撮影動作であることから、詳細には記載しないが、撮像部2から出力された画像データを画像処理し、圧縮処理した後、記録部4に記録する。ノーファインダ撮影の際には、円形画像に画像処理するが、通常撮影の場合には、第1実施形態と同様、矩形のままの画像データで記録する。画像データを記録すると、ステップS81に戻る。   Next, the operation of the present embodiment will be described using the flowchart shown in FIG. When the camera control flow is entered, first, similarly to step S21, it is determined whether or not release is to be performed (S81). In this step, it is determined whether or not the release button of the operation unit 7 has been operated. If the result of this determination is release, normal shooting is performed (S82), and the image data acquired here is recorded in the recording unit 4 (S83). Here, since it is a known photographing operation, although not described in detail, the image data output from the imaging unit 2 is subjected to image processing, compression processing, and then recorded in the recording unit 4. In the case of no-finder shooting, image processing is performed on a circular image, but in the case of normal shooting, as in the first embodiment, the image data is recorded as a rectangular image. When the image data is recorded, the process returns to step S81.

ステップS81における判定の結果、レリーズでなかった場合には、次に、ストラップ方向にパルスがあるか否かの判定を行う(S85)。前述したように、本実施形態における加速度検知部6は、撮影者21が胸をそらし、ストラップ方向に力が掛かると、パルスを発生するので、このステップでは、このパルスが発生したか否かの判定を行う。   If the result of determination in step S81 is not release, it is next determined whether or not there is a pulse in the strap direction (S85). As described above, the acceleration detection unit 6 in this embodiment generates a pulse when the photographer 21 turns his chest and applies a force in the strap direction. In this step, it is determined whether or not this pulse has been generated. Make a decision.

ステップS85における判定の結果、パルスが発生した場合には、次に、ステップS32と同様に、ストラップ108と反対方向に重力(GX)が安定しているか否かの判定を行う(S86)。ここでは、加速度センサ150xの検知出力(GX)が安定しているか否かを判定する。この判定の結果、重力(GX)が安定していた場合には、次に、ステップS33と同様に、撮像部2と反対方向に重力(GZ)が安定しているか否かの判定を行う(S87)。ここでは、加速度センサ150zの検知出力(GZ)が安定しているか否かを判定する。   If a pulse is generated as a result of the determination in step S85, next, as in step S32, it is determined whether gravity (GX) is stable in the direction opposite to the strap 108 (S86). Here, it is determined whether or not the detection output (GX) of the acceleration sensor 150x is stable. If the gravity (GX) is stable as a result of this determination, it is next determined whether or not the gravity (GZ) is stable in the direction opposite to the imaging unit 2 (step S33). S87). Here, it is determined whether or not the detection output (GZ) of the acceleration sensor 150z is stable.

ステップS87における判定の結果、重力(GZ)が安定していた場合には、次に、ステップS34と同様に、GZ/GXが所定の範囲内にあるか否かの判定を行う(S88)。この判定および、ステップS86、S87において、判定結果がNoであった場合には、次に、ステップS36と同様に、所定時間が経過したか否かの判定を行う(S95)。この判定の結果、所定時間が経過していなかった場合には、ステップS86に戻る。   If the result of determination in step S87 is that gravity (GZ) is stable, it is next determined whether or not GZ / GX is within a predetermined range, as in step S34 (S88). If the determination result is No in this determination and in steps S86 and S87, next, as in step S36, it is determined whether or not a predetermined time has passed (S95). If it is determined that the predetermined time has not elapsed, the process returns to step S86.

ステップS89における判定の結果、GZ/GXが所定の範囲内にあれば、ステップS85、S86、S87の判定も含めて、撮影者21によって胸をそらす動作を行ったと判定できる。そこで、次に、画面中央部が複数点タッチされているか否かの判定を行う(S89)。ここでは、タッチパネル8bの画面中央部にあたる位置の複数の光センサ8cからの検知出力に基づいて判定する。この判定は、表示部8が服等によって覆われており、ノーファインダ状態であるか検知するためである。   If the result of determination in step S89 is that GZ / GX is within the predetermined range, it can be determined that the photographer 21 has performed an action of turning the chest, including the determinations in steps S85, S86, and S87. Therefore, it is next determined whether or not a plurality of points are touched at the center of the screen (S89). Here, it determines based on the detection output from the some optical sensor 8c of the position which hits the screen center part of the touch panel 8b. This determination is for detecting whether the display unit 8 is covered with clothes or the like and is in a no-finder state.

ステップS89における判定の結果、画面中央部が複数点タッチされていた場合には、ノーファインダ状態で撮影者21が胸をそらす動作を行ったことから、このタイミングでレリーズ動作を開始する。まず、ステップS15およびS16と同様に、円形撮影および仮記録を行う(S91)。ここでは、撮像部2から画像データを取得し、この画像データを円形となるように画像処理を行い(図15(b)参照)、仮記録部4a、4bに仮記録する。   If the result of determination in step S89 is that a plurality of points have been touched at the center of the screen, the release operation is started at this timing because the photographer 21 has performed an action of deflecting the chest in the no-finder state. First, similarly to steps S15 and S16, circular photographing and temporary recording are performed (S91). Here, image data is acquired from the imaging unit 2, and image processing is performed on the image data so as to form a circle (see FIG. 15B), and temporarily recorded in the temporary recording units 4a and 4b.

円形撮影及び仮記録を行うと、次に、ステップS17と同様に、傾き情報で補正を行う(S92)。ここでは、仮記録部4a、4bに仮記録した円形画像の画像データを、加速度検知部6からの傾き情報に基づいて、傾きを補正し、図15(c)に示すような画像を得る。傾き情報で補正すると、前述のステップS83に進み、画像データを記録部4に記録する(S83)。   Once circular shooting and provisional recording have been performed, next, correction is performed using the tilt information as in step S17 (S92). Here, the image data of the circular image temporarily recorded in the temporary recording units 4a and 4b is corrected on the basis of the tilt information from the acceleration detection unit 6 to obtain an image as shown in FIG. If correction is performed using the tilt information, the process proceeds to step S83 described above, and image data is recorded in the recording unit 4 (S83).

ステップS95における判定の結果、所定時間が経過すると、またはステップS89における判定の結果、画面中央部が複数点タッチされていなかった場合、またはステップS85における判定の結果、ストラップ方向にパルスが発生していなかった場合には、次に、ステップS24と同様に、再生モードか否かの判定を行う(S96)。この判定の結果、再生モードでなかった場合には、ステップS81に戻る。   As a result of the determination in step S95, when a predetermined time has elapsed, or as a result of the determination in step S89, the center of the screen has not been touched by a plurality of points, or as a result of the determination in step S85, a pulse is generated in the strap direction. If not, next, as in step S24, it is determined whether or not the playback mode is set (S96). If the result of this determination is not playback mode, processing returns to step S81.

ステップS96における判定の結果、再生モードであった場合には、次に、ステップS25と同様に、画像再生を行う(S97)。ここでは、前述した図13に示すフローを実行する。画像再生を行うと、ステップS81に戻る。   If the result of determination in step S96 is playback mode, then image playback is performed as in step S25 (S97). Here, the flow shown in FIG. 13 described above is executed. When image reproduction is performed, the process returns to step S81.

以上、説明したように、本発明の第2実施形態においては、通常状態では、ストラップ方向にパルスがあるか否かを判定するのみであるので(S85)、ノーファインダ状態であるか否かを頻繁に行う必要がない。このため、消費電力を最小限に抑え、必要に応じてハンズフリーで撮影することができる。   As described above, in the second embodiment of the present invention, in the normal state, it is only determined whether there is a pulse in the strap direction (S85). There is no need to do it frequently. For this reason, power consumption can be minimized, and hands-free photography can be performed as necessary.

なお、本実施形態においては、ストラップ108を具備する場合について説明したが、クリップ109等を有するカメラであっても、本実施形態と同様に、ノーファインダ状態の際に撮影者が胸をそらす動作をした場合に、レリーズを行うようにすることができる。この場合、クリップ109でポケット110などから下げられた状態での重力方向を検知し、この方向と反対の方向をストラップ方向とすれば良い。   In the present embodiment, the case where the strap 108 is provided has been described. However, even in the case of a camera having the clip 109 or the like, as in the present embodiment, the photographer deflects his / her chest when in the no-finder state. If you do, you can release. In this case, the direction of gravity when the clip 109 is lowered from the pocket 110 or the like is detected, and the direction opposite to this direction may be set as the strap direction.

以上説明したように、本発明の各実施形態においては、第1の方向(実施形態においては、ストラップ方向(通常状態における重力方向と反対の方向))の加速度を検知し、また、第1の方向と異なる第2の方向(実施形態においては、撮像部2の光軸方向の重力加速度が、カメラの背面方向にかかる方向)の加速度を検知し、これらの加速度に基づいて、レリーズ動作を行うタイミングを決めている。このため、両手が塞がっており、レリーズ釦を手で押すことができない状態であっても、撮影者が胸をそらす等の動作を行うことにより、レリーズ動作を行うことができる。   As described above, in each embodiment of the present invention, the acceleration in the first direction (in the embodiment, in the strap direction (the direction opposite to the gravity direction in the normal state)) is detected, and the first The acceleration in the second direction (in the embodiment, the direction in which the gravitational acceleration in the optical axis direction of the imaging unit 2 is applied in the back direction of the camera) is detected, and the release operation is performed based on these accelerations. The timing is decided. For this reason, even when both hands are closed and the release button cannot be pressed by hand, the release operation can be performed by the photographer performing an operation such as turning the chest.

なお、本実施形態においては、加速度検知部6によって加速度を検知していたが、カメラ10に加えられた動きを検出できる検知部であれば良く、角加速度センサやジャイロ等、他の検知部であっても勿論かまわない。また、本実施形態においては、ノーファインダ撮影を行った場合に、円形画像に画像処理した後に記録していたが、矩形画像のまま記録するようにしても勿論かまわない。   In the present embodiment, the acceleration is detected by the acceleration detection unit 6. However, any other detection unit such as an angular acceleration sensor or a gyro may be used as long as the detection unit can detect a motion applied to the camera 10. Of course, it doesn't matter. In this embodiment, when no-finder shooting is performed, the image is recorded after being processed into a circular image. However, the image may be recorded as a rectangular image.

また、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。   In the present embodiment, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, and may be used for moving images such as video cameras and movie cameras. It may be a camera, or may be a camera built in a mobile phone, a personal digital assistant (PDA), a game machine, or the like.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・画像処理及び制御部、1b・・・表示制御部、1c・・・画像圧縮部、1d・・・画像加工部、1e・・・トリミング部、2・・・撮像部、3・・・顔検出部、4・・・記録部、4a・・・仮記録部、4b・・・仮記録部、6・・・加速度検知部、7・・・操作部、8・・・表示部、8b・・・タッチパネル、8c・・・光センサ、8d・・・バックライト、9・・・時計部、10・・・カメラ、12・・・通信部、21・・・撮影者、23・・・被写体、41a・・・発光光、41b・・・反射光、43・・・指、45・・・服、61・・・金属部、61a・・・基点、61b・・・架橋部、61c・・・可動部、62a・・・固定金属部、62b・・・固定金属部、71・・・円形領域、104・・・ストラップピン、108・・・ストラップ、109・・・クリップ、110・・・ポケット、112・・・鞄、127・・・表示部、131・・・荷物、133・・・撮影範囲、150x・・・加速度センサ、150y・・・加速度センサ、150z・・・加速度センサ DESCRIPTION OF SYMBOLS 1 ... Image processing and control part, 1b ... Display control part, 1c ... Image compression part, 1d ... Image processing part, 1e ... Trimming part, 2 ... Imaging part, 3. ..Face detection unit, 4 ... recording unit, 4a ... temporary recording unit, 4b ... temporary recording unit, 6 ... acceleration detection unit, 7 ... operation unit, 8 ... display unit , 8b ... touch panel, 8c ... optical sensor, 8d ... backlight, 9 ... clock part, 10 ... camera, 12 ... communication part, 21 ... photographer, 23. ..Subject, 41a ... emitted light, 41b ... reflected light, 43 ... finger, 45 ... clothes, 61 ... metal part, 61a ... base point, 61b ... bridging part, 61c: Movable part, 62a: Fixed metal part, 62b: Fixed metal part, 71 ... Circular region, 104 ... Strap pin, · Strap · 109 · · · Clip · 110 · · · Pocket · 112 · · · · · · · 127 · · · Display portion 131 · · · Luggage · 133 · · · Shooting range · 150x · · · acceleration sensor, 150y · ..Acceleration sensor, 150z ... Acceleration sensor

Claims (8)

被写体像を光電変換し画像データを出力する撮像部と、
上記画像データを記録する記録部と、
当該撮像装置に加えられた第1の方向の加速度を検出する第1加速度検出部と、
上記第1の方向とは異なる第2の方向の加速度を検出する第2加速度検出部と、
上記第1及び第2の加速度の変化に基づいて、上記画像データの記録を制御する記録制御部と、
を有することを特徴とする撮像装置。
An imaging unit that photoelectrically converts a subject image and outputs image data;
A recording unit for recording the image data;
A first acceleration detector that detects acceleration in a first direction applied to the imaging device;
A second acceleration detector for detecting acceleration in a second direction different from the first direction;
A recording control unit that controls recording of the image data based on changes in the first and second accelerations;
An imaging device comprising:
上記第1の加速度は、上記撮像装置に加えられた重力方向に逆らう加速度であり、
上記第2の加速度は、上記撮像装置の上記撮像部が上方に向けられる加速度である、
ことを特徴とする請求項1に記載の撮像装置。
The first acceleration is an acceleration against the direction of gravity applied to the imaging device,
The second acceleration is an acceleration at which the imaging unit of the imaging device is directed upward.
The imaging apparatus according to claim 1.
上記撮像部の裏面側に設けられ、上記画像データに基づいて上記被写体像を表示する表示部と、
上記表示部近傍が覆われた状態であるか否かを判定する検出部と、を有し、
上記記録制御部は、上記検出部によって上記表示部の近傍が覆われた状態であると判定した場合に、上記画像データの記録を行うことを特徴とする請求項1に記載の撮像装置。
A display unit provided on the back side of the imaging unit and displaying the subject image based on the image data;
A detection unit that determines whether or not the vicinity of the display unit is covered,
The imaging apparatus according to claim 1, wherein the recording control unit records the image data when it is determined that the vicinity of the display unit is covered by the detection unit.
上記検出部は、上記表示部の近傍に配置された受光部を有し、上記表示部から照射された光を上記受光部による受光状態に基づいて、上記表示部の近傍が覆われた状態であるか否かを判定することを特徴とする請求項3に記載の撮像装置。   The detection unit includes a light receiving unit disposed in the vicinity of the display unit, and the light irradiated from the display unit is covered in the vicinity of the display unit based on a light receiving state by the light receiving unit. The imaging apparatus according to claim 3, wherein it is determined whether or not there is any. 上記検出部は、上記表示部上に設けられたタッチパネルを有し、上記タッチパネルが上記光を照射すること特徴とする請求項4に記載の撮像装置。   The imaging device according to claim 4, wherein the detection unit includes a touch panel provided on the display unit, and the touch panel emits the light. 上記画像データから円形の画像データに変換する画像処理部を有し、
上記記録制御部は、上記画像処理部によって処理された円形の画像データを記録することを特徴とする請求項1に記載の撮像装置。
An image processing unit for converting the image data into circular image data;
The imaging apparatus according to claim 1, wherein the recording control unit records circular image data processed by the image processing unit.
被写体像を光電変換し画像データを出力する撮像部と、
上記画像データを記録する記録部と、
当該撮像装置に加えられた動きを検出する動き検出部と、
上記動き検出部の検出出力に基づいて、撮影者が胸をそらす動作を検出した後に、その状態が安定していた場合に、上記画像データの記録制御を行う制御部と、
を有することを特徴とする撮像装置。
An imaging unit that photoelectrically converts a subject image and outputs image data;
A recording unit for recording the image data;
A motion detection unit for detecting a motion applied to the imaging device;
Based on the detection output of the motion detection unit, a control unit that performs recording control of the image data when the state is stable after detecting a motion of the photographer to deflect the chest,
An imaging device comprising:
当該撮像装置の背面が覆われていることを判定する判定部を有し、
上記制御部は、上記判定部によって当該撮像装置の背面が覆われている際に、上記動き検出部の検出出力に基づいて、撮影者が胸をそらす動作を検出した後に、その状態が安定していた場合に、上記画像データの記録制御を行うことを特徴とする請求項7に記載の撮像装置。
A determination unit that determines that the back surface of the imaging apparatus is covered;
The control unit stabilizes the state after the photographer detects an action of turning his / her chest based on the detection output of the motion detection unit when the determination unit covers the back of the imaging device. 8. The image pickup apparatus according to claim 7, wherein recording control of the image data is performed when the image data is detected.
JP2009253800A 2009-11-05 2009-11-05 Imaging device Expired - Fee Related JP5513078B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009253800A JP5513078B2 (en) 2009-11-05 2009-11-05 Imaging device
US13/023,327 US9113064B2 (en) 2009-11-05 2011-02-08 Image pickup apparatus and image acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009253800A JP5513078B2 (en) 2009-11-05 2009-11-05 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014064127A Division JP5860914B2 (en) 2014-03-26 2014-03-26 Imaging device

Publications (3)

Publication Number Publication Date
JP2011101155A true JP2011101155A (en) 2011-05-19
JP2011101155A5 JP2011101155A5 (en) 2012-12-13
JP5513078B2 JP5513078B2 (en) 2014-06-04

Family

ID=44191984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009253800A Expired - Fee Related JP5513078B2 (en) 2009-11-05 2009-11-05 Imaging device

Country Status (1)

Country Link
JP (1) JP5513078B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015040809A1 (en) * 2013-09-20 2015-03-26 Necソリューションイノベータ株式会社 Electronic device, method for controlling electronic device, and storage medium
WO2019124056A1 (en) * 2017-12-18 2019-06-27 キヤノン株式会社 Imaging device, method for controlling same, program, and storage medium
JP2019110509A (en) * 2017-12-18 2019-07-04 キヤノン株式会社 Imaging device and method of controlling the same, program, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356970A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Photography method of wearable camera, imaging apparatus, and photography control program
JP2007208827A (en) * 2006-02-03 2007-08-16 Canon Inc Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356970A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Photography method of wearable camera, imaging apparatus, and photography control program
JP2007208827A (en) * 2006-02-03 2007-08-16 Canon Inc Imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015040809A1 (en) * 2013-09-20 2015-03-26 Necソリューションイノベータ株式会社 Electronic device, method for controlling electronic device, and storage medium
EP3048481A1 (en) * 2013-09-20 2016-07-27 NEC Solution Innovators, Ltd. Electronic device, method for controlling electronic device, and storage medium
JPWO2015040809A1 (en) * 2013-09-20 2017-03-02 Necソリューションイノベータ株式会社 Electronic device, control method and program for electronic device
EP3048481A4 (en) * 2013-09-20 2017-05-10 NEC Solution Innovators, Ltd. Electronic device, method for controlling electronic device, and storage medium
WO2019124056A1 (en) * 2017-12-18 2019-06-27 キヤノン株式会社 Imaging device, method for controlling same, program, and storage medium
JP2019110509A (en) * 2017-12-18 2019-07-04 キヤノン株式会社 Imaging device and method of controlling the same, program, and storage medium
US11451704B2 (en) 2017-12-18 2022-09-20 Canon Kabushiki Kaisha Image capturing apparatus, method for controlling the same, and storage medium
JP7233162B2 (en) 2017-12-18 2023-03-06 キヤノン株式会社 IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
US11729488B2 (en) 2017-12-18 2023-08-15 Canon Kabushiki Kaisha Image capturing apparatus, method for controlling the same, and storage medium

Also Published As

Publication number Publication date
JP5513078B2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
JP5495602B2 (en) Imaging apparatus and imaging method
US8976270B2 (en) Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation
US9113064B2 (en) Image pickup apparatus and image acquisition method
JP2011087167A (en) Camera device
US9338362B2 (en) Image capturing apparatus, image capturing control method and storage medium for capturing a subject to be recorded with intended timing
US9473725B2 (en) Image-processing and encoded aperture pattern setting device and method, and image pickup device comprising same
US20130002923A1 (en) Imaging device, azimuth information processing method and program
KR101610705B1 (en) Terminal having camera and method for processing image thereof
JP4236986B2 (en) Imaging apparatus, method, and program
JP2011249981A (en) Photographing apparatus and its control method
JP5630041B2 (en) Electronic equipment
JP2013048361A (en) Portable device
JP5495760B2 (en) Imaging device
JP6263740B2 (en) Imaging device
JP2010268112A (en) Imaging device, and imaging method
JP5513078B2 (en) Imaging device
WO2014034023A1 (en) Image processing apparatus, image processing method, and computer program
JP2005143112A (en) Camera and method concerning the same
JP5614244B2 (en) Imaging device
JP2009260599A (en) Image display apparatus and electronic camera
JP2013009061A (en) Camera and camera operation method
JP5860914B2 (en) Imaging device
JP5471133B2 (en) Imaging device
JP5612934B2 (en) Portable device and playback display method
JP2007013586A (en) Image pickup device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140327

R150 Certificate of patent or registration of utility model

Ref document number: 5513078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees