JP2012226003A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012226003A
JP2012226003A JP2011091244A JP2011091244A JP2012226003A JP 2012226003 A JP2012226003 A JP 2012226003A JP 2011091244 A JP2011091244 A JP 2011091244A JP 2011091244 A JP2011091244 A JP 2011091244A JP 2012226003 A JP2012226003 A JP 2012226003A
Authority
JP
Japan
Prior art keywords
exposure
unit
camera
sound
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011091244A
Other languages
Japanese (ja)
Other versions
JP2012226003A5 (en
JP5867673B2 (en
Inventor
Teppei Okuyama
哲平 奥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011091244A priority Critical patent/JP5867673B2/en
Publication of JP2012226003A publication Critical patent/JP2012226003A/en
Publication of JP2012226003A5 publication Critical patent/JP2012226003A5/ja
Application granted granted Critical
Publication of JP5867673B2 publication Critical patent/JP5867673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of operating at preferable timing.SOLUTION: There is provided an imaging apparatus having: an imaging part which performs imaging; an information acquisition part (28) which acquires information of a peripheral environment; a feature extraction part (20) which extracts a periodic feature of the information; and a control part (40) which controls the operation of the imaging part based on the periodic feature.

Description

本発明は、好適なタイミングで動作し得る撮像装置に関する。   The present invention relates to an imaging apparatus that can operate at a suitable timing.

音楽会や歌劇等などの舞台を撮影する際に、カメラに含まれるシャッターやミラー等の動作音が発生することは、撮影者の周辺にいる観客の鑑賞の妨げになる場合がある。そのため、このような場面で使用するカメラは、動作音がなるべく小さいものが好ましい。しかし、カメラを一定以上に静音化することは、カメラのその他の性能等とトレードオフとなる場合もあり、困難が伴う。   When shooting a stage such as a music concert or an opera, the occurrence of operation sounds such as shutters and mirrors included in the camera may interfere with the audience around the photographer. For this reason, it is preferable that the camera used in such a scene be as small as possible in the operation sound. However, it is difficult to make the camera quieter than a certain level because it may be a trade-off with other performances of the camera.

周辺環境の音を検知して撮影動作を行うカメラとしては、例えば所定以上の時間間隔で複数回入力されたパルス音に反応してレリーズ動作を行うカメラが提案されている。   As a camera that detects a sound of the surrounding environment and performs a photographing operation, for example, a camera that performs a release operation in response to a pulse sound input a plurality of times at a predetermined time interval or more has been proposed.

特開平4−317039号公報JP-A-4-317039

従来技術に係るカメラは、単に発生したパルス音をトリガーとしてレリーズを行うものであり、環境音の周期的特性から将来の状態を予想して撮影動作を行うものではない。したがって、従来技術に係るカメラは、音の発生を介してレリーズを遠隔操作することはできるものの、その動作音を目立たなくする効果等は期待できない。   The camera according to the prior art performs release by using a generated pulse sound as a trigger, and does not perform a photographing operation by predicting a future state from the periodic characteristics of environmental sound. Therefore, although the camera according to the related art can remotely control the release through the generation of sound, the effect of making the operation sound inconspicuous cannot be expected.

本発明に係る撮像装置は、このような課題に鑑みてなされたものであり、その目的は、好適なタイミングで動作し得る撮像装置を提供することである。   The imaging device according to the present invention has been made in view of such a problem, and an object thereof is to provide an imaging device that can operate at a suitable timing.

上記目的を達成するために、本発明に係る撮像装置は、
撮像を行う撮像部と、
周辺環境の情報を取得する情報取得部(28)と、
前記情報の周期的特徴を抽出する特徴抽出部(30)と、
前記周期的特徴に基づき前記撮像部の動作を制御する制御部(40)と、
を有する。
In order to achieve the above object, an imaging apparatus according to the present invention provides:
An imaging unit for imaging;
An information acquisition unit (28) for acquiring information on the surrounding environment;
A feature extraction unit (30) for extracting periodic features of the information;
A control unit (40) for controlling the operation of the imaging unit based on the periodic characteristics;
Have

また、例えば、前記情報取得部は、前記周辺環境の音に関する前記情報を取得するものであっても良い。   Further, for example, the information acquisition unit may acquire the information related to sounds in the surrounding environment.

また、例えば、前記撮像部は、露光動作を行う露光部(20)を有しても良く、
前記制御部は、前記露光部の動作を制御するものであっても良い。
For example, the imaging unit may include an exposure unit (20) that performs an exposure operation.
The control unit may control an operation of the exposure unit.

また、例えば、前記露光部は、前記露光動作を連写周期で複数回行う連写露光部であっても良く、
前記制御部は、前記連写露光部の前記連写周期が、前記周期的特徴と同期するように、前記連写露光部を制御しても良い。
Further, for example, the exposure unit may be a continuous exposure unit that performs the exposure operation a plurality of times in a continuous shooting cycle,
The control unit may control the continuous exposure unit so that the continuous shooting period of the continuous exposure unit is synchronized with the periodic feature.

また、例えば、前記露光部は、前記露光動作を連写周期で複数回行う連写露光部であっても良く、
前記情報取得部は、前記連写露光部が前記連写周期で前記露光動作を行っている間に前記情報の取得を行っても良く、
前記特徴抽出部は、前記連写露光部が前記連写周期で前記露光動作を行っている間に前記周期的特徴の抽出を行っても良く、
前記制御部は、前記連写露光部が前記連写周期で前記露光動作を行っている間に抽出された前記周期的特徴に合わせて前記連写周期を変化させるように、前記連写露光部を制御するものであっても良い。
Further, for example, the exposure unit may be a continuous exposure unit that performs the exposure operation a plurality of times in a continuous shooting cycle,
The information acquisition unit may acquire the information while the continuous exposure unit performs the exposure operation at the continuous shooting period.
The feature extraction unit may extract the periodic feature while the continuous exposure unit performs the exposure operation at the continuous shooting period,
The control unit is configured to change the continuous shooting period according to the periodic feature extracted while the continuous exposure unit performs the exposure operation at the continuous shooting period. It may be one that controls.

また、例えば、前記情報取得部は、前記周辺環境の音に関する前記情報を取得しても良く、
前記特徴抽出部は、前記音に関する情報の周波数成分と位相成分とを前記周期的特徴として抽出しても良く、
前記制御部は、前記周期的特徴に基づいて、周期的に取得される音のうち最も大きい音に同期するように、前記撮像部の動作を制御しても良い。
In addition, for example, the information acquisition unit may acquire the information related to sounds in the surrounding environment,
The feature extraction unit may extract a frequency component and a phase component of information related to the sound as the periodic feature,
The control unit may control the operation of the imaging unit to synchronize with the loudest sound among the periodically acquired sounds based on the periodic feature.

なお上述の説明では、本発明をわかりやすく説明するために実施形態を示す図面の符号に対応づけて説明したが、本発明は、これに限定されるものでない。後述の実施形態の構成を適宜改良してもよく、また、少なくとも一部を他の構成物に代替させてもよい。さらに、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In the above description, in order to explain the present invention in an easy-to-understand manner, the description is made in association with the reference numerals of the drawings showing the embodiments. However, the present invention is not limited to this. The configuration of the embodiment described later may be improved as appropriate, or at least a part of the configuration may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

図1は、本発明の一実施形態に係る撮像装置を搭載したカメラシステムの概略図である。FIG. 1 is a schematic diagram of a camera system equipped with an imaging apparatus according to an embodiment of the present invention. 図2は、図1に示すカメラシステムで行われる撮影動作の一例を表すフローチャートである。FIG. 2 is a flowchart showing an example of a photographing operation performed by the camera system shown in FIG. 図3は、図1に示すカメラシステムで行われる周期的特徴の抽出処理の一例を表すフローチャートである。FIG. 3 is a flowchart illustrating an example of a periodic feature extraction process performed by the camera system illustrated in FIG. 1. 図4は、図1に示すカメラシステムで行われる撮影動作の他の一例を表すフローチャートである。FIG. 4 is a flowchart showing another example of the photographing operation performed by the camera system shown in FIG. 図5は、図2〜図4に示す撮影動作におけるタイムチャートの一例を表す図である。FIG. 5 is a diagram illustrating an example of a time chart in the photographing operation illustrated in FIGS.

図1は、本発明の一実施形態に係る撮像装置を搭載したカメラシステム10の概略図である。カメラシステム10は、カメラボディ12と、カメラボディ12に対して着脱可能に取り付けられるレンズ鏡筒52を有する。本実施形態では、カメラシステム10に搭載された撮像装置を例に説明を行うが、本発明に係る撮像装置はこれに限定されず、レンズとボディが一体であるコンパクトカメラや、ビデオカメラ、携帯電話等に搭載されても良い。   FIG. 1 is a schematic diagram of a camera system 10 equipped with an imaging apparatus according to an embodiment of the present invention. The camera system 10 includes a camera body 12 and a lens barrel 52 that is detachably attached to the camera body 12. In the present embodiment, an image pickup apparatus mounted on the camera system 10 will be described as an example. However, the image pickup apparatus according to the present invention is not limited to this, and a compact camera, a video camera, a mobile phone with a lens and a body integrated with each other. It may be mounted on a telephone or the like.

レンズ鏡筒52には、撮影光学系54や絞り56等が備えられる。撮影光学系54は、カメラボディ12の内部に被写体光を導くものである。撮影光学系54によってカメラボディ12内に導かれた被写体光による像は、カメラボディ12の内部に備えられる撮像素子26によって撮像される。撮影光学系54には、AFレンズ群、ズームレンズ群、ブレ補正レンズ群など、複数のレンズ群が含まれていても良い。絞り56は、撮影光学系54を通過する被写体光の量を調整するための部材である。   The lens barrel 52 is provided with a photographing optical system 54, a diaphragm 56, and the like. The photographing optical system 54 guides subject light into the camera body 12. An image of subject light guided into the camera body 12 by the photographing optical system 54 is captured by the image sensor 26 provided inside the camera body 12. The photographing optical system 54 may include a plurality of lens groups such as an AF lens group, a zoom lens group, and a shake correction lens group. The diaphragm 56 is a member for adjusting the amount of subject light passing through the photographing optical system 54.

カメラボディ12には、ペンタダハプリズム14やファインダスクリーン16などのファインダに関する部材と、クイックリターンミラー22、シャッター24、撮像素子26など、露光部20を構成する部材が含まれる。さらに、カメラボディ12は、マイク28や、カメラシステム10の周辺環境の特徴を抽出する特徴抽出部30や、カメラシステム10の撮影動作を制御するカメラ駆動制御部40等を有する。   The camera body 12 includes members relating to the finder such as the penta roof prism 14 and the finder screen 16 and members constituting the exposure unit 20 such as the quick return mirror 22, the shutter 24, and the image sensor 26. Furthermore, the camera body 12 includes a microphone 28, a feature extraction unit 30 that extracts features of the surrounding environment of the camera system 10, a camera drive control unit 40 that controls a shooting operation of the camera system 10, and the like.

クイックリターンミラー22は、露光時以外には光路中に位置し、被写体光を反射してファインダスクリーン16へ導く。ファインダスクリーン16及びペンタダハプリズム14は、被写体光による像を接眼レンズ(不図示)へ導く。撮影者は、接眼レンズを覗き込むことにより、被写体像を視認しながら撮影を行うことができる。クイックリターンミラー22は、カメラ駆動制御部40によって制御される駆動装置によって駆動され、露光時には光路から退避する。   The quick return mirror 22 is located in the optical path except during exposure, reflects the subject light, and guides it to the finder screen 16. The viewfinder screen 16 and the penta roof prism 14 guide an image of subject light to an eyepiece (not shown). The photographer can take a picture while viewing the subject image by looking into the eyepiece. The quick return mirror 22 is driven by a driving device controlled by the camera drive control unit 40 and retracts from the optical path during exposure.

シャッター24は、撮像素子26の前面に配置されており、被写体光を遮蔽及び通過させることによって、露光時における露光時間(シャッタ速度)や露光のタイミングを調整する。シャッター24はモーター等によって構成される駆動部によって駆動される。シャッター24の駆動は、クイックリターンミラー22と同様に、カメラ駆動制御部40によって制御される。   The shutter 24 is disposed in front of the image sensor 26, and adjusts the exposure time (shutter speed) and the exposure timing at the time of exposure by shielding and passing the subject light. The shutter 24 is driven by a drive unit configured by a motor or the like. The driving of the shutter 24 is controlled by the camera drive control unit 40 as in the case of the quick return mirror 22.

撮像素子26は、被写体光を光電変換し、画像信号を生成する。撮像素子26は、例えばCCDやCMOS等の固体撮像素子で構成されるが特に限定されない。撮像素子26で生成された画像信号は、適切な処理が行われた後、カメラボディ12に取り付けられたメモリカード等に保存される。撮像素子26による画像信号の生成等についても、カメラ駆動制御部40によって制御される。   The image sensor 26 photoelectrically converts subject light to generate an image signal. The image sensor 26 is configured by a solid-state image sensor such as a CCD or a CMOS, but is not particularly limited. The image signal generated by the image sensor 26 is stored in a memory card or the like attached to the camera body 12 after appropriate processing. The generation of the image signal by the image sensor 26 is also controlled by the camera drive control unit 40.

カメラ駆動制御部40は、カメラシステム10の内部に備えられた各部材を制御するための部材であり、例えば中央演算処理装置(CPU)等によって構成される。カメラ駆動制御部40は、クイックリターンミラー22、シャッター24及び撮像素子26等、露光時において制御が必要となる露光部20だけでなく、レンズ鏡筒52に備えられる絞り56や、AF機構、ブレ補正機構など、撮像を行う撮像部に含まれるその他の機構についても制御を行う。また、カメラ駆動制御部40は、後述するマイク28や、特徴抽出部30の駆動についても、制御を行うことができる。   The camera drive control unit 40 is a member for controlling each member provided in the camera system 10, and is configured by, for example, a central processing unit (CPU). The camera drive control unit 40 includes not only the exposure unit 20 that needs to be controlled during exposure, such as the quick return mirror 22, the shutter 24, and the image sensor 26, but also an aperture 56 provided in the lens barrel 52, an AF mechanism, Control is also performed for other mechanisms included in the imaging unit that performs imaging, such as a correction mechanism. The camera drive control unit 40 can also control the driving of the microphone 28 and the feature extraction unit 30 described later.

レリーズスイッチ36は、撮影者が露光タイミングを入力するためのスイッチであり、カメラボディ12の上面部分等に設けられる。レリーズスイッチ36は、撮影者による押し下げ量に応じて、半押し信号及び全押し信号をカメラ駆動制御部40に出力することができる。   The release switch 36 is a switch for a photographer to input an exposure timing, and is provided on an upper surface portion of the camera body 12 or the like. The release switch 36 can output a half-press signal and a full-press signal to the camera drive control unit 40 according to the amount of depression by the photographer.

集音開始ボタン38は、音の周期的特徴に基づき露光タイミングを調整するか否かを、撮影者に選択させるためのスイッチである。撮影者は、集音開始ボタン38をOFF又はONすることによって、レリーズスイッチ36の押し下げに単純に反応する通常の露光動作を行わせるか、周辺環境音の周期的特徴に基づき露光タイミングを制御及び調整する露光動作を行わせるかを、選択することができる。なお、周辺環境音の周期的特徴に基づき露光タイミングを調整する露光動作については、フローチャート等を用いて後述する。   The sound collection start button 38 is a switch for allowing the photographer to select whether or not to adjust the exposure timing based on the periodic characteristics of the sound. The photographer controls the exposure timing based on the periodic characteristics of the ambient environment sound by turning off or on the sound collection start button 38 to perform a normal exposure operation that simply reacts to the depression of the release switch 36. It is possible to select whether to perform the exposure operation to be adjusted. The exposure operation for adjusting the exposure timing based on the periodic characteristics of the ambient environmental sound will be described later using a flowchart and the like.

マイク28は、カメラシステム10の周辺環境の情報のうち、周辺環境の音に関する情報を取得する。マイク28は、例えば音を構成する空気振動を電気信号に変換し、特徴抽出部30に出力する。マイク28としては、ダイナミック型やコンデンサ型のマイクを用いることができるが、環境音に関する信号を取得できるものであれば特に限定されない。   The microphone 28 acquires information related to sounds in the surrounding environment among information on the surrounding environment of the camera system 10. The microphone 28 converts, for example, air vibration that constitutes sound into an electrical signal and outputs the electrical signal to the feature extraction unit 30. As the microphone 28, a dynamic type or capacitor type microphone can be used, but it is not particularly limited as long as it can acquire a signal related to environmental sound.

特徴抽出部30は、サンプラ32と処理回路34によって構成される。サンプラ32は、マイク28からの電気信号をデジタルデータに変換し、必要に応じて格納する機能を有する。例えばサンプラ32は、マイク28によって取得された周辺環境の音に関する信号を、WAV形式の音声データ(デジタルデータ)に変換する。図1に示すように、本実施形態に係るサンプラ32は、生成した音声データであるWavData(i)を、処理回路34に出力する。   The feature extraction unit 30 includes a sampler 32 and a processing circuit 34. The sampler 32 has a function of converting an electrical signal from the microphone 28 into digital data and storing it as necessary. For example, the sampler 32 converts a signal related to sounds in the surrounding environment acquired by the microphone 28 into audio data (digital data) in the WAV format. As shown in FIG. 1, the sampler 32 according to the present embodiment outputs WavData (i) that is generated audio data to the processing circuit 34.

処理回路34は、サンプラ32によって生成された音声データから、音に関する情報の周波数成分と位相成分とを抽出する。また、処理回路34は、周辺環境音に含まれる波形成分の中から、所定の周波数領域内において最も振幅の大きい成分を検出することによって、周辺環境音の主要周波数及びその位相である主要位相を検出する。   The processing circuit 34 extracts the frequency component and the phase component of the information related to the sound from the sound data generated by the sampler 32. Further, the processing circuit 34 detects a component having the largest amplitude in a predetermined frequency region from among the waveform components included in the ambient environment sound, thereby obtaining the main frequency and the main phase that is the phase of the ambient environment sound. To detect.

さらに、処理回路34は、周辺環境音の主要周波数及び主要位相を基に、露光タイミングを決定するための位相(カメラ駆動位相データ)や連写周期(カメラ駆動周波数)を決定する。処理回路34おける具体的演算方法は特に限定されないが、処理回路34としては、例えば、WAV形式の音声データに対して高速フーリエ変換(FFT)処理を実施し、周波数成分や位相成分を抽出するものが挙げられる。   Further, the processing circuit 34 determines a phase (camera driving phase data) and a continuous shooting period (camera driving frequency) for determining the exposure timing based on the main frequency and the main phase of the ambient environmental sound. The specific calculation method in the processing circuit 34 is not particularly limited. For example, the processing circuit 34 performs fast Fourier transform (FFT) processing on audio data in the WAV format and extracts frequency components and phase components. Is mentioned.

本実施形態に係る処理回路34は、例えば、音声データであるWavData(i)に対して高速フーリエ変換(FFT)処理を実施することによって、音声データが周波数帯毎に解析されたFFTData(i)を得る。さらに、処理回路34は、FFTData(i)に含まれる波形成分のうち、所定の周波数領域内において最も振幅の大きい周波数成分を周辺環境音の主要周波数F(i)とし、その位相を主要位相P(i)とする。   The processing circuit 34 according to the present embodiment performs, for example, a fast Fourier transform (FFT) process on WavData (i) that is sound data, thereby analyzing the sound data for each frequency band. FFTData (i) Get. Further, the processing circuit 34 sets the frequency component having the largest amplitude in the predetermined frequency region among the waveform components included in FFTData (i) as the main frequency F (i) of the ambient environmental sound, and the phase thereof as the main phase P. (I).

この場合、処理回路34は、カメラシステム10において露光時に発生する駆動音を目立たなくするために適切な周波数領域から、主要周波数F(i)及び主要位相P(i)を選択することが好ましい。駆動音を目立たなくする周波数及び位相としては、例えば音楽の拍子と一致する周波数及び位相が挙げられる。そのため、例えば処理回路34は、音楽の拍子と一致するように、主要周波数F(i)を決定することができる。このような観点から、処理回路34は、主要周波数F(i)の選定の対象となる周波数領域を、例えば0.5〜5Hz(一分間に30〜300拍)程度とすることができる。   In this case, it is preferable that the processing circuit 34 selects the main frequency F (i) and the main phase P (i) from an appropriate frequency region in order to make the drive sound generated during exposure in the camera system 10 inconspicuous. Examples of the frequency and phase that make the driving sound inconspicuous include a frequency and phase that match the time signature of music. Therefore, for example, the processing circuit 34 can determine the main frequency F (i) so as to coincide with the time signature of music. From such a viewpoint, the processing circuit 34 can set the frequency region to be selected for the main frequency F (i) to, for example, about 0.5 to 5 Hz (30 to 300 beats per minute).

さらに、処理回路34は、主要周波数F(i)及び主要位相P(i)に基づき、周辺環境音の音圧が大きくなるタイミングと、カメラの露光タイミングが同調するように、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を決定する。   Further, the processing circuit 34 is based on the main frequency F (i) and the main phase P (i), so that the timing at which the sound pressure of the ambient environmental sound increases and the exposure timing of the camera are synchronized. i) and camera drive phase data Pc (i) are determined.

図2は、図1に示すカメラシステム10で行われる撮影動作の一例を表すフローチャートである。図2に示す制御処理は、カメラシステム10において行われる撮影動作のうち、マイク28を介して取得される音を用いて行われる露光動作を含む撮影動作に関するものである。図2に示す一連の制御処理は、主としてカメラ駆動制御部40において行われる。   FIG. 2 is a flowchart showing an example of a photographing operation performed by the camera system 10 shown in FIG. The control processing shown in FIG. 2 relates to a photographing operation including an exposure operation performed using sound acquired through the microphone 28 among photographing operations performed in the camera system 10. A series of control processing shown in FIG. 2 is mainly performed in the camera drive control unit 40.

図1に示すステップS001では、カメラ駆動制御部40は、一連の処理を開始する。カメラ駆動制御部40は、例えばカメラボディ12のレリーズスイッチ36が半押しされたタイミングで、処理を開始する。   In step S001 shown in FIG. 1, the camera drive control unit 40 starts a series of processes. For example, the camera drive control unit 40 starts processing at the timing when the release switch 36 of the camera body 12 is half-pressed.

ステップS002では、カメラ駆動制御部40は、集音開始ボタン38がONになっているかどうかを検出する。カメラ駆動制御部40は、集音開始ボタン38がONになっていることを検出した場合、ステップS003の処理を行う。   In step S002, the camera drive control unit 40 detects whether the sound collection start button 38 is ON. When the camera drive control unit 40 detects that the sound collection start button 38 is ON, the camera drive control unit 40 performs the process of step S003.

ステップS003では、カメラ駆動制御部40は、マイク28及び特徴抽出部30に制御信号を出力し、周辺環境の音に関する情報の周期的特徴の抽出処理を開始させる。マイク28及び特徴抽出部30は、カメラ駆動制御部40からの指示を受けて周辺環境の音に関する周期的特徴を抽出し、抽出結果に基づき、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を算出する。特徴抽出部30におけるカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)の算出処理については、図3を用いて後述する。   In step S003, the camera drive control unit 40 outputs a control signal to the microphone 28 and the feature extraction unit 30, and starts a process for extracting periodic features of information related to sounds in the surrounding environment. The microphone 28 and the feature extraction unit 30 receive a command from the camera drive control unit 40 and extract periodic features related to sounds in the surrounding environment. Based on the extraction result, the camera drive frequency Fc (i) and the camera drive phase data Pc are extracted. (I) is calculated. The calculation process of the camera drive frequency Fc (i) and the camera drive phase data Pc (i) in the feature extraction unit 30 will be described later with reference to FIG.

ステップS004では、カメラ駆動制御部40は、レリーズスイッチ36がONになっているか否かを検出する。カメラ駆動制御部40は、撮影者による押し下げ等により、レリーズスイッチ36がON(全押し)になっていることを検出した場合、ステップS005の処理を行う。   In step S004, the camera drive control unit 40 detects whether or not the release switch 36 is ON. When the camera drive control unit 40 detects that the release switch 36 is turned on (fully pressed) due to depression by the photographer or the like, the camera drive control unit 40 performs processing in step S005.

ステップS005では、カメラ駆動制御部40は、特徴抽出部30における処理回路34で算出されたカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を読み込む。カメラ駆動周波数Fc(i)は、例えば、周辺環境音に含まれる成分のうち、所定の周波数領域において最も振幅の大きい成分と同一の周波数とすることができる。あるいは、カメラ駆動周波数Fc(i)は、周辺環境音に含まれる成分のうち、所定の周波数領域において最も振幅の大きい成分の1/N(Nは2以上の整数)の周波数とすることができる。また、カメラ駆動位相データPc(i)は、周辺環境音に含まれる成分のうち、所定の周波数領域において最も振幅の大きい成分と同位相とすることができる。あるいは、カメラ駆動位相データPc(i)は、周辺環境音に含まれる成分のうち、所定の周波数領域において最も振幅の大きい成分に対して振幅のピークが一定の周期で一致する位相とすることができる。   In step S005, the camera drive control unit 40 reads the camera drive frequency Fc (i) and the camera drive phase data Pc (i) calculated by the processing circuit 34 in the feature extraction unit 30. The camera drive frequency Fc (i) can be set to the same frequency as the component having the largest amplitude in a predetermined frequency region among the components included in the ambient environmental sound, for example. Alternatively, the camera drive frequency Fc (i) can be a frequency of 1 / N (N is an integer of 2 or more) of the component having the largest amplitude in the predetermined frequency region among the components included in the ambient environmental sound. . The camera drive phase data Pc (i) can be in phase with the component having the largest amplitude in a predetermined frequency region among the components included in the ambient environmental sound. Alternatively, the camera drive phase data Pc (i) may have a phase in which the peak of the amplitude coincides with a component having the largest amplitude in a predetermined frequency region among the components included in the ambient environmental sound at a constant period. it can.

ステップS006では、カメラ駆動制御部40は、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)に基づき、クイックリターンミラー22、シャッター24及び撮像素子26を制御して露光を行う。これにより、カメラ駆動制御部40は、例えばクイックリターンミラー22及びシャッター24の駆動及びこれによって生じる音が、音楽の拍子のような周辺環境音の音圧が大きくなるタイミングに同期するように、露光部20を制御することができる。なお、ステップS006における露光動作は、レリーズスイッチ36の一回の押し下げに対して一回のみの露光を行って1枚の画像を得るものであっても良く、レリーズスイッチ36の一回の押し下げに対して一定の周期で複数回の露光を行って複数枚の画像を得るもの(いわゆる連写)であってもよい。   In step S006, the camera drive control unit 40 performs exposure by controlling the quick return mirror 22, the shutter 24, and the image sensor 26 based on the camera drive frequency Fc (i) and the camera drive phase data Pc (i). Accordingly, the camera drive control unit 40 performs exposure so that, for example, the drive of the quick return mirror 22 and the shutter 24 and the sound generated thereby are synchronized with the timing at which the sound pressure of the ambient environmental sound such as the time signature of the music increases. The unit 20 can be controlled. Note that the exposure operation in step S006 may be to perform only one exposure to obtain one image with respect to a single depression of the release switch 36, and to perform a single depression of the release switch 36. On the other hand, it may be one that obtains a plurality of images by performing a plurality of exposures at a constant cycle (so-called continuous shooting).

ステップS006を終えた後、カメラ駆動制御部40は、ステップS007の処理へ進む。ステップS007において、カメラ駆動制御部40は、一連の処理を終了させる。   After step S006 is completed, the camera drive control unit 40 proceeds to the process of step S007. In step S007, the camera drive control unit 40 ends the series of processes.

図3は、主として図1に示す特徴抽出部30で行われる演算処理の一例を表すフローチャートである。ステップS101では、ステップS003(図2参照)においてカメラ駆動制御部40から送られる制御信号に応じて、特徴抽出部30が一連の処理を開始する。   FIG. 3 is a flowchart showing an example of the arithmetic processing mainly performed by the feature extraction unit 30 shown in FIG. In step S101, the feature extraction unit 30 starts a series of processes in response to the control signal sent from the camera drive control unit 40 in step S003 (see FIG. 2).

ステップS102では、特徴抽出部30のサンプラ32が、マイク28により取得された周辺環境の音に関する信号から、WAV形式の音声データであるWavData(i)を生成する。さらに、サンプラ32は、生成した音声データWavData(i)を、処理回路34に出力する。   In step S <b> 102, the sampler 32 of the feature extraction unit 30 generates WavData (i) that is audio data in the WAV format from the signal related to the sound of the surrounding environment acquired by the microphone 28. Further, the sampler 32 outputs the generated audio data WavData (i) to the processing circuit 34.

ステップS103では、特徴抽出部30の処理回路34が、音声データWavData(i)に対して高速フーリエ変換(FFT)処理を実施し、周波数帯毎に解析された音声解析データFFTData(i)を得る。   In step S103, the processing circuit 34 of the feature extraction unit 30 performs fast Fourier transform (FFT) processing on the voice data WavData (i), and obtains voice analysis data FFTData (i) analyzed for each frequency band. .

ステップS104では、処理回路34が、音声解析データFFTData(i)から、周辺環境音の主要周波数F(i)及び主要位相P(i)を算出する。図3に示す例においては、処理回路34は、音声解析データFFTData(i)に含まれる波形成分のうち、0.5〜5Hzにおいて最も振幅の大きい周波数成分を周辺環境音の主要周波数F(i)とし、その位相を主要位相P(i)とする。   In step S104, the processing circuit 34 calculates the main frequency F (i) and the main phase P (i) of the ambient environmental sound from the sound analysis data FFTData (i). In the example shown in FIG. 3, the processing circuit 34 uses the frequency component having the largest amplitude at 0.5 to 5 Hz among the waveform components included in the audio analysis data FFTData (i) as the main frequency F (i of the ambient environmental sound. ) And that phase is the main phase P (i).

ステップS105では、処理回路34が、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPcを決定する。処理回路34は、ステップS104で算出された主要周波数F(i)が、カメラシステム10の最大連写周波数である最大連写速度Fmax以下である場合、処理回路34は、カメラ駆動周波数Fc(i)を主要周波数F(i)と同一の値とする。これに対して、ステップS104で算出された主要周波数F(i)が最大連写速度Fmaxより大きい場合、処理回路34は、カメラ駆動周波数Fc(i)を主要周波数F(i)の1/Nであって最大連写速度Fmaxを超えない値とする。なお、この場合、連写速度を可能な限り高速とするために、Nは条件を満たし得る最小の値とすることが好ましい。   In step S105, the processing circuit 34 determines the camera drive frequency Fc (i) and the camera drive phase data Pc. When the main frequency F (i) calculated in step S104 is equal to or lower than the maximum continuous shooting speed Fmax that is the maximum continuous shooting frequency of the camera system 10, the processing circuit 34 determines that the camera driving frequency Fc (i ) Is the same value as the main frequency F (i). On the other hand, when the main frequency F (i) calculated in step S104 is larger than the maximum continuous shooting speed Fmax, the processing circuit 34 sets the camera driving frequency Fc (i) to 1 / N of the main frequency F (i). And a value that does not exceed the maximum continuous shooting speed Fmax. In this case, in order to make the continuous shooting speed as high as possible, N is preferably set to a minimum value that can satisfy the condition.

また、ステップS105において、処理回路34は、カメラ駆動周波数Fc(i)の算出値に応じて、主要位相P(i)からカメラ駆動位相データPc(i)を決定する。なお、ステップS105で算出されたカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)は、不図示のメモリ等に一時的に格納されても良い。   In step S105, the processing circuit 34 determines camera drive phase data Pc (i) from the main phase P (i) according to the calculated value of the camera drive frequency Fc (i). Note that the camera drive frequency Fc (i) and the camera drive phase data Pc (i) calculated in step S105 may be temporarily stored in a memory (not shown) or the like.

ステップS106において、特徴抽出部30は、周辺環境音に関するデータからカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を算出する一連の処理を続行するか否かを判断する。特徴抽出部30は、例えばカメラ駆動制御部40が図2のステップS004に示すレリーズ判定処理を続けている場合には、ステップS102へ戻り、処理を続行する。この場合、特徴抽出部30は、ステップS102からステップS105に示す処理を繰り返し、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を所定の周期で更新する。   In step S106, the feature extraction unit 30 determines whether or not to continue a series of processes for calculating the camera drive frequency Fc (i) and the camera drive phase data Pc (i) from the data related to the ambient environmental sound. For example, when the camera drive control unit 40 continues the release determination process shown in step S004 of FIG. 2, the feature extraction unit 30 returns to step S102 and continues the process. In this case, the feature extraction unit 30 repeats the processing from step S102 to step S105, and updates the camera drive frequency Fc (i) and the camera drive phase data Pc (i) at a predetermined cycle.

それに対して、特徴抽出部30は、例えば図1に示す集音開始ボタン38がOFFにされるなどして、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)の算出を継続する必要がないと判断した場合には、ステップS107へ進む。ステップS107では、図3に示す一連の処理を終了する。   On the other hand, the feature extraction unit 30 continues to calculate the camera drive frequency Fc (i) and the camera drive phase data Pc (i), for example, by turning off the sound collection start button 38 shown in FIG. If it is determined that it is not necessary, the process proceeds to step S107. In step S107, the series of processes shown in FIG.

図5は、図1に示すカメラシステム10で行われる撮影動作のタイムチャートの一例である。信号62は、特徴抽出部30のサンプラ32で算出される音声データWavData(i)を表している。また、信号66は処理回路34で算出される音声解析データFFTData(i)を表しており、信号68はカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を表している。なお、iは、データを特定するための変数である。   FIG. 5 is an example of a time chart of the photographing operation performed by the camera system 10 shown in FIG. The signal 62 represents audio data WavData (i) calculated by the sampler 32 of the feature extraction unit 30. A signal 66 represents voice analysis data FFTData (i) calculated by the processing circuit 34, and a signal 68 represents camera drive frequency Fc (i) and camera drive phase data Pc (i). Note that i is a variable for specifying data.

図5に示すように、処理回路34における音声解析データFFTData(i)、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)の算出は、サンプラ32における音声データWavData(i)の算出に対して、FTTtime−lag64の分だけ遅れる。   As shown in FIG. 5, the audio analysis data FFTData (i), the camera drive frequency Fc (i), and the camera drive phase data Pc (i) are calculated in the processing circuit 34 by calculating the audio data WavData (i) in the sampler 32. However, it is delayed by FTTtime-lag64.

図2において説明した処理では、カメラ駆動制御部40は、レリーズONを検出(図2のステップS004)した時間t0における音声解析データFFTData(i)、カメラ駆動周波数Fc(i−2)及びカメラ駆動位相データPc(i−2)を用いて、露光動作を制御する。信号70は、図2のステップS006における露光が連写ではなく、1回のみの露光である場合における露光タイミングを示すものである。信号70の凸部は、ミラーUP及びシャッター駆動等の露光動作が現実に実施されるタイミングを示している。信号70が示すように、レリーズONを検出してから露光が開始されるまでの時間a1は、カメラ駆動周波数Fc(i−2)及びカメラ駆動位相データPc(i−2)に基づき決定される。これにより、カメラシステム10の露光タイミングは、音声データWavData(i−2)を基に検出された周期的特徴に同期する。   In the processing described with reference to FIG. 2, the camera drive control unit 40 detects the voice analysis data FFTData (i), the camera drive frequency Fc (i-2), and the camera drive at time t0 when release ON is detected (step S004 in FIG. 2). The exposure operation is controlled using the phase data Pc (i-2). The signal 70 indicates the exposure timing when the exposure in step S006 in FIG. 2 is not continuous shooting but only one exposure. The convex portion of the signal 70 indicates the timing at which an exposure operation such as mirror UP and shutter driving is actually performed. As indicated by the signal 70, the time a1 from the detection of release ON to the start of exposure is determined based on the camera drive frequency Fc (i-2) and the camera drive phase data Pc (i-2). . Thereby, the exposure timing of the camera system 10 synchronizes with the periodic feature detected based on the audio data WavData (i-2).

信号72は、図2のステップS006における露光が連写である場合における露光タイミングを示すものである。連写の場合は、レリーズONを検出してから露光が開始されるまでの時間a1と、露光動作を行う周期である連写周期a2が、カメラ駆動周波数Fc(i−2)及びカメラ駆動位相データPc(i−2)に基づき決定される。これにより、カメラシステム10の各露光タイミングは、音声データWavData(i−2)を基に検出された周期的特徴に同期する。   The signal 72 indicates the exposure timing when the exposure in step S006 in FIG. 2 is continuous shooting. In the case of continuous shooting, the time a1 from the detection of release ON to the start of exposure and the continuous shooting period a2, which is the period for performing the exposure operation, are the camera driving frequency Fc (i-2) and the camera driving phase. It is determined based on the data Pc (i-2). Thereby, each exposure timing of the camera system 10 synchronizes with the periodic feature detected based on the audio data WavData (i-2).

図4は、図1に示すカメラシステム10で行われる撮影動作の他の一例を表すフローチャートである。図4に示す制御処理は、カメラシステム10において連写撮影を行う場合に実施される。図4におけるステップS201〜ステップS205に係る処理は、図2において説明したステップS001〜ステップS005に係る処理と同様であるため、説明を省略する。   FIG. 4 is a flowchart showing another example of the photographing operation performed by the camera system 10 shown in FIG. The control process shown in FIG. 4 is performed when continuous shooting is performed in the camera system 10. The processes according to steps S201 to S205 in FIG. 4 are the same as the processes according to steps S001 to S005 described in FIG.

ステップS206において、カメラ制御部40は、ステップS006と同様に、ステップS205で読み込んだカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)に基づき、露光動作を制御する。ただし、ステップS206では、一回のみの露光動作を行い、その後ステップS207の処理へ進む。   In step S206, the camera control unit 40 controls the exposure operation based on the camera drive frequency Fc (i) and the camera drive phase data Pc (i) read in step S205, as in step S006. However, in step S206, only one exposure operation is performed, and then the process proceeds to step S207.

ステップS207では、カメラ駆動制御部40が、カメラボディ12に備えられるレリーズスイッチ36がONのままになっているか否かを検出する。レリーズスイッチ36がOFFになっている場合には、ステップS209に示す処理へ進み、一連の撮影動作を終了する。   In step S207, the camera drive control unit 40 detects whether or not the release switch 36 provided in the camera body 12 remains ON. If the release switch 36 is OFF, the process proceeds to step S209, and a series of shooting operations is terminated.

ステップS207において、レリーズスイッチ36がONのままになっていると判断した場合には、カメラ駆動制御部40は、ステップS208に示す判断を行う。ステップS208において、カメラ駆動制御部40は、処理回路34においてカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)が更新されたか否かを、所定の時間が経過したか否かによって判断する。ステップS208において、カメラ駆動制御部40が、処理回路34におけるカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)が未だ更新されていないと判断した場合は、ステップS206の処理へ戻る。この場合、ステップS206では、直前に行った露光動作と同様のカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を用いて、露光動作が制御される。   If it is determined in step S207 that the release switch 36 remains ON, the camera drive control unit 40 performs the determination shown in step S208. In step S208, the camera drive control unit 40 determines whether or not the camera drive frequency Fc (i) and the camera drive phase data Pc (i) are updated in the processing circuit 34 based on whether or not a predetermined time has passed. To do. If the camera drive control unit 40 determines in step S208 that the camera drive frequency Fc (i) and the camera drive phase data Pc (i) in the processing circuit 34 have not been updated yet, the process returns to step S206. In this case, in step S206, the exposure operation is controlled using the camera drive frequency Fc (i) and the camera drive phase data Pc (i) similar to the exposure operation performed immediately before.

これに対して、ステップS208においてカメラ駆動制御部40が、処理回路34におけるカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)が更新されていると判断した場合は、ステップS205の処理へ戻る。この場合、ステップS205では、カメラ駆動制御部40が、更新されたカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を、処理回路34から読み出す。さらに、ステップS206では、直前のステップS205において新たに読み出したカメラ駆動周波数Fc及びカメラ駆動位相データPc(i)を用いて、露光動作が制御される。   On the other hand, when the camera drive control unit 40 determines in step S208 that the camera drive frequency Fc (i) and the camera drive phase data Pc (i) in the processing circuit 34 have been updated, the process in step S205 is performed. Return to. In this case, in step S205, the camera drive control unit 40 reads the updated camera drive frequency Fc (i) and camera drive phase data Pc (i) from the processing circuit 34. Further, in step S206, the exposure operation is controlled using the camera drive frequency Fc and camera drive phase data Pc (i) newly read out in the immediately preceding step S205.

図5における信号74は、図4に示すフローチャートで表される撮影動作における露光タイミングを示すものである。信号74に示すように、レリーズONを検出してから露光が開始されるまでの時間a1と、処理回路34においてカメラ駆動周波数Fc及びカメラ駆動位相データPcが更新される時間t1までの連写周期a2は、カメラ駆動周波数Fc(i−2)及びカメラ駆動位相データPc(i−2)に基づき決定される。これにより、信号74で示される露光動作は、時間t1までの間、音声データWavData(i−2)を基に検出された周期的特徴に同期する。   A signal 74 in FIG. 5 indicates the exposure timing in the photographing operation represented by the flowchart shown in FIG. As shown in the signal 74, the continuous shooting period from the time a1 from the detection of the release ON to the start of exposure until the time t1 at which the camera drive frequency Fc and the camera drive phase data Pc are updated in the processing circuit 34. a2 is determined based on the camera drive frequency Fc (i-2) and the camera drive phase data Pc (i-2). Thereby, the exposure operation indicated by the signal 74 is synchronized with the periodic feature detected based on the audio data WavData (i-2) until time t1.

図5に示すように、レリーズON(図4におけるステップS204)を検出した時間t0の後、露光部20がミラーUPやシャッター駆動等の露光動作を行っている間も、特徴抽出部30は、音声データWavData(i)の取得を継続している。また、特徴抽出部30は、露光部20が露光動作を行っている間も、周辺環境音の周期的特徴に関する音声解析データFFTData(i)や、カメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)の算出及び更新を継続している。   As shown in FIG. 5, after the time t <b> 0 when the release ON (step S <b> 204 in FIG. 4) is detected, the feature extraction unit 30 continues to perform exposure operations such as mirror UP and shutter driving. The acquisition of audio data WavData (i) is continued. In addition, the feature extraction unit 30 also performs audio analysis data FFTData (i), camera drive frequency Fc (i), and camera drive phase data on the periodic features of the ambient environmental sound while the exposure unit 20 performs the exposure operation. Calculation and update of Pc (i) are continued.

信号74に示すように、連写が時間t1を超えて継続される場合には、カメラ駆動制御部40が、再度特徴抽出部30のカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)を読み出す(図4におけるステップS208及びステップS205)。カメラ駆動制御部40は、新たに読み出したカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)に基づき、連写周期等を変化させるように、露光部20を制御する。   As shown in the signal 74, when the continuous shooting is continued beyond the time t1, the camera drive control unit 40 again performs the camera drive frequency Fc (i) and the camera drive phase data Pc (i) of the feature extraction unit 30. ) Is read (steps S208 and S205 in FIG. 4). The camera drive control unit 40 controls the exposure unit 20 to change the continuous shooting period and the like based on the newly read camera drive frequency Fc (i) and camera drive phase data Pc (i).

すなわち、信号74に示すように、時間t1から次の露光開始までの時間a3と、時間t1から次の更新時間である時間t2までの間の連写周期a4は、カメラ駆動周波数Fc(i−1)及びカメラ駆動位相データPc(i−1)に基づき決定される。これにより、カメラ駆動制御部40は、露光動作中に取得された音声データWavData(i−1)から抽出される周期的特徴にあわせて、連写周期を変化させるように、露光部20を制御する。   That is, as indicated by the signal 74, the continuous shooting period a4 between the time a3 from the time t1 to the start of the next exposure and the time t2 that is the next update time is the camera drive frequency Fc (i− 1) and camera drive phase data Pc (i-1). Thereby, the camera drive control unit 40 controls the exposure unit 20 to change the continuous shooting period according to the periodic feature extracted from the audio data WavData (i-1) acquired during the exposure operation. To do.

図5の信号74に示すように、図3のフローチャートに示す連写撮影では、所定の周期でカメラ駆動周波数Fc(i)及びカメラ駆動位相データPc(i)が更新され、これに基づき連写周期を決定する。したがって、図4に示す露光動作を行うカメラシステム10は、周辺環境音に係る音楽の拍子が連写撮影中に変化したような場合でも、これに追従して露光タイミングを変化させることができ、適切に音楽の拍子と同期して露光動作を行うことができる。   As shown in the signal 74 of FIG. 5, in the continuous shooting shown in the flowchart of FIG. 3, the camera driving frequency Fc (i) and the camera driving phase data Pc (i) are updated at a predetermined cycle, and the continuous shooting is performed based on this. Determine the period. Therefore, the camera system 10 that performs the exposure operation shown in FIG. 4 can change the exposure timing following this even when the time signature of the music related to the ambient environmental sound changes during continuous shooting, The exposure operation can be performed in synchronization with the time signature of the music appropriately.

本実施形態に係るカメラシステム10は、周辺環境の音に関する情報をマイク28で取得し、音の周期的特徴を特徴抽出部30で算出する。さらに、カメラ駆動制御部40は、算出された音の周期的特徴から、レリーズON後の音圧の変化を予測し、音圧の上昇周期に同期させてミラーUPやシャッター駆動等の露光動作を行うことができる。これにより、本実施形態に係るカメラシステム10は、露光動作で発生する音を目立たなくすることが可能であり、周辺の人がカメラシステム10の動作音を耳障りに感じることを防止できる。   In the camera system 10 according to the present embodiment, information related to sounds in the surrounding environment is acquired by the microphone 28, and the periodic characteristics of the sound are calculated by the feature extraction unit 30. Further, the camera drive control unit 40 predicts a change in sound pressure after the release is turned on from the calculated periodic characteristics of the sound, and performs an exposure operation such as mirror UP or shutter drive in synchronization with the sound pressure increase period. It can be carried out. Thereby, the camera system 10 according to the present embodiment can make the sound generated by the exposure operation inconspicuous, and can prevent surrounding people from feeling the operation sound of the camera system 10 irritating.

特に、カメラシステム10に搭載された露光部20が、連写が可能な連写露光部であり、カメラシステム10によって連写撮影が行われる場合には、複数回の露光動作により、多くの動作音が発生するという問題がある。しかし、本実施形態に係るカメラシステム10は、算出された周辺環境音の周期的特徴に同期するように露光タイミングを制御することができるため、露光動作で発生する音を目立たなくすることが可能である。また、図4のフローチャートに示す連写撮影を行うことによって、連写撮影中に周辺環境音の周期的特徴が変化したような場合にも、これに合わせて露光タイミングを制御することができるため、露光動作で発生する音をより目立たなくすることが可能である。   In particular, when the exposure unit 20 mounted on the camera system 10 is a continuous exposure unit capable of continuous shooting, and when continuous shooting is performed by the camera system 10, a large number of operations are performed by a plurality of exposure operations. There is a problem that sound is generated. However, since the camera system 10 according to the present embodiment can control the exposure timing so as to synchronize with the calculated periodic characteristic of the ambient environmental sound, it is possible to make the sound generated by the exposure operation inconspicuous. It is. In addition, by performing the continuous shooting shown in the flowchart of FIG. 4, the exposure timing can be controlled in accordance with changes in the periodic characteristics of the ambient environmental sound during the continuous shooting. It is possible to make the sound generated by the exposure operation inconspicuous.

なお、カメラ駆動制御部40は、音圧の下降周期に同期させてシャッター駆動を行うこともできる。例えば打楽器の演奏者は、音圧の下降周期に動きが止まる傾向にあるため、音圧の下降周期に同期させてシャッター駆動を行うことによって、このようなカメラシステム10は、よりブレの少ない撮影を行うことができる。   The camera drive control unit 40 can also perform shutter drive in synchronization with the sound pressure drop period. For example, a percussion instrument player tends to stop moving in the period when the sound pressure falls, and thus the camera system 10 performs shooting with less blur by performing shutter driving in synchronization with the sound pressure falling period. It can be performed.

その他の実施形態
上述の実施形態では、周辺環境音の周期的特徴を用いて露光部20の動作を制御したが、カメラ駆動制御部40が制御を行う対象としては、これに限定されない。例えば、カメラ駆動制御部40は、周辺環境音の周期的特徴を用いて、AF部によるAFレンズの駆動等を制御しても良い。
Other Embodiments In the above-described embodiments, the operation of the exposure unit 20 is controlled using the periodic characteristics of the ambient environmental sound. However, the target to be controlled by the camera drive control unit 40 is not limited to this. For example, the camera drive control unit 40 may control the driving of the AF lens by the AF unit using the periodic characteristics of the ambient environmental sound.

また、上述の実施形態では、マイク28を用いて周辺環境の音に関する情報を取得したが、周期的特徴を抽出する対象となる情報としては音に限定されず、映像等であってもよい。例えば、他の実施形態に係るカメラシステムとしては、被写体光による像の動きに関する情報を取得する撮像素子を備え、像の動きの周期的特徴を用いて、撮像部の動作を制御するものが挙げられる。   In the above-described embodiment, information related to the sound of the surrounding environment is acquired using the microphone 28. However, the information from which the periodic feature is extracted is not limited to sound, and may be a video or the like. For example, a camera system according to another embodiment includes an image sensor that acquires information related to image movement caused by subject light, and controls the operation of the imaging unit using periodic characteristics of the image movement. It is done.

10…カメラシステム
12…カメラボディ
14…ペンタダハプリズム
16…ファインダスクリーン
20…露光部
22…クイックリターンミラー
24…シャッター
26…撮像素子
28…マイク
30…特徴抽出部
32…サンプラ
34…処理回路
36…レリーズスイッチ
38…集音開始ボタン
40…カメラ駆動制御部
52…レンズ鏡筒
54…撮影光学系
56…絞り
62,66,68,70,72,74…信号
DESCRIPTION OF SYMBOLS 10 ... Camera system 12 ... Camera body 14 ... Pentadaha prism 16 ... Finder screen 20 ... Exposure part 22 ... Quick return mirror 24 ... Shutter 26 ... Image sensor 28 ... Microphone 30 ... Feature extraction part 32 ... Sampler 34 ... Processing circuit 36 ... Release Switch 38 ... Sound collection start button 40 ... Camera drive controller 52 ... Lens barrel 54 ... Shooting optical system 56 ... Aperture 62, 66, 68, 70, 72, 74 ... Signal

Claims (6)

撮像を行う撮像部と、
周辺環境の情報を取得する情報取得部と、
前記情報の周期的特徴を抽出する特徴抽出部と、
前記周期的特徴に基づき前記撮像部の動作を制御する制御部と、
を有する撮像装置。
An imaging unit for imaging;
An information acquisition unit for acquiring information on the surrounding environment;
A feature extraction unit for extracting periodic features of the information;
A control unit for controlling the operation of the imaging unit based on the periodic characteristics;
An imaging apparatus having
前記情報取得部は、前記周辺環境の音に関する前記情報を取得することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the information acquisition unit acquires the information related to sounds in the surrounding environment. 前記撮像部は、露光動作を行う露光部を有し、
前記制御部は、前記露光部の動作を制御することを特徴とする請求項1又は請求項2に記載の撮像装置。
The imaging unit includes an exposure unit that performs an exposure operation,
The imaging apparatus according to claim 1, wherein the control unit controls an operation of the exposure unit.
前記露光部は、前記露光動作を連写周期で複数回行う連写露光部であり、
前記制御部は、前記連写露光部の前記連写周期が、前記周期的特徴と同期するように、前記連写露光部を制御することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
The exposure unit is a continuous exposure unit that performs the exposure operation a plurality of times in a continuous shooting cycle;
4. The control unit according to claim 1, wherein the control unit controls the continuous exposure unit such that the continuous shooting period of the continuous exposure unit is synchronized with the periodic feature. 5. The imaging device described in 1.
前記露光部は、前記露光動作を連写周期で複数回行う連写露光部であり、
前記情報取得部は、前記連写露光部が前記連写周期で前記露光動作を行っている間に前記情報の取得を行い、
前記特徴抽出部は、前記連写露光部が前記連写周期で前記露光動作を行っている間に前記周期的特徴の抽出を行い、
前記制御部は、前記連写露光部が前記連写周期で前記露光動作を行っている間に抽出された前記周期的特徴に合わせて前記連写周期を変化させるように、前記連写露光部を制御することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
The exposure unit is a continuous exposure unit that performs the exposure operation a plurality of times in a continuous shooting cycle;
The information acquisition unit acquires the information while the continuous exposure unit performs the exposure operation at the continuous shooting period,
The feature extraction unit extracts the periodic features while the continuous exposure unit performs the exposure operation at the continuous shooting period,
The control unit is configured to change the continuous shooting period according to the periodic feature extracted while the continuous exposure unit performs the exposure operation at the continuous shooting period. The imaging apparatus according to claim 1, wherein the imaging apparatus is controlled.
前記情報取得部は、前記周辺環境の音に関する前記情報を取得し、
前記特徴抽出部は、前記音に関する前記情報の周波数成分と位相成分とを前記周期的特徴として抽出し、
前記制御部は、前記周期的特徴に基づいて、周期的に取得される音のうち最も大きい音に同期するように、前記撮像部の動作を制御することを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
The information acquisition unit acquires the information related to the sound of the surrounding environment,
The feature extraction unit extracts a frequency component and a phase component of the information related to the sound as the periodic features,
The said control part controls operation | movement of the said imaging part so that it may synchronize with the loudest sound among the sounds acquired periodically based on the said periodic characteristic. The imaging device according to any one of the above.
JP2011091244A 2011-04-15 2011-04-15 Imaging device Active JP5867673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011091244A JP5867673B2 (en) 2011-04-15 2011-04-15 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011091244A JP5867673B2 (en) 2011-04-15 2011-04-15 Imaging device

Publications (3)

Publication Number Publication Date
JP2012226003A true JP2012226003A (en) 2012-11-15
JP2012226003A5 JP2012226003A5 (en) 2014-05-15
JP5867673B2 JP5867673B2 (en) 2016-02-24

Family

ID=47276272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011091244A Active JP5867673B2 (en) 2011-04-15 2011-04-15 Imaging device

Country Status (1)

Country Link
JP (1) JP5867673B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06245140A (en) * 1993-02-19 1994-09-02 Chinon Ind Inc Exposure controller and image pickup device using the same
JP2005208454A (en) * 2004-01-26 2005-08-04 Konica Minolta Photo Imaging Inc Photographing system, photographing method and program
JP2006311096A (en) * 2005-04-27 2006-11-09 Kyocera Corp Mobile terminal with camera function
JP2006317671A (en) * 2005-05-12 2006-11-24 Sony Corp Signal processing circuit, signal processing method, imaging device, method for speech signal processing of imaging device, recording device and recording method, and reproduction device and reproduction method
JP2010093451A (en) * 2008-10-06 2010-04-22 Olympus Corp Imaging apparatus and program for imaging apparatus
JP2010197763A (en) * 2009-02-26 2010-09-09 Nikon Corp Image capturing apparatus and camera accessory
JP2010268078A (en) * 2009-05-12 2010-11-25 Olympus Imaging Corp Imaging apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06245140A (en) * 1993-02-19 1994-09-02 Chinon Ind Inc Exposure controller and image pickup device using the same
JP2005208454A (en) * 2004-01-26 2005-08-04 Konica Minolta Photo Imaging Inc Photographing system, photographing method and program
JP2006311096A (en) * 2005-04-27 2006-11-09 Kyocera Corp Mobile terminal with camera function
JP2006317671A (en) * 2005-05-12 2006-11-24 Sony Corp Signal processing circuit, signal processing method, imaging device, method for speech signal processing of imaging device, recording device and recording method, and reproduction device and reproduction method
JP2010093451A (en) * 2008-10-06 2010-04-22 Olympus Corp Imaging apparatus and program for imaging apparatus
JP2010197763A (en) * 2009-02-26 2010-09-09 Nikon Corp Image capturing apparatus and camera accessory
JP2010268078A (en) * 2009-05-12 2010-11-25 Olympus Imaging Corp Imaging apparatus

Also Published As

Publication number Publication date
JP5867673B2 (en) 2016-02-24

Similar Documents

Publication Publication Date Title
US9277102B2 (en) Audio processing apparatus, audio processing method and imaging apparatus
US20090295940A1 (en) Interchangeable Lens, Camera Body, and Imaging Apparatus
JP6634298B2 (en) Imaging device and imaging method
JP5064926B2 (en) Imaging apparatus and control method thereof
JP2012100216A (en) Camera and moving image capturing program
WO2008044772A1 (en) Imaging device
JP2009169282A (en) Imaging apparatus and its program
JP5361398B2 (en) Imaging device
JP2019092018A (en) Imaging device and display method
JP2012114842A (en) Imaging device and drive noise removal device
JP5867673B2 (en) Imaging device
CN108206920B (en) Image pickup apparatus, control method thereof, and computer-readable storage medium
JP2013134470A (en) Imaging apparatus and its control method
JP5158054B2 (en) Recording device, imaging device, and program
JP2012185343A (en) Photographing device
JP2002135646A (en) Imaging unit, method for imaging and storage medium
JP2007047603A (en) Photographing device
JP2014122978A (en) Imaging device, voice recognition method, and program
JP2013174635A (en) Focus adjustment device and optical equipment
JP6069853B2 (en) Focus detection device
JP2010148049A (en) Image reproducing system and camera
JP2014187456A (en) Imaging apparatus and sound pickup device
JP2011205526A (en) Imaging apparatus, method, and program
JP2011097260A (en) Imaging apparatus
JP5061953B2 (en) Imaging apparatus, moving image imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151222

R150 Certificate of patent or registration of utility model

Ref document number: 5867673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250