JP2001186393A - Camera - Google Patents

Camera

Info

Publication number
JP2001186393A
JP2001186393A JP36392099A JP36392099A JP2001186393A JP 2001186393 A JP2001186393 A JP 2001186393A JP 36392099 A JP36392099 A JP 36392099A JP 36392099 A JP36392099 A JP 36392099A JP 2001186393 A JP2001186393 A JP 2001186393A
Authority
JP
Japan
Prior art keywords
sound
sound component
audio
signal
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP36392099A
Other languages
Japanese (ja)
Other versions
JP3363857B2 (en
Inventor
Masahiro Shioji
昌宏 塩路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP36392099A priority Critical patent/JP3363857B2/en
Publication of JP2001186393A publication Critical patent/JP2001186393A/en
Application granted granted Critical
Publication of JP3363857B2 publication Critical patent/JP3363857B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To store only sound component data in a flash memory and to prevent large time lag between the operation timing of a shutter release button and the generation timing of pseudo operation sound. SOLUTION: When a 'file' is selected in a menu, the file name of a sound file recorded in a magneto-optical disk 54 is detected and the detected file name is displayed on a monitor 28. When the desired sound file is selected among the displayed file names, the selected sound file is opened in an SDRAM 24 and sound component data is extracted from the sound file. Extracted sound component data is written into the take-in sound area 36b of a flash memory 36. Sound component data stored in the take-in sound area 36b is reproduced in response to the operation of the shutter release button 58 and pseudo operation sound is emitted from a speaker 44.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、シャッタボタンの操
作に応答して擬似操作音を発生させる、カメラに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera which generates a pseudo operation sound in response to an operation of a shutter button.

【0002】[0002]

【従来の技術】従来のこの種のカメラが、平成11年6
月22日に出願公開された特開平11−168646号
公報[H04N5/225]および平成11年8月27
日に出願公開された特開平11−231399号公報
[G03B17/18]に開示されている。これらの従
来技術は、メモリに格納された所望の擬似音声をシャッ
タボタンの操作に応答して発生させようとするものであ
る。
2. Description of the Related Art A conventional camera of this type has been developed in June 1999.
Japanese Patent Application Laid-Open No. H11-168646 [H04N5 / 225] filed on Mar. 22, 1999 and Aug. 27, 1999
It is disclosed in Japanese Patent Application Laid-Open No. 11-231399 [G03B17 / 18], which was published on the day of the publication. These prior arts attempt to generate a desired pseudo sound stored in a memory in response to an operation of a shutter button.

【0003】[0003]

【発明が解決しようとする課題】しかし、シャッタボタ
ンの操作タイミングと音声の発生タイミングとの間にず
れが生じたのでは、音声によって撮影タイミングを誤認
してしまうなど、オペレータに逆に混乱を与えてしま
う。このようなタイムラグを解消する方法については、
上述のいずれの従来技術も開示していない。
However, if there is a difference between the operation timing of the shutter button and the generation timing of the sound, the operator may be confused, for example, may mistake the photographing timing by the sound. Would. For how to resolve such a time lag,
Neither of the above prior arts is disclosed.

【0004】それゆえに、この発明の主たる目的は、シ
ャッタボタンの操作タイミングと音声の発生タイミング
のずれをできるだけ小さくすることができる、カメラを
提供することである。
[0004] Therefore, a main object of the present invention is to provide a camera capable of minimizing the difference between the operation timing of the shutter button and the sound generation timing as much as possible.

【0005】[0005]

【課題を解決するための手段】この発明は、音声信号の
取り込みを指示する第1指示手段、第1指示手段の指示
に応答して音声信号を取り込む取り込み手段、取り込み
手段によって取り込まれた音声信号から、有音成分から
始まる有音声分信号を抽出する抽出手段、抽出手段によ
って抽出された有音成分信号を格納するメモリ手段、撮
影を指示する第2指示手段、第2指示手段の指示に応答
して被写体を撮影する撮影手段、および第2指示手段の
指示に応答してメモリ手段から有音成分信号を再生する
第1再生手段を備える、カメラである。
SUMMARY OF THE INVENTION The present invention relates to a first instruction means for instructing the acquisition of an audio signal, an acquisition means for acquiring an audio signal in response to an instruction from the first instruction means, and an audio signal acquired by the acquisition means. Extracting means for extracting a sound component signal starting from a sound component, a memory means for storing a sound component signal extracted by the extracting means, a second instructing means for instructing photographing, and responding to an instruction from the second instructing means And a first reproducing unit for reproducing a sound component signal from the memory unit in response to an instruction of the second instruction unit.

【0006】[0006]

【作用】第1指示手段によって音声信号の取り込みが指
示されると、取り込み手段が音声信号を取り込む。抽出
手段は、有音成分から始まる有音成分信号を取り込み手
段によって取り込まれた音声信号から抽出し、メモリ手
段は、抽出手段によって抽出された有音成分信号を格納
する。第2指示手段によって撮影が指示されると、撮影
手段によって被写体が撮影されるとともに、第1再生手
段によってメモリ手段から有音成分信号が再生される。
取り込まれた音声信号から有音声分が抽出されるため、
有音成分は、撮影指示に応答して速やかに再生される。
When the first instruction means instructs the capture of the audio signal, the capture means captures the audio signal. The extracting means extracts a sound component signal starting from the sound component from the audio signal taken in by the taking means, and the memory means stores the sound component signal extracted by the extracting means. When photographing is instructed by the second instruction means, the subject is photographed by the photographing means, and the sound component signal is reproduced from the memory means by the first reproducing means.
Since voiced audio is extracted from the captured audio signal,
The sound component is promptly reproduced in response to the photographing instruction.

【0007】この発明のある実施例では、音声信号は、
所定形式で作成された音声ファイルである。取り込み手
段はファイル読み出し手段を含み、抽出手段は第1有音
成分抽出手段を含む。このうち、ファイル読み出し手段
は、着脱可能な記録媒体から音声ファイルを読み出し、
第1有音成分抽出手段は、読み出された音声ファイルか
ら有音成分信号を抽出する。第1有音成分抽出手段は、
好ましくは、音声ファイルの有音成分開始位置を検出す
る検出手段を含む。
In one embodiment of the present invention, the audio signal is
This is an audio file created in a predetermined format. The capturing means includes a file reading means, and the extracting means includes a first sound component extracting means. Among them, the file reading means reads the audio file from the removable recording medium,
The first sound component extraction means extracts a sound component signal from the read audio file. The first sound component extracting means includes:
Preferably, a detection unit for detecting a sound component start position of the audio file is included.

【0008】この発明のある局面では、取り込み手段は
マイクを含み、抽出手段は第2有音成分抽出手段を含
む。マイクは外部音声を捉え、第2有音成分抽出手段は
マイクによって捉えられた外部音声信号から有音成分信
号を抽出する。記録手段は、第2有音成分抽出手段によ
って抽出された有音成分信号を含む所定形式の音声ファ
イルを、記録媒体に記録する。第2有音成分抽出手段
は、好ましくは、音声信号のレベルを所定の閾値と比較
する比較手段を含む。
In one aspect of the present invention, the capturing means includes a microphone, and the extracting means includes a second sound component extracting means. The microphone captures the external voice, and the second voice component extraction unit extracts a voice component signal from the external voice signal captured by the microphone. The recording means records, on a recording medium, an audio file of a predetermined format including the sound component signal extracted by the second sound component extraction means. The second sound component extracting means preferably includes a comparing means for comparing the level of the audio signal with a predetermined threshold.

【0009】この発明の他の実施例では、第3指示手段
によって有音成分信号の再生が指示されると、第3再生
手段が、撮影手段を能動化することなくメモリ手段から
有音声分信号を再生する。
In another embodiment of the present invention, when the reproduction of the sound component signal is instructed by the third instruction means, the third reproduction means outputs the sound component signal from the memory means without activating the photographing means. To play.

【0010】[0010]

【発明の効果】この発明によれば、取り込まれた音声信
号から有音成分信号を抽出し、撮影指示に応答して有音
成分信号を再生するようにしたため、シャッタボタンの
操作タイミングと音声の発生タイミングのずれをできる
だけ小さくすることができる。
According to the present invention, a sound component signal is extracted from a fetched sound signal, and the sound component signal is reproduced in response to a photographing instruction. The shift in the generation timing can be minimized.

【0011】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

【0012】[0012]

【実施例】図1を参照して、この実施例のディジタルカ
メラ10は、前面に色フィルタ(図示せず)が装着され
たCCDイメージャ(イメージセンサ)12を含み、被
写体の光像は、この色フィルタを通してCCDイメージ
ャ12の受光面に照射される。
Referring to FIG. 1, a digital camera 10 of this embodiment includes a CCD imager (image sensor) 12 having a color filter (not shown) mounted on a front surface thereof. The light is irradiated on the light receiving surface of the CCD imager 12 through the color filter.

【0013】オペレータがモニタオン/オフキー64を
オン状態に設定すると、システムコントローラ66は、
対応する状態信号をCPU34に与える。すると、CP
U34はタイミングジェネレータ(TG)14に間引き
読出しを命令し、TG14はCCDイメージャ12を間
引き読み出し方式で駆動する。これによって、被写体像
に対応する低解像度のカメラ信号(画素信号)がCCD
イメージャ12から出力される。出力されたカメラ信号
は、CDS/AGC回路16で周知のノイズ除去および
レベル調整を施され、その後、A/D変換器18によっ
てディジタル信号に変換される。
When the operator sets the monitor on / off key 64 to the on state, the system controller 66
A corresponding status signal is provided to CPU 34. Then, CP
U34 instructs the timing generator (TG) 14 to perform thinning-out reading, and the TG 14 drives the CCD imager 12 in a thinning-out reading system. As a result, a low-resolution camera signal (pixel signal) corresponding to the subject image is
Output from the imager 12. The output camera signal is subjected to well-known noise removal and level adjustment by the CDS / AGC circuit 16, and then is converted into a digital signal by the A / D converter 18.

【0014】CPU34は、信号処理回路20およびビ
デオエンコーダ26にも、所定の処理命令を与える。信
号処理回路20は、A/D変換器18を通して与えられ
たカメラデータに色分離,白バランス調整,YUV変換
などの処理を施し、被写体像に対応するYUVデータを
生成する。そして、生成したYUVデータを書き込みリ
クエストとともにメモリ制御回路22に出力する。信号
処理回路20から出力されたYUVデータは、メモリ制
御回路22によってSDRAM34に書き込まれる。一
方、ビデオエンコーダ26は、CPU34からの処理命
令に応答してYUVデータの読み出しをメモリ制御回路
22にリクエストし、メモリ制御回路22によって読み
出されたYUVデータをNTSC方式のコンポジット画
像信号に変換する。変換されたコンポジット画像信号は
スイッチSW1を通してモニタ28に与えられ、この結
果、被写体のリアルタイムの動画像(スルー画像)がモ
ニタ28に表示される。
The CPU 34 also gives predetermined processing instructions to the signal processing circuit 20 and the video encoder 26. The signal processing circuit 20 performs processing such as color separation, white balance adjustment, and YUV conversion on the camera data provided through the A / D converter 18 to generate YUV data corresponding to the subject image. Then, the generated YUV data is output to the memory control circuit 22 together with the write request. The YUV data output from the signal processing circuit 20 is written to the SDRAM 34 by the memory control circuit 22. On the other hand, the video encoder 26 requests reading of the YUV data from the memory control circuit 22 in response to the processing command from the CPU 34, and converts the YUV data read by the memory control circuit 22 into an NTSC composite image signal. . The converted composite image signal is provided to the monitor 28 through the switch SW1, and as a result, a real-time moving image (through image) of the subject is displayed on the monitor 28.

【0015】なお、スイッチSW1は、キャラクタジェ
ネレータ40からキャラクタ信号が出力されるとき、所
定タイミングでキャラクタジェネレータ40と接続され
る。キャラクタ信号はスイッチSW1によってコンポジ
ット映像信号と混合され、この結果、対応するキャラク
タがモニタ28にOSD表示される。
The switch SW1 is connected to the character generator 40 at a predetermined timing when a character signal is output from the character generator 40. The character signal is mixed with the composite video signal by the switch SW1, and as a result, the corresponding character is displayed on the monitor 28 by OSD.

【0016】オペレータによってシャッタボタン56が
半押しされると、システムコントローラ66は、半押し
を示す状態信号をCPU34に与える。すると、CPU
34は、シャッタスピードや白バランスなどの撮影条件
を調整する。オペレータがシャッタボタン56を全押し
すると、全押しを示す状態信号がシステムコントローラ
66からCPU34に与えられる。CPU34は、この
状態信号に応答して以下のような撮影記録処理を行う。
When the operator half-presses the shutter button 56, the system controller 66 provides the CPU 34 with a status signal indicating the half-press. Then, CPU
Reference numeral 34 adjusts shooting conditions such as a shutter speed and a white balance. When the operator fully presses the shutter button 56, a state signal indicating full press is given from the system controller 66 to the CPU 34. The CPU 34 performs the following photographing and recording processing in response to the state signal.

【0017】CPU34はまず、最適シャッタスピード
での被写体の撮影ならびに光電変換された全ての画素信
号の読み出しをTG14に命令する。これによって、シ
ャッタボタン56が操作された時点の静止画像に対応す
る高解像度のカメラ信号がCCDイメージャ12から出
力される。出力されたカメラ信号は上述と同様の処理を
施され、高解像度のYUVデータがSDRAM24に確
保される。
The CPU 34 first instructs the TG 14 to photograph a subject at an optimum shutter speed and to read all photoelectrically converted pixel signals. As a result, a high-resolution camera signal corresponding to the still image at the time when the shutter button 56 is operated is output from the CCD imager 12. The output camera signal is subjected to the same processing as described above, and high-resolution YUV data is secured in the SDRAM 24.

【0018】CPU34は、TG14に撮影を命令した
直後に所定の音声データをフラッシュメモリ36から読
み出し、読み出した音声データをD/A変換器42に出
力する。音声データはD/A変換器によってアナログ信
号に変換され、変換された音声信号はスピーカ44から
出力される。つまり、シャッタボタン56の全押しとほ
ぼ同時に、所定の擬似操作音がスピーカ44から発され
る。
The CPU 34 reads predetermined audio data from the flash memory 36 immediately after instructing the TG 14 to take a picture, and outputs the read audio data to the D / A converter 42. The audio data is converted into an analog signal by the D / A converter, and the converted audio signal is output from the speaker 44. That is, almost at the same time when the shutter button 56 is fully pressed, a predetermined pseudo operation sound is emitted from the speaker 44.

【0019】CPU34は続いて、JPEGコーデック
38に対して圧縮命令を与える。JPEGコーデック3
8は、この圧縮命令に応答してメモリ制御回路22にY
UVデータの読み出しをリクエストする。読み出しがリ
クエストされたとき、メモリ制御回路22は、SDRA
M24に確保された1フレーム分の高解像度YUVデー
タつまり1画面分の静止画像データを読み出す。読み出
された静止画像データはJPEGコーデック38に与え
られ、JPEG圧縮を施される。これによって圧縮画像
データ(JPEG信号)が生成されると、JPEGコー
デック38は、この圧縮画像データを書き込みリクエス
トとともにメモリ制御回路22に与える。このため、圧
縮画像データもまたSDRAM24に格納される。
Subsequently, the CPU 34 gives a compression command to the JPEG codec 38. JPEG codec 3
8 responds to this compression instruction and causes the memory control circuit 22 to
Request reading of UV data. When reading is requested, the memory control circuit 22
One frame of high-resolution YUV data secured in M24, that is, one screen of still image data is read. The read still image data is supplied to the JPEG codec 38 and subjected to JPEG compression. When the compressed image data (JPEG signal) is thus generated, the JPEG codec 38 supplies the compressed image data to the memory control circuit 22 together with a write request. Therefore, the compressed image data is also stored in the SDRAM 24.

【0020】圧縮画像データがSDRAM24に格納さ
れると、CPU34は、記録命令をディスクコントロー
ラ46に与える。ディスクコントローラ46は、この記
録命令に応答してメモリ制御回路22に圧縮画像データ
の読み出しをリクエストし、メモリ制御回路22によっ
て読み出された圧縮画像データを取り込む。そして、光
ピックアップ50および記録ヘッド52を駆動し、圧縮
画像データをAS−MOのような着脱可能な光磁気ディ
スク54に記録する。記録処理が完了すると、CPU3
4は再度スルー画像表示処理を行ない、この結果、スル
ー画像がモニタ28に表示される。
When the compressed image data is stored in the SDRAM 24, the CPU 34 gives a recording command to the disk controller 46. The disk controller 46 requests the memory control circuit 22 to read compressed image data in response to the recording command, and takes in the compressed image data read by the memory control circuit 22. Then, the optical pickup 50 and the recording head 52 are driven to record the compressed image data on a removable magneto-optical disk 54 such as an AS-MO. When the recording process is completed, the CPU 3
4 performs the through image display processing again, and as a result, the through image is displayed on the monitor 28.

【0021】フラッシュメモリ36には、図2に示すよ
うにデフォルト音声領域36aおよび取込音声領域36
bが形成される。デフォルト音声領域36aは予め準備
されたデフォルト音声データを格納する領域であり、こ
のデフォルト音声データは別の音声データによって更新
されることはない。一方、取込音声領域36bはオペレ
ータによって事後的に取り込まれた音声データを格納す
る領域である。オペレータがマイク30およびA/D変
換器32を通して外部から音声データを取り込んだと
き、または光磁気ディスク54から再生された音声ファ
イルを取り込み、このファイルから音声データを読み出
したとき、この音声データは取込音声領域36bに書き
込まれる。つまり、取込音声領域36bの音声データ
は、オペレータの操作によって任意に変更される。
As shown in FIG. 2, the flash memory 36 has a default audio area 36a and a fetched audio area 36a.
b is formed. The default audio area 36a is an area for storing default audio data prepared in advance, and this default audio data is not updated by another audio data. On the other hand, the captured voice area 36b is an area for storing voice data captured later by the operator. When the operator takes in audio data from outside through the microphone 30 and the A / D converter 32, or takes in an audio file reproduced from the magneto-optical disk 54 and reads out the audio data from this file, the audio data is taken out. It is written in the embedded voice area 36b. That is, the voice data in the captured voice area 36b is arbitrarily changed by the operation of the operator.

【0022】このように、デフォルト音声および取込音
声の2種類の音声データがフラッシュメモリ36に記憶
されるため、いずれの音声をスピーカ44から発生させ
るかはオペレータの選択に委ねられる。さらに、いずれ
の音声も発生させたくない場合が考えられるため、擬似
操作音の発生/非発生も、オペレータの選択に委ねられ
る。
As described above, since two types of voice data, the default voice and the captured voice, are stored in the flash memory 36, it is up to the operator to select which voice is to be generated from the speaker 44. Furthermore, since there is a case in which it is not desired to generate any sound, the generation / non-generation of the pseudo operation sound is also left to the selection of the operator.

【0023】擬似操作音に関連するCPU34の具体的
な処理を、図7〜図11を参照して説明する。なお、こ
の図7〜図11の処理は、モードキー60が押され、対
応する状態信号がシステムコントローラ66から入力さ
れたときに実行される。
The specific processing of the CPU 34 relating to the pseudo operation sound will be described with reference to FIGS. 7 to 11 are executed when the mode key 60 is pressed and a corresponding state signal is input from the system controller 66.

【0024】CPU34はまず、ステップS1でキャラ
クタジェネレータ40およびスイッチSW1を制御し、
図4に示すようなメニュー画面をモニタ28にOSD表
示する。メニュー画面は擬似操作音を発生させるかどう
かを設定するための画面であり、“操作音発生”および
“操作音非発生”の項目およびいずれか一方の項目を指
向するカーソルが表示される。ここでオペレータがカー
ソルキー62を操作すれば、CPU34はステップS3
でYESと判断し、ステップS5でカーソルを所望の位
置に移動させる。そして、ステップS3に戻る。一方、
オペレータがセットキー58を押すと、CPU34はス
テップS7でYESと判断し、ステップS11でカーソ
ルの指向する項目を判別する。
First, the CPU 34 controls the character generator 40 and the switch SW1 in step S1.
A menu screen as shown in FIG. 4 is displayed on the monitor 28 by OSD. The menu screen is a screen for setting whether or not to generate a pseudo operation sound, in which items of “operation sound generation” and “non-operation sound generation” and a cursor pointing to one of the items are displayed. Here, if the operator operates the cursor key 62, the CPU 34 proceeds to step S3.
Is determined as YES, and the cursor is moved to a desired position in step S5. Then, the process returns to step S3. on the other hand,
When the operator presses the set key 58, the CPU 34 determines YES in step S7, and determines the item to which the cursor points in step S11.

【0025】カーソルが“操作音発生”を指向している
場合、CPU34はステップS11でYESと判断し、
ステップS13で操作音フラグ34aをセットするとと
もに、ステップS15で操作音選択処理を行う。これに
対して、カーソルが“操作音非発生”を指向している場
合、CPU34はステップS9でNOと判断し、ステッ
プS15で操作音フラグ34aをリセットする。ステッ
プS15またはS17の処理を終えると、CPU34は
ステップS3に戻る。擬似操作音に関する所望の設定状
態が得られた後、モードキー60が押されると、CPU
34はステップS19でYESと判断し、処理を終了す
る。
If the cursor points to "operation sound generation", the CPU 34 determines YES in step S11,
In step S13, the operation sound flag 34a is set, and in step S15, operation sound selection processing is performed. On the other hand, if the cursor is pointing to "no operation sound", the CPU 34 determines NO in step S9, and resets the operation sound flag 34a in step S15. After ending the processing in step S15 or S17, the CPU 34 returns to step S3. When the mode key 60 is pressed after a desired setting state regarding the pseudo operation sound is obtained, the CPU
34 determines YES in step S19, and ends the process.

【0026】CPU34は、ステップS15において図
8〜図10に示すフロー図を処理する。まず、ステップ
S21でキャラクタジェネレータ40およびスイッチS
W1を制御し、図5に示すメニュー画面をモニタ28に
OSD表示する。選択できるメニュー項目は“マイ
ク”,“ファイル”,“デフォルト”および“試聴”の
4つである。このうち、“マイク”,“ファイル”およ
び“デフォルト”はカーソルキー62およびセットキー
58の操作によって選択され、“試聴”はシャッタボタ
ン56の操作によって選択される。
The CPU 34 processes the flowcharts shown in FIGS. 8 to 10 in step S15. First, in step S21, the character generator 40 and the switch S
By controlling W1, the menu screen shown in FIG. The four menu items that can be selected are "microphone", "file", "default", and "listening". Of these, "microphone", "file" and "default" are selected by operating the cursor key 62 and the set key 58, and "listening" is selected by operating the shutter button 56.

【0027】このようなメニュー画面を表示した後、C
PU34は、ステップS23,S27,S29およびS
37のそれぞれで、カーソルキー62,セットキー5
8,シャッタボタン56およびモードキー60の操作の
有無を判別する。
After displaying such a menu screen, C
The PU 34 performs steps S23, S27, S29 and S
Cursor key 62, set key 5
8. It is determined whether or not the shutter button 56 and the mode key 60 have been operated.

【0028】カーソルキー62が操作された場合、CP
U34はステップS23からステップS25に進み、カ
ーソルを所望の位置に移動させる。そして、ステップS
23に戻る。セットキー58が操作された場合、CPU
34はステップS27でYESと判断し、ステップS3
9およびS41でいずれの項目が選択されたかを判別す
る。カーソルが“マイク”を指向している状態でセット
キー58が押されると、CPU34は“マイク”が選択
されたと判断してステップS45〜S59を処理する。
そして、ステップS23に戻る。一方、カーソルが“フ
ァイル”を指向している状態でセットキー58が押され
ると、CPU34は“ファイル”が選択されたと判断し
てステップS61〜S79を処理する。そして、ステッ
プS23に戻る。他方、カーソルが“デフォルト”を指
向している状態でセットキー58が押されると、CPU
34は“デフォルト”が選択されたと判断し、ステップ
S43でデフォルトフラグ34bをセットする。そし
て、ステップS23に戻る。
When the cursor key 62 is operated, the CP
U34 proceeds from step S23 to step S25, and moves the cursor to a desired position. And step S
Return to 23. When the set key 58 is operated, the CPU
34 determines YES in step S27 and returns to step S3
In steps 9 and S41, it is determined which item has been selected. When the set key 58 is pressed with the cursor pointing at "microphone", the CPU 34 determines that "microphone" has been selected and performs steps S45 to S59.
Then, the process returns to step S23. On the other hand, if the set key 58 is pressed with the cursor pointing at "file", the CPU 34 determines that "file" has been selected and performs steps S61 to S79. Then, the process returns to step S23. On the other hand, when the set key 58 is pressed while the cursor is pointing at “default”, the CPU
34 determines that "default" has been selected, and sets a default flag 34b in step S43. Then, the process returns to step S23.

【0029】シャッタボタン56が押された場合、CP
U34はステップS29でYESと判断し、ステップS
31でデフォルトフラグ34bの状態を判別する。そし
て、デフォルトフラグ34bがセット状態であれば、ス
テップS33でデフォルト音声領域36aに格納された
デフォルト音声データを再生し、ステップS23に戻
る。一方、デフォルトフラグ34bがリセット状態であ
れば、ステップS35で取込音声領域36bに格納され
た音声データを再生し、ステップS23に戻る。つま
り、シャッタボタン56を押すことで、どのような擬似
操作音が再生されるかを試すことができる。
When the shutter button 56 is pressed, CP
U34 determines YES in step S29, and proceeds to step S29.
At 31, the state of the default flag 34b is determined. If the default flag 34b is set, the default audio data stored in the default audio area 36a is reproduced in step S33, and the process returns to step S23. On the other hand, if the default flag 34b is in the reset state, the audio data stored in the captured audio area 36b is reproduced in step S35, and the process returns to step S23. That is, by pressing the shutter button 56, it is possible to test what kind of pseudo operation sound is reproduced.

【0030】モードキー60が押された場合、CPU3
4はステップS37でYESと判断し、図7に示すルー
チンに戻る。
When the mode key 60 is pressed, the CPU 3
In step S4, YES is determined in step S37, and the process returns to the routine shown in FIG.

【0031】“マイク”の選択によって図9のステップ
S45に進んだ場合、CPU34は、まずシャッタボタ
ン56が押されたかどうかを判断し、YESであれば、
ステップS47でマイク30およびA/D変換器32を
通して外部音声データを取り込む。そして、取り込んだ
外部音声データのレベルをステップS49で所定の閾値
と比較する。ここで、音声レベルが閾値以下であれば、
CPU34はステップS51以降の処理を行うことなく
ステップS47に戻る。一方、音声レベルが閾値を上回
れば、CPU34はステップS51でこの音声データを
取込音声領域36bに書き込む。このステップS49お
よびS51の処理によって、外部音声データから有音成
分データが抽出されるとともに、抽出された有音成分デ
ータが取込音声領域36bに格納される。
When the process proceeds to step S45 in FIG. 9 by selecting "microphone", the CPU 34 first determines whether or not the shutter button 56 has been pressed.
In step S47, external audio data is fetched through the microphone 30 and the A / D converter 32. Then, the level of the fetched external audio data is compared with a predetermined threshold value in step S49. Here, if the audio level is below the threshold,
The CPU 34 returns to step S47 without performing the processing after step S51. On the other hand, if the audio level exceeds the threshold, the CPU 34 writes this audio data in the audio area 36b in step S51. Through the processing in steps S49 and S51, sound component data is extracted from the external sound data, and the extracted sound component data is stored in the captured sound area 36b.

【0032】CPU34は続いて、シャッタボタン56
の押圧状態が解除されたかどうかをステップS53で判
断するとともに、書き込まれた音声データ量(有音成分
データ量)が取込音声領域36bの容量に達したかどう
かをステップS55で判断する。そして、ステップS5
3およびS55のいずれでもNOであれば、ステップS
47に戻るが、いずれか一方でもYESであれば、ステ
ップS57に進む。このため、シャッタボタン56が押
され続け、かつ設定音声領域36bの残容量が十分であ
れば、有音成分データの書き込みが継続される。一方、
シャッタボタン56から指が離されるか、または設定音
声領域36bが満杯になると、書き込みを終了する。
The CPU 34 then proceeds to a shutter button 56
In step S53, it is determined whether or not the pressed state has been released, and in step S55, it is determined whether or not the written audio data amount (the sound component data amount) has reached the capacity of the capture audio area 36b. Then, step S5
If NO in both Step 3 and S55, Step S
Returning to step S47, if either one is YES, the process proceeds to step S57. Therefore, if the shutter button 56 is kept pressed and the remaining capacity of the set sound area 36b is sufficient, the writing of the sound component data is continued. on the other hand,
When the finger is released from the shutter button 56 or the set sound area 36b becomes full, the writing is completed.

【0033】ステップS57では、設定音声領域36b
に書き込まれた音声データ(有音成分データ)をWAV
形式の音声ファイルに収納し、この音声ファイルを光磁
気ディスク54に記録する。WAV形式によれば、デー
タサイズなどの管理情報がファイルのヘッダに格納さ
れ、このヘッダ以降に音声データが格納される。このよ
うな音声ファイルはSDRAM24上で作成され、その
後、ディスクコントローラ46によって光磁気ディスク
54に記録される。音声ファイルの記録が完了すると、
CPU34は、ステップS59におけるデフォルトフラ
グ34bのリセット処理を経てステップS23に戻る。
デフォルトフラグ34bがリセットされることで、試聴
のときに再生されるのは、以上の処理で取込音声領域3
6bに書き込まれた有音成分データである。
In step S57, the setting voice area 36b
Audio data (sound component data) written in
The audio file is stored in a format audio file, and the audio file is recorded on the magneto-optical disk 54. According to the WAV format, management information such as data size is stored in a header of a file, and audio data is stored after the header. Such an audio file is created on the SDRAM 24 and thereafter recorded on the magneto-optical disk 54 by the disk controller 46. When recording of the audio file is completed,
The CPU 34 returns to the step S23 through the reset processing of the default flag 34b in the step S59.
When the default flag 34b is reset, the content is reproduced at the time of the trial listening because of the above-described processing.
6b is the sound component data written in 6b.

【0034】“ファイル”の選択によって図10のステ
ップS61に進んだ場合、CPU34はまず音声ファイ
ルの選択処理を行なう。この選択処理によって、光磁気
ディスク54から所望の音声ファイルが再生され、SD
RAM24に格納される。再生される音声ファイルはW
AV形式に従うファイルであるが、これは、上述のステ
ップS45〜S59で作成された音声ファイルに限られ
ない。つまり、パーソナルコンピュータなどの汎用の処
理装置によって作成されたWAV形式の音声ファイルで
もよい。
When the process proceeds to step S61 in FIG. 10 by selecting the "file", the CPU 34 first performs an audio file selection process. By this selection processing, a desired audio file is reproduced from the magneto-optical disk 54,
It is stored in the RAM 24. The audio file to be played is W
Although the file conforms to the AV format, the file is not limited to the audio file created in steps S45 to S59 described above. That is, the audio file may be a WAV format audio file created by a general-purpose processing device such as a personal computer.

【0035】ステップS63では、SDRAM24に格
納された音声ファイルのヘッダの末尾にポインタ1を配
置し、続くステップS65では、ポインタ1の指向先に
有音成分データが存在するかどうかを判断する。この判
断は、音声データレベルを所定の閾値と比較して行う。
ポインタ1の指向先に存在するデータが無音成分の場
合、CPU34はステップS65でNOと判断し、ステ
ップS67でポインタ1を所定バイトだけ先に進める。
そして、ステップS65に戻る。一方、ポインタ1の指
向先に有音成分が存在すれば、CPU34はステップS
65でYESと判断し、ステップS69に進む。図3に
示すような音声ファイルがSDRAM24に展開されて
いる場合、ポインタ1は、ステップS65でYESと判
断された時点で有音成分の先頭位置に配置される。
In step S63, the pointer 1 is placed at the end of the header of the audio file stored in the SDRAM 24. In the following step S65, it is determined whether or not sound component data exists at the pointing destination of the pointer 1. This determination is made by comparing the audio data level with a predetermined threshold.
If the data existing at the pointing destination of the pointer 1 is a silent component, the CPU 34 determines NO in step S65, and advances the pointer 1 by a predetermined byte in step S67.
Then, the process returns to step S65. On the other hand, if there is a sound component at the pointing destination of the pointer 1, the CPU 34 proceeds to step S
It is determined YES at 65 and the process proceeds to step S69. When the audio file as shown in FIG. 3 is developed on the SDRAM 24, the pointer 1 is arranged at the head position of the sound component when YES is determined in step S65.

【0036】ステップS69では、ポインタ1の現在位
置から所定バイト進んだ位置にポインタ2を配置する。
続いて、ポインタ2の指向先に存在するデータが無音成
分であるかどうかをステップS71で判断するととも
に、ポインタ1および2の間にあるデータ量が取込音声
領域36bの容量に達したかどうかをステップS73で
判断する。ステップS71の判断は、音声データレベル
を所定の閾値と比較して行う。ステップS71およびS
73のいずれもNOであれば、CPU34は、ステップ
S75でポインタ2を所定バイトだけ先に進め、ステッ
プS71に戻る。
In step S69, the pointer 2 is located at a position advanced by a predetermined byte from the current position of the pointer 1.
Subsequently, in step S71, it is determined whether or not the data existing at the pointing destination of the pointer 2 is a silent component, and whether or not the amount of data between the pointers 1 and 2 has reached the capacity of the capture audio area 36b. Is determined in step S73. The determination in step S71 is made by comparing the audio data level with a predetermined threshold. Steps S71 and S
If any of 73 is NO, the CPU 34 advances the pointer 2 by a predetermined byte in step S75, and returns to step S71.

【0037】これに対して、ステップS71およびS7
3の一方でもYESと判断されれば、CPU34はステ
ップS77に進み、ポインタ1および2の間の音声デー
タ(有音成分データ)を取込音声領域36bに書き込
む。つまり、音声ファイルに含まれる有音成分データ
が、ステップS65〜S77の処理によって抽出され、
取込音声領域36bに格納される。
On the other hand, steps S71 and S7
If YES is determined for one of the three, the CPU 34 proceeds to step S77 and writes the audio data (sound component data) between the pointers 1 and 2 into the capture audio area 36b. That is, the sound component data included in the audio file is extracted by the processing of steps S65 to S77,
It is stored in the captured voice area 36b.

【0038】図3に示す音声ファイルの有音成分データ
量が取込音声領域36bの容量に満たない場合、CPU
34は、ポインタ2が図3に示す位置に移動したときに
ステップS77に進み、同図の有効音声データを取込音
声領域36bに書き込む。書き込みが完了すると、CP
U34はステップS79でデフォルトフラグ34bをリ
セットし、ステップS23に戻る。
If the sound component data amount of the audio file shown in FIG. 3 is less than the capacity of the captured audio area 36b, the CPU
When the pointer 2 moves to the position shown in FIG. 3, the process proceeds to step S77, and the valid voice data shown in FIG. 34 is written in the capture voice area 36b. When writing is completed, CP
U34 resets the default flag 34b in step S79, and returns to step S23.

【0039】ステップS61では、図11に示すサブル
ーチンが処理される。CPU34はまずステップS81
で、光磁気ディスク54に記録された管理情報に基づい
て、ディスクに記録されている音声ファイルのファイル
名を検出する。次に、検出した音声ファイル名を含むフ
ァイルリストを、ステップS83でモニタ28にOSD
表示する。モニタ28には、図6に示す要領で複数のフ
ァイル名およびいずれか1つのファイル名を指向するカ
ーソルが表示される。CPU34は続いて、カーソルキ
ー62の操作の有無をステップS85で判断し、セット
キー58の操作の有無をステップS89で判断する。
In step S61, a subroutine shown in FIG. 11 is processed. The CPU first proceeds to step S81.
Then, based on the management information recorded on the magneto-optical disk 54, the file name of the audio file recorded on the disk is detected. Next, a file list including the detected voice file name is displayed on the monitor 28 in step S83 by OSD.
indicate. A plurality of file names and a cursor pointing to any one of the file names are displayed on the monitor 28 in the manner shown in FIG. Subsequently, the CPU 34 determines in step S85 whether the cursor key 62 has been operated, and determines in step S89 whether the set key 58 has been operated.

【0040】カーソルキー62が操作されたときは、ス
テップS87でカーソルを移動させてからステップS8
5に戻る。一方、セットキー58が操作されたときはス
テップS91に進み、カーソルが指向している音声ファ
イルの再生をディスクコントローラ46に命令する。こ
のとき、ディスクコントローラ46は、光ピックアップ
50を駆動して光ディスク54から所望の音声ファイル
を再生し、再生した音声ファイルを書き込みリクエスト
とともにメモリ制御回路22に与える。この結果、所望
の音声ファイルは、メモリ制御回路22によってSDR
AM24に展開される。ステップS91の処理を終える
と、図10に示すルーチンに戻る。
When the cursor key 62 is operated, the cursor is moved in step S87, and then in step S8.
Return to 5. On the other hand, if the set key 58 has been operated, the flow advances to step S91 to instruct the disk controller 46 to reproduce the audio file pointed by the cursor. At this time, the disk controller 46 drives the optical pickup 50 to reproduce a desired audio file from the optical disk 54, and provides the reproduced audio file to the memory control circuit 22 together with a write request. As a result, the desired audio file is stored in the SDR by the memory control circuit 22.
Expanded to AM24. Upon completion of the process in the step S91, the process returns to the routine shown in FIG.

【0041】以上の図7〜図11に示す処理はモードキ
ー60の操作に応答して開始される割り込みルーチンで
あり、このような割り込みルーチンが処理されない間
は、図12および図13に示すフロー図が処理される。
The processing shown in FIGS. 7 to 11 is an interrupt routine started in response to the operation of the mode key 60. Unless such an interrupt routine is processed, the flow shown in FIGS. 12 and 13 will be described. The figure is processed.

【0042】CPU34はまず、ステップS101でモ
ニタオン/オフキー64が“オン”側に設定されたかど
うか判断し、YESとの判断結果が得られたときに、ス
テップS103でスルー画像表示処理を行なう。具体的
には、TG14に間引き読み出しを命令するとともに、
信号処理回路20およびビデオエンコーダ26に所定の
処理命令を与える。この結果、スルー画像がモニタ28
に表示される。
First, the CPU 34 determines whether or not the monitor on / off key 64 has been set to the "on" side in step S101. When a determination result of YES is obtained, a through image display process is performed in step S103. Specifically, while instructing the TG 14 to perform thinning-out reading,
A predetermined processing instruction is given to the signal processing circuit 20 and the video encoder 26. As a result, the through image is displayed on the monitor 28.
Will be displayed.

【0043】CPU34は続いて、シャッタボタン56
が半押し状態となったかどうかをステップS105で判
断する。ここでNOであればステップS105の処理を
繰り返すが、YESであればステップS107でシャッ
タスピードや白バランスなどの撮影条件を調整する。撮
影条件の調整が完了すると、CPU34は、ステップS
109でシャッタボタン56の押圧か解除されたかどう
かを判断するとともに、ステップS111でシャッタボ
タン56が全押しされたかどうかを判断する。そして、
シャッタボタン56の押圧が解除されるとステップS1
05に戻り、シャッタボタン56が全押しされるとステ
ップS113に進む。なお、シャッタボタン56が全押
しされない限り、モニタ28にはスルー画像が表示され
続ける。
The CPU 34 then proceeds to the shutter button 56
It is determined in step S105 whether or not has been pressed halfway. If “NO” here, the process in step S105 is repeated. If “YES”, the shooting conditions such as the shutter speed and the white balance are adjusted in step S107. When the adjustment of the shooting conditions is completed, the CPU 34 proceeds to step S
At 109, it is determined whether the shutter button 56 has been pressed or released, and at step S111, it is determined whether the shutter button 56 has been fully pressed. And
When the pressing of the shutter button 56 is released, step S1 is performed.
Returning to step S05, when the shutter button 56 is fully pressed, the process proceeds to step S113. Unless the shutter button 56 is fully pressed, a through image is continuously displayed on the monitor 28.

【0044】シャッタボタン56の全押しに応答してス
テップS113に進むと、CPU34はTG14に全画
素読み出しを命令する。TG14は、この命令に応答し
てCCDイメージャ12の駆動方式を間引き読み出しか
ら全画素読み出しに切り換え、1フレーム分のカメラ信
号がCCDイメージャ12から出力された時点で読み出
しを中断する。CPU34は、全画素読み出しを命令し
た後、ステップS115で操作音フラグ34aの状態を
判別する。そして、操作音フラグ34aがリセット状態
であればそのままステップS123に進み、撮影された
被写体像の記録処理を行なう。つまり、全画素読み出し
されたカメラ信号に対応するYUVデータ(静止画像デ
ータ)がSDRAM24に確保されているため、この静
止画像データの圧縮および圧縮画像データの記録を行う
べく、JPEGコーデック38およびディスクコントロ
ーラ46の各々に圧縮命令および記録命令を与える。こ
の結果、圧縮画像データが収納されたWAV形式の画像
ファイルが光磁気ディスク54内に記録される。記録処
理が完了すると、CPU34はステップS101に戻
る。この結果、モニタ28にはスルー画像が再度表示さ
れる。
When the process proceeds to step S113 in response to the full depression of the shutter button 56, the CPU 34 instructs the TG 14 to read all pixels. In response to this command, the TG 14 switches the driving method of the CCD imager 12 from thinning-out reading to all-pixel reading, and stops reading when one frame of camera signal is output from the CCD imager 12. After instructing reading of all pixels, the CPU 34 determines the state of the operation sound flag 34a in step S115. If the operation sound flag 34a is in the reset state, the process directly proceeds to step S123, and the recording process of the photographed subject image is performed. That is, since the YUV data (still image data) corresponding to the camera signal read out from all the pixels is secured in the SDRAM 24, the JPEG codec 38 and the disk controller are used to compress the still image data and record the compressed image data. Provide compression and recording instructions to each of the 46. As a result, a WAV format image file containing the compressed image data is recorded in the magneto-optical disk 54. Upon completion of the recording process, the CPU 34 returns to step S101. As a result, the through image is displayed on the monitor 28 again.

【0045】一方、ステップS115で操作音フラグ3
4aがセット状態であると判断されると、CPU34
は、ステップS117でデフォルトフラグ34bの状態
を判別する。そして、デフォルトフラグ34bがセット
状態であればステップS119に進み、デフォルト音声
領域36aに書き込まれたデフォルト音声データを再生
する。一方、デフォルトフラグ34bがリセット状態で
あれば、ステップS121に進んで取込音声領域36b
に書き込まれた音声データ(有効音声データ)を再生す
る。このため、オペレータのメニュー設定に従う擬似操
作音がスピーカ44から出力される。ステップS119
またはS121の処理を終えると、CPU34はステッ
プS123で上述の撮影画像記録処理を行い、その後ス
テップS101に戻る。
On the other hand, in step S115, the operation sound flag 3
If it is determined that 4a is set, the CPU 34
Determines the state of the default flag 34b in step S117. If the default flag 34b is set, the flow advances to step S119 to reproduce the default audio data written in the default audio area 36a. On the other hand, if the default flag 34b is in the reset state, the process proceeds to step S121, where the capture audio area 36b
The audio data (valid audio data) written in is reproduced. Therefore, a pseudo operation sound according to the menu setting of the operator is output from the speaker 44. Step S119
Alternatively, when the processing of S121 is completed, the CPU 34 performs the above-described captured image recording processing in step S123, and then returns to step S101.

【0046】以上の説明から分かるように、図5に示す
メニューの中から“マイク”が選択され、シャッタボタ
ン56が押されると、外部の音声がマイク30およびA
/D変換器32を通して取り込まれ、取り込まれた音声
データから有音声分データが抽出される。抽出された有
音成分データは、フラッシュメモリ36の取込音声領域
36bに書き込まれとともに、WAV形式の音声ファイ
ルへの変換処理を経て光磁気ディスク54に記録され
る。一方、メニューの中から“ファイル”が選択される
と、光磁気ディスク54に記録された音声ファイルのフ
ァイル名が図6に示す要領で表示され、所望の音声ファ
イルが選択されると、所望の音声ファイルから有音成分
データが抽出される。そして、抽出された有音成分デー
タが取込音声領域36bに書き込まれる。“マイク”ま
たは“ファイル”が選択されたときはまたデフォルトフ
ラグ34bがリセットされ、これによって取込音声領域
36bの音声データが有効化される。
As can be understood from the above description, when "microphone" is selected from the menu shown in FIG. 5 and the shutter button 56 is pressed, external sounds are output from the microphones 30 and A.
The audio data is fetched through the / D converter 32 and the voiced data is extracted from the fetched audio data. The extracted sound component data is written into the fetched audio area 36b of the flash memory 36, and is recorded on the magneto-optical disk 54 through a process of converting the audio file into a WAV audio file. On the other hand, when "File" is selected from the menu, the file name of the audio file recorded on the magneto-optical disk 54 is displayed as shown in FIG. 6, and when the desired audio file is selected, the desired audio file is selected. Sound component data is extracted from the audio file. Then, the extracted sound component data is written into the captured audio area 36b. When "microphone" or "file" is selected, the default flag 34b is reset, whereby the audio data in the captured audio area 36b is validated.

【0047】他方、メニューの中から“デフォルト”が
選択されると、デフォルトフラグ34bがセットされ、
これによって製造時にデフォルト音声領域36aに書き
込まれた音声データが有効化される。このようにして有
効化された音声データは、被写体を撮影するときのシャ
ッタボタン58の操作に応答してスピーカ44から出力
される。つまり、マイク30から取り込んだ音声デー
タ、光磁気ディスク54から読み出された音声データ、
または当初から用意されていた音声データが、スピーカ
44から発される。
On the other hand, when "default" is selected from the menu, a default flag 34b is set, and
Thereby, the audio data written in the default audio area 36a at the time of manufacturing is validated. The audio data thus activated is output from the speaker 44 in response to the operation of the shutter button 58 when photographing the subject. That is, audio data captured from the microphone 30, audio data read from the magneto-optical disk 54,
Alternatively, audio data prepared from the beginning is emitted from the speaker 44.

【0048】この実施例によれば、マイクまたは着脱可
能な記録媒体から音声を取り込んだとき、この取り込み
音声から有音成分が抽出され、抽出された有音成分のみ
がメモリに格納される。このため、シャッタボタンの操
作タイミングと擬似操作音の発生タイミングの間で大き
なタイムラグが生じることはない。
According to this embodiment, when a voice is captured from a microphone or a removable recording medium, a sound component is extracted from the captured voice, and only the extracted voice component is stored in the memory. Therefore, a large time lag does not occur between the operation timing of the shutter button and the generation timing of the pseudo operation sound.

【0049】なお、この実施例では、マイクから取り込
まれた音声データおよびSDRAMに展開された音声フ
ァイルに含まれる音声データから有音成分データを抽出
するとき、音声データの先頭部分および末尾部分の両方
の無音成分を除去するようにしているが、上述のタイム
ラグを解消するためには、先頭部分の無音成分のみを除
去すればよい。つまり、有音声分から始まる音声データ
を抽出して取込音声領域に格納するようにすれば、上述
のタイムラグを解消することができる。
In this embodiment, when extracting the sound component data from the audio data taken in from the microphone and the audio data included in the audio file expanded in the SDRAM, both the head part and the end part of the audio data are extracted. Is removed, but in order to eliminate the time lag described above, it is sufficient to remove only the silent component at the beginning. In other words, the above-described time lag can be eliminated by extracting the audio data starting from the voiced portion and storing it in the captured audio region.

【0050】また、この実施例で再生される擬似操作音
としては、動物の泣き声や人の掛け声のほか、各種カメ
ラメーカの銀塩カメラで生じるシャッタ音が考えられ
る。
Further, as the pseudo operation sound reproduced in this embodiment, in addition to a cry of an animal and a shout of a person, a shutter sound generated by a silver halide camera of various camera manufacturers can be considered.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of the present invention.

【図2】フラッシュメモリの構成を示すブロック図であ
る。
FIG. 2 is a block diagram illustrating a configuration of a flash memory.

【図3】WAV形式の音声ファイルの構造を示す図解図
である。
FIG. 3 is an illustrative view showing a structure of an audio file in a WAV format;

【図4】モニタに表示されるメニュー画面の一例を示す
図解図である。
FIG. 4 is an illustrative view showing one example of a menu screen displayed on a monitor;

【図5】モニタに表示されるメニュー画面の他の例を示
す図解図である。
FIG. 5 is an illustrative view showing another example of the menu screen displayed on the monitor;

【図6】モニタに表示されるファイルリストの一例を示
す図解図である。
FIG. 6 is an illustrative view showing one example of a file list displayed on a monitor;

【図7】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 7 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図8】図1実施例の動作の他の一部を示すフロー図で
ある。
FIG. 8 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図9】図1実施例の動作のその他の一部を示すフロー
図である。
FIG. 9 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図10】図1実施例の動作のさらにその他の一部を示
すフロー図である。
FIG. 10 is a flowchart showing yet another portion of the operation of the embodiment in FIG. 1;

【図11】図1実施例の動作の他の一部を示すフロー図
である。
FIG. 11 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図12】図1実施例の動作のその他の一部を示すフロ
ー図である。
FIG. 12 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図13】図1実施例の動作のさらにその他の一部を示
すフロー図である。
FIG. 13 is a flowchart showing yet another portion of the operation of the embodiment in FIG. 1;

【符号の説明】[Explanation of symbols]

10…ディジタルカメラ 12…CCDイメージャ 22…メモリ制御回路 24…SDRAM 26…ビデオエンコーダ 28…モニタ 30…マイク 34…CPU 36…フラッシュメモリ 54…光磁気ディスク DESCRIPTION OF SYMBOLS 10 ... Digital camera 12 ... CCD imager 22 ... Memory control circuit 24 ... SDRAM 26 ... Video encoder 28 ... Monitor 30 ... Microphone 34 ... CPU 36 ... Flash memory 54 ... Magneto-optical disk

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】音声信号の取り込みを指示する第1指示手
段、 前記第1指示手段の指示に応答して前記音声信号を取り
込む取り込み手段、 前記取り込み手段によって取り込まれた前記音声信号か
ら、有音成分から始まる有音成分信号を抽出する抽出手
段、 前記抽出手段によって抽出された前記有音成分信号を格
納するメモリ手段、 撮影を指示する第2指示手段、 前記第2指示手段の指示に応答して被写体を撮影する撮
影手段、および前記第2指示手段の指示に応答して前記
メモリ手段から前記有音成分信号を再生する第1再生手
段を備える、カメラ。
A first instruction unit for instructing the acquisition of an audio signal; an acquisition unit for acquiring the audio signal in response to an instruction of the first instruction unit; a sound from the audio signal acquired by the acquisition unit; Extraction means for extracting a sound component signal starting from a component; memory means for storing the sound component signal extracted by the extraction means; second instruction means for instructing photographing; responsive to an instruction from the second instruction means A camera comprising: a photographing unit for photographing a subject by means of a camera; and a first reproducing unit for reproducing the sound component signal from the memory unit in response to an instruction from the second instruction unit.
【請求項2】前記音声信号は所定形式で作成された音声
ファイルであり、 前記取り込み手段は着脱可能な記録媒体から前記音声フ
ァイルを読み出すファイル読み出し手段を含み、 前記抽出手段は前記音声ファイルから前記有音成分信号
を抽出する第1有音成分抽出手段を含む、請求項1記載
のカメラ。
2. The audio signal is an audio file created in a predetermined format, the capturing means includes a file reading means for reading the audio file from a removable recording medium, and the extracting means comprises: The camera according to claim 1, further comprising a first sound component extracting unit that extracts a sound component signal.
【請求項3】前記第1有音成分抽出手段は音声ファイル
の有音成分開始位置を検出する検出手段を含む、請求項
3記載のカメラ。
3. The camera according to claim 3, wherein said first sound component extracting means includes a detecting means for detecting a sound component start position of the audio file.
【請求項4】前記取り込み手段は外部音声を捉えるマイ
クを含み、 前記抽出手段は前記マイクによって捉えられた外部音声
信号から前記有音成分信号を抽出する第2有音成分抽出
手段をさらに含み、 前記第2有音成分抽出手段によって抽出された前記有音
成分信号を含む前記所定形式の音声ファイルを前記記録
媒体に記録する記録手段をさらに備える、請求項3記載
のカメラ。
4. The capturing means includes a microphone for capturing external sound, the extracting means further includes a second sound component extracting means for extracting the sound component signal from an external sound signal captured by the microphone, 4. The camera according to claim 3, further comprising a recording unit that records the audio file of the predetermined format including the sound component signal extracted by the second sound component extraction unit on the recording medium. 5.
【請求項5】前記第2有音成分抽出手段は前記音声信号
のレベルを所定の閾値と比較する比較手段を含む、請求
項4記載のカメラ。
5. The camera according to claim 4, wherein said second sound component extracting means includes a comparing means for comparing a level of said audio signal with a predetermined threshold value.
【請求項6】前記有音成分信号の再生を指示する第3指
示手段、および前記第3指示手段の指示に応答して、前
記撮影手段を能動化することなく前記メモリ手段から前
記有音声分信号を再生する第3再生手段をさらに備え
る、請求項1ないし5のいずれかに記載のカメラ。
6. A third instruction means for instructing reproduction of said sound component signal, and in response to an instruction of said third instruction means, said memory means is provided with said audio component without activating said photographing means. The camera according to any one of claims 1 to 5, further comprising third reproducing means for reproducing a signal.
JP36392099A 1999-12-22 1999-12-22 camera Expired - Fee Related JP3363857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36392099A JP3363857B2 (en) 1999-12-22 1999-12-22 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36392099A JP3363857B2 (en) 1999-12-22 1999-12-22 camera

Publications (2)

Publication Number Publication Date
JP2001186393A true JP2001186393A (en) 2001-07-06
JP3363857B2 JP3363857B2 (en) 2003-01-08

Family

ID=18480525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36392099A Expired - Fee Related JP3363857B2 (en) 1999-12-22 1999-12-22 camera

Country Status (1)

Country Link
JP (1) JP3363857B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1675385A1 (en) * 2004-12-27 2006-06-28 Kyocera Corporation Image pickup terminal
US7535496B2 (en) 2002-01-30 2009-05-19 Intel Corporation Audio-based attention grabber for imaging devices
US7821536B2 (en) 2002-03-12 2010-10-26 Canon Kabushiki Kaisha Information processing apparatus, data storage device, data transfer system and data transfer method, program and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03162075A (en) * 1989-11-20 1991-07-12 Olympus Optical Co Ltd Camera
JPH06332491A (en) * 1993-05-21 1994-12-02 Gijutsu Kenkyu Kumiai Iryo Fukushi Kiki Kenkyusho Voiced section detecting device and noise suppressing device
JPH1166729A (en) * 1997-08-26 1999-03-09 Nippon Columbia Co Ltd Recorder
JP2000350062A (en) * 1999-06-07 2000-12-15 Sony Corp Digital camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03162075A (en) * 1989-11-20 1991-07-12 Olympus Optical Co Ltd Camera
JPH06332491A (en) * 1993-05-21 1994-12-02 Gijutsu Kenkyu Kumiai Iryo Fukushi Kiki Kenkyusho Voiced section detecting device and noise suppressing device
JPH1166729A (en) * 1997-08-26 1999-03-09 Nippon Columbia Co Ltd Recorder
JP2000350062A (en) * 1999-06-07 2000-12-15 Sony Corp Digital camera

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7535496B2 (en) 2002-01-30 2009-05-19 Intel Corporation Audio-based attention grabber for imaging devices
US7990435B2 (en) 2002-01-30 2011-08-02 Intel Corporation Audio-based attention grabber for imaging devices
US8072510B2 (en) 2002-01-30 2011-12-06 Intel Corporation Audio-based attention grabber for imaging devices
US8094212B2 (en) 2002-01-30 2012-01-10 Intel Corporation Audio-based attention grabber for imaging devices
US7821536B2 (en) 2002-03-12 2010-10-26 Canon Kabushiki Kaisha Information processing apparatus, data storage device, data transfer system and data transfer method, program and recording medium
EP1675385A1 (en) * 2004-12-27 2006-06-28 Kyocera Corporation Image pickup terminal
EP1788427A2 (en) 2004-12-27 2007-05-23 Kyocera Corporation Image pick-up terminal comprising means for shutter sound generation
EP1788427A3 (en) * 2004-12-27 2007-12-05 Kyocera Corporation Image pick-up terminal comprising means for shutter sound generation
US7580626B2 (en) 2004-12-27 2009-08-25 Kyocera Corporation Image pickup terminal
US7660521B2 (en) 2004-12-27 2010-02-09 Kyocera Corporation Image pickup terminal
EP2278789A1 (en) 2004-12-27 2011-01-26 Kyocera Corporation Image pick-up terminal comprising means for shutter sound generation

Also Published As

Publication number Publication date
JP3363857B2 (en) 2003-01-08

Similar Documents

Publication Publication Date Title
US7417667B2 (en) Imaging device with function to image still picture during moving picture imaging
JP4044571B2 (en) Video shooting device for displaying OSD menu and display method thereof
US7417668B2 (en) Digital camera
US7535495B2 (en) Digital camera, control method thereof and portable terminal
KR100770637B1 (en) Digital camera
US9813788B2 (en) Method of controlling digital photographing apparatus and digital photographing apparatus using the same
JP4646046B2 (en) Recording / playback device
JP4696921B2 (en) Image processing apparatus, still image generation method, program, and storage medium
JP3881168B2 (en) Digital camera and operation control method thereof, and image reproducing apparatus and method
JP3955540B2 (en) Image processing device
JP4500465B2 (en) Imaging apparatus and control method thereof
JP4595832B2 (en) Imaging apparatus, program, and storage medium
JP2009077265A (en) Imaging apparatus
JP2002232830A (en) Image processor, image processing program and image processing method
JP3363857B2 (en) camera
JP2001069453A (en) Still picture camera
JP2004056699A (en) Camera with moving picture photographing function
JP3559499B2 (en) Digital camera
JP2003333470A (en) Data management method for digital camera
JP2004088518A (en) Imaging/recording apparatus, image reproducing apparatus, and image recording/reproducing control program
JP2004297658A (en) Image processing program and apparatus
US20020003946A1 (en) Portable image playback apparatus, method of controlling operation of same, portable image pick-up apparatus and method of controlling operation of same
JP4656395B2 (en) Recording apparatus, recording method, and recording program
JP4602633B2 (en) Digital camera
JPH11146316A (en) Information processor and recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071025

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091025

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101025

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101025

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111025

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111025

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121025

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121025

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131025

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131025

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131025

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees