JP2012191502A - Recording device, playback device, and recording/playback device - Google Patents

Recording device, playback device, and recording/playback device Download PDF

Info

Publication number
JP2012191502A
JP2012191502A JP2011054351A JP2011054351A JP2012191502A JP 2012191502 A JP2012191502 A JP 2012191502A JP 2011054351 A JP2011054351 A JP 2011054351A JP 2011054351 A JP2011054351 A JP 2011054351A JP 2012191502 A JP2012191502 A JP 2012191502A
Authority
JP
Japan
Prior art keywords
sound
data
image data
recording
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011054351A
Other languages
Japanese (ja)
Inventor
Takeshi Suzuki
猛士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011054351A priority Critical patent/JP2012191502A/en
Publication of JP2012191502A publication Critical patent/JP2012191502A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a recording device, a playback device, and a recording/playback device capable of turning image data such as video data that tends to become monotonous into high-value image data to be played back by adding various processing to the image data.SOLUTION: A recording/playback device includes: a display part for displaying image data acquired by shooting an image; a data recording part for recording the image data acquired by the shooting, and sound data recorded in parallel with the image data; a scene mode setting part for setting a scene mode for shooting the image; a sound analysis part for analyzing at least generation time of target sound from the sound data recorded in the data recording part based on the scene mode set by the scene mode setting part; and an image processing part for performing various processing on the image data in accordance with the scene mode at the time of shooting the image according to the sound analysis data acquired by the analysis of the sound analysis part. Then, the image data processed by the image processing part is displayed on the display part.

Description

本発明は、画像に演出を加えて再生することを可能とする記録装置、再生装置及び記録再生装置に関する。   The present invention relates to a recording apparatus, a reproducing apparatus, and a recording / reproducing apparatus that can reproduce an image with an effect.

動画等の画像データの再生では、例えばレコーダにより音声データ等を使用して被写体の場面の盛り上がりを検出し、この盛り上がった場面の動画を重点的に再生する技術が知られている。又、動画等の画像データを再生する技術としては、音声のみを解析し、この解析結果に応じて動画の再生スピードを変化させるDVDレコーダや、再生している静止画又は動画に音楽を演奏しているような雰囲気を付加する空オケ(歌のないオーケストラ)の装置等がある。   In the reproduction of image data such as a moving image, a technique is known in which, for example, an audio data or the like is detected by a recorder to detect the rising of the scene of the subject, and the moving image of the increased scene is intensively reproduced. In addition, as a technique for reproducing image data such as a moving image, a DVD recorder that analyzes only the sound and changes the reproduction speed of the moving image according to the analysis result, or plays music on the still image or moving image that is being reproduced. There is a device of an empty orchestra (orchestra without a song) that adds an atmosphere like that.

特開2007−4973号公報JP 2007-4973 A 特開平8−153350号公報JP-A-8-153350 特開2000−352960号公報JP 2000-352960 A

しかしながら、動画等の画像データを再生するときに、盛り上がった場面の動画を重点的に再生したり、動画の再生スピードを変化させる、音楽を付加するなどでは、再生する動画等の画像データを鑑賞するのに単調になり易い。
本発明の目的は、単調になり易い動画等の画像データを再生する時に、撮影画像データそのものに撮影時の状況に合った各種の演出用の画像処理を付加して価値の高い画像再生を可能とする記録装置、再生装置及び記録再生装置を提供することにある。
However, when playing back image data such as a movie, if you want to play the movie in a lively scene, change the playback speed of the movie, add music, etc. It tends to be monotonous to do.
The object of the present invention is to enable high-value image reproduction by adding image processing for various effects suitable for the situation at the time of photographing to the photographed image data itself when reproducing image data such as a moving picture that tends to be monotonous. A recording apparatus, a reproducing apparatus, and a recording / reproducing apparatus.

本発明の主要な局面に係る記録装置は、撮像により取得された画像データを記録すると共に、当該画像データの取得と共に録音される前記撮像時の音声データを記録するデータ記録部と、前記撮像時のシーンモードを設定するシーンモード設定部と、前記シーンモード設定部により設定された前記シーンモードに応じて前記データ記録部に記録されている前記音声データの少なくとも発生時刻を解析する音声解析部とを具備する。   A recording apparatus according to a main aspect of the present invention records image data acquired by imaging, records a voice data at the time of imaging that is recorded together with acquisition of the image data, and at the time of imaging A scene mode setting unit for setting the scene mode, and an audio analysis unit for analyzing at least the generation time of the audio data recorded in the data recording unit according to the scene mode set by the scene mode setting unit; It comprises.

本発明の主要な局面に係る再生装置は、撮像により取得された画像データを表示する表示部と、前記画像データの取得と共に収集される前記撮像時の音声データを解析して取得される少なくとも発生時刻を含む音声解析データに従って前記表示部に表示中の前記画像データに対して前記撮像時のシーンモードに応じた各種の演出用画像処理を行う画像処理部と、前記画像処理部の前記演出用画像処理により得られた前記画像データを前記表示部に表示する再表示部とを具備する。   A playback device according to a main aspect of the present invention includes a display unit that displays image data acquired by imaging, and at least an occurrence that is acquired by analyzing audio data at the time of imaging collected together with the acquisition of the image data An image processing unit that performs various types of image processing for effects corresponding to the scene mode at the time of image capturing on the image data being displayed on the display unit in accordance with audio analysis data including time, and for the effects of the image processing unit A re-display unit that displays the image data obtained by image processing on the display unit.

本発明の主要な局面に係る記録再生装置は、撮像により取得された画像データを表示する表示部と、撮像により取得された画像データを記録すると共に、当該画像データの取得と共に録音される前記撮像時の音声データを記録するデータ記録部と、前記撮像時のシーンモードを設定するシーンモード設定部と、前記シーンモード設定部により設定された前記シーンモードに応じて前記データ記録部に記録されている前記音声データの少なくとも発生時刻を解析する音声解析部と、前記音声解析部の解析により取得された前記音声解析データに従って前記画像データに対して前記撮像時のシーンモードに応じた各種の演出用画像処理を行う画像処理部と、前記画像処理部の前記演出用画像処理により得られた前記画像データを前記表示部に表示する再表示部とを具備する。   A recording / reproducing apparatus according to a main aspect of the present invention includes a display unit that displays image data acquired by imaging, and the imaging that records image data acquired by imaging and that is recorded together with acquisition of the image data. Recorded in the data recording unit according to the scene mode set by the scene mode setting unit, and a scene mode setting unit for setting the scene mode at the time of imaging A voice analysis unit that analyzes at least the generation time of the voice data, and for various effects according to the scene mode at the time of imaging with respect to the image data according to the voice analysis data acquired by the analysis of the voice analysis unit An image processing unit that performs image processing, and the image data obtained by the effect image processing of the image processing unit are displayed on the display unit ; And a re-display unit that.

本発明によれば、単調になり易い動画等の画像データを再生する時に、撮影画像データそのものに撮影時の状況に合った各種の演出用の画像処理を付加して価値の高い画像再生を可能とする記録装置、再生装置及び記録再生装置を提供できる。   According to the present invention, when reproducing image data such as a moving image that tends to be monotonous, high-value image reproduction is possible by adding image processing for various effects suitable for the situation at the time of photographing to the photographed image data itself. A recording apparatus, a reproducing apparatus, and a recording / reproducing apparatus can be provided.

本発明に係る記録再生装置の第1の実施の形態を示す構成図。The block diagram which shows 1st Embodiment of the recording / reproducing apparatus which concerns on this invention. 同装置における音声解析パラメータデータベースを示す摸式図。FIG. 3 is a schematic diagram showing a voice analysis parameter database in the same device. 同装置における動画ファイルのファイル構造を示す摸式図。FIG. 3 is a schematic diagram showing a file structure of a moving image file in the same device. 同装置における音情報解析結果リストが付加された動画ファイルを示す摸式図。The model diagram which shows the moving image file to which the sound information analysis result list | wrist in the same apparatus was added. 同装置における音情報解析結果リストを示す摸式図。FIG. 3 is a schematic diagram showing a sound information analysis result list in the same device. 同装置におけるカメラ撮影モードの動作フローチャート。The operation | movement flowchart of the camera imaging | photography mode in the same apparatus. 同装置における撮影動作フローチャート。The imaging | photography operation | movement flowchart in the apparatus. 同装置における再生動作フローチャート。The reproduction | regeneration operation | movement flowchart in the same apparatus. 同装置における演出効果を付加する動画再生モードのフローチャート。The flowchart of the moving image reproduction mode which adds the production effect in the same apparatus. 本発明に係る記録再生装置の第2の実施の形態における撮影動作フローチャート。The shooting operation | movement flowchart in 2nd Embodiment of the recording / reproducing apparatus which concerns on this invention. 同装置における演出効果を付加する動画再生モードのフローチャート。The flowchart of the moving image reproduction mode which adds the production effect in the same apparatus. 本発明に係る記録再生装置の第3の実施の形態における音声解析パラメータデータベースを示す摸式図。FIG. 14 is a schematic diagram showing a voice analysis parameter database in the third embodiment of the recording / reproducing apparatus according to the present invention. 同装置における音情報解析結果リストを示す摸式図。FIG. 3 is a schematic diagram showing a sound information analysis result list in the same device. 同装置における演出効果を付加する動画再生モードのフローチャート。The flowchart of the moving image reproduction mode which adds the production effect in the same apparatus. 本発明に係る記録再生装置の第4の実施の形態における音情報解析結果リストを示す摸式図。FIG. 14 is a schematic diagram showing a sound information analysis result list in the fourth embodiment of the recording / reproducing apparatus according to the present invention. 同装置における撮影動作フローチャート。The imaging | photography operation | movement flowchart in the apparatus. 同装置における動画再生モードのフローチャート。The flowchart of the moving image reproduction mode in the same apparatus. 同装置における通常の動画データの再生と拡大縮小の演出効果を付加した動画データと対比を模式的に示す図。The figure which shows typically contrast with the moving image data which added the production effect of reproduction | regeneration of normal moving image data in the same apparatus, and expansion / contraction. 同装置における演出手法の変形例であるスポットライト効果の一例を示す図。The figure which shows an example of the spotlight effect which is a modification of the presentation method in the apparatus.

[第1の実施の形態]
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は記録再生装置の構成図を示す。レンズユニット1は、撮影レンズやフォーカスレンズを含み、被写体からの光をCCD等から成る撮像素子2に結像する。このレンズユニット1のフォーカスレンズは、アクチュエータ2の動作によって当該レンズユニット1の光軸方向に移動する。アクチュエータ駆動回路3は、アクチュエータ2を駆動してフォーカスレンズを光軸方向に移動させる。
撮像素子4は、レンズユニット1により結像された被写体像を映像信号として出力する。撮像回路5は、撮像素子4から出力された映像信号のゲインを調整し、アナログ−デジタル変換し、画像データとして出力する。この撮像回路5から出力された画像データは、CPU6に送られる。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration diagram of a recording / reproducing apparatus. The lens unit 1 includes a photographic lens and a focus lens, and forms an image of light from a subject on an image sensor 2 formed of a CCD or the like. The focus lens of the lens unit 1 is moved in the optical axis direction of the lens unit 1 by the operation of the actuator 2. The actuator drive circuit 3 drives the actuator 2 to move the focus lens in the optical axis direction.
The image sensor 4 outputs the subject image formed by the lens unit 1 as a video signal. The imaging circuit 5 adjusts the gain of the video signal output from the imaging device 4, performs analog-digital conversion, and outputs it as image data. Image data output from the imaging circuit 5 is sent to the CPU 6.

このCPU6は、本装置における記録再生の一連の動作の制御を行う。このCPU6には、キーマトリクス7と、フレームメモリ8と、記録媒体9と、予め記録再生プログラム等を記憶するためのEEPROM10と、フラッシュランプを含む発光回路11と、本装置の周囲環境の音響をステレオで集音するためのステレオマイクロフォーン12と、手振れ補正用ジャイロセンサ13と、スピーカ14と、LCD表示回路15と、TFT液晶駆動回路16と、映像出力回路17と、バックライトユニット18と、電源回路19と、電池状態検出回路20とが接続されている。   The CPU 6 controls a series of recording / reproducing operations in this apparatus. The CPU 6 includes a key matrix 7, a frame memory 8, a recording medium 9, an EEPROM 10 for storing a recording / reproducing program, a light emitting circuit 11 including a flash lamp, and sound of the environment around the apparatus. Stereo microphone 12 for collecting sounds in stereo, camera shake correction gyro sensor 13, speaker 14, LCD display circuit 15, TFT liquid crystal drive circuit 16, video output circuit 17, backlight unit 18, A power supply circuit 19 and a battery state detection circuit 20 are connected.

キーマトリクス7は、動画ボタン7−1と、レリーズボタン7−2とを備えると共に、その他に、例えば電源スイッチ、静止画の撮影モード等の各種動作モードの動作モードボタン、各種のシーンモードの設定用のボタン、バッテリー交換ボタン等を備える。動作モードボタンは、静止画の撮影モードや、動画の撮影モード、静止画の再生モード、動画の再生モード等を設定する。シーンモードの設定用のボタンは、例えばスポーツ、ポートレート、花火、風景、ペット等のシーンモードを設定する。又、キーマトリクス7は、再生モード時に、再生する静止画ファイル又は動画ファイルを選択するための再生選択ボタンを備える。   The key matrix 7 includes a moving image button 7-1 and a release button 7-2, and in addition, for example, a power switch, operation mode buttons for various operation modes such as a still image shooting mode, and various scene mode settings. Buttons, battery replacement buttons, etc. The operation mode button sets a still image shooting mode, a moving image shooting mode, a still image playback mode, a moving image playback mode, and the like. The button for setting the scene mode sets a scene mode such as sports, portrait, fireworks, landscape, and pet. The key matrix 7 includes a reproduction selection button for selecting a still image file or a moving image file to be reproduced in the reproduction mode.

フレームメモリ8は、撮像回路5からCPU6に送られた画像データから1フレームの画像データを一時的に記憶する。
記録媒体9は、CPU6の画像処理により取得された例えば静止画ファイルや動画ファイル、音声ファイルを記録する。
EEPROM10には、本装置における記録再生の一連の動作を制御するための記録再生プログラムが予め記憶されている。又、この記録再生プログラムは、撮像により取得された画像ファイルを記録すると共に、この画像ファイルの取得と共に録音される撮像時の音声ファイルを記録し、撮像時のシーンモードに応じて音声ファイルの少なくとも発生時刻を解析する。
The frame memory 8 temporarily stores one frame of image data from the image data sent from the imaging circuit 5 to the CPU 6.
The recording medium 9 records, for example, a still image file, a moving image file, and an audio file acquired by the image processing of the CPU 6.
The EEPROM 10 stores in advance a recording / reproducing program for controlling a series of recording / reproducing operations in this apparatus. The recording / playback program records an image file acquired by imaging, records an audio file at the time of imaging that is recorded together with the acquisition of the image file, and at least the audio file according to the scene mode at the time of imaging. Analyze the time of occurrence.

発光回路11は、フラッシュランプを閃光発光する。
ステレオマイクロフォーン12は、本装置の周囲環境の音響をステレオで集音するために例えば2つのマイクロフォーンを有する。
手振れ補正用ジャイロセンサ13は、本装置に加えられる振動を検出し、その振動検出信号を出力する。
スピーカ14は、本装置の記録されている音声ファイル中の音声データを音響に変換出力する。
LCD表示回路15には、例えばファインダ用の液晶ディスプレイ(LCD)パネル21が接続されている。このLCD表示回路15は、ファインダ用のLCDパネル21にファインダ用の画像を表示する。
薄型フィルムトランジスタ(TFT)駆動回路16には、表示部としてのTFTパネル22が接続されている。このTFT駆動回路16は、CPU6から送られてくる画像ファイルをTFTパネル22に表示するための表示データに変換してTFTパネル22に送り、このTFTパネル22に例えばスルー画像や、静止画ファイル中の静止画データ、動画ファイル中の動画データ等を表示する。
映像出力回路17は、CPU6から送られてくる画像データを外部画像表示装置23に送るための映像信号に変換する。この映像出力回路17は、映像出力端子24を介して外部画像表示装置23に接続される。
The light emitting circuit 11 flashes the flash lamp.
The stereo microphone 12 has, for example, two microphones in order to collect the sound of the environment around the apparatus in stereo.
The hand shake correction gyro sensor 13 detects vibration applied to the apparatus and outputs a vibration detection signal.
The speaker 14 converts the sound data in the sound file recorded in the apparatus into sound and outputs the sound.
For example, a liquid crystal display (LCD) panel 21 for a finder is connected to the LCD display circuit 15. The LCD display circuit 15 displays a finder image on the finder LCD panel 21.
A thin film transistor (TFT) drive circuit 16 is connected to a TFT panel 22 as a display unit. The TFT drive circuit 16 converts the image file sent from the CPU 6 into display data for display on the TFT panel 22 and sends it to the TFT panel 22. Still image data, moving image data in a moving image file, and the like are displayed.
The video output circuit 17 converts the image data sent from the CPU 6 into a video signal for sending to the external image display device 23. This video output circuit 17 is connected to an external image display device 23 via a video output terminal 24.

バックライトユニット18は、TFTパネル22の背面側に配置され、バックライトユニット18の背面側からバックライト光を照明する。
電源回路19は、CPU6等の本装置の各回路に電力を供給する。この電源回路19は、交換可能な電池25が接続されている。電池状態検出回路20は、電池25の出力電圧を検出し、例えば電池25の出力電圧が予め設定された電圧値以下になると、電圧低下の検出信号をCPU6に送る。又、電源回路19には、バックアップ電源26が接続されている。
The backlight unit 18 is disposed on the back side of the TFT panel 22 and illuminates backlight light from the back side of the backlight unit 18.
The power supply circuit 19 supplies power to each circuit of the present apparatus such as the CPU 6. The power supply circuit 19 is connected to a replaceable battery 25. The battery state detection circuit 20 detects the output voltage of the battery 25. When the output voltage of the battery 25 falls below a preset voltage value, for example, the battery state detection circuit 20 sends a voltage drop detection signal to the CPU 6. A backup power supply 26 is connected to the power supply circuit 19.

EEPROM10には、音声解析パラメータのデータベースVDBが形成されている。この音声解析パラメータデータベースVDBには、音声解析パラメータが記憶されている。図2は音声解析パラメータデータベースVDBの摸式図を示す。この音声解析パラメータデータベースVDBには、例えばスポーツ、ポートレート、花火、風景、ペット等の各種シーンモードと、これらシーンモード毎に予め設定された各検出音と、これら検出音を解析するための各検出条件とを対応させて記憶する。例えば、シーンモードがスポーツであれば、検出音はピストル音と歓声とである。検出条件は、ピストル音に対して当該ピストル音を検出した時であり、歓声に対して一定以上の歓声の音量を検出した時である。   The EEPROM 10 is formed with a voice analysis parameter database VDB. The voice analysis parameter database VDB stores voice analysis parameters. FIG. 2 shows a schematic diagram of the voice analysis parameter database VDB. In this voice analysis parameter database VDB, for example, various scene modes such as sports, portraits, fireworks, landscapes, pets and the like, detection sounds set in advance for each scene mode, and analysis for analyzing these detection sounds Corresponding detection conditions are stored. For example, if the scene mode is sport, the detection sound is a pistol sound and a cheer. The detection condition is when the pistol sound is detected with respect to the pistol sound, and when the sound volume of the cheering level more than a certain level is detected with respect to the cheering sound.

CPU6は、例えば、静止画の撮影モード又は動画の撮影モードに応じた一連の撮影動作の制御や、静止画の再生モード又は動画の再生モードに応じた一連の再生動作の制御を行うもので、シーンモード設定部30と、ファイル生成・管理部31と、静止画記録・再生部32と、動画記録・再生部33と、音声解析部34と、再生演出効果付加部35と、演出タイミング管理部36と、画像圧縮伸張部37と、記録媒体アクセス部38と、再表示部39とを有する。
シーンモード設定部30は、キーマトリクス7のシーンモードの設定用のボタンにより設定されたシーンモード、例えばスポーツ、ポートレート、花火、風景又はペット等のシーンモードを読み取り、このシーンモードに応じた露光量等を設定して静止画又は動画の撮影動作等の制御を行う。
The CPU 6 controls, for example, a series of shooting operations according to a still image shooting mode or a movie shooting mode, and a series of playback operations according to a still image playback mode or a movie playback mode. Scene mode setting unit 30, file generation / management unit 31, still image recording / playback unit 32, moving image recording / playback unit 33, audio analysis unit 34, playback effect effect addition unit 35, and production timing management unit 36, an image compression / decompression unit 37, a recording medium access unit 38, and a re-display unit 39.
The scene mode setting unit 30 reads a scene mode set by a button for setting the scene mode of the key matrix 7, for example, a scene mode such as sport, portrait, fireworks, landscape, or pet, and exposure according to the scene mode. The amount and the like are set to control the still image or moving image shooting operation.

ファイル生成・管理部31は、データ記録部として機能するもので、静止画又は動画の撮影動作時に、撮像素子4により撮像され、撮像回路5から出力される画像データに対してシーンモードを示すシーンパラメータSp等を付加して静止画ファイル又は動画ファイルを生成し、これら静止画ファイル又は動画ファイルを記録媒体9に記録し、管理する。
静止画記録・再生部32は、静止画の撮影モード時、撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、この画像データをTFT駆動回路16によってTFTパネル22にスルー画像として表示し、レリーズボタン7−2が押し操作されると、この押し操作時に静止画の画像データを作成する。この静止画記録・再生部32により作成された静止画の画像データは、ファイル生成・管理部31によって静止画ファイルとして記録媒体9に記録される。この静止画ファイルは、シーンパラメータSp等を記述するファイルヘッドと静止画の画像データとを含む。
静止画記録・再生部32は、静止画の再生モード時、記録媒体9に記録されている静止画ファイルを読み出し、この静止画ファイルに含まれる静止画の画像データをTFT駆動回路16に送り、TFTパネル22に表示する。
The file generation / management unit 31 functions as a data recording unit, and displays a scene mode for image data captured by the imaging device 4 and output from the imaging circuit 5 during a still image or moving image capturing operation. A still image file or a moving image file is generated by adding a parameter Sp or the like, and the still image file or the moving image file is recorded on the recording medium 9 and managed.
The still image recording / reproducing unit 32 inputs image data picked up by the image pickup device 4 and output from the image pickup circuit 5 in the still image shooting mode, and this image data is passed through the TFT panel 22 by the TFT drive circuit 16. When the release button 7-2 is pressed and displayed as an image, image data of a still image is created at the time of the pressing operation. The image data of the still image created by the still image recording / reproducing unit 32 is recorded on the recording medium 9 as a still image file by the file generation / management unit 31. This still image file includes a file head describing scene parameters Sp and the like and image data of the still image.
The still image recording / reproducing unit 32 reads a still image file recorded on the recording medium 9 in the still image reproduction mode, and sends image data of the still image included in the still image file to the TFT drive circuit 16. Display on the TFT panel 22.

動画記録・再生部33は、動画ボタン7−1が押し操作された動画の撮影モード時、撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、この画像データをTFT駆動回路16によってTFTパネル22に動画として表示し、これと共に動画の画像データを作成する。この動画の画像データは、ファイル生成・管理部31によってシーンパラメータSp等を記述したファイルヘッダと共に動画ファイルとして記録媒体9に記録される。
図3は動画ファイルのファイル構造の摸式図を示す。この動画ファイルFaは、ファイルヘッダFa1と、動画データFa2とを有する。ファイルヘッダFa1には、シーンパラメータSpが含まれる。このシーンパラメータSpは、例えばスポーツ、ポートレート、花火、風景、ペット等の各種シーンモードのいずれか1つが記述される。
The moving image recording / reproducing unit 33 inputs image data picked up by the image pickup device 4 and output from the image pickup circuit 5 in the moving image shooting mode in which the moving image button 7-1 is pressed, and this image data is driven by the TFT. The circuit 16 displays the image on the TFT panel 22 as a moving image, and also creates moving image data. The image data of the moving image is recorded on the recording medium 9 as a moving image file together with a file header describing the scene parameter Sp and the like by the file generation / management unit 31.
FIG. 3 shows a schematic diagram of the file structure of a moving image file. The moving image file Fa has a file header Fa1 and moving image data Fa2. The file header Fa1 includes a scene parameter Sp. As the scene parameter Sp, for example, any one of various scene modes such as sports, portrait, fireworks, landscape, and pet is described.

動画記録・再生部33は、動画の撮影モード時、ステレオマイクロフォーン12から出力されせる音声信号をデジタル変換して音声データを作成する。この動画記録・再生部33により作成された音声データは、ファイル生成・管理部31によって音声ファイルとして記録媒体9に記録される。このときファイル生成・管理部31は、動画ファイル中の動画データを経過時間の情報と共に記録媒体9に記録し、かつ音声ファイル中の音声データを経過時間の情報と共に記録媒体9に記録する。
動画記録・再生部33は、動画の再生モード時、記録媒体9に記録されている動画ファイルFaを読み出し、この動画ファイルFaに含まれる動画データFa2をTFT駆動回路16に送り、TFTパネル22に動画表示すると共に、記録媒体9に記録されている音声ファイルを読み出し、この音声ファイル中の音声データをスピーカ14に送って動画記録時の音声を再生する。
The moving image recording / reproducing unit 33 digitally converts the audio signal output from the stereo microphone 12 in the moving image shooting mode to generate audio data. The audio data created by the moving image recording / reproducing unit 33 is recorded on the recording medium 9 as an audio file by the file generating / managing unit 31. At this time, the file generation / management unit 31 records the moving image data in the moving image file together with the elapsed time information on the recording medium 9, and records the audio data in the audio file together with the elapsed time information on the recording medium 9.
The moving image recording / playback unit 33 reads the moving image file Fa recorded on the recording medium 9 in the moving image reproduction mode, and sends the moving image data Fa2 included in the moving image file Fa to the TFT drive circuit 16 to the TFT panel 22. While displaying the moving image, the audio file recorded on the recording medium 9 is read out, and the audio data in the audio file is sent to the speaker 14 to reproduce the audio at the time of recording the moving image.

音声解析部34は、動画の再生モード時に、シーンモード設定部30により設定されたシーンモードに応じて記録媒体9に記録されている音声ファイル中の音声データの少なくとも発生時刻を解析する。この音声解析部34は、シーンモードに応じた種類の音声別に音声データを解析する。すなわち、音声解析部34は、図2に示す音声解析パラメータデータベースVDBの記憶されているシーンモードの種類別に設定された音声の検出条件に従って音声データを解析する。例えば、シーンモードがスポーツであれば、音声解析部34は、音声データからピストル音と歓声とを検出する。このときの検出条件は、ピストル音に対して当該ピストル音を検出した時であり、歓声に対して一定以上の歓声の音量を検出した時である。なお、音声解析パラメータデータベースVDBは、EEPROM10に記憶されているが、当該音声解析パラメータデータベースVDBを用いるのは、音声解析部34であるので、当該音声解析部34に含まれるものとする。   The audio analysis unit 34 analyzes at least the generation time of the audio data in the audio file recorded on the recording medium 9 according to the scene mode set by the scene mode setting unit 30 during the moving image playback mode. The sound analysis unit 34 analyzes sound data for each type of sound corresponding to the scene mode. That is, the voice analysis unit 34 analyzes the voice data according to the voice detection conditions set for each type of scene mode stored in the voice analysis parameter database VDB shown in FIG. For example, if the scene mode is sport, the voice analysis unit 34 detects a pistol sound and a cheer from the voice data. The detection condition at this time is when the pistol sound is detected with respect to the pistol sound, and when the sound volume of a certain level of cheer with respect to the cheer is detected. Note that the speech analysis parameter database VDB is stored in the EEPROM 10, but the speech analysis parameter database VDB is used by the speech analysis unit 34 and is therefore included in the speech analysis unit 34.

再生演出効果付加部35は、動画の再生モード時に、音声解析部34の解析により取得された音声データに従って記録媒体9に記録されている動画ファイルFa中の動画データFa2に対して撮像時のシーンモードに応じた各種の演出用画像処理を付加する。ここで、シーンモードに応じた各種の演出用画像処理は、例えば、動画データFa2に対して時間的変化、色の三要素の変化、又は空間的な大きさの変化のうち少なくとも1つの変化を含む画像処理である。このうち動画データFa2に対する時間的変化は、例えば、当該動画データFa2を一時的に静止する画像処理、又は動画データFa2の再生速度を変化させる画像処理等である。色の三要素の変化は、例えば、動画データFa2の輝度を変化させる画像処理等である。動画データFa2の再生速度を変化させる処理は、例えば、動画データFa2を拡大・縮小する画像処理等である。   The reproduction effect effect adding unit 35 captures a scene at the time of imaging with respect to the moving image data Fa2 in the moving image file Fa recorded in the recording medium 9 in accordance with the audio data acquired by the analysis of the audio analyzing unit 34 in the moving image reproduction mode. Various kinds of effect image processing according to the mode are added. Here, the various types of effect image processing in accordance with the scene mode include, for example, at least one change among the temporal change, the three color elements, or the spatial size change with respect to the moving image data Fa2. Including image processing. Among these, the temporal change with respect to the moving image data Fa2 is, for example, image processing for temporarily stopping the moving image data Fa2, or image processing for changing the reproduction speed of the moving image data Fa2. The change in the three color elements is, for example, image processing for changing the luminance of the moving image data Fa2. The processing for changing the reproduction speed of the moving image data Fa2 is, for example, image processing for enlarging / reducing the moving image data Fa2.

演出タイミング管理部36は、動画の再生モード時に、音声解析部34によって音声解析された音声データの発生時刻から成る音情報解析結果リストを作成し、この音情報解析結果リストを動画ファイルFaに添付する。図4は動画ファイルFaの摸式図を示す。この動画ファイルFaは、フィルイヘッダFa1中に音情報解析結果リストRが添付されている。この音情報解析結果リストRは、音声解析部34によって音声解析された音声データの発生時刻のリストが記録されている。   The production timing management unit 36 creates a sound information analysis result list including the generation time of the sound data analyzed by the sound analysis unit 34 in the moving image playback mode, and attaches the sound information analysis result list to the moving image file Fa. To do. FIG. 4 is a schematic diagram of the moving image file Fa. The moving image file Fa has a sound information analysis result list R attached in the file header Fa1. In the sound information analysis result list R, a list of generation times of sound data analyzed by the sound analysis unit 34 is recorded.

図5は音情報解析結果リストRの摸式図を示す。この音情報解析結果リストRは、各音声データ別に作成される。この音情報解析結果リストRは、例えば動画の撮影により検出された音声データの検出タイミングを記録するための検出タイミングリストRaを有する。この音情報解析結果リストRは、例えば動画の撮影中に5回の音声データが発生している。例えば、シーンモードがスポーツであれば、ピストル音を検出した時と、一定以上の歓声の音量を検出した時とが合わせて動画の撮影中に5回あったことを示す。例えば、1回目のピストル音又は一定の音量以上の歓声を検出した検出タイミングの時刻(No.1)は、「0:00:03.20」である。このタイミングの時刻(No.1)は、動画の撮影開始の時刻「0:00:00:0.00」からの経過時間を示す。同図の音情報解析結果リストRは、1つの動画ファイルFaに対して添付されるもので、動画ファイルFaが複数存在すれば、これら動画ファイルFa毎にそれぞれ音情報解析結果リストRが添付される。   FIG. 5 is a schematic diagram of the sound information analysis result list R. This sound information analysis result list R is created for each audio data. The sound information analysis result list R includes a detection timing list Ra for recording the detection timing of audio data detected by, for example, shooting a moving image. In the sound information analysis result list R, for example, five times of audio data are generated during shooting of a moving image. For example, if the scene mode is sport, the time when the pistol sound is detected and the time when the sound level of the cheer exceeding a certain level is detected are five times during the shooting of the moving image. For example, the time (No. 1) of the detection timing at which the first pistol sound or cheering of a certain volume or more is detected is “0: 00: 03.20”. The time (No. 1) at this timing indicates an elapsed time from the time “0: 00: 0.00: 0.00” when the moving image was started. The sound information analysis result list R shown in the figure is attached to one moving image file Fa. If there are a plurality of moving image files Fa, the sound information analysis result list R is attached to each moving image file Fa. The

演出タイミング管理部36は、TFTパネル22に動画データFa2を動画表示中に、音情報解析結果リストRに記録された音声データの発生時刻になると、この音声データの発生時刻から動画データFa2に対して演出用画像処理を開始し、予め設定された演出用時間、例えば2秒間を経過すると、演出用画像処理を終了する。
従って、再生演出効果付加部35は、演出タイミング管理部36により作成された図5に示す音情報解析結果リストR中のタイミングの時刻、例えばNo.1〜No.5のタイミングの時刻から予め設定された演出用時間、例えば2秒間経過するまで、動画ファイルFa中の動画データFa2に対して撮像時のシーンモードに応じた各種の演出用画像処理、例えば動画データFa2を一時的に静止する、動画データFa2の再生速度を変化させる、動画データFa2の輝度を変化させる、動画データFa2の再生速度を変化させる、又は動画データFa2を拡大・縮小する等の画像処理を付加する。
When the generation time of the audio data recorded in the sound information analysis result list R is reached while the moving image data Fa2 is being displayed on the TFT panel 22 while the moving image data Fa2 is displayed on the TFT panel 22, the effect timing management unit 36 applies the moving image data Fa2 The effect image processing is started, and when a preset effect time, for example, 2 seconds elapses, the effect image processing ends.
Therefore, the reproduction effect adding unit 35 generates the timing time in the sound information analysis result list R shown in FIG. 1-No. Various effects image processing according to the scene mode at the time of imaging, for example, moving picture data, for the moving picture data Fa2 in the moving picture file Fa, until a preset time for presentation, for example, 2 seconds, elapses from the time of timing 5 Image processing such as temporarily stopping Fa2, changing the playback speed of the video data Fa2, changing the brightness of the video data Fa2, changing the playback speed of the video data Fa2, or enlarging or reducing the video data Fa2 Is added.

以上の再生演出効果付加部35、演出タイミング管理部36及び画像圧縮伸張部37は、それぞれ動画ファイルFa中の動画データFa2に圧縮や伸張等の演出用画像処理を行って動画の動きに印象的な演出を与えるための演出効果を付加するためのものとなる。これら再生演出効果付加部35、演出タイミング管理部36及び画像圧縮伸張部37は、それぞれCPU6の画像処理機能によって行われる。このCPU6の画像処理機能は、音声解析部34の解析により取得された音声データに従って記録媒体9に記録されている動画ファイルFa中の動画データFa2に対して撮像時のシーンモードに応じた各種の演出用画像処理を行う。
画像圧縮伸張部37は、記録媒体9に記録されている動画ファイルFa中の動画データFa2に対して画像圧縮処理又は伸張処理を行う。
記録媒体アクセス部38は、記録媒体9に静止画ファイルや動画ファイル、音声ファイル等を記録し、かつ記録媒体9に記録されている静止画ファイルや動画ファイル、音声ファイル等を読み出す。
再表示部39は、再生演出効果付加部35によって演出用画像処理が付加された動画データFa2をTFT駆動回路16を介してTFTパネル22に再表示する。
The reproduction effect effect adding unit 35, the production timing management unit 36, and the image compression / expansion unit 37 perform impression image processing such as compression and expansion on the moving image data Fa2 in the moving image file Fa, respectively, so that the moving image is impressive. This is for adding a production effect for giving a special production. The reproduction effect effect adding unit 35, the effect timing management unit 36, and the image compression / decompression unit 37 are each performed by an image processing function of the CPU 6. The image processing function of the CPU 6 has various functions corresponding to the scene mode at the time of imaging with respect to the moving image data Fa2 in the moving image file Fa recorded in the recording medium 9 in accordance with the sound data acquired by the analysis of the sound analyzing unit 34. Perform effect image processing.
The image compression / decompression unit 37 performs image compression processing or decompression processing on the moving image data Fa <b> 2 in the moving image file Fa recorded on the recording medium 9.
The recording medium access unit 38 records still image files, moving image files, audio files, and the like on the recording medium 9 and reads out still image files, moving image files, audio files, and the like recorded on the recording medium 9.
The re-display unit 39 re-displays the moving image data Fa <b> 2 to which the image processing for effect is added by the reproduction effect effect adding unit 35 on the TFT panel 22 via the TFT drive circuit 16.

次に、上記の如く構成された装置のカメラ撮影モードの動作について図6に示すカメラ撮影モードの動作フローチャートに従って説明する。
電源が投入(ON)され、このときカメラ撮影モードが設定されていると、CPU6は、ステップS1において、初期化を行い、ステップS2において、シーンモード設定部30によりシーンモードの設定を行う。このシーンモード設定部30は、キーマトリクス7のシーンモードの設定用のボタンに対するユーザの操作を受け、このシーンモードの設定用ボタンから入力された例えばスポーツ、ポートレート、花火、風景、又はペット等のシーンモードを設定する。
Next, the operation of the camera photographing mode of the apparatus configured as described above will be described according to the operation flowchart of the camera photographing mode shown in FIG.
When the power is turned on (ON) and the camera shooting mode is set at this time, the CPU 6 performs initialization in step S1, and the scene mode setting unit 30 sets the scene mode in step S2. The scene mode setting unit 30 receives a user's operation on the scene mode setting buttons of the key matrix 7 and receives, for example, sports, portrait, fireworks, landscape, pets, or the like input from the scene mode setting buttons. Set the scene mode.

CPU6は、ステップS3において、撮影を行うための待機状態となり、次のステップS4において、撮影動作を行うか否かを判断する。この判断の結果、撮影動作を行うのであれば、CPU6は、ステップS5に移って撮影動作を行う。
CPU6は、ステップS6において、電源が遮断(OFF)されたか否かを判断し、遮断(OFF)されなければ、ステップS2に戻り、シーンモードの設定を行う。電源が遮断(OFF)されると、CPU6は、ステップS7に移り、電源遮断(OFF)の処理を行う。
In step S3, the CPU 6 enters a standby state for shooting, and determines whether or not to perform a shooting operation in the next step S4. If the result of this determination is that a shooting operation is to be performed, the CPU 6 moves to step S5 and performs the shooting operation.
In step S6, the CPU 6 determines whether or not the power is shut off (OFF). If not shut off (OFF), the CPU 6 returns to step S2 to set the scene mode. When the power is shut off (OFF), the CPU 6 proceeds to step S7 and performs a power shut-off (OFF) process.

次に、本装置の撮影動作(上記ステップS5)について図7に示す撮影動作フローチャートに従って説明する。
CPU6は、ステップS10において、レリーズボタン又は動画ボタンが押し操作(ON)されたか否かを判断する。この判断の結果、レリーズボタンが押し操作(ON)されると、CPU6の静止画記録・再生部32は、ステップS11に移り、静止画の撮影を行う。この静止画の撮影では、撮像素子4は、レンズユニット1により結像された被写体像を映像信号として出力する。撮像回路5は、撮像素子4から出力された映像信号のゲインを調整し、このゲイン調整後の映像信号をアナログ−デジタル変換し、静止画の画像データとして出力する。この静止画の画像データは、CPU6に送られる。このCPU6の静止画記録・再生部32は、撮像回路5から出力される静止画の画像データを記録媒体9に記録する。
Next, the photographing operation (step S5) of this apparatus will be described with reference to the photographing operation flowchart shown in FIG.
In step S10, the CPU 6 determines whether or not the release button or the moving image button has been pressed (ON). If the release button is pressed (ON) as a result of this determination, the still image recording / reproducing unit 32 of the CPU 6 moves to step S11 and shoots a still image. In this still image shooting, the image sensor 4 outputs the subject image formed by the lens unit 1 as a video signal. The imaging circuit 5 adjusts the gain of the video signal output from the imaging device 4, performs analog-digital conversion on the video signal after the gain adjustment, and outputs it as still image data. The image data of the still image is sent to the CPU 6. The still image recording / reproducing unit 32 of the CPU 6 records the image data of the still image output from the imaging circuit 5 on the recording medium 9.

ファイル生成・管理部31は、ステップS12において、記録媒体9に記録された静止画の画像データとシーンモードの情報等から静止画ファイルを生成し、ステップS13において、静止画ファイルを記録媒体9に記録し、管理する。なお、静止画記録・再生部32は、静止画の撮影モード時、レリーズボタンが押し操作(ON)されていないとき、撮像素子4により撮像され、撮像回路5から出力される画像データをTFT駆動回路16によってTFTパネル22にスルー画像として表示する。   In step S12, the file generation / management unit 31 generates a still image file from the image data of the still image recorded on the recording medium 9 and information on the scene mode. In step S13, the still image file is stored in the recording medium 9. Record and manage. The still image recording / reproducing unit 32 drives the image data captured by the image sensor 4 and output from the imaging circuit 5 in the TFT drive mode when the release button is not pressed (ON) in the still image shooting mode. The circuit 16 displays a through image on the TFT panel 22.

一方、動画ボタンが押し操作(ON)されると、動画記録・再生部33は、ステップS10からステップS14に移り、動画の撮影動作を開始する。この動画の撮影動作中において、撮像素子4は、レンズユニット1により結像された被写体像を映像信号として出力する。撮像回路5は、撮像素子4から出力された映像信号のゲインを調整し、このゲイン調整後の映像信号をアナログ−デジタル変換し、画像データとして出力する。この撮像回路5から出力された画像データは、CPU6に送られる。このCPU6の動画記録・再生部33は、ステップS12において、撮像回路5から出力される画像データを1フレーム毎にフレームメモリ8に一時的に記憶してから順次記録媒体9に記憶する。これと共に、動画記録・再生部33は、ステレオマイクロフォーン12から出力される音声信号をアナログ−デジタル変換し、音声データを含む音声ファイルとして順次記録媒体9に記憶する。   On the other hand, when the moving image button is pressed (ON), the moving image recording / reproducing unit 33 proceeds from step S10 to step S14, and starts a moving image shooting operation. During the moving image shooting operation, the image sensor 4 outputs the subject image formed by the lens unit 1 as a video signal. The imaging circuit 5 adjusts the gain of the video signal output from the imaging device 4, performs analog-digital conversion on the video signal after the gain adjustment, and outputs it as image data. Image data output from the imaging circuit 5 is sent to the CPU 6. In step S12, the moving image recording / reproducing unit 33 of the CPU 6 temporarily stores the image data output from the imaging circuit 5 in the frame memory 8 for each frame and then stores the image data in the recording medium 9 sequentially. At the same time, the moving image recording / reproducing unit 33 performs analog-digital conversion on the audio signal output from the stereo microphone 12 and sequentially stores the audio signal in the recording medium 9 as an audio file including audio data.

動画記録・再生部33は、動画の撮影動作中、ステップS15において、再度、動画ボタンが押し操作(ON)されたか否かを判断する。この判断の結果、動画ボタンが再度押し操作(ON)されなければ、CPU6は、動画の撮影を続ける。動画ボタンが再度押し操作(ON)されると、CPU6は、ステップS16に移り、動画の撮影動作を終了する。
ファイル生成・管理部31は、ステップS17において、記録媒体9に記録された動画の画像データとシーンモードの情報等から図4に示すようなファイルヘッダKa1に例えばスポーツ、ポートレート、花火、風景、ペット等のシーンモードを示すシーンパラメータSpをファイルヘッダFa1に記述した動画ファイルFaを生成し、この動画ファイルFaをステップS13において記録媒体9に記録し、管理する。
The moving image recording / reproducing unit 33 determines whether or not the moving image button is pressed (ON) again in step S15 during the moving image shooting operation. As a result of this determination, if the moving image button is not pressed again (ON), the CPU 6 continues to record moving images. When the moving image button is pressed again (ON), the CPU 6 moves to step S16 and ends the moving image shooting operation.
In step S17, the file generation / management unit 31 uses, for example, sports, portrait, fireworks, landscape, and the like in the file header Ka1 as shown in FIG. 4 from the image data of the moving image recorded on the recording medium 9 and the scene mode information. A moving image file Fa in which a scene parameter Sp indicating a scene mode such as a pet is described in the file header Fa1 is generated, and the moving image file Fa is recorded on the recording medium 9 and managed in step S13.

次に、本装置の再生動作について図8に示す再生動作フローチャートに従って説明する。
電源が投入され、再生モードに設定されていると、CPU6は、ステップS20において、カメラの初期化を行い、次のステップS21において、キーマトリクス7の再生選択ボタンの操作を受けて、再生を行う静止画ファイル又は動画ファイルの選択(再生コマ選択)を受ける。
CPU6は、ステップS22において、キーマトリクス7に対する操作により静止画再生モード又は動画再生モードのいずれかが設定されたかを判断する。この判断の結果、静止画再生モードが選択されると、静止画記録・再生部32は、ステップS23において、静止画の再生モード時、記録媒体9に記録されている静止画ファイルを読み出し、この静止画ファイルに含まれる静止画の画像データをTFT駆動回路16に送り、TFTパネル22に表示する。
Next, the reproduction operation of this apparatus will be described according to the reproduction operation flowchart shown in FIG.
When the power is turned on and the playback mode is set, the CPU 6 initializes the camera in step S20, and performs playback in response to the operation of the playback selection button of the key matrix 7 in the next step S21. Receiving selection of still image file or moving image file (reproduction frame selection).
In step S22, the CPU 6 determines whether the still image reproduction mode or the moving image reproduction mode has been set by an operation on the key matrix 7. If the still image playback mode is selected as a result of this determination, the still image recording / playback unit 32 reads the still image file recorded on the recording medium 9 in the still image playback mode in step S23. The image data of the still image included in the still image file is sent to the TFT drive circuit 16 and displayed on the TFT panel 22.

一方、動画再生モードが選択されると、動画記録・再生部33は、通常の動画の再生モード時、記録媒体9に記録されている動画ファイルFaを読み出し、この動画ファイルFaに含まれる動画データFa2をTFT駆動回路16に送り、TFTパネル22に動画表示する。これと共に、動画記録・再生部33は、記録媒体9に記録されている音声ファイルを読み出し、この音声ファイル中の音声データをスピーカ14に送って動画記録時の音声を再生する。   On the other hand, when the video playback mode is selected, the video recording / playback unit 33 reads the video file Fa recorded on the recording medium 9 in the normal video playback mode, and the video data included in the video file Fa is read out. Fa2 is sent to the TFT drive circuit 16, and a moving image is displayed on the TFT panel 22. At the same time, the moving image recording / reproducing unit 33 reads the audio file recorded on the recording medium 9 and sends the audio data in the audio file to the speaker 14 to reproduce the audio at the time of recording the moving image.

CPU6は、ステップS25において、モードの変更があるか否かを判断し、例えばカメラ撮影モードへの変更があると、上記図6に示すカメラ撮影モードの動作フローチャートに移る。モードの変更がなければ、CPU6は、ステップS26において、電源が遮断(OFF)されたか否かを判断し、遮断(OFF)されなければ、ステップS22に戻り、再び、再生を行う静止画ファイル又は動画ファイルの選択(再生コマ選択)を行う。電源が遮断(OFF)されると、CPU6は、ステップS27に移り、電源遮断(OFF)の処理を行う。   In step S25, the CPU 6 determines whether or not there is a change in the mode. For example, if there is a change to the camera shooting mode, the CPU 6 proceeds to the operation flowchart of the camera shooting mode shown in FIG. If there is no change in mode, the CPU 6 determines in step S26 whether or not the power is shut off (OFF). If not shut off (OFF), the CPU 6 returns to step S22 and again plays back the still image file to be reproduced or Select a video file (playback frame selection). When the power is shut off (OFF), the CPU 6 proceeds to step S27 and performs a power shut-off (OFF) process.

次に、演出効果を付加した動画再生モードの動作について図9に示す動画再生モードのフローチャートを参照して説明する。
動画記録・再生部33は、動画の再生モード時、ステップS30において、記録媒体9に記録されている例えば図4に示すような動画ファイルFaを読み出し、この動画ファイルFaに含まれるシーンパラメータSpを読み込む。
動画記録・再生部33は、ステップS31において、シーンパラメータSpから例えば図2に示す音声解析パラメータデータベースを参照してシーンパラメータSpに記述されているシーンモード、例えばシーンモードがスポーツであれば、当該スポーツに対応する検出音としてピストル音、歓声と、検出条件としてピストル音を検出したとき、歓声の音量が一定以上の音量を検出した時を設定する。
Next, the operation in the moving image reproduction mode with the effect added will be described with reference to the moving image reproduction mode flowchart shown in FIG.
In the moving image playback mode, the moving image recording / playback unit 33 reads a moving image file Fa recorded in the recording medium 9 in step S30, for example, as shown in FIG. 4, and sets a scene parameter Sp included in the moving image file Fa. Read.
In step S31, the video recording / playback unit 33 refers to the scene parameter Sp from the scene parameter Sp, for example, referring to the audio analysis parameter database shown in FIG. When a pistol sound and a cheer are detected as detection sounds corresponding to sports, and when a pistol sound is detected as a detection condition, a time when the sound volume of the cheers is more than a certain level is set.

動画記録・再生部33は、ステップS32において、動画ファイルFaに添付されている音声データを読み込む。
音声解析部34は、ステップS33において、動画ファイルFaから読み込んだ音声データに対して例えば検出音としてピストル音、歓声で、これらピストル音、歓声を検出したときの音量が一定以上の音量を検出した時を検出条件としてピストル音、歓声が発生したときの時刻を解析する。この音声解析部34は、例えば音声データの周波数成分からピストル音、歓声に対応する各周波数成分を検出し、かつこれら周波数成分の現れる時刻を検出する。
In step S32, the moving image recording / reproducing unit 33 reads the audio data attached to the moving image file Fa.
In step S33, the sound analysis unit 34 detects, for example, a pistol sound or a cheer as a detection sound with respect to the sound data read from the moving image file Fa, and the sound volume when the pistol sound or the cheer is detected exceeds a certain level. Analyzing the time when a pistol sound or cheering occurs with time as the detection condition. For example, the voice analysis unit 34 detects each frequency component corresponding to the pistol sound and cheer from the frequency component of the voice data, and detects the time when these frequency components appear.

演出タイミング管理部36は、ステップS34において、音声解析部34によって音声解析された音声データの発生時刻から成る音情報解析結果リストRを作成し、この音情報解析結果リストRを動画ファイルFaに添付する。例えば、演出タイミング管理部36は、例えば図5に示すような動画の撮影中に5回のピストル音や歓声が発生している各時刻を記録した音情報解析結果リストRを作成する。この音情報解析結果リストRは、ピストル音や一定の音量以上の歓声を検出した検出タイミングの時刻(No.1〜No.5)をリスト化している。これらピストル音や一定の音量以上の歓声を検出した検出タイミングの時刻(No.1〜No.5)は、5回である。   In step S34, the performance timing management unit 36 creates a sound information analysis result list R including the generation time of the sound data analyzed by the sound analysis unit 34, and attaches the sound information analysis result list R to the moving image file Fa. To do. For example, the effect timing management unit 36 creates a sound information analysis result list R that records the times at which five pistol sounds and cheers are generated during the shooting of a moving image as shown in FIG. This sound information analysis result list R is a list of detection timing times (No. 1 to No. 5) at which pistol sounds and cheers with a certain volume or higher are detected. The detection timing times (No. 1 to No. 5) at which these pistol sounds and cheers of a certain level or higher are detected are five times.

動画記録・再生部33は、ステップS35において、動画の再生モード時、記録媒体9に記録されている動画ファイルFaを読み出し、この動画ファイルFaに含まれる動画データFa2をTFT駆動回路16に送り、TFTパネル22に動画の表示を開始する。これと共に、動画記録・再生部33は、記録媒体9に記録されている音声ファイルを読み出し、この音声ファイル中の音声データをスピーカ14に送って動画記録時の音声の再生を開始する。   In step S35, the moving image recording / reproducing unit 33 reads out the moving image file Fa recorded on the recording medium 9 in the moving image reproduction mode, and sends the moving image data Fa2 included in the moving image file Fa to the TFT drive circuit 16, Display of moving images on the TFT panel 22 is started. At the same time, the moving image recording / reproducing unit 33 reads the audio file recorded on the recording medium 9 and sends the audio data in the audio file to the speaker 14 to start reproducing the audio when recording the moving image.

演出タイミング管理部36は、ステップS36において、動画ファイルFaに添付した音情報解析結果リストRからピストル音や歓声が発生している検出タイミングの時刻(No.1〜No.5)になったか否かを判断する。この判断の結果、ピストル音や歓声が発生している検出タイミングの時刻(No.1)になると、演出タイミング管理部36は、動画ファイルFaの動画データFa2に演出効果を付加する旨を再生演出効果付加部35に送る。   In step S36, the performance timing management unit 36 determines whether or not the detection timing time (No. 1 to No. 5) at which the pistol sound or cheer is generated from the sound information analysis result list R attached to the moving image file Fa. Determine whether. As a result of this determination, when the detection timing time (No. 1) at which the pistol sound or cheer is generated is reached, the effect timing management unit 36 indicates that the effect is added to the moving image data Fa2 of the moving image file Fa. This is sent to the effect adding unit 35.

この再生演出効果付加部35は、ピストル音や歓声が発生している検出タイミングの時刻(No.1)から予め設定された演出用時間の間に、動画ファイルFa中の動画データFa2に圧縮や伸張等の演出用画像処理を行って動画の動きに印象的な演出を与えるための演出効果を付加する。例えば、再生演出効果付加部35は、検出タイミングの時刻(No.1)から予め設定された演出用時間の間に、動画データFa2の再生を一時停止し、当該動画データFa2を例えば拡大処理し、続いて縮小処理して元の画像サイズに戻す。この動画データFa2の拡大・縮小処理は、例えば予め設定された演出用時間、例えば2秒間で行う。この後、再生演出効果付加部35は、再び、動画データFa2の再生を行う。   This reproduction effect adding unit 35 compresses the video data Fa2 in the video file Fa during the preset production time from the time (No. 1) of the detection timing when the pistol sound or cheer is generated. A rendering effect for adding an impressive rendering to the motion of the moving image by performing rendering image processing such as expansion is added. For example, the reproduction effect adding unit 35 temporarily stops the reproduction of the video data Fa2 during the preset production time from the detection timing time (No. 1), and performs, for example, enlargement processing on the video data Fa2. Subsequently, reduction processing is performed to restore the original image size. The enlargement / reduction processing of the moving image data Fa2 is performed, for example, for a preset production time, for example, 2 seconds. Thereafter, the reproduction effect adding unit 35 reproduces the moving image data Fa2 again.

動画記録・再生部33は、ステップS38において、動画データFa2の再生が終了したか否かを判断する。動画データFa2の再生が終了でなければ、演出タイミング管理部36は、ステップS36に戻り、動画ファイルFaに添付した音情報解析結果リストRからピストル音や歓声が発生している各検出タイミングの時刻(No.2〜No.5)になったか否かを判断する。この判断の結果、各検出タイミングの時刻(No.2〜No.5)になる毎に、再生演出効果付加部35は、上記同様に、動画データFa2の再生を一時停止し、当該動画データFa2を例えば拡大処理し、続いて縮小処理して元の画像サイズに戻す。   In step S38, the moving image recording / reproducing unit 33 determines whether or not the reproduction of the moving image data Fa2 has ended. If the reproduction of the moving image data Fa2 is not finished, the effect timing management unit 36 returns to step S36, and the time of each detection timing when the pistol sound or cheer is generated from the sound information analysis result list R attached to the moving image file Fa. It is determined whether or not (No. 2 to No. 5). As a result of this determination, every time the detection timing times (No. 2 to No. 5) are reached, the reproduction effect adding unit 35 pauses the reproduction of the moving image data Fa2, and the moving image data Fa2 as described above. Is enlarged, for example, and subsequently reduced to restore the original image size.

このように上記第1の実施の形態によれば、動画の再生モード時に、シーンモードに応じて音声ファイル中の音声データの少なくとも発生時刻、例えばピストル音や歓声が発生している検出タイミングの時刻を記録した音情報解析結果リストRを作成し、このタイミングの時刻になると、動画ファイルFaの動画データFa2に演出効果を付加、例えば動画データFa2を拡大縮小処理する。かかる動画の再生モード時の処理であれば、当該動画等の画像データを再生するときに、単調になり易い動画等の画像データを再生に、拡大縮小等の今までに無い演出効果を付加して価値の高い画像再生をすることが出来き、動画等の画像データを単調にならずに鑑賞できる。
動画データFa2に付加する演出効果は、図2に示す音声解析パラメータのように例えばスポーツ、ポートレート、花火、風景、ペット等の各種シーンモードに応じてそれぞれ異なる検出音、検出条件で音声データを解析して音情報解析結果リストRを作成するので、各種シーンモードに応じたタイミング時刻で拡大縮小等の演出効果を付加できる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、本実施の形態は、図1に示す構成と同一構成を有するもので、その説明では図1を援用し、相違する部分について説明する。
シーンモード設定部30は、動画ボタンが押し操作(ON)されると、EEPROM10に記憶されている音声解析パラメータのデータベース30からキーマトリクス7のシーンモードの設定用のボタンにより設定されたシーンモード、例えばスポーツ、ポートレート、花火、風景又はペット等のシーンモードをシーンパラメータSpとして読み込む。
As described above, according to the first embodiment, at the time of the moving image playback mode, at least the generation time of the audio data in the audio file according to the scene mode, for example, the detection timing time at which the pistol sound or cheer is generated. A sound information analysis result list R in which is recorded is created, and when the time of this timing comes, an effect is added to the moving image data Fa2 of the moving image file Fa, for example, the moving image data Fa2 is enlarged or reduced. If the processing is in the playback mode of the moving image, when the image data such as the moving image is reproduced, the image data such as the moving image that tends to be monotonous is reproduced, and an unprecedented effect such as enlargement / reduction is added. It is possible to reproduce highly valuable images, and to view image data such as movies without being monotonous.
The effect to be added to the moving image data Fa2 is that sound data is detected with different detection sounds and detection conditions depending on various scene modes such as sports, portrait, fireworks, landscape, pets, etc., as in the audio analysis parameters shown in FIG. Since the sound information analysis result list R is generated by analysis, it is possible to add effects such as enlargement / reduction at timings according to various scene modes.
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, this Embodiment has the same structure as the structure shown in FIG. 1, In the description, FIG. 1 is used and a different part is demonstrated.
When the moving image button is pressed (ON), the scene mode setting unit 30 sets the scene mode set by the scene mode setting button in the key matrix 7 from the audio analysis parameter database 30 stored in the EEPROM 10. For example, a scene mode such as sport, portrait, fireworks, landscape, or pet is read as the scene parameter Sp.

音声解析部34は、撮影動作のモード時に、シーンモード設定部30により設定されたシーンモードに応じて記録媒体9に記録されている音声ファイル中の音声データの少なくとも発生時刻を解析する。この音声解析部34は、シーンモードに応じた種類の音声別に音声データを解析する。   The sound analysis unit 34 analyzes at least the generation time of the sound data in the sound file recorded on the recording medium 9 according to the scene mode set by the scene mode setting unit 30 in the shooting operation mode. The sound analysis unit 34 analyzes sound data for each type of sound corresponding to the scene mode.

再生演出効果付加部35は、撮影動作のモード時に、音声解析部34の解析により取得された音声データに従って記録媒体9に記録されている動画ファイルFa中の動画データFa2に対して撮像時のシーンモードに応じた各種の演出用画像処理を付加する。   The reproduction effect adding unit 35 captures a scene at the time of imaging with respect to the moving image data Fa2 in the moving image file Fa recorded in the recording medium 9 according to the audio data acquired by the analysis of the audio analyzing unit 34 in the shooting operation mode. Various kinds of effect image processing according to the mode are added.

演出タイミング管理部36は、撮影動作のモード時に、音声解析部34によって音声解析された音声データの発生時刻から成る図4に示すような音情報解析結果リストRを作成し、この音情報解析結果リストRを動画ファイルFaに添付する。この演出タイミング管理部36は、TFTパネル22に動画データFa2を動画表示中に、音声データの発生時刻になると、この音声データの発生時刻から動画データFa2に対して演出用画像処理を開始し、予め設定された演出用時間、例えば2秒間を経過すると、演出用画像処理を終了する。   The effect timing management unit 36 creates a sound information analysis result list R as shown in FIG. 4 including the generation time of the sound data analyzed by the sound analysis unit 34 in the shooting operation mode, and the sound information analysis result The list R is attached to the moving image file Fa. The production timing management unit 36 starts production image processing for the video data Fa2 from the generation time of the audio data when the generation time of the audio data is reached while the video data Fa2 is being displayed on the TFT panel 22. When a preset production time, for example, 2 seconds elapses, the production image processing ends.

次に、本装置の撮影動作(上記ステップS5)について図10に示す撮影動作フローチャートに従って説明する。
CPU6は、ステップS10において、レリーズボタン又は動画ボタンが押し操作(ON)されたか否かを判断する。この判断の結果、レリーズボタンが押し操作(ON)されると、CPU6の静止画記録・再生部32は、ステップS11に移り、上記同様に、静止画の撮影を行う。
ファイル生成・管理部31は、ステップS12において、記録媒体9に記録された静止画の画像データとシーンモードの情報等から静止画ファイルを生成し、ステップS13において、静止画ファイルを記録媒体9に記録し、管理する。なお、静止画記録・再生部32は、静止画の撮影モード時、レリーズボタンが押し操作(ON)されていないとき、撮像素子4により撮像され、撮像回路5から出力される画像データをTFT駆動回路16によってTFTパネル22にスルー画像として表示する。
Next, the photographing operation (step S5) of this apparatus will be described with reference to the photographing operation flowchart shown in FIG.
In step S10, the CPU 6 determines whether or not the release button or the moving image button has been pressed (ON). If the release button is pressed (ON) as a result of this determination, the still image recording / reproducing unit 32 of the CPU 6 proceeds to step S11 and performs still image shooting as described above.
In step S12, the file generation / management unit 31 generates a still image file from the image data of the still image recorded on the recording medium 9 and information on the scene mode. In step S13, the still image file is stored in the recording medium 9. Record and manage. The still image recording / reproducing unit 32 drives the image data captured by the image sensor 4 and output from the imaging circuit 5 in the TFT drive mode when the release button is not pressed (ON) in the still image shooting mode. The circuit 16 displays a through image on the TFT panel 22.

一方、動画ボタンが押し操作(ON)されると、シーンモード設定部30は、ステップS40において、EEPROM10に記憶されている音声解析パラメータのデータベース30からキーマトリクス7のシーンモードの設定用のボタンにより設定されたシーンモード、例えばスポーツ、ポートレート、花火、風景又はペット等のシーンモードをシーンパラメータSpとして読み込む。例えば、上記同様に、シーンモードがスポーツであれば、検出音はピストル音と歓声とである。検出条件は、ピストル音に対して当該ピストル音を検出した時であり、歓声に対して一定以上の歓声の音量を検出した時である。   On the other hand, when the moving image button is pressed (ON), the scene mode setting unit 30 uses the button for setting the scene mode in the key matrix 7 from the audio analysis parameter database 30 stored in the EEPROM 10 in step S40. The set scene mode, for example, a scene mode such as sport, portrait, fireworks, landscape, or pet is read as the scene parameter Sp. For example, as described above, if the scene mode is sport, the detection sounds are a pistol sound and a cheer. The detection condition is when the pistol sound is detected with respect to the pistol sound, and when the sound volume of the cheering level more than a certain level is detected with respect to the cheering sound.

動画記録・再生部33は、ステップS41において、シーンパラメータSpから例えば図2に示す音声解析パラメータデータベースを参照してシーンパラメータSpに記述されているシーンモード、例えばシーンモードがスポーツであれば、当該スポーツに対応する検出音としてピストル音、歓声と、検出条件としてピストル音を検出したとき、歓声の音量が一定以上の音量を検出した時を設定する。   In step S41, the moving image recording / playback unit 33 refers to the scene parameter Sp from the scene parameter Sp, for example, referring to the audio analysis parameter database shown in FIG. When a pistol sound and a cheer are detected as detection sounds corresponding to sports, and when a pistol sound is detected as a detection condition, a time when the sound volume of the cheers is more than a certain level is set.

動画記録・再生部33は、ステップS42において、動画の撮影動作を開始する。この動画の撮影動作中において、撮像素子4は、レンズユニット1により結像された被写体像を映像信号として出力する。撮像回路5は、撮像素子4から出力された映像信号のゲインを調整し、このゲイン調整後の映像信号をアナログ−デジタル変換し、画像データとして出力する。この撮像回路5から出力された画像データは、CPU6に送られる。このCPU6の動画記録・再生部33は、撮像回路5から出力される画像データを1フレーム毎にフレームメモリ8に一時的に記憶してから順次記録媒体9に記憶する。この動画記録・再生部33は、撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、この画像データをTFT駆動回路16によってTFTパネル22に動画として表示する。   In step S42, the moving image recording / reproducing unit 33 starts a moving image shooting operation. During the moving image shooting operation, the image sensor 4 outputs the subject image formed by the lens unit 1 as a video signal. The imaging circuit 5 adjusts the gain of the video signal output from the imaging device 4, performs analog-digital conversion on the video signal after the gain adjustment, and outputs it as image data. Image data output from the imaging circuit 5 is sent to the CPU 6. The moving image recording / reproducing unit 33 of the CPU 6 temporarily stores the image data output from the imaging circuit 5 in the frame memory 8 for each frame and then sequentially stores them in the recording medium 9. The moving image recording / reproducing unit 33 inputs image data picked up by the image pickup device 4 and output from the image pickup circuit 5, and displays the image data as a moving image on the TFT panel 22 by the TFT drive circuit 16.

音声解析部34は、ステップS43において、動画ファイルFaから読み込んだ音声データに対して例えば検出音としてピストル音、歓声で、これらピストル音、歓声を検出したときの音量が一定以上の音量を検出した時を検出条件としてピストル音、歓声が発生したときの時刻を解析する。この音声解析部34は、例えば音声データの周波数成分からピストル音、歓声に対応する各周波数成分を検出し、かつこれら周波数成分の現れる時刻を検出する。   In step S43, the sound analysis unit 34 detects, for example, a pistol sound or a cheer as a detection sound with respect to the sound data read from the moving image file Fa, and a sound volume when the pistol sound or the cheer is detected exceeds a certain level. Analyzing the time when a pistol sound or cheering occurs with time as the detection condition. For example, the voice analysis unit 34 detects each frequency component corresponding to the pistol sound and cheer from the frequency component of the voice data, and detects the time when these frequency components appear.

CPU6は、動画の撮影動作中、ステップS44において、再度、動画ボタンが押し操作(ON)されたか否かを判断する。この判断の結果、動画ボタンが再度押し操作(ON)されなければ、CPU6は、ステップS42に戻り、動画の撮影を続ける。動画ボタンが再度押し操作(ON)されると、CPU6は、ステップS43に移り、動画の撮影動作を終了する。
動画の撮影動作が終了すると、動画記録・再生部33は、ステップS46において、上記の通り撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、これと共に動画の画像データを作成する。この動画の画像データは、図4に示すようにファイル生成・管理部31によってシーンパラメータSp等を記述したファイルヘッダと共に動画ファイルFaとして記録媒体9に記録される。
これと共に、演出タイミング管理部36は、音声解析部34によって音声解析された音声データの発生時刻から成る音情報解析結果リストR、例えば図5に示すような動画の撮影中に5回のピストル音や歓声が発生している各時刻を記録した音情報解析結果リストRを作成し、この音情報解析結果リストRを動画ファイルFaに添付する。
During the moving image shooting operation, the CPU 6 determines again in step S44 whether or not the moving image button has been pressed (ON). As a result of this determination, if the moving image button is not pressed (ON) again, the CPU 6 returns to step S42 and continues to record moving images. When the moving image button is pressed again (ON), the CPU 6 proceeds to step S43 and ends the moving image shooting operation.
When the moving image shooting operation is completed, the moving image recording / reproducing unit 33 inputs the image data picked up by the image pickup device 4 and output from the image pickup circuit 5 as described above in step S46, together with the moving image data. create. The moving image data is recorded on the recording medium 9 as a moving image file Fa together with a file header describing a scene parameter Sp and the like by the file generation / management unit 31 as shown in FIG.
At the same time, the production timing management unit 36 generates a sound information analysis result list R including the generation time of the audio data analyzed by the audio analysis unit 34, for example, five pistol sounds during shooting of a moving image as shown in FIG. And a sound information analysis result list R recording each time when cheers are generated, and this sound information analysis result list R is attached to the moving image file Fa.

次に、フラッシングの演出効果を付加した動画再生モードの動作について図11に示す動画再生モードのフローチャートを参照して説明する。
演出タイミング管理部36は、ステップS50において、動画ファイルFaに添付した音情報解析結果リストRを読み込む。例えば、演出タイミング管理部36は、音情報解析結果リストRから例えば図5に示すような動画の撮影中に5回のピストル音や歓声が発生している各検出タイミングの時刻(No.1〜No.5)をリスト化する。
動画記録・再生部33は、ステップS35において、動画の再生モード時、記録媒体9に記録されている動画ファイルFaを読み出し、この動画ファイルFaに含まれる動画データFa2をTFT駆動回路16に送り、TFTパネル22に動画の表示を開始する。これと共に、動画記録・再生部33は、記録媒体9に記録されている音声ファイルを読み出し、この音声ファイル中の音声データをスピーカ14に送って動画記録時の音声の再生を開始する。
Next, the operation of the moving image playback mode with the effect of flashing added will be described with reference to the flowchart of the moving image playback mode shown in FIG.
In step S50, the effect timing management unit 36 reads the sound information analysis result list R attached to the moving image file Fa. For example, the production timing management unit 36 detects the times (No. 1 to No. 1) from the sound information analysis result list R when five pistol sounds and cheers are generated during shooting of a moving image as shown in FIG. No. 5) is listed.
In step S35, the moving image recording / reproducing unit 33 reads out the moving image file Fa recorded on the recording medium 9 in the moving image reproduction mode, and sends the moving image data Fa2 included in the moving image file Fa to the TFT drive circuit 16, Display of moving images on the TFT panel 22 is started. At the same time, the moving image recording / reproducing unit 33 reads the audio file recorded on the recording medium 9 and sends the audio data in the audio file to the speaker 14 to start reproducing the audio when recording the moving image.

演出タイミング管理部36は、ステップS36において、動画ファイルFaに添付した音情報解析結果リストRからピストル音や歓声が発生している検出タイミングの時刻(No.1〜No.5)になったか否かを判断する。この判断の結果、ピストル音や歓声が発生している検出タイミングの時刻(No.1)になると、演出タイミング管理部36は、動画ファイルFaの動画データFa2に演出効果を付加する旨を再生演出効果付加部35に送る。   In step S36, the performance timing management unit 36 determines whether or not the detection timing time (No. 1 to No. 5) at which the pistol sound or cheer is generated from the sound information analysis result list R attached to the moving image file Fa. Determine whether. As a result of this determination, when the detection timing time (No. 1) at which the pistol sound or cheer is generated is reached, the effect timing management unit 36 indicates that the effect is added to the moving image data Fa2 of the moving image file Fa. This is sent to the effect adding unit 35.

この再生演出効果付加部35は、ピストル音や歓声が発生している検出タイミングの時刻(No.1)に動画データFa2の再生を一時停止し、フラッシングの演出用画像処理を行い、動画の動きに印象的な演出を与えるための演出効果を付加する。この再生演出効果付加部35は、フラッシングの演出用画像処理を行って例えば2秒経過すると、再び、動画データFa2の再生を再開する。   The reproduction effect adding unit 35 pauses the reproduction of the moving image data Fa2 at the detection timing time (No. 1) when the pistol sound or cheer is generated, performs the image processing for the effect of the flashing, and moves the moving image. A production effect is added to give an impressive production. The reproduction effect adding unit 35 resumes the reproduction of the moving image data Fa2 again when, for example, 2 seconds have elapsed after performing the image processing for effect of flushing.

動画記録・再生部33は、ステップS38において、動画データFa2の再生が終了したか否かを判断する。動画データFa2の再生が終了でなければ、演出タイミング管理部36は、ステップS36に戻り、動画ファイルFaに添付した音情報解析結果リストRからピストル音や歓声が発生している各検出タイミングの時刻(No.2〜No.5)になったか否かを判断する。この判断の結果、各検出タイミングの時刻(No.2〜No.5)になる毎に、再生演出効果付加部35は、上記同様に、動画データFa2の再生を一時停止し、フラッシングの演出用画像処理を行い、例えば2秒経過すると、再び、動画データFa2の再生を再開する。   In step S38, the moving image recording / reproducing unit 33 determines whether or not the reproduction of the moving image data Fa2 has ended. If the reproduction of the moving image data Fa2 is not finished, the effect timing management unit 36 returns to step S36, and the time of each detection timing when the pistol sound or cheer is generated from the sound information analysis result list R attached to the moving image file Fa. It is determined whether or not (No. 2 to No. 5). As a result of this determination, every time the detection timing times (No. 2 to No. 5) are reached, the reproduction effect adding unit 35 pauses the reproduction of the moving image data Fa2 and performs the flashing effect as described above. When image processing is performed and, for example, 2 seconds have elapsed, the reproduction of the moving image data Fa2 is resumed.

このように上記第2の実施の形態によれば、撮影動作のモード時に、シーンモードに応じて音声ファイル中の音声データの少なくとも発生時刻、例えばピストル音や歓声が発生している検出タイミングの時刻を記録した音情報解析結果リストRを作成し、動画の再生モード時に、動画ファイルFaに添付した音情報解析結果リストRからピストル音や歓声が発生している検出タイミングの時刻(No.1〜No.5)になったか否かを判断し、この検出タイミングの時刻になると、動画ファイルFaの動画データFa2に演出効果を付加、例えばフラッシングの演出用画像処理を行うので、動画等の画像データを再生するときに、上記第1の実施の形態と同様に、当該動画等の画像データを再生するときに、単調になり易い動画等の画像データを再生に、フラッシング等の今までに無い演出効果を付加して価値の高い画像再生をすることが出来き、動画等の画像データを単調にならずに鑑賞できるなどの効果を奏することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。なお、本実施の形態は、図1に示す構成と同一構成を有するもので、その説明では図1を援用し、相違する部分について説明する。
図12は音声解析パラメータデータベースVDBの摸式図を示す。この音声解析パラメータデータベースVDBは、例えばスポーツ、ポートレート、花火、風景、ペット等の各種シーンモードと、これらシーンモード毎に予め設定された各検出音と、これら検出音を解析するための各検出条件と、動画データの演出手法とを対応させて記憶する。例えば、シーンモードがスポーツであれば、検出音はピストル音と歓声とである。検出条件は、ピストル音に対して当該ピストル音を検出した時であり、歓声に対して一定以上の歓声の音量を検出した時である。演出手法は、ピストル音又は歓声を検出したときの時刻の前後の3秒間に亘って動画データをスローで再生するである。
As described above, according to the second embodiment, at the time of the shooting operation mode, at least the generation time of the audio data in the audio file according to the scene mode, for example, the detection timing time when the pistol sound or cheer is generated. The sound information analysis result list R in which the pistol sound and cheer are generated from the sound information analysis result list R attached to the moving image file Fa in the moving image playback mode is created (No. 1 to No. 1). No. 5) is determined, and when the time of this detection timing is reached, an effect is added to the moving image data Fa2 of the moving image file Fa, for example, image processing for effect of flashing is performed. In the same way as in the first embodiment, when reproducing the image data such as the moving image, the image data such as the moving image that tends to be monotonous is reproduced. It is possible to reproduce images with high value by adding effects such as flashing that have never been seen before, and it is possible to view images such as movies without being monotonous. .
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, this Embodiment has the same structure as the structure shown in FIG. 1, In the description, FIG. 1 is used and a different part is demonstrated.
FIG. 12 shows a schematic diagram of the voice analysis parameter database VDB. The voice analysis parameter database VDB includes, for example, various scene modes such as sports, portraits, fireworks, landscapes, pets, detection sounds set in advance for each scene mode, and detections for analyzing these detection sounds. The conditions are stored in association with the moving image data production technique. For example, if the scene mode is sport, the detection sound is a pistol sound and a cheer. The detection condition is when the pistol sound is detected with respect to the pistol sound, and when the sound volume of the cheering level more than a certain level is detected with respect to the cheering sound. The production method is to reproduce the moving image data in a slow manner for 3 seconds before and after the time when the pistol sound or cheer is detected.

図13は音情報解析結果リストRの摸式図を示す。この音情報解析結果リストRは、各音声データ別に作成される。この音情報解析結果リストRは、例えば動画の撮影中に5回の音声データが発生している。この音情報解析結果リストRは、検出タイミングリストRaと、演出タイミングリストRbとを有する。この音情報解析結果リストRは、例えば、シーンモードがスポーツであれば、ピストル音を検出した時と、一定以上の歓声の音量を検出した時とが合わせて動画の撮影中に5回あったことを示す。例えば、1回目のピストル音又は一定の音量以上の歓声を検出した検出タイミングの時刻(No.1)は、「0:00:03.20」である。この検出タイミングの時刻(No.1)は、動画の撮影開始の時刻「0:00:00:0.00」からの経過時間を示す。この検出タイミングの時刻(No.1)に対する演出タイミングは、検出タイミングの時刻「0:00:03.20」に対して例えば前後3秒(合計6秒)を加算した演出タイミングリストRbの時間帯「0:00:03.17〜0:00:03.23」に設定されている。   FIG. 13 is a schematic diagram of the sound information analysis result list R. This sound information analysis result list R is created for each audio data. In the sound information analysis result list R, for example, five times of audio data are generated during shooting of a moving image. The sound information analysis result list R includes a detection timing list Ra and an effect timing list Rb. In the sound information analysis result list R, for example, if the scene mode is sport, the time when the pistol sound is detected and the time when the sound level of the cheer exceeding a certain level is detected are five times during the shooting of the moving image. It shows that. For example, the time (No. 1) of the detection timing at which the first pistol sound or cheering of a certain volume or more is detected is “0: 00: 03.20”. The time (No. 1) of this detection timing indicates the elapsed time from the time “0: 00: 0.00: 0.00” when the moving image was started. The production timing with respect to the time (No. 1) of this detection timing is the time zone of the production timing list Rb obtained by adding, for example, 3 seconds before and after the detection timing time “0: 00: 03.20” (6 seconds in total). “00: 00: 03.17 to 0: 00: 03.23” is set.

演出タイミング管理部36は、音声解析部34によって音声解析された音声データの発生時刻、例えばピストル音を検出した検出タイミングの時刻に対して予め設定された前後の設定時間、例えば前後3秒(合計6秒)を予め記憶し、音声解析部34によって音声解析された音声データの発生時刻に予め設定された前後の設定時間、例えば前後3秒(合計6秒)を加算して演出タイミングリストRbの時間帯を作成する。   The effect timing management unit 36 sets a predetermined time before and after the generation time of the voice data analyzed by the voice analysis unit 34, for example, the detection timing when the pistol sound is detected, for example, three seconds before and after (total 6 seconds) is stored in advance, and a preset set time before and after, for example, 3 seconds before and after (for a total of 6 seconds) is added to the generation time of the sound data analyzed by the sound analysis unit 34, and the effect timing list Rb is added. Create a time zone.

次に、本装置の動画の撮影動作における図13に示す音情報解析結果リストRの作成について説明する。
動画ボタンが押し操作(ON)されると、シーンモード設定部30は、例えば、上記図10に示すステップS40において、図12に示す音声解析パラメータデータベースVDBからキーマトリクス7のシーンモードの設定用のボタンにより設定されたシーンモード、例えばスポーツ、ポートレート、花火、風景又はペット等のシーンモードをシーンパラメータSpとして読み込む。ここで、シーンモードが上記同様にスポーツであれば、検出音はピストル音と歓声とである。検出条件は、ピストル音に対して当該ピストル音を検出した時と、歓声に対して一定以上の歓声の音量を検出した時とである。演出手法は、ピストル音又は歓声を検出したときの時刻の前後の3秒間に亘って動画データをスローで再生するである。
Next, the creation of the sound information analysis result list R shown in FIG. 13 in the moving image shooting operation of the present apparatus will be described.
When the moving image button is pressed (ON), for example, the scene mode setting unit 30 sets the scene mode of the key matrix 7 from the audio analysis parameter database VDB shown in FIG. 12 in step S40 shown in FIG. The scene mode set by the button, for example, a scene mode such as sport, portrait, fireworks, landscape, or pet is read as the scene parameter Sp. Here, if the scene mode is sport as described above, the detection sound is a pistol sound and a cheer. The detection conditions are when the pistol sound is detected with respect to the pistol sound, and when the sound volume of the cheer exceeding a certain level is detected with respect to the cheer. The production method is to reproduce the moving image data in a slow manner for 3 seconds before and after the time when the pistol sound or cheer is detected.

動画記録・再生部33は、上記ステップS41において、上記図12に示す音声解析パラメータデータベースを参照してシーンパラメータSpに記述されているシーンモード、例えばシーンモードがスポーツであれば、当該スポーツに対応する検出音としてピストル音及び歓声と、検出条件としてピストル音を検出したときと、歓声の音量が一定以上の音量を検出した時と、演出手法としてピストル音又は歓声を検出したときの時刻の前後の3秒間に亘って動画データをスローで再生するを設定する。   In step S41, the video recording / playback unit 33 refers to the audio analysis parameter database shown in FIG. 12, and if the scene mode described in the scene parameter Sp, for example, the scene mode is sport, corresponds to the sport. Pistol sound and cheer as detection sound to be detected, when pistol sound is detected as detection condition, when the sound volume of cheer is more than a certain level, and before and after the time when pistol sound or cheer is detected as production method Set the video data to play slowly for 3 seconds.

動画記録・再生部33は、上記ステップS42において、動画の撮影動作を開始し、撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、この画像データをTFT駆動回路16によってTFTパネル22に動画として表示する。
音声解析部34は、上記ステップS43において、音声ファイルから読み込んだ音声データに対して例えば検出音としてピストル音や歓声で、これらピストル音、歓声を検出したときの音量が一定以上の音量を検出した時を検出条件としてピストル音や歓声が発生したときの時刻を解析する。この音声解析部34は、例えば音声データの周波数成分からピストル音や歓声に対応する各周波数成分を検出し、かつこれら周波数成分の現れる時刻を検出する。
In step S42, the moving image recording / reproducing unit 33 starts moving image shooting operation, inputs image data picked up by the image pickup device 4 and output from the image pickup circuit 5, and this image data is input by the TFT drive circuit 16. The image is displayed on the TFT panel 22 as a moving image.
In step S43, the voice analysis unit 34 detects, for example, a pistol sound or a cheer as a detection sound for the sound data read from the sound file, and detects a sound volume when the pistol sound or cheer is detected at a certain level or higher. Analyzing the time when a pistol sound or cheering occurs with time as the detection condition. For example, the voice analysis unit 34 detects each frequency component corresponding to a pistol sound or a cheer from the frequency components of the voice data, and detects the time at which these frequency components appear.

CPU6は、動画の撮影動作中、ステップS44において、再度、動画ボタンが押し操作(ON)されたか否かを判断する。この判断の結果、動画ボタンが再度押し操作(ON)されなければ、CPU6は、ステップS42に戻り、動画の撮影を続ける。動画ボタンが再度押し操作(ON)されると、CPU6は、ステップS45に移り、動画の撮影動作を終了する。
動画の撮影動作が終了すると、動画記録・再生部33は、ステップS46において、上記の通り撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、これと共に動画の画像データを作成する。この動画の画像データは、図4に示すようにファイル生成・管理部31によってシーンパラメータSp等を記述したファイルヘッダと共に動画ファイルFaとして記録媒体9に記録される。
これと共に、演出タイミング管理部36は、音声解析部34によって音声解析された音声データの発生時刻から成る音情報解析結果リストR、例えば図13に示すような動画の撮影中に5回のピストル音や歓声が発生している各時刻を記録した検出タイミングリストRaと、ピストル音や歓声の発生時刻に予め設定された前後の設定時間、例えば前後3秒(合計6秒)とを加算して演出タイミングリストRbを作成する。例えば、検出タイミングの時刻(No.1)に対する演出タイミングは、検出タイミングの時刻「0:00:03.20」に対して例えば前後3秒(合計6秒)を加算した演出タイミングリストRbの時間帯「0:00:03.17〜0:00:03.23」に設定される。
During the moving image shooting operation, the CPU 6 determines again in step S44 whether or not the moving image button has been pressed (ON). As a result of this determination, if the moving image button is not pressed (ON) again, the CPU 6 returns to step S42 and continues to record moving images. When the moving image button is pressed again (ON), the CPU 6 moves to step S45 and ends the moving image shooting operation.
When the moving image shooting operation is completed, the moving image recording / reproducing unit 33 inputs the image data picked up by the image pickup device 4 and output from the image pickup circuit 5 as described above in step S46, together with the moving image data. create. The moving image data is recorded on the recording medium 9 as a moving image file Fa together with a file header describing a scene parameter Sp and the like by the file generation / management unit 31 as shown in FIG.
At the same time, the production timing management unit 36 has a sound information analysis result list R including the generation time of the audio data analyzed by the audio analysis unit 34, for example, five pistol sounds during shooting of a moving image as shown in FIG. And a detection timing list Ra that records each time when a cheer is generated and a preset time before and after the occurrence time of a pistol sound or cheer, for example, 3 seconds before and after (for a total of 6 seconds) A timing list Rb is created. For example, the production timing with respect to the time (No. 1) of the detection timing is the time of the production timing list Rb obtained by adding, for example, 3 seconds before and after the detection timing time “0: 00: 03.20” (6 seconds in total). The band is set to “0: 00: 03.17 to 0: 00: 03.23”.

次に、スロー再生の演出効果を付加した動画再生モードの動作について図14に示す動画再生モードのフローチャートを参照して説明する。
演出タイミング管理部36は、ステップS50において、図12に示す音声解析パラメータのデータベースVDBに記憶されている音情報解析結果リストRを読み込む。例えば、演出タイミング管理部36は、図13に示す音情報解析結果リストRから例えば動画の撮影中に5回のピストル音や歓声が発生している各演出タイミングの時刻(No.1〜No.5)をリスト化する。このリストは、例えば、検出タイミングの時刻(No.1)に対する演出タイミングであれば、検出タイミングの時刻「0:00:03.20」に対して例えば前後3秒(合計6秒)を加算した演出タイミングリストRbの時間帯「0:00:03.17〜0:00:03.23」に設定される。
Next, the operation of the video playback mode with the effect of slow playback will be described with reference to the flowchart of the video playback mode shown in FIG.
In step S50, the performance timing management unit 36 reads the sound information analysis result list R stored in the voice analysis parameter database VDB shown in FIG. For example, the production timing management unit 36, for example, from the sound information analysis result list R shown in FIG. 5) is listed. For example, if this list is an effect timing with respect to the detection timing time (No. 1), for example, 3 seconds before and after the detection timing time “0: 00: 03.20” (total 6 seconds) is added. The time zone of the performance timing list Rb is set to “0: 00: 03.17 to 0: 00: 03.23”.

動画記録・再生部33は、ステップS35において、動画の再生モード時、記録媒体9に記録されている動画ファイルFaを読み出し、この動画ファイルFaに含まれる動画データFa2をTFT駆動回路16に送り、TFTパネル22に動画の表示を開始する。これと共に、動画記録・再生部33は、記録媒体9に記録されている音声ファイルを読み出し、この音声ファイル中の音声データをスピーカ14に送って動画記録時の音声の再生を開始する。
演出タイミング管理部36は、ステップS36において、動画ファイルFaに添付した音情報解析結果リストRからピストル音や歓声が発生している演出タイミングの開始時刻(No.1〜No.5)になったか否かを判断する。この判断の結果、演出タイミングの開始時刻(No.1)「0:00:03.17」になると、演出タイミング管理部36は、動画データFa2をスロー再生する演出効果を付加する旨を再生演出効果付加部35に送る。
In step S35, the moving image recording / reproducing unit 33 reads out the moving image file Fa recorded on the recording medium 9 in the moving image reproduction mode, and sends the moving image data Fa2 included in the moving image file Fa to the TFT drive circuit 16, Display of moving images on the TFT panel 22 is started. At the same time, the moving image recording / reproducing unit 33 reads the audio file recorded on the recording medium 9 and sends the audio data in the audio file to the speaker 14 to start reproducing the audio when recording the moving image.
In step S36, the production timing management unit 36 determines from the sound information analysis result list R attached to the video file Fa that the production timing start time (No. 1 to No. 5) at which the pistol sound or cheer is generated. Judge whether or not. As a result of the determination, when the start time of the effect timing (No. 1) “0: 00: 03.17” is reached, the effect timing management unit 36 indicates that the effect of adding the effect of slow reproduction of the moving image data Fa2 is added. This is sent to the effect adding unit 35.

この再生演出効果付加部35は、ステップS51において、動画データFa2をスローで再生する演出用画像処理を行う。動画記録・再生部33は、スローで再生する演出用画像処理が行われた動画データFa2をTFT駆動回路16に送り、TFTパネル22にスローで再生される動画データFa2の動画を表示する。
演出タイミング管理部36は、ステップS52において、動画データFa2の再生が終了したか否かを判断する。動画データFa2の再生が終了でなければ、演出タイミング管理部36は、ステップS36に戻り、演出タイミングの開始時刻(No.1)「0:00:03.17」になったか否かの判断を行うが、ここでは既に演出タイミング(No.1)でのスロー再生を行っているので、ステップS36からステップS53に映り、演出タイミングの終了時刻(No.1)「0:00:03.23」になったか否かを判断する。
In step S51, the reproduction effect adding unit 35 performs effect image processing for reproducing the moving image data Fa2 in a slow manner. The moving image recording / reproducing unit 33 sends the moving image data Fa2 that has been subjected to the effect image processing to be reproduced in slow speed to the TFT drive circuit 16 and displays the moving image of the moving image data Fa2 to be reproduced in slow motion on the TFT panel 22.
In step S52, the effect timing management unit 36 determines whether or not the reproduction of the moving image data Fa2 has ended. If the reproduction of the moving image data Fa2 is not finished, the effect timing management unit 36 returns to step S36, and determines whether or not the start time (No. 1) of the effect timing is “0: 00: 03.17”. Here, since slow playback is already performed at the production timing (No. 1), it is reflected from step S36 to step S53, and the production timing end time (No. 1) “0: 00: 03.23”. It is determined whether or not.

この判断の結果、検出タイミングの時刻「0:00:03.20」に対して例えば前後3秒(合計6秒)の演出タイミングリストRbの時間帯「0:00:03.17〜0:00:03.23」が経過し、演出タイミングの終了時刻(No.1)「0:00:03.23」になると、再生演出効果付加部35は、ステップS54において、動画データFa2をスローで再生する演出用画像処理を終了する。スローで再生する演出用画像処理の終了の直後から動画記録・再生部33は、通常の動画データFa2の再生、すなわち動画データFa2をTFT駆動回路16に送り、TFTパネル22に動画の表示を行い、かつ音声ファイル中の音声データをスピーカ14に送って動画記録時の音声の再生を行う。
演出タイミング管理部36は、ステップS52において、動画データFa2の再生が終了したか否かを判断し、動画データFa2の再生が終了であれば、動画データFa2の再生を終了する。
As a result of this determination, for example, the time zone “0: 00: 03.17 to 0:00” of the production timing list Rb for 3 seconds before and after (total 6 seconds) with respect to the time “0: 00: 03.20” of the detection timing. : 03.23 "has elapsed, and when the production timing end time (No. 1)" 0: 00: 03.23 "is reached, the reproduction production effect adding unit 35 reproduces the moving image data Fa2 in a slow manner in step S54. The effect image processing is finished. Immediately after the end of the rendering image processing for slow reproduction, the moving image recording / reproducing unit 33 reproduces the normal moving image data Fa2, that is, sends the moving image data Fa2 to the TFT drive circuit 16 and displays the moving image on the TFT panel 22. In addition, the audio data in the audio file is sent to the speaker 14 to reproduce the audio when recording the moving image.
In step S52, the effect timing management unit 36 determines whether or not the reproduction of the moving image data Fa2 is finished. If the reproduction of the moving image data Fa2 is finished, the reproduction of the moving image data Fa2 is finished.

このように上記第3の実施の形態によれば、シーンモード毎に予め設定された各検出音と、これら検出音を解析するための各検出条件と、動画データの演出手法とを対応させた音声解析パラメータデータベースVDBを有し、かつピストル音等の検出音の発生している各時刻を記録した検出タイミングリストRaと、検出音の発生時刻に予め設定された前後の設定時間、例えば前後3秒(合計6秒)を加算した演出タイミングリストRbとから成る音情報解析結果リストRを作成し、動画データFa2の再生中に、演出タイミングリストRbに記録された検出音の発生時刻に予め設定された前後の設定時間を加算した時間帯に、例えばスローで再生する演出用画像処理を行うので、動画等の画像データを再生するときに、上記第1の実施の形態と同様に、当該動画等の画像データを再生するときに、単調になり易い動画等の画像データを再生に、スローで再生等の今までに無い演出効果を付加して価値の高い画像再生をすることが出来き、動画等の画像データを単調にならずに鑑賞できるなどの効果を奏することができる。   As described above, according to the third embodiment, each detection sound set in advance for each scene mode, each detection condition for analyzing these detection sounds, and an effect method for moving image data are associated with each other. A detection timing list Ra having a voice analysis parameter database VDB and recording each time when a detection sound such as a pistol sound is generated, and a set time before and after the occurrence time of the detection sound, for example, before and after 3 A sound information analysis result list R including an effect timing list Rb to which seconds (6 seconds in total) are added is created and set in advance to the generation time of the detected sound recorded in the effect timing list Rb during the reproduction of the moving image data Fa2. In the time zone in which the set times before and after the addition are performed, for example, the image processing for rendering that is played back in slow motion is performed. Therefore, when image data such as a moving image is played back, the first embodiment In the same way, when reproducing image data such as the moving image, it is possible to reproduce image data such as a moving image that tends to be monotonous, and to add an unprecedented presentation effect such as slow reproduction, etc. It is possible to achieve such an effect that image data such as a moving image can be viewed without being monotonous.

動画データFa2に付加する演出手法は、図12に示す音声解析パラメータのように例えばスポーツ、ポートレート、花火、風景、ペット等の各種シーンモードに応じてそれぞれ異なる検出音、検出条件で音声データを解析し、かつ各種シーンモードに応じたスロー再生等の演出手法で動画データに演出効果を付加できる。なお、演出手法は、例えばスポーツ、ポートレート、花火、風景、ペット等の各種シーンモードに応じて例えば主要被写体をズームアップ、被写体以外の明るさを変更、音の発生に合わせて画面をスクロール等により演出効果を付加できる。
演出タイミングリストRbの時間帯は、検出タイミングの時刻に対して予め設定された前後の設定時間、例えば前後3秒(合計6秒)を加算して作成しているが、予め設定された前後の設定時間は、任意に変更可能である。又、演出タイミングリストRbの時間帯は、検出タイミングの時刻に対して予め設定された前後に限らず、検出タイミングの時刻の前又は後の時間帯のみであってもよい。
[第4の実施の形態]
次に、本発明の第4の実施の形態について説明する。なお、本実施の形態は、図1に示す構成と同一構成を有するもので、その説明では図1を援用し、相違する部分について説明する。
ステレオマイクロフォーン12は、左右の2つのマイクロフォーンを有する。これらマイクロフォーンは、本装置の周囲環境の音響をステレオで集音し、その音声信号を出力する。
音声解析部34は、音声データが複数チャネル、例えば2チャネルでステレオの音響を構築すれば、これらチャネル別にシーンモードに応じた種類の音声別に音声データを解析する。すなわち、音声解析部34は、2つのマイクロフォーンからそれぞれ出力される各音声データの各発生時刻を解析すると共に、2つのマイクロフォーンの各音声データに基づく音圧レベルを解析すると共に、2つのマイクロフォーンのうち音圧レベルの大きいマイクロフォーンを解析する。
The effect method to be added to the moving image data Fa2 is that sound data is detected with different detection sounds and detection conditions depending on various scene modes such as sports, portrait, fireworks, landscapes, pets, etc., as in the audio analysis parameters shown in FIG. It is possible to add a production effect to the moving image data by a production method such as slow reproduction according to various scene modes. In addition, for example, according to various scene modes such as sports, portraits, fireworks, landscapes, pets, etc., for example, the main subject is zoomed in, the brightness other than the subject is changed, the screen is scrolled according to the sound generation, etc. A production effect can be added.
The time zone of the performance timing list Rb is created by adding a set time before and after being set in advance with respect to the time of the detection timing, for example, 3 seconds before and after (total 6 seconds). The set time can be arbitrarily changed. In addition, the time zone of the effect timing list Rb is not limited to before and after being preset with respect to the time of the detection timing, and may be only the time zone before or after the time of the detection timing.
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. In addition, this Embodiment has the same structure as the structure shown in FIG. 1, In the description, FIG. 1 is used and a different part is demonstrated.
The stereo microphone 12 has two left and right microphones. These microphones collect the sound of the surrounding environment of this apparatus in stereo and output the sound signal.
If the audio data is a stereo sound having a plurality of channels, for example, two channels, the audio analysis unit 34 analyzes the audio data for each type of audio corresponding to the scene mode for each channel. That is, the voice analysis unit 34 analyzes the generation time of each voice data output from each of the two microphones, analyzes the sound pressure level based on each voice data of the two microphones, and analyzes the two microphones. A phone with a high sound pressure level is analyzed.

図15は音情報解析結果リストRの摸式図を示す。この音情報解析結果リストRは、各音声データ別に作成される。この音情報解析結果リストRは、例えば動画の撮影中に5回の音声データが発生している。この音情報解析結果リストRは、検出タイミングリストRaと、演出タイミングリストRbと、左側の音圧レベルRcと、右側の音圧レベルRcとを有する。左側の音圧レベルRcは、ステレオマイクロフォーン12における左側のマイクロフォーンから出力される音声データにおける検出音の音圧レベルである。例えば、リスト番号(No.1)の左側の音圧レベルRcは、検出タイミングリストRa(No.1)「0:00:03.20」に検出した検出音の音圧レベルである。同リスト番号(No.1)の右側の音圧レベルRdは、検出タイミングリストRa(No.1)「0:00:03.20」に検出した検出音の音圧レベルである。   FIG. 15 is a schematic diagram of the sound information analysis result list R. This sound information analysis result list R is created for each audio data. In the sound information analysis result list R, for example, five times of audio data are generated during shooting of a moving image. The sound information analysis result list R includes a detection timing list Ra, an effect timing list Rb, a left sound pressure level Rc, and a right sound pressure level Rc. The left sound pressure level Rc is the sound pressure level of the detected sound in the sound data output from the left microphone in the stereo microphone 12. For example, the sound pressure level Rc on the left side of the list number (No. 1) is the sound pressure level of the detected sound detected in the detection timing list Ra (No. 1) “0: 00: 03.20”. The sound pressure level Rd on the right side of the same list number (No. 1) is the sound pressure level of the detected sound detected in the detection timing list Ra (No. 1) “0: 00: 03.20”.

次に、図15に示す音情報解析結果リストRの作成について図16に示す撮影動作フローチャートを参照して説明する。
動画ボタンが押し操作(ON)されると、シーンモード設定部30は、ステップS40において、例えば図12に示す音声解析パラメータデータベースVDBからキーマトリクス7のシーンモードの設定用のボタンにより設定されたシーンモード、例えばスポーツ、ポートレート、花火、風景又はペット等のシーンモードをシーンパラメータSpとして読み込む。
Next, the creation of the sound information analysis result list R shown in FIG. 15 will be described with reference to the photographing operation flowchart shown in FIG.
When the moving image button is pressed (ON), the scene mode setting unit 30 sets the scene set by the button for setting the scene mode in the key matrix 7 from the audio analysis parameter database VDB shown in FIG. A mode, for example, a scene mode such as sport, portrait, fireworks, landscape or pet is read as a scene parameter Sp.

動画記録・再生部33は、ステップS41において、上記音声解析パラメータデータベースVDBを参照してシーンパラメータSpに記述されているシーンモード、例えばシーンモードがスポーツであれば、当該スポーツに対応する検出音としてピストル音及び歓声と、検出条件としてピストル音を検出したときと、歓声の音量が一定以上の音量を検出した時と、演出手法としてピストル音又は歓声を検出したときの時刻の前後の3秒間に亘って動画データをスローで再生するを設定する。   In step S41, the moving image recording / playback unit 33 refers to the audio analysis parameter database VDB, and if the scene mode described in the scene parameter Sp, for example, the scene mode is a sport, it is detected as a detection sound corresponding to the sport. 3 seconds before and after the time when the pistol sound and cheers are detected, when the pistol sound is detected as the detection condition, when the sound volume of the cheers is more than a certain level, and when the pistol sound or cheers are detected as the production method Set the video data to play slowly.

動画記録・再生部33は、ステップS42において、動画の撮影動作を開始し、撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、この画像データをTFT駆動回路16によってTFTパネル22に動画として表示する。
音声解析部34は、ステップS43において、2つのマイクロフォーンに対応する左右の各音声データに対してそれぞれ例えば検出音としてピストル音や歓声で、これらピストル音、歓声を検出したときの音量が一定以上の音量を検出した時を検出条件としてピストル音や歓声が発生したときの時刻を解析する。この音声解析部34は、例えば左右の各音声データの各周波数成分からそれぞれピストル音や歓声に対応する各周波数成分を検出し、かつこれら周波数成分の現れる時刻を検出する。
In step S42, the moving image recording / reproducing unit 33 starts a moving image shooting operation, inputs image data picked up by the image pickup device 4 and output from the image pickup circuit 5, and outputs the image data to the TFT by the TFT drive circuit 16. Displayed on the panel 22 as a moving image.
In step S43, the sound analysis unit 34 uses, for example, a pistol sound or a cheer as a detection sound for each of the left and right sound data corresponding to the two microphones, and the volume when the pistol sound and the cheer are detected is a certain level or more. Analyzing the time when a pistol sound or cheering occurs when the volume of the sound is detected. For example, the voice analysis unit 34 detects each frequency component corresponding to a pistol sound or a cheer from each frequency component of left and right voice data, and detects the time when these frequency components appear.

又、音声解析部34は、2つのマイクロフォーンからそれぞれ出力される各音声データの各発生時刻を解析すると共に、2つのマイクロフォーンの各音声データに基づく音圧レベルを解析すると共に、2つのマイクロフォーンのうち音圧レベルの大きいマイクロフォーンを解析する。音圧レベルの解析結果は、図15に示す音情報解析結果リストRにおける左側の音圧レベルRcと右側の音圧レベルRcとに記録される。   The voice analysis unit 34 analyzes the generation time of each voice data output from the two microphones, analyzes the sound pressure level based on the voice data of the two microphones, and analyzes the two microphones. A phone with a high sound pressure level is analyzed. The analysis result of the sound pressure level is recorded in the left sound pressure level Rc and the right sound pressure level Rc in the sound information analysis result list R shown in FIG.

CPU6は、動画の撮影動作中、ステップS44において、再度、動画ボタンが押し操作(ON)されたか否かを判断し、動画ボタンが再度押し操作(ON)されなければ、ステップS42に戻り、動画の撮影を続ける。動画ボタンが再度押し操作(ON)されると、CPU6は、ステップS45に移り、動画の撮影動作を終了する。
動画の撮影動作が終了すると、動画記録・再生部33は、ステップS46において、上記の通り撮像素子4により撮像され、撮像回路5から出力される画像データを入力し、これと共に動画の画像データを作成する。この動画の画像データは、図4に示すようにファイル生成・管理部31によってシーンパラメータSp等を記述したファイルヘッダと共に動画ファイルFaとして記録媒体9に記録される。
これと共に、演出タイミング管理部36は、音声解析部34によって音声解析された音声データの発生時刻から成る音情報解析結果リストR、例えば図15に示すような動画の撮影中に5回のピストル音や歓声が発生している各時刻を記録した検出タイミングリストRaと、ピストル音や歓声の発生時刻に予め設定された前後の設定時間、例えば前後3秒(合計6秒)を加算して演出タイミングリストRbを作成する。例えば、検出タイミングの時刻(No.1)に対する演出タイミングは、検出タイミングの時刻「0:00:03.20」に対して例えば前後3秒(合計6秒)を加算した演出タイミングリストRbの時間帯「0:00:03.17〜0:00:03.23」に設定される。
During the moving image shooting operation, the CPU 6 determines again in step S44 whether or not the moving image button has been pressed (ON). If the moving image button has not been pressed again (ON), the process returns to step S42. Continue shooting. When the moving image button is pressed again (ON), the CPU 6 moves to step S45 and ends the moving image shooting operation.
When the moving image shooting operation is completed, the moving image recording / reproducing unit 33 inputs the image data picked up by the image pickup device 4 and output from the image pickup circuit 5 as described above in step S46, together with the moving image data. create. The moving image data is recorded on the recording medium 9 as a moving image file Fa together with a file header describing a scene parameter Sp and the like by the file generation / management unit 31 as shown in FIG.
At the same time, the production timing management unit 36 includes a sound information analysis result list R including the generation time of the audio data analyzed by the audio analysis unit 34, for example, five pistol sounds during shooting of a moving image as shown in FIG. Production timing by adding a detection timing list Ra that records each time when the voice or cheer is generated and a preset time before and after the pistol sound or cheer occurrence time, for example, 3 seconds before and after (total 6 seconds) A list Rb is created. For example, the production timing with respect to the time (No. 1) of the detection timing is the time of the production timing list Rb obtained by adding, for example, 3 seconds before and after the detection timing time “0: 00: 03.20” (6 seconds in total). The band is set to “0: 00: 03.17 to 0: 00: 03.23”.

次に、ズーム再生の演出効果を付加した動画再生モードの動作について図17に示す動画再生モードのフローチャートを参照して説明する。
演出タイミング管理部36は、ステップS50において、図15に示す音声解析パラメータのデータベースVDBに記憶されている音情報解析結果リストRを読み込む。例えば、演出タイミング管理部36は、図15に示す音情報解析結果リストRから例えば動画の撮影中に5回のピストル音や歓声が発生している各演出タイミングの時刻(No.1〜No.5)をリスト化する。このリストは、例えば、検出タイミングの時刻(No.1)に対する演出タイミングであれば、検出タイミングの時刻「0:00:03.20」に対して例えば前後3秒(合計6秒)を加算した演出タイミングリストRbの時間帯「0:00:03.17〜0:00:03.23」に設定される。
Next, the operation of the moving image playback mode with the zoom playback effect added will be described with reference to the flowchart of the moving image playback mode shown in FIG.
In step S50, the performance timing management unit 36 reads the sound information analysis result list R stored in the voice analysis parameter database VDB shown in FIG. For example, the production timing management unit 36, for example, from the sound information analysis result list R shown in FIG. 5) is listed. For example, if this list is an effect timing with respect to the detection timing time (No. 1), for example, 3 seconds before and after the detection timing time “0: 00: 03.20” (total 6 seconds) is added. The time zone of the performance timing list Rb is set to “0: 00: 03.17 to 0: 00: 03.23”.

動画記録・再生部33は、ステップS35において、通常の動画の再生モード時、記録媒体9に記録されている動画ファイルFaを読み出し、TFTパネル22に動画の表示を開始すると共に、記録媒体9に記録されている音声ファイルを読み出し、この音声ファイル中の音声データをスピーカ14に送って動画記録時の音声の再生を開始する。   In step S35, the moving image recording / reproducing unit 33 reads the moving image file Fa recorded on the recording medium 9 in the normal moving image reproduction mode, starts displaying the moving image on the TFT panel 22, and stores the moving image file Fa on the recording medium 9. The recorded audio file is read out, and the audio data in the audio file is sent to the speaker 14 to start reproduction of the audio when recording the moving image.

演出タイミング管理部36は、ステップS60において、動画ファイルFaに添付した音情報解析結果リストRからピストル音や歓声が発生している演出タイミングの開始時刻(No.1〜No.5)、すなわち演出効果付加区間になったか否かを判断する。この判断の結果、演出効果付加区間の開始時刻(No.1)「0:00:03.17」になると、演出タイミング管理部36は、ステップS61において、演出効果付加区間の開始時刻から3秒経過したか否かを判断する。すなわち、演出タイミング管理部36は、検出タイミングの時刻「0:00:03.20」よりも以前の時刻「0:00:03.17」から3秒が経過したか否かを判断する。   In step S60, the production timing management unit 36 produces the start time (No. 1 to No. 5) of production timing at which a pistol sound or cheer is generated from the sound information analysis result list R attached to the moving image file Fa, that is, production. It is determined whether or not an effect addition section has been reached. As a result of this determination, when the start time (No. 1) of the effect effect addition section is “0: 00: 03.17”, the effect timing management unit 36 is 3 seconds from the start time of the effect effect addition section in step S61. Judge whether or not it has passed. That is, the effect timing management unit 36 determines whether or not 3 seconds have elapsed from the time “0: 00: 03.17” before the time “0: 00: 03.20” of the detection timing.

この判断の結果、当該時刻「0:00:03.17」から3秒が経過していなければ、演出タイミング管理部36は、動画データFa2を拡大ズーム再生する演出効果を付加する旨を再生演出効果付加部35に送る。
この再生演出効果付加部35は、ステップS62において、通常の動画データFa2の再生を停止し、動画データFa2の例えば1コマの画像データを例えば1秒当たり1.2倍の拡大ズームする演出用画像処理を行う。動画記録・再生部33は、拡大ズームで再生する演出用画像処理が行われた動画データFa2をTFT駆動回路16に送り、TFTパネル22に拡大ズームで動画データFa2の動画を表示する。
又、再生演出効果付加部35は、ステップS63において、動画データFa2を例えば1秒当たり1.2倍の拡大ズームを行うと共に、図15に示す音情報解析結果リストRにおける左右側の各音圧レベルRc、Rcのうち音圧レベルの大きな方向、例えば左側の音圧レベルRcが「5」であり、右側の音圧レベルRcが「3」であるので、左側の方に動画データFa2をスクロールする。このスクロールによりTFTパネル22に表示される動画データFa2は、例えばピストル音や歓声が発生している音源の方向の画像がTFTパネル22の表示画面の中央部にスクロール移動する。スクロールの移動速度は、例えば1秒当たり10ピクセルである。
As a result of this determination, if 3 seconds have not elapsed since the time “0: 00: 03.17”, the effect timing management unit 36 indicates that the effect of adding the effect of zooming and reproducing the moving image data Fa2 is added. This is sent to the effect adding unit 35.
In step S62, the reproduction effect adding unit 35 stops the reproduction of the normal moving image data Fa2, and performs, for example, a one-time image data of the moving image data Fa2 with a magnification of 1.2 times per second. Process. The moving image recording / reproducing unit 33 sends the moving image data Fa2 that has been subjected to the effect image processing to be reproduced with the enlarged zoom to the TFT drive circuit 16, and displays the moving image of the moving image data Fa2 with the enlarged zoom on the TFT panel 22.
In addition, in step S63, the reproduction effect effect adding unit 35 performs an enlargement zoom of the moving image data Fa2 by 1.2 times per second, for example, and the left and right sound pressures in the sound information analysis result list R shown in FIG. Of the levels Rc and Rc, the direction in which the sound pressure level is large, for example, the left sound pressure level Rc is “5” and the right sound pressure level Rc is “3”, so that the moving image data Fa2 is scrolled to the left. To do. In the moving image data Fa2 displayed on the TFT panel 22 by this scrolling, for example, an image in the direction of a sound source in which a pistol sound or cheer is generated scrolls to the center of the display screen of the TFT panel 22. The moving speed of the scroll is, for example, 10 pixels per second.

演出タイミング管理部36は、ステップS64において、動画データFa2の再生が終了したか否かを判断する。動画データFa2の再生が終了でなければ、演出タイミング管理部36は、ステップS60に戻り、演出効果付加区間になったか否かを判断する。ここでは演出効果付加区間中であるので、演出タイミング管理部36は、再びステップS61において、演出効果付加区間の開始時刻から3秒経過したか否かを判断する。   In step S64, the effect timing management unit 36 determines whether or not the reproduction of the moving image data Fa2 has ended. If the reproduction of the moving image data Fa2 is not completed, the effect timing management unit 36 returns to step S60 and determines whether or not an effect effect addition section has been reached. Here, since it is in the effect effect addition section, the effect timing management unit 36 determines again whether or not 3 seconds have elapsed from the start time of the effect effect addition section in step S61.

この判断の結果、演出効果付加区間の開始時刻から3秒経過すると、演出タイミング管理部36は、動画データFa2を縮小ズーム再生する演出効果を付加する旨を再生演出効果付加部35に送る。
この再生演出効果付加部35は、ステップS65において、動画データFa2を例えば1秒当たり1/1.2倍の縮小ズームする演出用画像処理を行う。動画記録・再生部33は、縮小ズームで再生する演出用画像処理が行われた動画データFa2をTFT駆動回路16に送り、TFTパネル22に縮小ズームで動画データFa2の動画を表示する。
又、再生演出効果付加部35は、ステップS63において、動画データFa2を例えば1秒当たり1/1.2倍の縮小ズームを行うと共に、図15に示す音情報解析結果リストRにおける左右側の各音圧レベルRc、Rcのうち音圧レベルの小さな方向、例えば左側の音圧レベルRcが「5」であり、右側の音圧レベルRcが「3」であるので、右側の方に動画データFa2をスクロールする。このスクロールによりTFTパネル22に表示される動画データFa2は、ステップS62で、スクロールする前の画像に戻る。スクロールの移動速度は、例えば1秒当たり10ピクセルである。
As a result of this determination, when 3 seconds elapses from the start time of the effect effect addition section, the effect timing management unit 36 sends to the reproduction effect effect addition unit 35 that an effect of reproducing the moving image data Fa2 with reduced zoom is added.
In step S65, the reproduction effect effect adding unit 35 performs effect image processing for reducing and zooming the moving image data Fa2 by, for example, 1 / 1.2 times per second. The moving image recording / reproducing unit 33 sends the moving image data Fa2 that has been subjected to the effect image processing to be reproduced with the reduced zoom to the TFT drive circuit 16, and displays the moving image of the moving image data Fa2 on the TFT panel 22 with the reduced zoom.
Further, in step S63, the reproduction effect effect adding unit 35 performs reduction zoom of the moving image data Fa2 by, for example, 1 / 1.2 times per second, and each of the left and right sides in the sound information analysis result list R shown in FIG. Since the sound pressure level Rc is smaller in the direction of the sound pressure level, for example, the left sound pressure level Rc is “5” and the right sound pressure level Rc is “3”, the moving image data Fa2 is on the right side. Scroll. The moving image data Fa2 displayed on the TFT panel 22 by this scrolling returns to the image before scrolling in step S62. The moving speed of the scroll is, for example, 10 pixels per second.

図18(a)は通常の動画データFa2の再生を模式的に示す。これに対して図18(b)は拡大縮小の演出効果を付加した動画データFa2の再生を模式的に示す。演出効果付加区間になると、通常の動画データFa2の再生が一時的に停止し、動画データFa2の例えば1コマの画像データを例えば1秒当たり1.2倍の拡大ズームし、続いて1秒当たり1/1.2倍で縮小ズームする。
スクロールする前の画像に戻ると、動画記録・再生部33は、通常の動画の再生モードに戻る。
FIG. 18A schematically shows reproduction of normal moving image data Fa2. On the other hand, FIG. 18B schematically shows the reproduction of the moving image data Fa2 to which the effect of enlargement / reduction is added. When the effect effect addition section is reached, the playback of the normal moving image data Fa2 is temporarily stopped, and for example, one frame of the moving image data Fa2 is zoomed in at a magnification of 1.2 times per second, and then per second. Zooms out at a magnification of 1 / 1.2.
When returning to the image before scrolling, the moving image recording / reproducing unit 33 returns to the normal moving image reproduction mode.

演出タイミング管理部36は、ステップS64において、動画データFa2の再生が終了したか否かを判断し、動画データFa2の再生が終了であれば、動画データFa2の再生を終了する。
このように上記第4の実施の形態によれば、2つのマイクロフォーンからそれぞれ出力される各音声データの各発生時刻を解析すると共に、2つのマイクロフォーンの各音声データに基づく音圧レベルを解析すると共に、2つのマイクロフォーンのうち音圧レベルの大きいマイクロフォーンを解析し、動画データFa2を拡大縮小のズームを行うと共に、左右側の各音圧レベルRc、Rcのうち音圧レベルの大きな方向に動画データFa2をスクロールするので、上記第1の実施の形態と同様に、当該動画等の画像データを再生するときに、単調になり易い動画等の画像データの再生に、拡大縮小と音源の方向へのスクロール移動との今までに無い演出効果を付加して価値の高い画像再生をすることができ、動画等の画像データを単調にならずに鑑賞できる。
In step S64, the effect timing management unit 36 determines whether or not the reproduction of the moving image data Fa2 is finished. If the reproduction of the moving image data Fa2 is finished, the reproduction of the moving image data Fa2 is finished.
As described above, according to the fourth embodiment, the generation times of the audio data output from the two microphones are analyzed, and the sound pressure levels based on the audio data of the two microphones are analyzed. At the same time, a microphone having a high sound pressure level is analyzed out of the two microphones, the moving image data Fa2 is zoomed in and out, and the sound pressure level of the left and right sound pressure levels Rc and Rc is the direction in which the sound pressure level is large. Since the moving image data Fa2 is scrolled in the same manner as in the first embodiment, when reproducing the image data such as the moving image, the reproduction of the image data such as the moving image that tends to be monotonous is performed. High-value image reproduction can be performed with an unprecedented presentation effect with scroll movement in the direction, and image data such as movies can be made monotonous People can watch them.

なお、図12に示す音声解析パラメータデータベースVDB中の演出手法は、例えば被写体にスポットライトを照射したようなスポットライト効果を付加するようにしても良い。図19はスポットライト効果の一例を示す。このスポットライト効果は、動画データFa2中から被写体である例えば人物の顔部を検出し、この顔部を中心としてスポットライトを照射したような動画データFa2を作成する。動画記録・再生部33は、当該動画データFa2をTFT駆動回路16に送り、TFTパネル22に拡大ズームで動画データFa2の動画を表示する。   Note that the effect method in the voice analysis parameter database VDB shown in FIG. 12 may add a spotlight effect such as irradiating a subject with a spotlight. FIG. 19 shows an example of the spotlight effect. The spotlight effect is to detect moving image data Fa2 by detecting, for example, a human face portion, which is a subject, from moving image data Fa2, and irradiating a spotlight around the face portion. The moving image recording / reproducing unit 33 sends the moving image data Fa2 to the TFT drive circuit 16, and displays the moving image of the moving image data Fa2 on the TFT panel 22 with an enlarged zoom.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1:レンズユニット、2:アクチュエータ、3:アクチュエータ駆動回路、4:撮像素子、5:撮像回路、6:CPU、7:キーマトリクス、7−1:動画ボタン、7−2:レリーズボタン、8:フレームメモリ、9:記録媒体、10:EEPROM、11:発光回路、12:ステレオマイクロフォーン、13:手振れ補正用ジャイロセンサ、14:スピーカ、15:LCD表示回路、16:TFT液晶駆動回路、17:映像出力回路、18:バックライトユニット、19:電源回路、20:電池状態検出回路、21:ファインダ用の液晶ディスプレイ(LCD)パネル、22:表示部としてのTFTパネル、23:外部画像表示装置、25:電池、26:バックアップ電源、VDB:音声解析パラメータのデータベース、30:シーンモード設定部、31:ファイル生成・管理部、32:静止画記録・再生部、33:動画記録・再生部、34:音声解析部、35:再生演出効果付加部、36:演出タイミング管理部、37:画像圧縮伸張部、38:記録媒体アクセス部、39:再表示部。   1: Lens unit, 2: Actuator, 3: Actuator drive circuit, 4: Imaging device, 5: Imaging circuit, 6: CPU, 7: Key matrix, 7-1: Movie button, 7-2: Release button, 8: Frame memory, 9: recording medium, 10: EEPROM, 11: light emitting circuit, 12: stereo microphone, 13: camera shake correction gyro sensor, 14: speaker, 15: LCD display circuit, 16: TFT liquid crystal drive circuit, 17: Video output circuit, 18: Backlight unit, 19: Power supply circuit, 20: Battery state detection circuit, 21: Liquid crystal display (LCD) panel for finder, 22: TFT panel as display unit, 23: External image display device, 25: Battery, 26: Backup power supply, VDB: Database of voice analysis parameters, 30: Scene mode Setting unit, 31: File generation / management unit, 32: Still image recording / playback unit, 33: Video recording / playback unit, 34: Audio analysis unit, 35: Reproduction effect adding unit, 36: Production timing management unit, 37 : Image compression / decompression unit, 38: Recording medium access unit, 39: Redisplay unit.

Claims (39)

撮像により取得された画像データを記録すると共に、当該画像データの取得と共に録音される前記撮像時の音声データを記録するデータ記録部と、
前記撮像時のシーンモードを設定するシーンモード設定部と、
前記シーンモード設定部により設定された前記シーンモードに応じて前記データ記録部に記録されている前記音声データから検出対象の音の少なくとも発生時刻を解析する音声解析部と、
を具備することを特徴とする記録装置。
A data recording unit that records image data acquired by imaging, and that records audio data at the time of imaging that is recorded together with the acquisition of the image data;
A scene mode setting unit for setting a scene mode at the time of imaging;
A voice analysis unit that analyzes at least the generation time of the sound to be detected from the voice data recorded in the data recording unit according to the scene mode set by the scene mode setting unit;
A recording apparatus comprising:
前記音声解析部は、前記シーンモードに応じた種類の前記検出対象の音別に前記音声データを解析することを特徴とする請求項1記載の記録装置。   The recording apparatus according to claim 1, wherein the sound analysis unit analyzes the sound data for each type of sound to be detected according to the scene mode. 前記音声解析部は、前記シーンモードの種類別に設定された前記検出対象の音の検出条件に従って前記音声データを解析することを特徴とする請求項2記載の記録装置。   The recording apparatus according to claim 2, wherein the sound analysis unit analyzes the sound data according to a detection condition of the detection target sound set for each type of the scene mode. 前記音声解析部は、複数チャネルの前記音声データ中の前記検出対象の音の少なくとも前記発生時刻を前記各チャネル別に解析することを特徴とする請求項1記載の記録装置。   The recording apparatus according to claim 1, wherein the sound analysis unit analyzes at least the generation time of the sound to be detected in the sound data of a plurality of channels for each channel. 前記音声解析部は、前記シーンモードに応じた種類の前記検出対象の音別で、かつ前記シーンモードの種類別に設定された前記検出対象の音の検出条件に従って前記音声データを解析して前記検出対象の音の少なくとも発生時刻を取得することを特徴とする請求項1記載の記録装置。   The sound analysis unit analyzes the sound data according to the detection condition of the detection target sound set according to the type of the scene mode and the detection target sound set according to the type of the scene mode. The recording apparatus according to claim 1, wherein at least an occurrence time of the sound is acquired. 前記音声解析部の解析により取得された前記検出対象の音の少なくとも発生時刻に基づいて前記データ記録部に記録された前記画像データを再生するときに、前記シーンモードに応じた各種の演出用画像処理を前記画像データに付加するためのタイミングリストを作成する画像処理部、
を備えたことを特徴とする請求項1記載の記録装置。
Various reproduction images according to the scene mode when reproducing the image data recorded in the data recording unit based on at least the generation time of the sound to be detected acquired by the analysis of the audio analysis unit An image processing unit for creating a timing list for adding processing to the image data;
The recording apparatus according to claim 1, further comprising:
前記画像データは、動画データを含むことを特徴とする請求項1記載の記録装置。   The recording apparatus according to claim 1, wherein the image data includes moving image data. 撮像により取得された画像データを表示する表示部と、
前記画像データの取得と共に収集される前記撮像時の音声データを解析して取得される検出対象の音の少なくとも発生時刻を含む音声解析データに従って前記表示部に表示中の前記画像データに対して前記撮像時のシーンモードに応じた各種の演出用画像処理を行う画像処理部と、
を具備し、
前記演出用画像処理により得られた前記画像データを前記表示部に表示することを特徴とする再生装置。
A display unit for displaying image data acquired by imaging;
The image data being displayed on the display unit according to the sound analysis data including at least the generation time of the detection target sound acquired by analyzing the sound data at the time of imaging collected together with the acquisition of the image data An image processing unit for performing various image processing for effects according to the scene mode at the time of imaging;
Comprising
A reproducing apparatus, wherein the image data obtained by the effect image processing is displayed on the display unit.
前記シーンモードに応じて前記音声データ中の前記検出対象の音の少なくとも発生時刻を解析する音声解析部を有することを特徴とする請求項8記載の再生装置。   9. The playback apparatus according to claim 8, further comprising: a sound analysis unit that analyzes at least the time of occurrence of the sound to be detected in the sound data in accordance with the scene mode. 前記音声解析部は、前記画像データを前記表示部に再生表示するときに、前記音声データから前記検出対象の音の少なくとも発生時刻を解析することを特徴とする請求項8記載の再生装置。   9. The reproduction apparatus according to claim 8, wherein the sound analysis unit analyzes at least a generation time of the sound to be detected from the sound data when the image data is reproduced and displayed on the display unit. 前記音声解析部は、前記シーンモードの種類別に、前記検出対象の音と、当該検出対象の音を検出するための検出条件とが予め設定されていることを特徴とする請求項9記載の再生装置。   The reproduction according to claim 9, wherein the sound analysis unit is preset with a detection target sound and a detection condition for detecting the detection target sound for each type of the scene mode. apparatus. 前記音声解析部は、前記検出対象の音の少なくとも発生時刻を前記画像データに添付することを特徴とする請求項9記載の再生装置。   The reproduction apparatus according to claim 9, wherein the sound analysis unit attaches at least a generation time of the detection target sound to the image data. 前記画像処理部は、前記表示部への前記画像データの表示中に、前記検出対象の音の前記発生時刻に近付くと、前記画像データに対して前記シーンモードに応じた前記演出用画像処理を行って前記表示部に表示することを特徴とする請求項8又は9記載の再生装置。   When the image processing unit approaches the generation time of the detection target sound while the image data is displayed on the display unit, the image processing unit performs the effect image processing according to the scene mode on the image data. The reproduction apparatus according to claim 8 or 9, wherein the reproduction apparatus performs the display on the display unit. 前記画像処理部は、前記検出対象の音の前記発生時刻を含む前又は後の時間帯のうちいずれか一方又は両方の時間帯に前記演出用画像処理を行うことを特徴とする請求項13記載の再生装置。   The said image processing part performs the said image process for effects in any one or both time slot | zones before or after the time slot | zone containing the said generation | occurrence | production time of the sound of the said detection object. Playback device. 前記画像処理部は、前記シーンモードに応じた前記演出用画像処理として前記画像データに対して時間的変化、色の三要素の変化、又は空間的な大きさの変化のうち少なくとも1つの変化を含む画像処理を行うことを特徴とする請求項8又は9記載の再生装置。   The image processing unit performs at least one of a temporal change, a three-color change, or a spatial change on the image data as the effect image processing according to the scene mode. The reproduction apparatus according to claim 8 or 9, wherein image processing is performed. 前記画像処理部は、前記演出用画像処理として前記画像データによる動画を一時的に静止する処理と、前記動画の再生スピードを変化させる処理と、前記画像データの輝度を変化させる処理と、前記画像データを拡大・縮小する処理とのうち少なくとも1を含む処理を行うことを特徴とする請求項15記載の再生装置。   The image processing unit is a process of temporarily stopping a moving image based on the image data as the effect image processing, a process of changing the reproduction speed of the moving image, a process of changing the luminance of the image data, and the image 16. The playback apparatus according to claim 15, wherein a process including at least one of processes for enlarging / reducing data is performed. 前記画像データの取得と共に、音声を収集して前記音声データとして出力する少なくとも1つのマイクロフォーンを有し、
前記音声解析部は、前記マイクロフォーンから出力される前記検出対象の音の少なくとも前記発生時刻を解析する、
ことを特徴とする請求項8記載の再生装置。
At least one microphone that collects sound and outputs it as the sound data together with the acquisition of the image data;
The voice analysis unit analyzes at least the generation time of the detection target sound output from the microphone;
9. A playback apparatus according to claim 8, wherein
前記マイクロフォーンは、2つ設けられ、
前記音声解析部は、前記2つのマイクロフォーンからそれぞれ出力される前記検出対象の各音の前記各発生時刻を解析すると共に、前記2つのマイクロフォーンのうち前記音声データに基づく音圧の大きい前記マイクロフォーンを解析する、
ことを特徴とする請求項17記載の再生装置。
Two microphones are provided,
The voice analysis unit analyzes the generation times of the sounds to be detected that are output from the two microphones, and the microphone having a high sound pressure based on the voice data among the two microphones. Analyze the phone,
The playback apparatus according to claim 17.
前記画像処理部は、前記音声解析部により解析された前記音圧の大きい前記マイクロフォーンに対応する前記画像データ中の画像部分に対して前記演出用画像処理を行うことを特徴とする請求項18記載の再生装置。   The image processing unit performs the effect image processing on an image portion in the image data corresponding to the microphone having the high sound pressure analyzed by the sound analysis unit. The reproducing apparatus as described. 前記画像処理部は、前記音声解析部により解析された前記音圧の大きい前記マイクロフォーン側に向かって前記画像データをスクロールすることを特徴とする請求項17記載の再生装置。   18. The reproducing apparatus according to claim 17, wherein the image processing unit scrolls the image data toward the microphone side having a high sound pressure analyzed by the sound analysis unit. 撮像により取得された画像データを表示する表示部と、
撮像により取得された画像データを記録すると共に、当該画像データの取得と共に録音される前記撮像時の音声データを記録するデータ記録部と、
前記撮像時のシーンモードを設定するシーンモード設定部と、
前記シーンモード設定部により設定された前記シーンモードに応じて前記データ記録部に記録されている前記音声データ中から検出対象の音の少なくとも発生時刻を解析する音声解析部と、
前記音声解析部の解析により取得された前記音声解析データに従って前記画像データに対して前記撮像時のシーンモードに応じた各種の演出用画像処理を行う画像処理部と、
を具備し、
前記画像処理部の前記演出用画像処理により得られた前記画像データを前記表示部に表示する、
を具備することを特徴とする記録再生装置。
A display unit for displaying image data acquired by imaging;
A data recording unit that records image data acquired by imaging, and that records audio data at the time of imaging that is recorded together with the acquisition of the image data;
A scene mode setting unit for setting a scene mode at the time of imaging;
A voice analysis unit that analyzes at least the generation time of the sound to be detected from the voice data recorded in the data recording unit according to the scene mode set by the scene mode setting unit;
An image processing unit that performs various image processings for production according to the scene mode at the time of image capturing on the image data in accordance with the audio analysis data acquired by the analysis of the audio analysis unit;
Comprising
Displaying the image data obtained by the effect image processing of the image processing unit on the display unit;
A recording / reproducing apparatus comprising:
前記音声解析部は、前記シーンモードに応じた種類の前記検出対象の音別に前記音声データを解析することを特徴とする請求項21記載の記録再生装置。   22. The recording / reproducing apparatus according to claim 21, wherein the sound analysis unit analyzes the sound data for each type of sound to be detected according to the scene mode. 前記音声解析部は、前記シーンモードの種類別に設定された前記検出対象の音の検出条件に従って前記音声データを解析することを特徴とする請求項22記載の記録再生装置。   23. The recording / reproducing apparatus according to claim 22, wherein the audio analysis unit analyzes the audio data according to a detection condition of the detection target sound set for each type of the scene mode. 前記音声解析部は、前記画像データを記録するときに、前記音声データから前記検出対象の音の少なくとも発生時刻を解析することを特徴とする請求項21記載の記録再生装置。   The recording / reproducing apparatus according to claim 21, wherein the sound analysis unit analyzes at least a generation time of the sound to be detected from the sound data when the image data is recorded. 前記音声解析部は、前記画像データを前記表示部に再生表示するときに、前記音声データから前記検出対象の音の少なくとも発生時刻を解析することを特徴とする請求項21記載の記録再生装置。   The recording / reproducing apparatus according to claim 21, wherein the sound analysis unit analyzes at least a generation time of the detection target sound from the sound data when the image data is reproduced and displayed on the display unit. 前記音声解析部は、複数チャネルの前記検出対象の音の少なくとも前記発生時刻を前記各チャネル別に解析することを特徴とする請求項21記載の記録再生装置。   The recording / reproducing apparatus according to claim 21, wherein the sound analysis unit analyzes at least the generation time of the sound to be detected in a plurality of channels for each channel. 前記音声解析部は、前記シーンモードに応じた種類の前記検出対象の音別で、かつ前記シーンモードの種類別に設定された前記検出対象の音の検出条件に従って前記音声データを解析して前記検出対象の音の少なくとも発生時刻を取得することを特徴とする請求項21記載の記録再生装置。   The sound analysis unit analyzes the sound data according to the detection condition of the detection target sound set according to the type of the scene mode and the detection target sound set according to the type of the scene mode. The recording / reproducing apparatus according to claim 21, wherein at least the time of occurrence of the sound is acquired. 前記画像処理部は、前記音声解析部の解析により取得された前記検出対象の音の少なくとも発生時刻に基づいて前記データ記録部に記録された前記画像データを再生するときに、前記シーンモードに応じた各種の演出用画像処理を前記画像データに付加するためのタイミングリストを作成することを特徴とする請求項21記載の記録再生装置。   The image processing unit responds to the scene mode when reproducing the image data recorded in the data recording unit based on at least the generation time of the detection target sound acquired by the analysis of the sound analysis unit. 23. The recording / reproducing apparatus according to claim 21, wherein a timing list for adding various image processings for effects to the image data is created. 前記画像データは、動画データを含むことを特徴とする請求項21記載の記録再生装置。   The recording / reproducing apparatus according to claim 21, wherein the image data includes moving image data. 前記画像処理部は、前記表示部への前記画像データの表示中に、前記検出対象の音の前記発生時刻に近付くと、前記画像データに対して前記シーンモードに応じた前記演出用画像処理を行って前記表示部に表示することを特徴とする請求項21記載の記録再生装置。   When the image processing unit approaches the generation time of the detection target sound while the image data is displayed on the display unit, the image processing unit performs the effect image processing according to the scene mode on the image data. 23. The recording / reproducing apparatus according to claim 21, wherein the recording / reproducing apparatus performs display on the display unit. 前記画像処理部は、前記検出対象の音の前記発生時刻を含む前又は後の時間帯のうちいずれか一方又は両方の時間帯に前記演出用画像処理を行うことを特徴とする請求項30記載の記録再生装置。   31. The image processing section performs the effect image processing in one or both of a time zone before and after a time zone including the generation time of the detection target sound. Recording and playback device. 前記画像処理部は、前記シーンモードに応じた前記演出用画像処理として前記画像データに対して時間的変化、色の三要素の変化、又は空間的な大きさの変化のうち少なくとも1つの変化を含む画像処理を行うことを特徴とする請求項21記載の記録再生装置。   The image processing unit performs at least one of a temporal change, a three-color change, or a spatial change on the image data as the effect image processing according to the scene mode. The recording / reproducing apparatus according to claim 21, wherein the image processing includes image processing. 前記画像処理部は、前記演出用画像処理として前記画像データによる動画を一時的に静止する処理、前記動画の再生速度を変化させる処理、前記画像データの輝度を変化させる処理、前記画像データを拡大・縮小する処理のうち少なくとも1を含む処理を行うことを特徴とする請求項32記載の記録再生装置。   The image processing unit is a process of temporarily stopping a moving image based on the image data as the effect image processing, a process of changing the reproduction speed of the moving image, a process of changing the brightness of the image data, and enlarging the image data 33. The recording / reproducing apparatus according to claim 32, wherein a process including at least one of the reducing processes is performed. 前記音声解析部は、前記シーンモードの種類別に、前記検出対象の音と、当該前記検出対象の音を検出するための検出条件とが予め設定されていることを特徴とする請求項21記載の記録再生装置。   The sound analysis unit according to claim 21, wherein the detection target sound and a detection condition for detecting the detection target sound are preset for each type of the scene mode. Recording / playback device. 前記音声解析部は、前記検出対象の音の少なくとも発生時刻を前記画像データに添付することを特徴とする請求項21記載の記録再生装置。   The recording / reproducing apparatus according to claim 21, wherein the sound analysis unit attaches at least the generation time of the sound to be detected to the image data. 前記画像データの取得と共に、音声を収集して前記音声データとして出力する少なくとも1つのマイクロフォーンを有し、
前記音声解析部は、前記マイクロフォーンから出力される前記音声データの少なくとも前記発生時刻を解析する、
ことを特徴とする請求項21記載の記録再生装置。
At least one microphone that collects sound and outputs it as the sound data together with the acquisition of the image data;
The voice analysis unit analyzes at least the generation time of the voice data output from the microphone;
The recording / reproducing apparatus according to claim 21, wherein:
前記マイクロフォーンは、2つ設けられ、
前記音声解析部は、前記2つのマイクロフォーンからそれぞれ出力される前記各音声データの前記各発生時刻を解析すると共に、前記2つのマイクロフォーンのうち前記音声データに基づく音圧の大きい前記マイクロフォーンを解析する、
ことを特徴とする請求項36記載の記録再生装置。
Two microphones are provided,
The sound analysis unit analyzes the generation times of the sound data respectively output from the two microphones, and selects the microphone having a high sound pressure based on the sound data from the two microphones. To analyze,
37. The recording / reproducing apparatus according to claim 36.
前記画像処理部は、前記音声解析部により解析された前記音圧の大きい前記マイクロフォーンに対応する前記画像データ中の画像部分に対して前記演出用画像処理を行うことを特徴とする請求項37記載の記録再生装置。   The image processing section performs the effect image processing on an image portion in the image data corresponding to the microphone having the high sound pressure analyzed by the sound analysis section. The recording / reproducing apparatus as described. 前記画像処理部は、前記音声解析部により解析された前記音圧の大きい前記マイクロフォーン側に向かって前記画像データをスクロールすることを特徴とする請求項37記載の再生装置。   38. The reproducing apparatus according to claim 37, wherein the image processing unit scrolls the image data toward the microphone side having a high sound pressure analyzed by the sound analysis unit.
JP2011054351A 2011-03-11 2011-03-11 Recording device, playback device, and recording/playback device Withdrawn JP2012191502A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011054351A JP2012191502A (en) 2011-03-11 2011-03-11 Recording device, playback device, and recording/playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011054351A JP2012191502A (en) 2011-03-11 2011-03-11 Recording device, playback device, and recording/playback device

Publications (1)

Publication Number Publication Date
JP2012191502A true JP2012191502A (en) 2012-10-04

Family

ID=47084173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011054351A Withdrawn JP2012191502A (en) 2011-03-11 2011-03-11 Recording device, playback device, and recording/playback device

Country Status (1)

Country Link
JP (1) JP2012191502A (en)

Similar Documents

Publication Publication Date Title
JP4986886B2 (en) Imaging apparatus, image reproducing apparatus, imaging control method, and image reproducing method
JP2006345485A (en) Image sensing apparatus and its control method
JP4993012B2 (en) Imaging apparatus and image processing apparatus
JP2004312495A (en) Image processing program and image processor
JP2001197445A (en) Image reproducing device and digital camera
JP2007089186A (en) Mobile communication terminal having function of photographing moving picture, and method for operating the same
JP5743512B2 (en) Imaging apparatus and control method thereof
JP2006261953A (en) Recording and reproducing device, its controlling method, and imaging apparatus
JP2011250103A (en) Reproducing apparatus
JP2009218900A (en) Imaging apparatus, motion picture recording and playback method, and program
JP2013046125A (en) Imaging apparatus
JP4915978B2 (en) Movie playback apparatus and program thereof
JP6952584B2 (en) Imaging device, imaging method and imaging program
JP2012191502A (en) Recording device, playback device, and recording/playback device
JP2008097727A (en) Animation-reproducing device
JP2008306587A (en) Photographing device, image recording method, and program
JP2014086869A (en) Digital camera
JP4013433B2 (en) Image reproducing apparatus and digital camera
JP5593652B2 (en) Camera and movie playback program
JP4322144B2 (en) Image shooting device
JP5589615B2 (en) Imaging device
JP2006174086A (en) Image recording reproducing device and image recording reproducing method
JP2010239363A (en) Moving image processing device, moving image reproduction method, moving image recording method, and program
JP2004297658A (en) Image processing program and apparatus
JP5753569B2 (en) Image reproduction apparatus and image reproduction apparatus reproduction method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513