JP5375165B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5375165B2
JP5375165B2 JP2009036650A JP2009036650A JP5375165B2 JP 5375165 B2 JP5375165 B2 JP 5375165B2 JP 2009036650 A JP2009036650 A JP 2009036650A JP 2009036650 A JP2009036650 A JP 2009036650A JP 5375165 B2 JP5375165 B2 JP 5375165B2
Authority
JP
Japan
Prior art keywords
image
audio
data
audio data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009036650A
Other languages
Japanese (ja)
Other versions
JP2010193274A (en
Inventor
恵一 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009036650A priority Critical patent/JP5375165B2/en
Publication of JP2010193274A publication Critical patent/JP2010193274A/en
Application granted granted Critical
Publication of JP5375165B2 publication Critical patent/JP5375165B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像に関連付けた音声を記録することができる撮像装置に関するものである。   The present invention relates to an imaging apparatus capable of recording sound associated with an image.

画像を撮像し、画像の記録処理後に所定時間以上シャッタボタンが押されたままである場合には、画像を再生すると共に音声メモの録音を行い、音声データを静止画と対応させて記録する撮像装置が知られている(例えば、特許文献1参照)。   An imaging device that captures an image and records the audio data in association with the still image by reproducing the image and recording the voice memo when the shutter button is kept pressed for a predetermined time or longer after the image recording process Is known (see, for example, Patent Document 1).

特開平9−322043号公報Japanese Patent Laid-Open No. 9-322043

しかし、この撮像装置においては1枚の画像ファイルに対して1つの音声データのみしか対応付けることができなかった。   However, in this imaging apparatus, only one audio data can be associated with one image file.

本発明の目的は、1枚の画像ファイルに対して複数の音声データを対応付けた録音、記録を行うことである。   An object of the present invention is to perform recording and recording in which a plurality of audio data are associated with one image file.

本発明の撮像装置は、被写体を撮像して画像データを出力する撮像部と、前記撮像部により撮像された画像内の顔領域を検出し、前記顔領域の位置情報を生成する顔検出部と、前記画像データ及び前記位置情報を記憶する記憶部と、前記記憶部から前記画像データを読み出し、前記画像データに基づく画像を表示する表示部と、前記表示部に表示された前記画像の一部をタッチするタッチパネルと、音声データを取得する音声データ取得部と、前記音声データ取得部により取得した音声データを記録する音声記録部と、前記音声記録部に記録されている前記音声データに基づく音声を再生する音声再生部とを備え、前記音声記録部により前記音声データの記録を行う場合に、前記表示部に前記画像データに基づく画像を表示すると共に前記画像内に前記位置情報が示す顔領域を認識可能に表示し、前記タッチパネルにより前記画像内の前記顔領域の何れかが選択されたとき、選択された前記画像内の前記顔領域に吹き出しを表示し、前記タッチパネルにより前記画像内の吹き出しがタッチされたとき、前記音声データ取得部による音声データの取得を開始し、前記画像内の前記吹き出しの表示形態を変更して前記音声データの記録中である旨を表示し、前記タッチパネルにより前記吹き出しが再度タッチされたとき、あるいは所定時間が経過したとき、前記音声データ取得部による前記音声データの取得を終了し、前記音声データ取得部により取得した前記音声データを前記タッチパネルにより選択された前記顔領域の位置情報に対応付けて前記音声記録部に記録し、前記音声データを前記顔領域の位置情報に対応付けて記録した場合に、前記音声データが対応付けられた前記位置情報が示す前記画像内の前記顔領域またはその近傍に、前記音声データが前記位置情報に対応付けて記録されている旨を表示し、前記音声データの再生を行う場合に、前記タッチパネルにより前記表示部に表示されている前記画像内の前記顔領域またはその近傍がタッチされたとき、前記顔領域の前記位置情報に対応付けられた前記音声データに基づく音声を前記音声再生部により再生することを特徴とする。

An imaging apparatus according to the present invention includes an imaging unit that images a subject and outputs image data, a face detection unit that detects a face area in the image captured by the imaging unit, and generates position information of the face area; A storage unit that stores the image data and the position information; a display unit that reads the image data from the storage unit and displays an image based on the image data; and a part of the image displayed on the display unit A touch panel for touching, an audio data acquisition unit for acquiring audio data, an audio recording unit for recording audio data acquired by the audio data acquisition unit, and audio based on the audio data recorded in the audio recording unit And when the audio recording unit records the audio data, the display unit displays an image based on the image data and the image data. The face region indicated position information is recognizably displayed within, when said one of said face region in an image is selected, and displays the balloon to the face area in the selected said image by said touch panel When the balloon in the image is touched by the touch panel, the voice data acquisition unit starts acquiring voice data, and the voice data is being recorded by changing the display form of the balloon in the image. When the balloon is touched again by the touch panel or when a predetermined time has elapsed, the acquisition of the audio data by the audio data acquisition unit is terminated, and the audio acquired by the audio data acquisition unit Data is recorded in the voice recording unit in association with position information of the face area selected by the touch panel, and the voice data is recorded. Is recorded in association with the position information of the face area, the audio data corresponds to the position information in or near the face area in the image indicated by the position information associated with the audio data. When the voice data is reproduced and the audio data is reproduced, when the face area in the image displayed on the display unit or its vicinity is touched by the touch panel, the face is displayed. The sound based on the sound data associated with the position information of the area is reproduced by the sound reproduction unit.

本発明の撮像装置によれば、1枚の画像ファイルに対して複数の音声データを対応付けた録音、記録を行うことができる。   According to the imaging apparatus of the present invention, recording and recording in which a plurality of audio data are associated with one image file can be performed.

本発明の第1の実施の形態に係るカメラの背面を示す斜視図である。It is a perspective view which shows the back surface of the camera which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るカメラのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of the camera which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る録音処理を示すフローチャートである。It is a flowchart which shows the recording process which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るデータ記憶部に記録された画像ファイル及び音声ファイルを説明するための図である。It is a figure for demonstrating the image file and audio | voice file which were recorded on the data storage part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るデータ記憶部に記録された画像ファイル及び音声ファイルを説明するための図である。It is a figure for demonstrating the image file and audio | voice file which were recorded on the data storage part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る再生処理を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration processing based on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係るカメラのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of the camera which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る録音処理を示すフローチャートである。It is a flowchart which shows the recording process which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るマトリックスを示す図である。It is a figure which shows the matrix which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る再生処理を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration processing based on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るLCD表示部の表示を示す図である。It is a figure which shows the display of the LCD display part which concerns on the 2nd Embodiment of this invention.

以下、図面を参照して本発明の第1の実施の形態に係るカメラについて説明する。図1は第1の実施の形態に係るカメラの背面を示す斜視図である。カメラ2の前面には図示しない撮影レンズが備えられ、上面にはカメラ2の電源のオン・オフを行う電源スイッチ6、レリーズ動作を指示するシャッタボタン8が備えられている。また、カメラ2の背面には撮像された画像の表示等を行うLCD表示部10、LCD表示部10に積層して配置され表示された画像の一部を指定するタッチセンサ12、再生画像の選択等を行うマルチセレクタ14、画像の再生を指示する再生ボタン16、画像の再生の停止を指示する停止ボタン18、画像のみを再生する画像再生モードと音声と共に画像を再生する音声再生モードとを切り替えるモード切替ボタン20、音声を取得するためのマイク22、音声を再生するスピーカ24が備えられている。   A camera according to a first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view showing the back surface of the camera according to the first embodiment. A photographing lens (not shown) is provided on the front surface of the camera 2, and a power switch 6 for turning on / off the power of the camera 2 and a shutter button 8 for instructing a release operation are provided on the upper surface. In addition, on the back of the camera 2, an LCD display unit 10 that displays a captured image, a touch sensor 12 that specifies a part of the image that is arranged and displayed on the LCD display unit 10, and a selection of a reproduction image A multi-selector 14 for performing image reproduction, a playback button 16 for instructing image reproduction, a stop button 18 for instructing to stop image reproduction, and switching between an image reproduction mode for reproducing only an image and an audio reproduction mode for reproducing an image together with sound. A mode switching button 20, a microphone 22 for acquiring sound, and a speaker 24 for reproducing sound are provided.

図2は第1の実施の形態に係るカメラのシステム構成を示すブロック図である。カメラ2にはCPU26が設けられており、CPU26には、操作部28、LCD表示部10の表示を制御する表示制御部30、タッチセンサ12、撮影レンズを介した被写体光を撮像して撮像信号(蓄積電荷としてのアナログ信号)を生成するCCD或いはCMOS等により構成される撮像素子32、撮像素子32から出力された撮像信号を図示しないA/D変換部においてA/D変換することにより生成された画像データを一時的に記憶する内蔵メモリ34、撮像素子32から出力される撮像信号に基づく画像データに、ホワイトバランス調整、輪郭補償、ガンマ補正等の画像処理を行う画像処理部36、画像データから特徴点を抽出することにより検出された被写体の顔領域、顔の大きさ等の顔認識データから顔領域の位置情報を生成する顔検出部38、音声データを取得するためのマイク22、音声の再生を行うスピーカ24を制御する音声再生制御部40、撮影画像データ及びマイク22により取得し図示しないA/D変換部によりA/D変換した音声データを記憶するメモリカード42が接続されている。ここで、操作部28は、電源スイッチ6、シャッタボタン8、マルチセレクタ14、再生ボタン16、停止ボタン18、モード切替ボタン20を備えている。また、CPU26には、顔認識データを有する1枚の画像ファイルに対して複数の音声データを対応付けた録音、記録を行うプログラム、また、複数の音声データを対応付けて録音、記録した画像ファイル及び音声ファイルの再生を行うプログラムが予め組み込まれている。   FIG. 2 is a block diagram showing a system configuration of the camera according to the first embodiment. The camera 2 is provided with a CPU 26. The CPU 26 captures subject light via the operation unit 28, the display control unit 30 that controls the display of the LCD display unit 10, the touch sensor 12, and the photographing lens, and captures an image signal. (Analog signal as stored charge) is generated by CCD / CMOS or the like, and an A / D converter (not shown) performs A / D conversion on an imaging signal output from the imaging element 32. A built-in memory 34 that temporarily stores the image data, an image processing unit 36 that performs image processing such as white balance adjustment, contour compensation, and gamma correction on the image data based on the imaging signal output from the imaging device 32, and image data Position information of face area is generated from face recognition data such as face area and face size detected by extracting feature points from The face detection unit 38, the microphone 22 for acquiring audio data, the audio reproduction control unit 40 for controlling the speaker 24 for reproducing audio, and the A / D conversion unit (not shown) A memory card 42 for storing audio data that has been / D converted is connected. Here, the operation unit 28 includes a power switch 6, a shutter button 8, a multi-selector 14, a playback button 16, a stop button 18, and a mode switching button 20. Further, the CPU 26 stores a program for recording and recording a plurality of audio data in association with one image file having face recognition data, and an image file recorded and recorded in association with a plurality of audio data. And a program for reproducing an audio file is incorporated in advance.

次に、図3に示すフローチャートを参照して、第1の実施の形態に係るカメラの録音処理について説明する。まず、第1の実施の形態に係るカメラ2により撮像を行う際に顔検出部38により人物の顔を検出した場合には、検出した人物毎にその人物の顔領域の位置情報を顔認識データとして撮影画像の画像データと共にメモリカード42に記憶する。このとき、複数の人物を検出した場合には、例えば番号を付すことにより、それぞれの人物が識別可能となるようにし、また、例えば、顔領域の位置情報はExif形式のファイルのタグ情報として記憶される。   Next, the recording process of the camera according to the first embodiment will be described with reference to the flowchart shown in FIG. First, when a face of a person is detected by the face detection unit 38 when imaging is performed by the camera 2 according to the first embodiment, the position information of the face area of the person is detected for each detected person. And stored in the memory card 42 together with the image data of the photographed image. At this time, when a plurality of persons are detected, for example, a number is assigned so that each person can be identified. For example, the position information of the face area is stored as tag information of an Exif format file. Is done.

マルチセレクタ14の操作により撮影画像が選択されると選択された撮影画像をメモリカード42から読み出し、読み出した画像44を例えば、図4に示すようにLCD表示部10に表示する(ステップS1)。画像44の画像データには顔認識データとして人物46,48,50の顔領域の位置情報が記憶されている。従って、図5に示すように顔領域の位置情報により示される人物の顔に枠52を表示する、また、人物の顔をカラー表示しそれ以外の領域をグレースケールで表示する等、人物の顔の位置を認識可能に表示してもよい。   When a captured image is selected by operating the multi selector 14, the selected captured image is read from the memory card 42, and the read image 44 is displayed on the LCD display unit 10 as shown in FIG. 4, for example (step S1). In the image data of the image 44, position information of the face areas of the persons 46, 48, and 50 is stored as face recognition data. Accordingly, as shown in FIG. 5, the frame 52 is displayed on the face of the person indicated by the position information of the face area, the face of the person is displayed in color, and the other area is displayed in gray scale. May be displayed in a recognizable manner.

次に、LCD表示部10に表示された画像の何れかの領域がユーザの指等によりタッチされたか否かを判定する(ステップS2)。タッチされない場合には画像の再生を継続する。タッチされた場合にはタッチセンサ12により検出された領域が顔領域の位置情報により示される領域と一致するか否かを判定する(ステップS3)。タッチされた領域が顔領域の位置情報により示される領域と一致しない場合には画像の再生を継続する。   Next, it is determined whether or not any region of the image displayed on the LCD display unit 10 is touched by the user's finger or the like (step S2). If it is not touched, image playback continues. If touched, it is determined whether the area detected by the touch sensor 12 matches the area indicated by the position information of the face area (step S3). If the touched area does not match the area indicated by the position information of the face area, the image reproduction is continued.

タッチされた領域が顔領域の位置情報により示される領域と一致する場合には、例えば図6に示すように、顔領域の位置情報が示す人物46の顔に吹き出し54を表示し(ステップS4)、吹き出し54がタッチされたか否かを判定する(ステップS5)。吹き出し54がタッチされない場合には、所定時間経過したか否かを判定し(ステップS6)、例えば10秒等、所定時間が経過した場合には吹き出し54の表示を中止し、画像の再生を継続する。 When the touched area matches the area indicated by the position information of the face area, for example, as shown in FIG. 6, a balloon 54 is displayed on the face of the person 46 indicated by the position information of the face area (step S4). Then, it is determined whether or not the balloon 54 has been touched (step S5). When the balloon 54 is not touched, it is determined whether or not a predetermined time has elapsed (step S6). When the predetermined time has elapsed, for example, 10 seconds, the display of the balloon 54 is stopped and image reproduction is continued. To do.

吹き出し54がユーザの指等によりタッチされた場合には、タッチセンサ12により検出し、マイク22により取得した音声の録音を開始する(ステップS7)。録音中も録音中である旨と共に吹き出し54は表示され、さらに吹き出しがタッチされたか判定する(ステップS8)。ここで、録音中である旨は吹き出し54の点滅等により表示する。そして、吹き出し54がタッチされた場合には録音を終了する(ステップS10)。また、吹き出し54がタッチされない場合には所定時間が経過したか否かを判定し(ステップS9)、所定時間が経過していない場合には録音を継続し、所定時間が経過した場合には録音を終了する(ステップS10)。ここで、所定時間には例えば、メモリカード42に音声データを記録可能な最長時間、ユーザまたはプリセットにより設定した最長録音時間を用いる。   When the balloon 54 is touched with a user's finger or the like, the sound is detected by the touch sensor 12 and recording of the voice acquired by the microphone 22 is started (step S7). A balloon 54 is displayed together with the fact that recording is in progress, and it is further determined whether or not the balloon has been touched (step S8). Here, the fact that recording is in progress is displayed by blinking of a balloon 54 or the like. When the balloon 54 is touched, the recording is finished (step S10). If the balloon 54 is not touched, it is determined whether or not a predetermined time has elapsed (step S9). If the predetermined time has not elapsed, recording is continued. If the predetermined time has elapsed, recording is performed. Is finished (step S10). Here, for example, the longest recording time that can be recorded in the memory card 42 or the longest recording time set by the user or preset is used as the predetermined time.

次に、録音された音声データを画像に関連付けてメモリカード42に記憶する。まず、録音した音声データが関連付けられる画像データに音声ファイルが既に作成されているか確認する(ステップS11)。   Next, the recorded audio data is stored in the memory card 42 in association with the image. First, it is confirmed whether an audio file has already been created in the image data associated with the recorded audio data (step S11).

音声ファイルが作成されていない場合には画像データに関連付けした音声ファイルを作成し(ステップS12)、録音した音声データを音声ファイルに記録する(ステップS13)。既に音声ファイルが作成されている場合には、その音声ファイルに録音した音声データを追加し記録する(ステップS13)。そして、その音声データに画像中の人物と対応するインデックスを付加する(ステップS14)。   If no audio file has been created, an audio file associated with the image data is created (step S12), and the recorded audio data is recorded in the audio file (step S13). If an audio file has already been created, the recorded audio data is added to the audio file and recorded (step S13). Then, an index corresponding to the person in the image is added to the audio data (step S14).

ステップS1〜14の処理においてLCD表示部10に再生表示した画像中の顔認識データを有する人物の内、指定された一の人物に対応した音声データの録音及び記録を行うが、さらに他の人物に対応した音声データの録音及び記録を行う場合には再度ステップS1に戻り画像の再生表示を行い、ステップS2において他の人物の指定を行い、ステップS3〜S14において他の人物に対応する音声データの録音、記録処理を行う。   Recording and recording of audio data corresponding to one designated person among the persons having face recognition data in the image reproduced and displayed on the LCD display unit 10 in the processing of steps S1 to 14 is performed. When recording and recording audio data corresponding to the above, the process returns to step S1 again to display and reproduce the image, specify another person in step S2, and audio data corresponding to the other person in steps S3 to S14. Recording and recording process.

なお、カメラ2で撮像した撮影画像の画像ファイルを例に説明したが、カメラ2で撮像した画像ファイルに限られず、他のカメラで撮像した画像ファイルであっても顔認識データを有していれば音声データを関連付けた音声ファイルの録音、記録を行うことができる。   In addition, although the image file of the picked-up image imaged with the camera 2 was demonstrated to the example, it is not restricted to the image file imaged with the camera 2, Even if it is an image file imaged with the other camera, it may have face recognition data. For example, an audio file associated with audio data can be recorded and recorded.

図7はメモリカード42に記録された画像ファイル及び音声ファイルを説明するための図である。メモリカード42に記録されるファイル、フォルダにはDCF規格に準拠するようにファイル名、フォルダ名が付される。   FIG. 7 is a diagram for explaining an image file and an audio file recorded on the memory card 42. Files and folders recorded on the memory card 42 are given file names and folder names so as to comply with the DCF standard.

メモリカード42にはフォルダ「100NIKON」、「101NIKON」が記憶され、フォルダ「100NIKON」には画像ファイル「DSCN0001.JPG」、「DSCN0002.JPG」、「DSCN0001.JPG」に関連付けされた音声ファイル「DSCN0001.WAV」が格納されている。このとき「DSCN0001.JPG」がステップS1において再生表示され、ステップS3〜S10の録音の過程を経た場合には、S11において音声ファイルが既に作成されていることが確認されるため、ステップS13において「DSCN0001.WAV」に録音した音声データを追加して記録する。そして、ステップS14においてステップS3で指定された一の人物の顔領域の位置情報と対応付けたインデックスを音声ファイル「DSCN0001.WAV」に記録した音声データに付加する。   The memory card 42 stores folders “100NIKON” and “101NIKON”. The folder “100NIKON” stores audio files “DSCN0001” associated with the image files “DSCN0001.JPG”, “DSCN0002.JPG”, and “DSCN0001.JPG”. .WAV "is stored. At this time, “DSCN0001.JPG” is reproduced and displayed in step S1, and when the recording process in steps S3 to S10 is performed, it is confirmed in S11 that an audio file has already been created. The recorded audio data is recorded in “DSCN0001.WAV”. In step S14, an index associated with the position information of the face area of the one person specified in step S3 is added to the audio data recorded in the audio file “DSCN0001.WAV”.

また、フォルダ「100NIKON」に画像ファイル「DSCN0001.JPG」、「DSCN0002.JPG」が格納され、音声ファイル「DSCN0001.WAV」が格納されていないときには、例えば、「DSCN0001.JPG」をステップS1において再生表示しステップS3〜S10の録音の過程を経た後に、S11において音声ファイルが作成されていないことを確認するため、ステップS12において画像ファイル「DSCN0001.JPG」に関連付けた音声ファイル「DSCN0001.WAV」を作成する。そして、ステップS13において「DSCN0001.WAV」に録音した音声データを記録し、ステップS14においてステップS3で指定された一の人物の顔領域の位置情報と対応付けたインデックスを音声ファイル「DSCN0001.WAV」に記録した音声データに付加する。   When the image files “DSCN0001.JPG” and “DSCN0002.JPG” are stored in the folder “100NIKON” and the audio file “DSCN0001.WAV” is not stored, for example, “DSCN0001.JPG” is reproduced in step S1. After the display and the recording process of steps S3 to S10, the audio file “DSCN0001.WAV” associated with the image file “DSCN0001.JPG” is checked in step S12 to confirm that no audio file is created in S11. create. In step S13, the voice data recorded in “DSCN0001.WAV” is recorded, and in step S14, the index associated with the position information of the face area of one person designated in step S3 is recorded in the voice file “DSCN0001.WAV”. To the audio data recorded in

なお、音声データを記録する際にDCF規格に準拠しない方式で行ってもよい。例えば、インデックスを音声データに付加せずに、人物毎に音声ファイルを作成することで音声データの記録を行う。この場合には図8に示すように音声ファイルを格納するフォルダ「SOUND」を作成しておく。   Note that the audio data may be recorded by a method that does not comply with the DCF standard. For example, audio data is recorded by creating an audio file for each person without adding an index to the audio data. In this case, a folder “SOUND” for storing the audio file is created as shown in FIG.

そして、「DSCN0001.JPG」をステップS1において再生表示し、「DSCN0001.JPG」に複数の顔認識データが記憶されているときに、ステップS2〜S10と同様の処理を経て指定された一の人物に対応する音声を録音した後に、音声データを記録する場合に指定された一の人物の顔領域の位置情報と対応付けたファイル名を付した音声ファイル「DSCN0001_01.WAV」をフォルダ「SOUND」内に作成する。ここで、「DSCN0001」は画像ファイル「DSCN0001.JPG」に関連付けられていることを、「_01」は「DSCN0001.JPG」の顔領域の位置情報が存在する人物の内、1人目の人物に対応することを示している。さらに他の人物に対応する音声データを記録する場合には、ステップS1〜ステップS10と同様の処理を経て指定された他の人物に対応する音声を録音した後、音声データを記録する際に指定された他の人物の顔領域の位置情報と対応付けたファイル名を付した音声ファイル「DSCN0001_02.WAV」をフォルダ「SOUND」内に作成する。   Then, “DSCN0001.JPG” is reproduced and displayed in step S1, and when a plurality of face recognition data are stored in “DSCN0001.JPG”, one person designated through the same processing as steps S2 to S10. After recording the voice corresponding to the voice file “DSCN0001 — 01.WAV” with the file name associated with the position information of the face area of one person designated when recording voice data in the folder “SOUND” To create. Here, “DSCN0001” is associated with the image file “DSCN0001.JPG”, and “_01” corresponds to the first person among the persons having the position information of the face area of “DSCN0001.JPG”. It shows that When recording voice data corresponding to another person, the voice data corresponding to the other person specified through steps S1 to S10 is recorded and then specified when recording the voice data. An audio file “DSCN0001 — 02.WAV” with a file name associated with the position information of the other person's face area is created in the folder “SOUND”.

次に、図9に示すフローチャートを参照して、第1の実施の形態に係るカメラの画像再生処理について説明する。マルチセレクタ14の操作により再生する撮影画像が選択されると(ステップS21)、選択された撮影画像をメモリカード42から読み出しLCD表示部10に表示し(ステップS22)、モード切替ボタン20が操作されたか否かを判定する(ステップS23)。モード切替ボタン20の操作がされない場合には画像再生モードであるため画像の表示を継続する。   Next, image playback processing of the camera according to the first embodiment will be described with reference to the flowchart shown in FIG. When a captured image to be reproduced is selected by operating the multi selector 14 (step S21), the selected captured image is read from the memory card 42 and displayed on the LCD display unit 10 (step S22), and the mode switching button 20 is operated. It is determined whether or not (step S23). When the mode switching button 20 is not operated, the image display mode is continued because the image reproduction mode is set.

モード切替ボタン20が操作された場合には音声再生モードに切り替え、表示されている画像の画像ファイルに関連付けされた音声ファイルがメモリカード42に記憶されているか確認する(ステップS24)。画像ファイルに関連付けされた音声ファイルが記憶されていない場合には画像の表示を継続する。画像ファイルに関連付けされた音声ファイルがメモリカード42に記憶されていることを確認した場合には、LCD表示部10に表示されている画像において対応する音声データが記録されている人物に音符マークを表示する(ステップS25)。例えば、図10に示すように、画像44において人物46,50に対応付けられた音声データがある場合に、人物46,50に音符マーク56を表示する。   When the mode switching button 20 is operated, the mode is switched to the audio reproduction mode, and it is confirmed whether the audio file associated with the image file of the displayed image is stored in the memory card 42 (step S24). If the audio file associated with the image file is not stored, the image display is continued. When it is confirmed that the audio file associated with the image file is stored in the memory card 42, a note mark is added to the person whose corresponding audio data is recorded in the image displayed on the LCD display unit 10. Displayed (step S25). For example, as shown in FIG. 10, when there is audio data associated with the persons 46 and 50 in the image 44, a musical note mark 56 is displayed on the persons 46 and 50.

そして、ユーザは音符マークが表示されている人物の顔をタッチして人物の指定を行う(ステップS26)。タッチされた人物に対応付けて記憶されている音声データの音声を音声再生制御部40を介してスピーカ24から再生する(ステップS27)。例えば、図10に示すようにLCD表示部10に表示されている場合に、人物46または人物50の顔がタッチされるとそれぞれの人物に対応付けられた音声データの音声を再生する。なお、人物48の顔がタッチされても音声の再生は行われない。   Then, the user specifies the person by touching the face of the person on which the note mark is displayed (step S26). The sound of the sound data stored in association with the touched person is reproduced from the speaker 24 via the sound reproduction control unit 40 (step S27). For example, when displayed on the LCD display unit 10 as shown in FIG. 10, when the face of the person 46 or the person 50 is touched, the sound of the sound data associated with each person is reproduced. Note that even if the face of the person 48 is touched, the sound is not reproduced.

第1の実施の形態に係るカメラによれば、顔認識データを有する1枚の画像ファイルに対して複数の音声データを対応付けることができる。   According to the camera of the first embodiment, a plurality of audio data can be associated with one image file having face recognition data.

次に、図面を参照して本発明の第2の実施の形態に係るカメラについて説明する。なお、この第2の実施の形態に係るカメラの構成は、第1の実施の形態に係るカメラ2の顔認識部を分割領域記憶部に変更したものである。従って、第1の実施の形態と同一の構成についての詳細な説明は省略し、異なる部分のみについて詳細に説明する。また、第1の実施の形態と同一の構成には同一の符号を付して説明する。   Next, a camera according to a second embodiment of the present invention will be described with reference to the drawings. The configuration of the camera according to the second embodiment is obtained by changing the face recognition unit of the camera 2 according to the first embodiment to a divided area storage unit. Therefore, a detailed description of the same configuration as that of the first embodiment is omitted, and only different portions will be described in detail. Further, the same components as those in the first embodiment will be described with the same reference numerals.

図11は第2の実施の形態に係るカメラのシステム構成を示すブロック図である。第2の実施の形態に係るカメラ58においてはCPU60に画像データを分割するためのマトリックスのパターンを記憶する分割領域記憶部62が接続されている。また、CPU60には、1枚の画像ファイルに対して複数の音声データを対応付けた録音、記録を行うプログラム、また、複数の音声データを対応付けて録音、記録した画像ファイル及び音声ファイルの再生を行うプログラムが予め組み込まれている。   FIG. 11 is a block diagram showing a system configuration of a camera according to the second embodiment. In the camera 58 according to the second embodiment, a divided area storage unit 62 that stores a matrix pattern for dividing image data is connected to the CPU 60. In addition, the CPU 60 has a recording and recording program in which a plurality of audio data is associated with one image file, and reproduction of an image file and an audio file recorded and recorded in association with a plurality of audio data. The program which performs is incorporated in advance.

次に、図12に示すフローチャートを参照して第2の実施の形態に係るカメラの録音処理について説明する。マルチセレクタ14の操作により選択された撮影画像をメモリカード42から読み出し、読み出した画像64を例えば、図13に示すようにLCD表示部10に表示する(ステップS31)。次に、LCD表示部10に表示された画像の何れかの領域がユーザの指等によりタッチされたか否かを判定する(ステップS32)。タッチされない場合には画像の再生を継続する。タッチされた場合にはタッチセンサ12により検出し、例えば図14に示す画像の領域を分割するためのマトリックス66を分割領域記憶部62から読み出す。図14に示すマトリックス66は分割領域記憶部62に記憶されたマトリックスの一例であり、画像を等しく16分割する場合のものである。また、マトリックスのそれぞれの分割領域は位置を示す番号または座標等により識別可能としている。そして、図15に示すように、マトリックス66をLCD表示部10に表示された画像64に対して重ねて表示する(ステップS33)。   Next, the recording process of the camera according to the second embodiment will be described with reference to the flowchart shown in FIG. The captured image selected by the operation of the multi-selector 14 is read from the memory card 42, and the read image 64 is displayed on the LCD display unit 10 as shown in FIG. 13, for example (step S31). Next, it is determined whether any area of the image displayed on the LCD display unit 10 is touched by the user's finger or the like (step S32). If it is not touched, image playback continues. When touched, it is detected by the touch sensor 12 and, for example, a matrix 66 for dividing the image area shown in FIG. 14 is read from the divided area storage unit 62. A matrix 66 shown in FIG. 14 is an example of a matrix stored in the divided area storage unit 62, and is an example in which an image is equally divided into 16. Each divided region of the matrix can be identified by a position number or coordinates. Then, as shown in FIG. 15, the matrix 66 is displayed so as to overlap the image 64 displayed on the LCD display unit 10 (step S33).

さらにタッチされた領域を含む分割領域に吹き出し54を表示する(ステップS34)。例えば、図16に示すように、タッチされた領域が鐘68を含む領域である場合に、鐘68を含む分割領域に吹き出し54を表示する。次に、吹き出し54がタッチされたか否かを判定する(ステップS35)。吹き出し54がタッチされない場合には、所定時間経過したか否かを判定し(ステップS36)、例えば10秒等、所定時間が経過した場合には吹き出しの表示を中止し、画像の再生を継続する。   Further, the balloon 54 is displayed in the divided area including the touched area (step S34). For example, as shown in FIG. 16, when the touched area is an area including the bell 68, the balloon 54 is displayed in the divided area including the bell 68. Next, it is determined whether or not the balloon 54 has been touched (step S35). When the balloon 54 is not touched, it is determined whether or not a predetermined time has elapsed (step S36). When the predetermined time has elapsed, for example, 10 seconds, the balloon display is stopped and image reproduction is continued. .

吹き出し54がユーザの指等によりタッチされた場合には、音声の録音を開始し、例えば鐘68の音を録音する(ステップS37)。なお、ステップS38〜S40における処理は、図3に示すフローチャートのステップS8〜S10における処理とそれぞれ同様の処理であるため、説明は省略する。   When the balloon 54 is touched by the user's finger or the like, recording of voice is started, for example, the sound of the bell 68 is recorded (step S37). Note that the processing in steps S38 to S40 is the same as the processing in steps S8 to S10 in the flowchart shown in FIG.

次に、録音した音声データを画像に関連付けてメモリカード42に記憶する処理を行うが、ステップS41〜S43における処理は、図3に示すフローチャートのステップS11〜S13における処理とそれぞれ同様の処理であるため説明は省略する。そして、記録した音声データに画像中の分割領域に対応するインデックスを付加する(ステップS44)。   Next, the recorded voice data is associated with the image and stored in the memory card 42. The processes in steps S41 to S43 are the same as the processes in steps S11 to S13 of the flowchart shown in FIG. Therefore, explanation is omitted. Then, an index corresponding to the divided area in the image is added to the recorded audio data (step S44).

ステップS31〜S44の処理により再生表示した画像中の一の分割領域に対応した音声データの録音及び記録を行うが、さらに他の分割領域に対応した音声データの録音及び記録を行う場合には再度ステップS31に戻り画像の再生表示を行い、ステップS32において画像の何れかの領域がタッチされた後、ステップS33においてマトリックスを重ねて表示しS34〜S44における音声の録音、記録処理を行う。   Recording and recording of audio data corresponding to one divided area in the image reproduced and displayed by the processing of steps S31 to S44 is performed. However, when recording and recording of audio data corresponding to another divided area is performed, the recording is performed again. Returning to step S31, the image is reproduced and displayed. After any area of the image is touched in step S32, the matrix is overlaid and displayed in step S33, and sound recording and recording processes in S34 to S44 are performed.

なお、LCD表示部10に表示された画像にマトリックスを重ねて表示していないときにタッチセンサによりタッチされたことを検出し、タッチされた領域を含む分割領域に対応付けた音声データを記録する構成を例に説明したが、LCD表示部に表示した画像に重ねてマトリックスを表示した状態でタッチセンサによりタッチされたことを検出し、タッチされた分割領域に対応付けた音声データを記録する構成としてもよい。   Note that when the matrix displayed on the image displayed on the LCD display unit 10 is not superimposed, it is detected that the touch sensor is touched, and the audio data associated with the divided area including the touched area is recorded. The configuration has been described as an example, but it is detected that the touch sensor is touched in a state where the matrix is displayed over the image displayed on the LCD display unit, and audio data associated with the touched divided area is recorded. It is good.

次に、図17に示すフローチャートを参照して、第2の実施の形態に係るカメラの画像再生処理について説明する。S51〜S54における処理は図9に示すフローチャートにおけるS21〜S24の処理とそれぞれ同様の処理であるため説明は省略する。   Next, an image reproduction process of the camera according to the second embodiment will be described with reference to a flowchart shown in FIG. The processing in S51 to S54 is the same as the processing in S21 to S24 in the flowchart shown in FIG.

ステップS54において画像ファイルに関連付けされた音声ファイルがメモリカード42に記憶されていることを確認した場合には、LCD表示部10に表示されている画像において対応付けされた音声データがある分割領域に音符マークを表示する(ステップS55)。例えば、図18に示すように、画像64において鐘68を含む分割領域に対応付けされた音声データがある場合に、鐘68を含む分割領域に音符マーク56を表示する。   If it is confirmed in step S54 that the audio file associated with the image file is stored in the memory card 42, the audio data associated with the image displayed on the LCD display unit 10 is in a divided area. A note mark is displayed (step S55). For example, as shown in FIG. 18, when there is audio data associated with a divided area including the bell 68 in the image 64, a musical note mark 56 is displayed in the divided area including the bell 68.

そして、ユーザがタッチすることにより音符マークが表示されている分割領域が指定される(ステップS56)。タッチされた分割領域に対応付けて記憶されている音声データの音声を音声再生制御部40を介してスピーカ24から再生する(ステップS57)。例えば、図18に示すようにLCD表示部10に表示されている場合に、鐘68を含む分割領域がタッチされるとその分割領域に対応付けされた音声データの音声を再生する。なお、他の分割領域がタッチされた場合には、音声の再生は行われない。   Then, when the user touches, the divided area where the note mark is displayed is specified (step S56). The sound of the sound data stored in association with the touched divided area is reproduced from the speaker 24 via the sound reproduction control unit 40 (step S57). For example, when displayed on the LCD display unit 10 as shown in FIG. 18, when a divided area including the bell 68 is touched, the sound of the audio data associated with the divided area is reproduced. Note that when another divided area is touched, the sound is not reproduced.

第2の実施の形態に係るカメラによれば、顔認識データを有さない画像ファイルであっても1枚の画像ファイルに対して複数の音声データを対応付けることができる。従って、他のカメラで撮像した画像ファイルであっても、1枚の画像ファイルに対して複数の音声データを関連付けた音声ファイルの録音、記録を行うことができる。   According to the camera of the second embodiment, a plurality of audio data can be associated with one image file even if the image file does not have face recognition data. Therefore, even an image file captured by another camera can record and record an audio file in which a plurality of audio data is associated with one image file.

なお、第2の実施の形態において画像を等しく16分割するマトリックスを用いて説明したが、画像を分割する方法はこれに限られず、等しく9分割、25分割、36分割等してもよい。また、等しく分割しなくてもよく、ユーザが任意にマトリックスを設定してもよい。   Although the second embodiment has been described using a matrix that equally divides an image into 16 parts, the method of dividing an image is not limited to this, and it may be equally divided into 9 parts, 25 parts, 36 parts, and the like. Moreover, it does not need to divide equally and a user may set a matrix arbitrarily.

なお、上述の各実施の形態において、吹き出しを人物の顔、分割領域に表示する例を用いて説明したが、人物の顔、分割領域の周縁等の近傍に表示してもよい。   In each of the above-described embodiments, the description has been given using the example in which the balloon is displayed on the face of the person and the divided area. However, the balloon may be displayed in the vicinity of the face of the person and the periphery of the divided area.

また、上述の各実施の形態においては、タッチセンサにより接触が検出された人物の顔、分割領域に対応付けて音声を録音する構成を例に説明したが、マルチセレクタ等の操作により音声を対応付けて録音する人物の顔、分割領域を指定するようにしてもよい。また、録音された音声を再生する際も同様にマルチセレクタ等の操作により音声を対応付けて記録されている人物の顔、分割領域を指定するようにしてもよい。この場合に、録音または再生の際に指定された人物の顔、分割領域の色の変更等を行い、認識可能に表示する。   Further, in each of the above-described embodiments, the configuration in which the voice is recorded in association with the face of the person whose contact is detected by the touch sensor and the divided area has been described as an example, but the voice is supported by the operation of the multi selector or the like. A person's face to be recorded and a divided area may be designated. Similarly, when playing back the recorded voice, the face or divided area of the person recorded in association with the voice may be designated by operating the multi selector or the like. In this case, the face of the person designated at the time of recording or reproduction, the color of the divided area is changed, and the like is displayed so as to be recognized.

また、上述の各実施の形態においては、タッチセンサにより指によるLCD表示部への接触を検出する構成を例に説明したが、タッチペン等を用いてタッチペンの接触をタッチセンサが検出する構成としてもよい。   Further, in each of the above-described embodiments, the configuration in which the touch sensor detects contact with the LCD display unit by the touch sensor has been described as an example. However, the touch sensor may detect the touch pen contact using a touch pen or the like. Good.

また、上述の各実施の形態において、再生処理の際に音声データが対応付けられた人物の顔、分割領域に音符マークを表示する例を用いて説明したが、再生処理の際に音声データが対応付けられた人物の顔、分割領域をカラー表示しそれ以外をグレースケールで表示する等、音声データが対応付けられた人物の顔、分割領域が認識可能に表示する構成であればどのような表示でもよい。   Further, in each of the above-described embodiments, the explanation has been made using the example in which the musical mark is displayed on the face and the divided area of the person associated with the audio data at the time of the reproduction process. What is the configuration that displays the face and divided area of the person associated with the audio data in a recognizable manner, such as displaying the face and divided area of the associated person in color and displaying the others in grayscale? It may be displayed.

また、上述の各実施の形態においてはカメラを例に説明したが、メモリカード等の記憶媒体から読み込んだ画像データを液晶ディスプレイ等で構成される表示部に表示させるデジタルフォトフレーム等でもよい。   In each of the above-described embodiments, a camera has been described as an example. However, a digital photo frame or the like that displays image data read from a storage medium such as a memory card on a display unit including a liquid crystal display may be used.

また、上述の各実施の形態においては、カメラに予め組み込まれたプログラムを用いて1枚の画像ファイルに関連付けた複数の音声データの録音、記録及び複数の音声データが関連付けされた画像ファイルの再生の処理を行っているが、該プログラムをインターネット等のネットワークを介してダウンロードし、コンピュータに組み込むことによって、上述の録音、記録及び再生処理を行うことができるようにコンピュータを機能させるようにしてもよい。   Further, in each of the above-described embodiments, recording and recording of a plurality of audio data associated with one image file and reproduction of the image file associated with the plurality of audio data using a program pre-installed in the camera. However, by downloading the program via a network such as the Internet and incorporating it into the computer, the computer can be made to function so that the recording, recording, and playback processes described above can be performed. Good.

また、該プログラムはフレキシブルディスク、CD−ROM、DVD等のコンピュータ読み取り可能な記録媒体に記録されていてもよい。即ち、コンピュータ読み取り可能な記録媒体から読み取り、コンピュータに組み込むことによって、上述の録音、記録及び再生処理を行うことができるようにコンピュータを機能させるようにしてもよい。   The program may be recorded on a computer-readable recording medium such as a flexible disk, a CD-ROM, or a DVD. That is, by reading from a computer-readable recording medium and incorporating it in the computer, the computer may function so that the above-described recording, recording, and reproduction processes can be performed.

2…カメラ、10…LCD表示部、12…タッチセンサ、22…マイク、24スピーカ、32…撮像素子、38…顔検出部、42…メモリカード、54…吹き出し、56…音符マーク、62…分割領域記憶部。 DESCRIPTION OF SYMBOLS 2 ... Camera, 10 ... LCD display part, 12 ... Touch sensor, 22 ... Microphone, 24 speaker, 32 ... Image sensor, 38 ... Face detection part, 42 ... Memory card, 54 ... Speech balloon, 56 ... Musical note mark, 62 ... Division Area storage unit.

Claims (1)

被写体を撮像して画像データを出力する撮像部と、
前記撮像部により撮像された画像内の顔領域を検出し、前記顔領域の位置情報を生成する顔検出部と、
前記画像データ及び前記位置情報を記憶する記憶部と、
前記記憶部から前記画像データを読み出し、前記画像データに基づく画像を表示する表示部と、
前記表示部に表示された前記画像の一部をタッチするタッチパネルと、
音声データを取得する音声データ取得部と、
前記音声データ取得部により取得した音声データを記録する音声記録部と、
前記音声記録部に記録されている前記音声データに基づく音声を再生する音声再生部と
を備え、
前記音声記録部により前記音声データの記録を行う場合に、前記表示部に前記画像データに基づく画像を表示すると共に前記画像内に前記位置情報が示す顔領域を認識可能に表示し、前記タッチパネルにより前記画像内の前記顔領域の何れかが選択されたとき、選択された前記画像内の前記顔領域に吹き出しを表示し、前記タッチパネルにより前記画像内の吹き出しがタッチされたとき、前記音声データ取得部による音声データの取得を開始し、前記画像内の前記吹き出しの表示形態を変更して前記音声データの記録中である旨を表示し、前記タッチパネルにより前記吹き出しが再度タッチされたとき、あるいは所定時間が経過したとき、前記音声データ取得部による前記音声データの取得を終了し、前記音声データ取得部により取得した前記音声データを前記タッチパネルにより選択された前記顔領域の位置情報に対応付けて前記音声記録部に記録し、
前記音声データを前記顔領域の位置情報に対応付けて記録した場合に、前記音声データが対応付けられた前記位置情報が示す前記画像内の前記顔領域またはその近傍に、前記音声データが前記位置情報に対応付けて記録されている旨を表示し、
前記音声データの再生を行う場合に、前記タッチパネルにより前記表示部に表示されている前記画像内の前記顔領域またはその近傍がタッチされたとき、前記顔領域の前記位置情報に対応付けられた前記音声データに基づく音声を前記音声再生部により再生することを特徴とする撮像装置。
An imaging unit for imaging a subject and outputting image data;
A face detection unit that detects a face area in an image captured by the imaging unit and generates position information of the face area;
A storage unit for storing the image data and the position information;
A display unit that reads the image data from the storage unit and displays an image based on the image data;
A touch panel for touching a part of the image displayed on the display unit;
An audio data acquisition unit for acquiring audio data;
An audio recording unit for recording the audio data acquired by the audio data acquisition unit;
An audio reproduction unit that reproduces audio based on the audio data recorded in the audio recording unit;
When the audio data is recorded by the audio recording unit, an image based on the image data is displayed on the display unit, and a face area indicated by the position information is displayed in the image so as to be recognizable. When any of the face areas in the image is selected , a speech bubble is displayed in the face area in the selected image, and when the speech balloon in the image is touched by the touch panel, the voice data acquisition Start to acquire voice data, change the display form of the balloon in the image to indicate that the voice data is being recorded, and when the balloon is touched again by the touch panel, or predetermined when the time has elapsed, before said voice data acquisition unit terminates the acquisition of audio data, acquired by the speech data acquiring unit In association with audio data on the position information of the face area selected by the touch panel was recorded to the audio recording portion,
When the audio data is recorded in association with the position information of the face area, the audio data is located at or near the face area in the image indicated by the position information associated with the audio data. Display that it is recorded in association with the information,
When reproducing the audio data, when the face area in the image displayed on the display unit or the vicinity thereof is touched by the touch panel, the position information associated with the position information of the face area is touched. An imaging apparatus, wherein audio based on audio data is reproduced by the audio reproduction unit.
JP2009036650A 2009-02-19 2009-02-19 Imaging device Expired - Fee Related JP5375165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009036650A JP5375165B2 (en) 2009-02-19 2009-02-19 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009036650A JP5375165B2 (en) 2009-02-19 2009-02-19 Imaging device

Publications (2)

Publication Number Publication Date
JP2010193274A JP2010193274A (en) 2010-09-02
JP5375165B2 true JP5375165B2 (en) 2013-12-25

Family

ID=42818819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009036650A Expired - Fee Related JP5375165B2 (en) 2009-02-19 2009-02-19 Imaging device

Country Status (1)

Country Link
JP (1) JP5375165B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5865774B2 (en) * 2012-05-02 2016-02-17 京セラ株式会社 Electronic device, control method, and control program
JP7236914B2 (en) * 2019-03-29 2023-03-10 日本放送協会 Receiving device, distribution server and receiving program
CN116887015A (en) * 2020-09-30 2023-10-13 荣耀终端有限公司 Audio processing method and electronic equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200682A (en) * 1996-01-12 1997-07-31 Nippon Lsi Card Kk Portable terminal equipment and video audio information recording method using it
JPH11177928A (en) * 1997-12-10 1999-07-02 Sanyo Electric Co Ltd Information recording and reproducing device
JP2000261752A (en) * 1999-03-05 2000-09-22 Hewlett Packard Co <Hp> Device for recording and reproducing image having sound
JP2005020654A (en) * 2003-06-30 2005-01-20 Minolta Co Ltd Imaging device and method for imparting comment information to image
JP2006135763A (en) * 2004-11-08 2006-05-25 Fuji Photo Film Co Ltd Photographing apparatus
JP2008158788A (en) * 2006-12-22 2008-07-10 Fujifilm Corp Information processing device and method

Also Published As

Publication number Publication date
JP2010193274A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
KR101460612B1 (en) Digital image processing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP2007174378A (en) Image filing method, digital camera, image filing processing program, and moving picture recording and reproducing device
JP2005318125A (en) Method for dividing and recording data, method for dividing and recording data of electronic camera, and the electronic camera
TWI272480B (en) Image recording device and method
KR101523971B1 (en) Terminal executing function of voice recording and method for processing image thereof
JP5375165B2 (en) Imaging device
JPH10108123A (en) Image reproduction device
JP4066794B2 (en) Image data storage method, image data storage / reproduction method, and imaging apparatus
JP2003348432A (en) Digital still camera
JP5509781B2 (en) Imaging device
JP5164603B2 (en) Playback device
KR101366255B1 (en) Digital image processing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP2007067949A (en) Image reproducing system image reproducing apparatus, imaging device and information processor
JP4577012B2 (en) Audio image reproduction apparatus, audio image reproduction method, and program
US8947559B2 (en) Recorder and player
JP2014115982A (en) Photographing device, security release method and program
JP4213840B2 (en) Portable image reproducing apparatus and operation control method thereof, and portable imaging apparatus and operation control method thereof
JP4163655B2 (en) Image display device
JP4402510B2 (en) Image display device
JP2006254389A (en) Imaging apparatus, and image reproducing apparatus and program
JPH11275512A (en) Digital camera
JP4616895B2 (en) Digital still camera with music playback function and image music playback device
JP2012194347A (en) Sound reproduction device and imaging apparatus
JP2006121485A (en) Digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R150 Certificate of patent or registration of utility model

Ref document number: 5375165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees