JP2020191524A - Imaging apparatus, control method, and program - Google Patents

Imaging apparatus, control method, and program Download PDF

Info

Publication number
JP2020191524A
JP2020191524A JP2019095296A JP2019095296A JP2020191524A JP 2020191524 A JP2020191524 A JP 2020191524A JP 2019095296 A JP2019095296 A JP 2019095296A JP 2019095296 A JP2019095296 A JP 2019095296A JP 2020191524 A JP2020191524 A JP 2020191524A
Authority
JP
Japan
Prior art keywords
frame rate
audio data
shooting
data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019095296A
Other languages
Japanese (ja)
Inventor
勇真 内藤
Yuma Naito
勇真 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019095296A priority Critical patent/JP2020191524A/en
Publication of JP2020191524A publication Critical patent/JP2020191524A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus, a control method, and a program capable of synchronizing video data and audio data for each frame even when a capturing frame rate and a reproduction frame rate at the time of capturing a moving image are different from each other.SOLUTION: An imaging apparatus includes: an acquisition means configured to acquire video data and audio data at a capturing frame rate; a conversion means configured to convert the audio data on the basis of a ratio between a capturing frame rate and a reproduction frame rate; and a recording means configured to record the audio data converted by the conversion means along with the video data. The conversion means calculates the ratio between the capturing frame rate and the reproduction frame rate for each frame, and converts the audio data corresponding to the aforementioned frame on the basis of the calculated ratio.SELECTED DRAWING: Figure 4

Description

本発明は、撮像装置、制御方法およびプログラムに関する。 The present invention relates to imaging devices, control methods and programs.

近年、動画撮影を行うときに、撮影フレームレートと再生フレームレートとを設定する機能が搭載されている撮像装置が用いられている。撮影フレームレートと再生フレームレートとが同じ値に設定された場合、撮像装置は、撮影フレームレートで取得した映像データと音声データとを再生フレームレートで同期した状態で記録することができる。一方、撮影フレームレートと再生フレームレートとが異なる値に設定された場合、設定された再生フレームレートに合わせて記録する映像データのデータ量に対して、撮影フレームレートで取得した音声データのデータ量が過剰になるか、または不足する。このため、映像データと音声データとを再生フレームレートに合わせて記録する場合、映像データと音声データとの再生時間が等しくなるように変換する処理を行い、同期が保たれた状態で映像データと音声データとを記録する必要がある。 In recent years, an imaging device equipped with a function of setting a shooting frame rate and a playback frame rate has been used when shooting a moving image. When the shooting frame rate and the playback frame rate are set to the same value, the imaging device can record the video data and the audio data acquired at the shooting frame rate in a synchronized state at the playback frame rate. On the other hand, when the shooting frame rate and the playback frame rate are set to different values, the amount of audio data acquired at the shooting frame rate is relative to the amount of video data recorded according to the set playback frame rate. Is excessive or insufficient. For this reason, when recording video data and audio data according to the playback frame rate, a process is performed to convert the video data and audio data so that the playback times are equal, and the video data and the audio data are synchronized with each other. It is necessary to record audio data.

関連する技術として、特許文献1の技術が提案されている。特許文献1の技術は、音響データと動画データを複数の区間に分割し、分割された区間ごとに音響データと動画データの圧縮伸長の度合いを決定するパラメータ時系列を決定する。また、上記技術は、分割された音響データを等間隔の入力フレームに分割し、パラメータ時系列に基づいて出力フレーム長を決定することで、音響データに関して圧縮伸長前の音響データと圧縮伸長後の音響データの間での同期ポイントの対応表を出力する。そして、上記技術は、対応表に基づいて音響データを圧縮伸長し、対応表に基づいて動画データを圧縮伸長する。 As a related technique, the technique of Patent Document 1 has been proposed. The technique of Patent Document 1 divides acoustic data and moving image data into a plurality of sections, and determines a parameter time series for determining the degree of compression / expansion of the acoustic data and moving image data for each divided section. Further, in the above technique, the divided acoustic data is divided into input frames at equal intervals, and the output frame length is determined based on the parameter time series. As for the acoustic data, the acoustic data before compression / expansion and the acoustic data after compression / expansion are obtained. Output the correspondence table of synchronization points between acoustic data. Then, the above technique compresses and decompresses the acoustic data based on the correspondence table, and compresses and decompresses the moving image data based on the correspondence table.

特開2006−187013号公報Japanese Unexamined Patent Publication No. 2006-187013

特許文献1の技術は、上述した対応表に基づいて、音響データと動画データとを圧縮伸張することで、音響データと動画データとが同期するようにしている。従って、特許文献1の技術では、分割区間ごとの対応表を出力する必要があり、分割区間ごとに対応表を参照して、動画データを伸長圧縮するため、処理が煩雑化する。また、特許文献1の技術では、分割区間ごとの対応表に基づいて、音響データと動画データとを同期させているため、フレームごとに、音声データと映像データとを同期させることは難しい。 The technique of Patent Document 1 compresses and decompresses the acoustic data and the moving image data based on the above-mentioned correspondence table so that the acoustic data and the moving image data are synchronized. Therefore, in the technique of Patent Document 1, it is necessary to output the correspondence table for each division section, and the moving image data is decompressed and compressed by referring to the correspondence table for each division section, which complicates the processing. Further, in the technique of Patent Document 1, since the acoustic data and the moving image data are synchronized based on the correspondence table for each divided section, it is difficult to synchronize the audio data and the video data for each frame.

本発明は、動画撮影時の撮影フレームレートと再生フレームレートとが異なる場合でも、映像データと音声データとをフレームごとに同期させることができる撮像装置、制御方法およびプログラムを提供することを目的とする。 An object of the present invention is to provide an imaging device, a control method, and a program capable of synchronizing video data and audio data for each frame even when the shooting frame rate and the playback frame rate at the time of moving image shooting are different. To do.

上記目的を達成するために、本発明の撮像装置は、撮影フレームレートで映像データおよび音声データを取得する取得手段と、前記撮影フレームレートと再生フレームレートとの比に基づいて前記音声データを変換する変換手段と、前記変換手段により変換された音声データを前記映像データとともに記録する記録手段と、を備え、前記変換手段は、1フレーム毎に、前記撮影フレームレートと前記再生フレームレートとの比を算出し、当該フレームに対応する音声データを算出した比に基づいて変換することを特徴とする。 In order to achieve the above object, the imaging device of the present invention converts the audio data based on the acquisition means for acquiring video data and audio data at the shooting frame rate and the ratio of the shooting frame rate to the playback frame rate. The conversion means includes a conversion means for recording the audio data converted by the conversion means together with the video data, and the conversion means is a ratio of the shooting frame rate to the reproduction frame rate for each frame. Is calculated, and the audio data corresponding to the frame is converted based on the calculated ratio.

本発明によれば、動画撮影時の撮影フレームレートと再生フレームレートとが異なる場合でも、映像データと音声データとをフレームごとに同期させることができる。 According to the present invention, even when the shooting frame rate and the playback frame rate at the time of moving image shooting are different, the video data and the audio data can be synchronized for each frame.

本実施形態の撮像装置の機能ブロック図である。It is a functional block diagram of the image pickup apparatus of this embodiment. スロー&ファスト機能を用いて撮影を行った際の映像データおよび音声データの一例を示す図である。It is a figure which shows an example of the video data and audio data at the time of taking a picture using the slow & fast function. 動画撮影時の記録処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the recording process at the time of moving image shooting. 低速再生の場合の変換処理を説明するための図である。It is a figure for demonstrating the conversion process in the case of low-speed reproduction. 変換処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the conversion process. 高速再生の場合の変換処理を説明するための図である。It is a figure for demonstrating the conversion process in the case of high-speed reproduction.

以下、本発明の各実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施の形態に記載されている構成によって限定されることはない。 Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings. However, the configurations described in each of the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in each embodiment.

図1は、本実施形態の撮像装置100の機能ブロック図である。撮像装置100は、動画を撮影する機能を有しており、撮影した動画のデータ等をファイル化してメモリカード109に記録できる。撮像装置100は、例えば、デジタルカメラや撮像機能を有するスマートフォン等である。本実施形態の撮像装置100は、撮影フレームレートと再生フレームレートとを異なるフレームレートに設定して撮影する機能(スロー&ファスト機能)を有する。図1に示されるように、撮像装置100は、撮像素子101、撮像素子駆動回路102、画像処理回路103および映像データメモリ104を有する。また、撮像装置100は、マイク105、マイク駆動回路106、信号処理回路107、音声データメモリ108、メモリカード109、書き込み制御部110および蓄積バッファ111を有する。また、撮像装置100は、操作部112、表示部113、CPU114、ファイルシステム115およびメモリ116を有する。 FIG. 1 is a functional block diagram of the image pickup apparatus 100 of the present embodiment. The image pickup apparatus 100 has a function of capturing a moving image, and can record the captured moving image data or the like as a file on the memory card 109. The image pickup device 100 is, for example, a digital camera, a smartphone having an image pickup function, or the like. The image pickup apparatus 100 of the present embodiment has a function (slow & fast function) of setting a shooting frame rate and a reproduction frame rate to different frame rates for shooting. As shown in FIG. 1, the image pickup device 100 includes an image pickup element 101, an image pickup element drive circuit 102, an image processing circuit 103, and a video data memory 104. Further, the image pickup apparatus 100 includes a microphone 105, a microphone drive circuit 106, a signal processing circuit 107, an audio data memory 108, a memory card 109, a write control unit 110, and a storage buffer 111. Further, the image pickup apparatus 100 includes an operation unit 112, a display unit 113, a CPU 114, a file system 115, and a memory 116.

撮像素子101は、光電変換により入射光量に応じた電荷を生成して出力する。撮像素子101は、例えば、CMOSセンサである。撮像素子101は、全画素の信号を読み出すこともでき、また特定の画素の加算および特定の行または列において間引いて電荷を読み出すこともできる。撮像素子駆動回路102は、CPU114による制御に基づいて、撮像素子101を駆動する。画像処理回路103は、撮像素子101からの画像信号をA/D変換し、色情報の変換を行って所定の画像処理を施す。映像データメモリ104は、画像処理回路103からの動画の映像データを記憶する。該動画の映像データは、表示部113での表示に用いられることもあり、記録処理用に一時記憶するために用いられることもある。 The image sensor 101 generates and outputs an electric charge according to the amount of incident light by photoelectric conversion. The image sensor 101 is, for example, a CMOS sensor. The image sensor 101 can read signals of all pixels, and can also read charges by adding specific pixels and thinning out in a specific row or column. The image sensor drive circuit 102 drives the image sensor 101 based on the control by the CPU 114. The image processing circuit 103 A / D-converts the image signal from the image sensor 101, converts the color information, and performs predetermined image processing. The video data memory 104 stores video data of a moving image from the image processing circuit 103. The video data of the moving image may be used for display on the display unit 113, or may be used for temporary storage for recording processing.

マイク105は、集音手段であり、例えば、空気振動の変化量に応じた電気信号を生成する振動板を有しており、変化量が同じであっても空気振動の入力の方向に応じて生成する電気量が変化する特性を持っている。マイク駆動回路106は、CPU114による制御に基づいて、マイク105を駆動する。信号処理回路107は、マイク105からの電気信号をA/D変換し、音声情報の変換を行って所定の信号処理を施す。音声データメモリ108は、信号処理回路107からの動画の音声データを出力用および記録処理用に一時記憶するために用いられる。 The microphone 105 is a sound collecting means, for example, has a diaphragm that generates an electric signal according to the amount of change in air vibration, and even if the amount of change is the same, it depends on the direction of input of air vibration. It has the property that the amount of electricity generated changes. The microphone drive circuit 106 drives the microphone 105 under the control of the CPU 114. The signal processing circuit 107 A / D-converts the electric signal from the microphone 105, converts the audio information, and performs predetermined signal processing. The audio data memory 108 is used to temporarily store the audio data of the moving image from the signal processing circuit 107 for output and recording processing.

書き込み制御部110は、メモリカード109の接続状態の監視を行うとともに、メモリカード109へのアクセスを制御する。映像データメモリ104に記憶された映像データおよび音声データメモリ108に記憶された音声データは、CPU114により所定の変換処理が施される。蓄積バッファ111は、変換後の映像データおよび音声データを動画データとして蓄積する。 The write control unit 110 monitors the connection status of the memory card 109 and controls access to the memory card 109. The video data stored in the video data memory 104 and the audio data stored in the audio data memory 108 are subjected to a predetermined conversion process by the CPU 114. The storage buffer 111 stores the converted video data and audio data as moving image data.

操作部112は、録画ボタンが割り当てられた部材や、タッチパネル等による入力デバイスによる入力をユーザ操作により受け付け、操作に応じた制御信号を生成する。表示部113は、撮影時のライブビューや各種設定値等を示す画面であるGUI(Graphical User Interface)を構成するGUI画面を表示する構成要素である。制御手段としてのCPU114は、メモリ116に記憶されているプログラムを実行することにより、本実施形態に係る処理を行う。メモリ116は、撮像装置100の機能を実現するための各種プログラムや操作部112に入力された撮影に関する設定に関する情報を記憶する。CPU114は、各種制御信号やプログラムに従って撮像装置100の動作を制御する。ファイルシステム115は、メモリ116に保存された再生フレームレート等の撮影情報をメタデータとして扱い、映像データおよび音声データと共にファイル化を行う。 The operation unit 112 receives an input from a member to which a recording button is assigned, an input device such as a touch panel, or the like by a user operation, and generates a control signal according to the operation. The display unit 113 is a component that displays a GUI screen that constitutes a GUI (Graphical User Interface) that is a screen showing a live view at the time of shooting, various setting values, and the like. The CPU 114 as a control means performs the process according to the present embodiment by executing the program stored in the memory 116. The memory 116 stores various programs for realizing the functions of the image pickup apparatus 100 and information related to shooting settings input to the operation unit 112. The CPU 114 controls the operation of the image pickup apparatus 100 according to various control signals and programs. The file system 115 handles shooting information such as the playback frame rate stored in the memory 116 as metadata, and creates a file together with video data and audio data.

上述したように、本実施形態の撮像装置100は、動画撮影時に、撮影フレームレートと再生フレームレートとをそれぞれ個別的に設定することができる機能を有する。該機能は、スロー&ファスト機能とも称される。従って、撮影フレームレートと再生フレームレートとは同じ値に設定される場合もあり、異なる値に設定される場合もある。スロー&ファスト機能では、撮像装置100が動画撮影を行っている際、任意のタイミングで、撮影フレームレートを変更することも可能である。図2は、スロー&ファスト機能を用いて撮影を行った際の映像データおよび音声データの一例を示す図である。図2では、撮影フレームレートと再生フレームレートとは異なっている。 As described above, the image pickup apparatus 100 of the present embodiment has a function of individually setting a shooting frame rate and a reproduction frame rate at the time of moving image shooting. The function is also referred to as a slow & fast function. Therefore, the shooting frame rate and the playback frame rate may be set to the same value, or may be set to different values. With the slow & fast function, it is possible to change the shooting frame rate at an arbitrary timing when the imaging device 100 is shooting a moving image. FIG. 2 is a diagram showing an example of video data and audio data when shooting is performed using the slow & fast function. In FIG. 2, the shooting frame rate and the playback frame rate are different.

図2(A)は、撮影時の映像データ303および音声データ304を示すイメージ図である。図2(A)において、撮影時間軸302における時間t1は、映像データ303の1フレームに相当する撮影時間である。時間t1は、撮影フレームレートの逆数から求めることができる。図2(B)は、再生時の映像データ308および音声データ309を示すイメージ図である。図2(B)において、再生時間軸307における時間t2は、映像データの1フレームに相当する撮影時間である。時間t2は、再生フレームレートの逆数から求めることができる。 FIG. 2A is an image diagram showing video data 303 and audio data 304 at the time of shooting. In FIG. 2A, the time t1 on the shooting time axis 302 is the shooting time corresponding to one frame of the video data 303. The time t1 can be obtained from the reciprocal of the shooting frame rate. FIG. 2B is an image diagram showing video data 308 and audio data 309 during reproduction. In FIG. 2B, the time t2 on the reproduction time axis 307 is the shooting time corresponding to one frame of the video data. The time t2 can be obtained from the reciprocal of the reproduction frame rate.

映像データにおける1フレームに相当する必要なデータ量は撮影時と再生時とで変化することはないが、表示される時間は変化する。音声データにおける1フレームに相当する必要なデータ量は、撮影時と再生時とでフレームレートの設定に応じて変化する。撮影時のフレームレートと再生時のフレームレートとによっては、音声データにおける1フレームに相当するデータ量が、過剰になるか、または不足する。そこで、本実施形態では、CPU114は、フレームレートに応じた音声データの変換を行う。ここでは、1フレームの撮影時間t1に対して再生時間t2が長くなる低速再生(t1<t2)の場合における撮影時の音声データの変換方法を説明する。低速再生の場合、ストレッチ比(再生フレームレートに対する撮影フレームレートの比)の値は1より大きい。 The amount of data required for one frame in the video data does not change between shooting and playback, but the displayed time does change. The required amount of data corresponding to one frame in the audio data changes depending on the frame rate setting during shooting and playback. Depending on the frame rate at the time of shooting and the frame rate at the time of reproduction, the amount of data corresponding to one frame in the audio data becomes excessive or insufficient. Therefore, in the present embodiment, the CPU 114 converts the audio data according to the frame rate. Here, a method of converting audio data during shooting in the case of low-speed playback (t1 <t2) in which the playback time t2 is longer than the shooting time t1 of one frame will be described. In the case of low-speed playback, the value of the stretch ratio (ratio of the shooting frame rate to the playback frame rate) is larger than 1.

図3のフローチャートを参照して、動画撮影時の記録処理の流れについて説明する。撮影者は、操作部112を用いて、撮影情報として取り扱われる撮影フレームレートと再生フレームレートとを個別的に設定する。受付手段として機能する操作部112は、撮影フレームレートの設定と再生フレームレートの設定とを受け付ける(S201)。また、撮影者は、操作部112を用いて、撮影モードや動画のサイズ等の各種の撮影情報を撮像装置100に設定することができる。設定された撮影フレームレートおよび再生フレームレートを含む撮影情報は、メモリ116に記憶される。例えば、撮影者は、撮像装置100に対して、撮影フレームレートとして「60fps」、再生フレームレートとして「30fps」を設定したとする。この場合、撮像装置100は、1秒間に60枚の画像を撮影し、30枚の画像を再生するため、撮影時間に比べて再生時間が2倍になる。撮影フレームレートと再生フレームレートとは何れも「1fps」から設定可能であり、上限は定めないものとする。 The flow of the recording process at the time of moving image shooting will be described with reference to the flowchart of FIG. The photographer uses the operation unit 112 to individually set the shooting frame rate and the playback frame rate to be handled as shooting information. The operation unit 112 that functions as a reception means receives the setting of the shooting frame rate and the setting of the playback frame rate (S201). Further, the photographer can set various shooting information such as a shooting mode and a moving image size in the image pickup apparatus 100 by using the operation unit 112. The shooting information including the set shooting frame rate and playback frame rate is stored in the memory 116. For example, it is assumed that the photographer sets "60 fps" as a shooting frame rate and "30 fps" as a reproduction frame rate for the image pickup apparatus 100. In this case, since the image pickup apparatus 100 captures 60 images per second and reproduces 30 images, the reproduction time is doubled as compared with the imaging time. Both the shooting frame rate and the playback frame rate can be set from "1 fps", and the upper limit is not set.

CPU114は、撮影フレームレートおよび再生フレームレートがメモリ116に設定されている状態で、操作部112に対して録画開始の指示がされたかを判定する(S202)。例えば、CPU114は、操作部112の録画ボタン押下等が押下されたことを検出した場合、録画開始の指示がされたと判定する。S202でNOと判定された場合、フローは次のステップに進まない。S202でYESと判定された場合、CPU114は、撮影時間軸302における、予め設定された撮影フレームレートの1フレームにかかる時間t1に相当する音声データ量を算出する(S203)。これにより、CPU114は、撮影中の映像データや音声データの撮影間隔を決定する。例えば、設定された撮影フレームレートが「60fps」の場合、撮像装置100は、1秒間に60枚の画像を撮影する。このため、画像データ1枚を表す1フレームあたりの時間t1は「1/60秒」となり、CPU114は、その時間に相当する音声データ量を算出する。 The CPU 114 determines whether the operation unit 112 has been instructed to start recording while the shooting frame rate and the playback frame rate are set in the memory 116 (S202). For example, when the CPU 114 detects that the recording button of the operation unit 112 is pressed, it determines that the recording start instruction has been given. If NO is determined in S202, the flow does not proceed to the next step. If YES is determined in S202, the CPU 114 calculates the amount of audio data corresponding to the time t1 required for one frame of the preset shooting frame rate on the shooting time axis 302 (S203). As a result, the CPU 114 determines the shooting interval of the video data and the audio data during shooting. For example, when the set shooting frame rate is "60 fps", the image pickup apparatus 100 captures 60 images per second. Therefore, the time t1 per frame representing one image data is "1/60 second", and the CPU 114 calculates the amount of audio data corresponding to that time.

CPU114は、再生時間軸307における、予め設定された再生フレームレートの1フレームにかかる時間t2のデータ量を算出する(S204)これにより、CPU114は、再生中の映像データや音声データの再生間隔を決定する。例えば、設定された再生フレームレートが「30fps」の場合、撮像装置100は、1秒間に30枚の画像を撮影する。このため、画像データ1枚を表す1フレームあたりの時間t2は「1/30秒」となり、CPU114は、その時間に相当する音声データ量を算出する。 The CPU 114 calculates the amount of data of the time t2 required for one frame of the preset playback frame rate on the playback time axis 307 (S204). As a result, the CPU 114 sets the playback interval of the video data and the audio data during playback. decide. For example, when the set reproduction frame rate is "30 fps", the image pickup apparatus 100 captures 30 images per second. Therefore, the time t2 per frame representing one image data is "1/30 second", and the CPU 114 calculates the amount of audio data corresponding to that time.

そして、CPU114は、撮影間隔および再生間隔を取得した状態でメモリ116に設定された撮影情報に基づいて、動画記録を開始する(S205)。上述したように、撮像装置100は、動画撮影中(取得中)に、撮影フレームレートを変更することが可能である。CPU114は、操作部112に対して、撮影者からの撮影フレームレートの設定変更が指示されたかを判定する(S206)。S206でYESと判定された場合、CPU114は、操作部112が受け付けた設定変更の指示(変更指示)に基づいて、指示に基づく撮影フレームレートをメモリ116に再度設定する(S207)。そして、CPU114は、撮影フレームレートから1フレームあたりのデータ量を算出し直す(S208)。S206でNOと判定された場合、S207およびS208の処理は行われない。 Then, the CPU 114 starts video recording based on the shooting information set in the memory 116 with the shooting interval and the playback interval acquired (S205). As described above, the image pickup apparatus 100 can change the shooting frame rate during movie shooting (acquisition). The CPU 114 determines whether the operation unit 112 is instructed by the photographer to change the setting of the shooting frame rate (S206). If YES is determined in S206, the CPU 114 resets the shooting frame rate based on the instruction in the memory 116 based on the setting change instruction (change instruction) received by the operation unit 112 (S207). Then, the CPU 114 recalculates the amount of data per frame from the shooting frame rate (S208). If NO is determined in S206, the processes of S207 and S208 are not performed.

撮像装置100は、動画撮影中に、撮影フレームレートを変更することが可能であるが、1フレームの映像データおよび音声データの取得が行われている途中では、撮影フレームレートの変更は適用されない。撮影フレームレートの変更は、1フレームの映像データおよび音声データの取得が完了した時点(フレームの切れ目)で適用される。 The image pickup apparatus 100 can change the shooting frame rate during moving image shooting, but the change in the shooting frame rate is not applied while the video data and audio data of one frame are being acquired. The change in the shooting frame rate is applied when the acquisition of the video data and the audio data of one frame is completed (frame break).

動画撮影中に取得される映像データおよび音声データは、それぞれ、撮影フレームレートのフレーム間隔(時間t1)ごとに、画像処理回路103および信号処理回路107で処理される。そして、処理された映像データは映像データメモリ104に蓄積され、処理された音声データは音声データメモリ108に蓄積される(S209)。CPU114は、撮影フレームレートの1フレームにかかる時間t1の映像データおよび音声データ(1フレーム分の映像データおよび音声データ)を取得したかを判定する(S210)。S210でNOと判定された場合、フローは次のステップに進まず、映像データおよび音声データの蓄積が繰り返される。 The video data and audio data acquired during moving image shooting are processed by the image processing circuit 103 and the signal processing circuit 107 for each frame interval (time t1) of the shooting frame rate, respectively. Then, the processed video data is stored in the video data memory 104, and the processed audio data is stored in the audio data memory 108 (S209). The CPU 114 determines whether or not the video data and audio data (video data and audio data for one frame) of the time t1 required for one frame of the shooting frame rate have been acquired (S210). If NO is determined in S210, the flow does not proceed to the next step, and the accumulation of video data and audio data is repeated.

S210でYESと判定された場合、CPU114は、再生時間軸307の中で取得した時間t1に対応する音声データを時間t2に対応する音声データへ変換処理を行う(S211)。CPU114は、変換処理後の音声データ309を蓄積バッファ111に蓄積する。蓄積バッファ111に蓄積された映像データの撮影1フレームにかかる時間t1のデータ量と再生1フレームにかかる時間t2の映像データのデータ量とは等しい。このため、CPU114は、ファイルシステム115がファイル化する際に時間t2で再生できるように1フレームずつ映像データ308をメモリ116に記憶する。そして、CPU114は、S211の変換処理が行われて、蓄積バッファ111に蓄積された音声データ309を再生1フレームにかかる時間t2に相当するデータ量だけメモリ116に記憶する。 If YES is determined in S210, the CPU 114 converts the audio data corresponding to the time t1 acquired in the reproduction time axis 307 into the audio data corresponding to the time t2 (S211). The CPU 114 stores the voice data 309 after the conversion process in the storage buffer 111. The amount of video data in the time t1 required for one frame of shooting of the video data stored in the storage buffer 111 is equal to the amount of data of the video data in the time t2 required for one frame of reproduction. Therefore, the CPU 114 stores the video data 308 in the memory 116 frame by frame so that the file system 115 can reproduce the file at time t2. Then, the conversion process of S211 is performed, and the CPU 114 stores the audio data 309 stored in the storage buffer 111 in the memory 116 by the amount of data corresponding to the time t2 required for one playback frame.

CPU114は、操作部112が撮影者から録画終了の指示を受け付けたかを判定する(S214)。S214でNOと判定された場合、フローはS206に移行し、動画撮影が継続される。S214でYESと判定された場合、CPU114は、録画終了の指示がされたタイミングまでの映像データおよび音声データをファイル化させるようにファイルシステム115を制御する。ファイルシステム115は、録画終了の指示がされたタイミングまでに記録した動画データ(映像データおよび音声データ)に関するフレームレート等の撮影情報と共に動画ファイルをファイル化する。ファイル化された動画ファイルは、メモリカード109に記録される。そして、記録処理が終了する。 The CPU 114 determines whether the operation unit 112 has received an instruction to end recording from the photographer (S214). If NO is determined in S214, the flow shifts to S206, and moving image shooting is continued. If YES is determined in S214, the CPU 114 controls the file system 115 so as to file the video data and the audio data up to the timing when the recording end instruction is given. The file system 115 creates a file of a moving image file together with shooting information such as a frame rate related to the moving image data (video data and audio data) recorded by the timing when the recording end instruction is given. The filed moving image file is recorded on the memory card 109. Then, the recording process is completed.

次に、S211の変換処理について説明する。ここでは、変換時において撮影フレームレートが再生フレームレートよりも大きい場合、すなわち、撮影時間に対して再生時間が長くなる低速再生を例に説明を行う。図4は、低速再生の場合の変換処理を説明するための図である。図4(A)は、撮影時の映像データおよび音声データの一例を示すイメージ図である。図4(A)において、撮影時間軸501における期間505は、フレーム1〜4の映像データ502および音声データ503を示す。各フレーム1〜4は、出力タイミング504がフレームの切れ目となり、蓄積バッファ111に格納される。図4(A)において、出力タイミング504は、破線で示される。 Next, the conversion process of S211 will be described. Here, the case where the shooting frame rate is larger than the playback frame rate at the time of conversion, that is, low-speed playback in which the playback time is longer than the shooting time will be described as an example. FIG. 4 is a diagram for explaining a conversion process in the case of low-speed reproduction. FIG. 4A is an image diagram showing an example of video data and audio data at the time of shooting. In FIG. 4A, the period 505 on the shooting time axis 501 indicates the video data 502 and the audio data 503 of frames 1 to 4. Each frame 1 to 4 is stored in the storage buffer 111 at the output timing 504 as a frame break. In FIG. 4A, the output timing 504 is indicated by a broken line.

図4(B)は、図4(A)のフレーム1〜4に対応する期間505における映像データの再生方法を示すイメージ図である。図4(B)において、再生時間軸507における再生1フレームの時間t2は、撮影時間軸501における撮影1フレームの時間t1より長くなっている。図4(C)は、図4(A)のフレーム1〜4に対応する期間505における音声データの記録用変換処理を示すイメージ図である。図4(C)の各音声データ509は、図4(A)の各音声データ503に対応する。各音声データ509および各音声データ503の中の番号は、フレーム1〜4に対応する。図4(C)において、1フレームの音声データ509から、撮影フレームの先頭位置512から時間軸方向にずらし量511の分だけずらされながら複数のブロック510が切り出されている。ブロック510は、1フレームのうちの音声データ509の一部であり、部分音声データに対応する。各ブロック510が結合されることで、変換後の音声データ513が得られる。図4(D)は、図4(A)のフレーム1〜4に対応する期間505で撮影した動画を再生したときのイメージ図である。各フレームに対応する映像データおよび音声データは先頭位置515で一致している。図4(D)において、先頭位置515は、破線で示される。 FIG. 4B is an image diagram showing a method of reproducing video data in the period 505 corresponding to frames 1 to 4 of FIG. 4A. In FIG. 4B, the time t2 of the reproduction 1 frame on the reproduction time axis 507 is longer than the time t1 of the photographing 1 frame on the photographing time axis 501. FIG. 4C is an image diagram showing a conversion process for recording audio data in the period 505 corresponding to frames 1 to 4 of FIG. 4A. Each voice data 509 of FIG. 4 (C) corresponds to each voice data 503 of FIG. 4 (A). The numbers in each voice data 509 and each voice data 503 correspond to frames 1 to 4. In FIG. 4C, a plurality of blocks 510 are cut out from the audio data 509 of one frame while being shifted by the amount of shift 511 from the head position 512 of the shooting frame in the time axis direction. The block 510 is a part of the audio data 509 in one frame and corresponds to the partial audio data. By combining the blocks 510, the converted voice data 513 can be obtained. FIG. 4D is an image diagram when the moving image taken in the period 505 corresponding to the frames 1 to 4 of FIG. 4A is reproduced. The video data and audio data corresponding to each frame match at the head position 515. In FIG. 4D, the head position 515 is indicated by a broken line.

図4および図5を参照して、変換処理の流れについて説明する。図5は、変換処理の流れを示すフローチャートである。CPU114は、設定されている撮影フレームレートと再生フレームレートの比の値が1であるかを判定する(S401)。S401でYESと判定された場合、撮影フレームレートと再生フレームレートとは同じである(ストレッチ比の値が1である)。撮影時間軸501における1フレームあたりの時間t1と再生時間軸507における1フレームあたりの時間t2とが等しいため、音声データを変換する必要はない。この場合、CPU114は、メモリ116に蓄積された音声データ503をそのまま蓄積バッファ111に格納する(S402)。そして、変換処理は終了する。蓄積バッファ111に格納された音声データ503は、ファイルシステム115により映像データ502と撮影情報と共にファイル化されて、メモリカード109に記録される。このときの映像データと音声データとは、図4(A)に示されるように、撮影時と同様に各フレームで映像データと音声データとの出力タイミング504が一致している。 The flow of the conversion process will be described with reference to FIGS. 4 and 5. FIG. 5 is a flowchart showing the flow of the conversion process. The CPU 114 determines whether the value of the ratio of the set shooting frame rate to the playback frame rate is 1 (S401). If YES is determined in S401, the shooting frame rate and the playback frame rate are the same (the value of the stretch ratio is 1). Since the time t1 per frame on the shooting time axis 501 and the time t2 per frame on the reproduction time axis 507 are equal, it is not necessary to convert the audio data. In this case, the CPU 114 stores the voice data 503 stored in the memory 116 as it is in the storage buffer 111 (S402). Then, the conversion process ends. The audio data 503 stored in the storage buffer 111 is filed by the file system 115 together with the video data 502 and the shooting information, and is recorded in the memory card 109. As shown in FIG. 4A, the video data and the audio data at this time have the same output timing 504 of the video data and the audio data in each frame as in the case of shooting.

S401でNOと判定された場合、撮影フレームレートと再生フレームレートとは異なる。この場合、1フレーム毎に、S403〜S409の処理を実行する。CPU114は、1フレームごとの音声データ509の変換に対応するために、撮影フレームレートの1フレームにかかる時間t1のデータ量に基づいて、音声データ509から切り出すブロック510のサイズを設定する(S403)。該サイズは、切り出しサイズである。ここで、ブロック510のサイズが撮影フレームレートの1フレームあたりの時間t1のデータ量に対して小さいサイズになるに応じて、変換前後の音声データの損失が小さくなる。従って、CPU114は、変換後の音声データを再生した際に不自然にならない範囲(所定範囲)でブロック510のサイズを小さく設定して、切り出しによる変換処理を複数回行うことが好ましい。 If NO is determined in S401, the shooting frame rate and the playback frame rate are different. In this case, the processes of S403 to S409 are executed for each frame. The CPU 114 sets the size of the block 510 cut out from the audio data 509 based on the amount of data of the time t1 required for one frame of the shooting frame rate in order to correspond to the conversion of the audio data 509 for each frame (S403). .. The size is a cutout size. Here, as the size of the block 510 becomes smaller than the amount of data of the time t1 per frame of the shooting frame rate, the loss of audio data before and after the conversion becomes smaller. Therefore, it is preferable that the CPU 114 sets the size of the block 510 to be small within a range (predetermined range) that does not become unnatural when the converted audio data is reproduced, and performs the conversion process by cutting out a plurality of times.

CPU114は、変換処理開始時の切り出し位置を撮影フレームの先頭位置512に設定する(S404)。CPU114は、ブロック510のサイズとフレームレート比の値(撮影フレームレートに対する再生フレームレートの比の値)とに基づいて、ずらし量511を算出する。該ずらし量は、変換処理において、切り出した後の切り出し位置を再設定するために用いられる。例えば、撮影フレームレートが「60fps」であり、再生フレームレートが「30fps」である場合、フレームレート比の値は「1/2」となる。フレームレート比の値は、ストレッチ比の値の逆数になる。この場合、CPU114は、ブロック510のサイズの「1/2倍」をずらし量511として決定する。該ずらし量511は、ストレッチ比の値の逆数に対応する。これにより、撮影時の1フレームの音声データのデータ量に対して、変換後の音声データの1フレームのデータ量を「2倍」にすることができる。 The CPU 114 sets the cutout position at the start of the conversion process to the start position 512 of the shooting frame (S404). The CPU 114 calculates the shift amount 511 based on the size of the block 510 and the value of the frame rate ratio (the value of the ratio of the reproduction frame rate to the shooting frame rate). The shift amount is used in the conversion process to reset the cutout position after cutting out. For example, when the shooting frame rate is "60 fps" and the reproduction frame rate is "30 fps", the value of the frame rate ratio is "1/2". The frame rate ratio value is the reciprocal of the stretch ratio value. In this case, the CPU 114 determines the shift amount 511 as "1/2 times" the size of the block 510. The shift amount 511 corresponds to the reciprocal of the value of the stretch ratio. As a result, the amount of data in one frame of the converted audio data can be "doubled" with respect to the amount of data in one frame of audio data at the time of shooting.

CPU114は、音声データメモリ108に蓄積された音声データを現在位置からブロック510のサイズ分を切り出し、蓄積バッファ111に格納する(S406)。CPU114は、音声データ509から切り出すブロック510の切り出し位置をずらし量511の分だけ補正する(S407)。上述したように、ずらし量がブロック510のサイズの「1/2倍」である場合、ブロック510の切り出し位置は、音声データ509からブロック510の半分ずつずらされていく。撮影フレームレートが再生フレームレートよりも大きい場合、変換前の音声データ503のデータ量に比べて変換後の音声データ513のデータ量が多くなる。そこで、CPU114は、切り出し位置の補正を、既に切り出した音声データ509のブロック510に重ねるように設定して音声データの切り出しを行う。上述したように、ずらし量がブロック510のサイズの半分である場合、切り出されたブロック510は、前後のブロックと重複する。変換後の音声データには、変換前の音声データが重複していることがあるが、変換後の音声データの各フレームの先頭位置515で音声データが一致することに対しての影響はない。 The CPU 114 cuts out the voice data stored in the voice data memory 108 from the current position by the size of the block 510 and stores it in the storage buffer 111 (S406). The CPU 114 corrects the cut-out position of the block 510 cut out from the voice data 509 by the amount of the shift amount 511 (S407). As described above, when the shift amount is "1/2 times" the size of the block 510, the cutout position of the block 510 is shifted from the audio data 509 by half of the block 510. When the shooting frame rate is larger than the reproduction frame rate, the amount of data of the converted audio data 513 is larger than the amount of data of the audio data 503 before conversion. Therefore, the CPU 114 sets the correction of the cutout position so as to overlap the block 510 of the already cut out voice data 509, and cuts out the voice data. As described above, when the shift amount is half the size of the block 510, the cut out block 510 overlaps with the previous and next blocks. Although the voice data before conversion may be duplicated in the voice data after conversion, there is no effect on the matching of the voice data at the head position 515 of each frame of the voice data after conversion.

CPU114は、変換処理後の音声データが再生フレームレートの1フレームにかかる時間t2のデータ量の分、メモリ116に蓄積されているかを判定する(S408)。S408でNOと判定された場合、フローはS406に移行する。S408でYESと判定された場合、CPU114は、再生フレームレート1フレームにかかる時間t2のデータ量を加味して、次のフレームの先頭位置に蓄積バッファ111の書込み位置を設定する(S409)。そして、変換処理は終了する。S409の処理によって、1フレームの音声データの変換処理を行うごとに再生フレームレートの各フレームの先頭位置から書込みを行うことができる。つまり、撮影時の各フレームの先頭の音声データが、再生時の各フレームの先頭の音声データとなり、映像と共に再生したときに、撮影時に各フレームの先頭位置で一致していた映像データと音声データを、再生時に一致させることができる。これにより、映像データと音声データとを同期させることができる。 The CPU 114 determines whether the audio data after the conversion process is stored in the memory 116 by the amount of data of the time t2 required for one frame of the reproduction frame rate (S408). If NO is determined in S408, the flow shifts to S406. If YES is determined in S408, the CPU 114 sets the write position of the storage buffer 111 at the start position of the next frame in consideration of the amount of data of the time t2 required for one frame of the reproduction frame rate (S409). Then, the conversion process ends. By the processing of S409, writing can be performed from the start position of each frame of the reproduction frame rate every time the conversion processing of the audio data of one frame is performed. That is, the audio data at the beginning of each frame at the time of shooting becomes the audio data at the beginning of each frame at the time of reproduction, and the video data and the audio data that match at the beginning position of each frame at the time of shooting when reproduced together with the video. Can be matched during playback. As a result, the video data and the audio data can be synchronized.

上述したように、撮像装置100に対して、動画撮影中に、再生フレームレートよりも大きい撮影フレームレートが設定された場合でも、1フレームごとに音声データの変換処理が行われる。つまり、CPU114は、1フレームごとに、音声データから所定サイズのブロック(部分音声データ)を切り出して、重ね合わせて結合することで、音声データのサイズを大きくすることができる。これにより、撮像装置100に、再生フレームレートよりも大きい撮影フレームレートが設定されたとしても、フレームごとに、映像データと音声データとを再生フレームレートに同期させることができる。 As described above, even if a shooting frame rate larger than the reproduction frame rate is set for the image pickup apparatus 100 during movie shooting, the audio data conversion process is performed for each frame. That is, the CPU 114 can increase the size of the audio data by cutting out blocks (partial audio data) of a predetermined size from the audio data for each frame and superimposing and combining them. As a result, even if a shooting frame rate larger than the reproduction frame rate is set in the image pickup apparatus 100, the video data and the audio data can be synchronized with the reproduction frame rate for each frame.

ここで、再生フレームレートよりも大きい撮影フレームレートが設定された場合、複数フレームの音声データを纏めて伸長することが考えられる。しかし、複数フレームの音声データを纏めて伸長すると、音声データと映像データとの間にずれを生じることがあり、この場合、音声データと映像データとを同期させることができない。本実施形態では、再生フレームレートよりも大きい撮影フレームレートが設定された場合、フレームごとに、音声データを変換する処理を行っているため、音声データと映像データとを同期させることができる。 Here, when a shooting frame rate larger than the playback frame rate is set, it is conceivable that the audio data of a plurality of frames are collectively expanded. However, if the audio data of a plurality of frames is expanded together, a gap may occur between the audio data and the video data, and in this case, the audio data and the video data cannot be synchronized. In the present embodiment, when a shooting frame rate larger than the playback frame rate is set, the audio data and the video data can be synchronized because the processing of converting the audio data is performed for each frame.

上述した例は、撮影フレームレートが再生フレームレートよりも大きい場合である低速再生の例であるが、撮影フレームレートが再生フレームレートよりも小さい場合となる高速再生(t1>t2)の場合でも、図5の変換処理を用いることができる。高速再生の場合、ストレッチ比の値(再生フレームレートに対する撮影フレームレートの比の値)は1より小さい。図6は、高速再生の場合の変換処理を説明する図である。図6(A)は、撮影時の映像データおよび音声データのイメージ図である。図6(A)のイメージ図は、図4(A)のイメージ図と同様である。図6(B)は、図4(B)のフレーム1〜4に対応する期間605における映像データの再生方法を示すイメージ図である。図6(C)は、図6(A)のフレーム1〜4に対応する期間605における音声データ609の記録用変換処理を示すイメージ図である。図6(D)は、図6(A)のフレーム1〜4に対応する期間605で撮影した動画を再生したときのイメージ図である。 The above example is an example of low-speed playback in which the shooting frame rate is larger than the playback frame rate, but even in the case of high-speed playback (t1> t2) in which the shooting frame rate is smaller than the playback frame rate. The conversion process of FIG. 5 can be used. In the case of high-speed playback, the stretch ratio value (the ratio of the shooting frame rate to the playback frame rate) is smaller than 1. FIG. 6 is a diagram illustrating a conversion process in the case of high-speed reproduction. FIG. 6A is an image diagram of video data and audio data at the time of shooting. The image diagram of FIG. 6 (A) is the same as the image diagram of FIG. 4 (A). FIG. 6B is an image diagram showing a method of reproducing video data in the period 605 corresponding to frames 1 to 4 of FIG. 4B. FIG. 6C is an image diagram showing a recording conversion process of the audio data 609 in the period 605 corresponding to frames 1 to 4 of FIG. 6A. FIG. 6D is an image diagram when the moving image taken in the period 605 corresponding to the frames 1 to 4 of FIG. 6A is reproduced.

高速再生の場合の変換処理は、低速再生の場合の変換処理とS407の処理内容が異なる。高速再生の場合、撮影フレームレートが再生フレームレートよりも小さいため、変換前の音声データ609のデータ量に比べて変換後の音声データ613のデータ量が小さくなる。このため、CPU114は、切り出した音声データと次の切り出し位置の間の音声データを間引いて音声データの切り出しを行うことで、切り出し位置の補正を行う。図6(C)の例の場合、最初に音声データ609からブロック610が切り出されてから、次のブロック610が切り出されるときに、切り出し位置は、ブロック610のサイズより大きいずらし量611で補正される。図6(C)の例の場合、ずらし量611は、ブロック610のサイズの2倍である。つまり、該ずらし量611は、ストレッチ比の逆数の値に対応する。図6(C)に示されるように、変換後の音声データにおいて変換前の音声データの一部が欠落していることがあるが、変換後の音声データの各フレームの先頭位置615で音声データが一致することに対する影響はない。 The conversion process in the case of high-speed reproduction differs from the conversion process in the case of low-speed reproduction in the processing content of S407. In the case of high-speed playback, since the shooting frame rate is smaller than the playback frame rate, the amount of data of the converted audio data 613 is smaller than the amount of data of the audio data 609 before conversion. Therefore, the CPU 114 corrects the cutout position by thinning out the cut out voice data and the voice data between the next cutout positions and cutting out the voice data. In the case of the example of FIG. 6C, when the block 610 is first cut out from the audio data 609 and then the next block 610 is cut out, the cutout position is corrected by a shift amount 611 larger than the size of the block 610. To. In the case of the example of FIG. 6C, the shift amount 611 is twice the size of the block 610. That is, the shift amount 611 corresponds to the value of the reciprocal of the stretch ratio. As shown in FIG. 6C, a part of the voice data before conversion may be missing in the voice data after conversion, but the voice data is at the head position 615 of each frame of the voice data after conversion. Has no effect on matching.

上述したように、撮像装置100に対して、動画撮影中に、再生フレームレートよりも小さい撮影フレームレートが設定された場合でも、フレームごとに音声データの変換処理が行われる。つまり、CPU114は、フレームごとに、音声データから一部を間引きすることで、音声データのサイズを小さくすることができる。これにより、撮像装置100に、再生フレームレートよりも小さい撮影フレームレートが設定されたとしても、フレームごとに、映像データと音声データとを再生フレームレートに同期させることができる。 As described above, even if a shooting frame rate smaller than the reproduction frame rate is set for the image pickup apparatus 100 during movie shooting, the audio data conversion process is performed for each frame. That is, the CPU 114 can reduce the size of the audio data by thinning out a part of the audio data for each frame. As a result, even if a shooting frame rate smaller than the reproduction frame rate is set in the image pickup apparatus 100, the video data and the audio data can be synchronized with the reproduction frame rate for each frame.

以上において、撮像装置100は、設定された撮影フレームレートで取得した映像データおよび音声データを、ネットワーク等を介して、外部装置に送信してもよい。この場合、外部装置は、設定された撮影フレームレートで取得された映像データおよび音声データを受信する。外部装置としては、例えば、パーソナルコンピュータ等の情報処理装置が想定される。再生フレームレートの設定を受け付けることができ、設定された再生フレームレートに基づいて、上述した変換処理を行い、フレームごとに、映像データと音声データとを同期させてもよい。 In the above, the image pickup apparatus 100 may transmit the video data and the audio data acquired at the set shooting frame rate to the external device via the network or the like. In this case, the external device receives the video data and the audio data acquired at the set shooting frame rate. As the external device, for example, an information processing device such as a personal computer is assumed. The setting of the reproduction frame rate can be accepted, and the above-mentioned conversion process may be performed based on the set reproduction frame rate to synchronize the video data and the audio data for each frame.

以上、本発明の好ましい実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and modifications can be made within the scope of the gist thereof. The present invention supplies a program that realizes one or more functions of each of the above-described embodiments to a system or device via a network or storage medium, and one or more processors of the computer of the system or device implements the program. It can also be realized by the process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 撮像装置
101 撮像素子
105 マイク
114 CPU
116 メモリ
100 Image pickup device 101 Image pickup device 105 Microphone 114 CPU
116 memory

Claims (10)

撮影フレームレートで映像データおよび音声データを取得する取得手段と、
前記撮影フレームレートと再生フレームレートとの比に基づいて前記音声データを変換する変換手段と、
前記変換手段により変換された音声データを前記映像データとともに記録する記録手段と、を備え、
前記変換手段は、1フレーム毎に、前記撮影フレームレートと前記再生フレームレートとの比を算出し、当該フレームに対応する音声データを算出した比に基づいて変換することを特徴とする撮像装置。
An acquisition method for acquiring video data and audio data at the shooting frame rate,
A conversion means for converting the audio data based on the ratio of the shooting frame rate to the playback frame rate, and
A recording means for recording the audio data converted by the conversion means together with the video data is provided.
The conversion means is an image pickup apparatus characterized in that the ratio of the shooting frame rate to the reproduction frame rate is calculated for each frame, and the audio data corresponding to the frame is converted based on the calculated ratio.
映像データの取得中に撮影フレームレートを変更するための変更指示を受け付ける受付手段と、
映像データの取得中に撮影フレームレートの変更指示を受け付けた場合に、フレームの境界で撮影フレームレートの設定を変更する変更手段と、を有し、
前記変換手段は、前記変更手段により撮影フレームレートが変更されたことに応じて、変更された後の撮影フレームレートを用いて、前記撮影フレームレートと前記再生フレームレートとの比を算出することを特徴とする請求項1に記載の撮像装置。
A reception means that accepts change instructions for changing the shooting frame rate while acquiring video data,
It has a changing means for changing the shooting frame rate setting at the frame boundary when an instruction to change the shooting frame rate is received during acquisition of video data.
The conversion means calculates the ratio of the shooting frame rate to the playback frame rate by using the changed shooting frame rate in response to the change in the shooting frame rate by the changing means. The imaging device according to claim 1.
前記変換手段は、前記撮影フレームレートと前記再生フレームレートとが同じである場合、前記再生フレームレートと前記撮影フレームレートとの比に基づく音声データの変換は行わないことを特徴とする請求項1に記載の撮像装置。 Claim 1 is characterized in that, when the shooting frame rate and the reproduction frame rate are the same, the conversion means does not convert audio data based on the ratio of the reproduction frame rate to the shooting frame rate. The imaging apparatus according to. 前記変換手段は、前記比の値が1より大きい場合、取得された前記音声データから該音声データよりサイズが小さい部分音声データを複数切り出して、複数の前記部分音声データを重ねて結合して前記再生フレームレートの1フレームに対応する音声データを生成することを特徴とする請求項1に記載の撮像装置。 When the value of the ratio is larger than 1, the conversion means cuts out a plurality of partial voice data having a size smaller than the voice data from the acquired voice data, and superimposes and combines the plurality of the partial voice data to obtain the said voice data. The imaging device according to claim 1, wherein audio data corresponding to one frame of a reproduction frame rate is generated. 前記変換手段は、前記音声データから前記複数の部分音声データを切り出す際に、前記部分音声データのサイズの前記比の値の逆数の分ずつずらして切り出すことを特徴とする請求項4に記載の撮像装置。 The fourth aspect of claim 4, wherein the conversion means, when cutting out the plurality of partial voice data from the voice data, shifts the size of the partial voice data by the reciprocal of the value of the ratio. Imaging device. 前記比の値が1より小さい場合、前記変換手段は、取得された前記音声データから該音声データよりサイズが小さい部分音声データの一部を間引いて、前記再生フレームレートの1フレームに対応する音声データを生成することを特徴とする請求項1に記載の撮像装置。 When the value of the ratio is less than 1, the conversion means thins out a part of the partial audio data having a size smaller than the audio data from the acquired audio data, and the audio corresponding to one frame of the reproduction frame rate. The imaging apparatus according to claim 1, wherein data is generated. 生成された前記再生フレームレートの1フレームに対応する音声データの時間は、前記再生フレームレートの1フレームに対応する前記映像データの時間と同じであることを特徴とする請求項4乃至6のうち何れか1項に記載の撮像装置。 Of claims 4 to 6, the time of the generated audio data corresponding to one frame of the reproduction frame rate is the same as the time of the video data corresponding to one frame of the reproduction frame rate. The imaging device according to any one item. 前記変換手段は、前記映像データおよび前記音声データを取得している間に前記撮影フレームレートが変更された場合、次のフレームで変更された前記撮影フレームレートを適用することを特徴とする請求項1乃至7のうち何れか1項に記載の撮像装置。 The conversion means is characterized in that when the shooting frame rate is changed while the video data and the audio data are being acquired, the shooting frame rate changed in the next frame is applied. The imaging apparatus according to any one of 1 to 7. 撮影フレームレートで映像データおよび音声データを取得する工程と、
前記撮影フレームレートと再生フレームレートとの比に基づいて前記音声データを変換する工程と、
前記変換された音声データを前記映像データとともに記録する工程と、
を備え、
前記変換する工程は、1フレーム毎に、前記撮影フレームレートと前記再生フレームレートとの比を算出し、当該フレームに対応する音声データを算出した比に基づいて変換することを特徴とする制御方法。
The process of acquiring video data and audio data at the shooting frame rate,
The step of converting the audio data based on the ratio of the shooting frame rate to the playback frame rate, and
The process of recording the converted audio data together with the video data, and
With
The conversion step is a control method characterized in that the ratio of the shooting frame rate to the reproduction frame rate is calculated for each frame, and the audio data corresponding to the frame is converted based on the calculated ratio. ..
請求項1乃至8のうち何れか1項に各手段をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each means according to any one of claims 1 to 8.
JP2019095296A 2019-05-21 2019-05-21 Imaging apparatus, control method, and program Pending JP2020191524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019095296A JP2020191524A (en) 2019-05-21 2019-05-21 Imaging apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095296A JP2020191524A (en) 2019-05-21 2019-05-21 Imaging apparatus, control method, and program

Publications (1)

Publication Number Publication Date
JP2020191524A true JP2020191524A (en) 2020-11-26

Family

ID=73454742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095296A Pending JP2020191524A (en) 2019-05-21 2019-05-21 Imaging apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP2020191524A (en)

Similar Documents

Publication Publication Date Title
JP4869270B2 (en) Imaging apparatus and image reproduction apparatus
JP4777180B2 (en) Imaging apparatus and control method thereof
US9894270B2 (en) Image processing apparatus and image processing method for handling a raw image, of a moving image or a still image
EP2974265B1 (en) Imaging apparatus and imaging apparatus control method
JP4958758B2 (en) Recording apparatus, reproducing apparatus, recording method, reproducing method, and program
JP2015122734A (en) Imaging apparatus and imaging method
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP4556195B2 (en) Imaging device, moving image playback device, and program
KR101108640B1 (en) Recording apparatus for recording moving picture, recording method, and computer readable rdcording medium
JP5938655B2 (en) Playback device, imaging device, and program
JP2018148512A (en) Imaging device, control method of imaging device, and program
US10348957B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for shooting a still image without interrupting shooting of moving images
JP2009010903A (en) Imaging device, and imaging method
JP2020191524A (en) Imaging apparatus, control method, and program
JP2015154447A (en) Imaging apparatus, and control method and program for the same
JP2009182754A (en) Image processor
JP2013055590A (en) Imaging device and imaging method
JP6427859B2 (en) Image processing apparatus, image processing method, and program
JP2011087203A (en) Imaging apparatus
JP2015122731A (en) Video replay device and video replay method
JP2018195892A (en) Imaging apparatus
JP5556246B2 (en) Imaging device
JP2018207418A (en) Imaging apparatus
JP2007135061A (en) Electronic camera and image reproducing apparatus
JP2012124843A (en) Image with sound reproduction apparatus and image shooting apparatus