JP5631598B2 - Data processing device - Google Patents

Data processing device Download PDF

Info

Publication number
JP5631598B2
JP5631598B2 JP2010006808A JP2010006808A JP5631598B2 JP 5631598 B2 JP5631598 B2 JP 5631598B2 JP 2010006808 A JP2010006808 A JP 2010006808A JP 2010006808 A JP2010006808 A JP 2010006808A JP 5631598 B2 JP5631598 B2 JP 5631598B2
Authority
JP
Japan
Prior art keywords
image data
data
image
creating
creation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010006808A
Other languages
Japanese (ja)
Other versions
JP2011146976A (en
Inventor
天野 大輔
大輔 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2010006808A priority Critical patent/JP5631598B2/en
Publication of JP2011146976A publication Critical patent/JP2011146976A/en
Application granted granted Critical
Publication of JP5631598B2 publication Critical patent/JP5631598B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

この発明は、データ処理装置に関し、特にディジタルビデオカメラに適用され、互いに異なる品質を有する画像データに共通の音声データを割り当てる、データ処理装置に関する。   The present invention relates to a data processing apparatus, and more particularly to a data processing apparatus that is applied to a digital video camera and assigns common audio data to image data having different qualities.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、映像信号および音声信号は、カメラ部およびマイクロフォンからそれぞれ入力される。入力された映像信号および音声信号は、テープ記録再生部によってテープカセットに記録されるとともに、メモリカード記録再生部によってメモリカードに記録される。   An example of this type of device is disclosed in Patent Document 1. According to this background art, a video signal and an audio signal are input from a camera unit and a microphone, respectively. The input video signal and audio signal are recorded on the tape cassette by the tape recording / reproducing unit and also recorded on the memory card by the memory card recording / reproducing unit.

特開2005−109923号公報JP 2005-109923 A

しかし、背景技術では、テープカセットに対する音声信号の記録タイミングをメモリカードに対する音声信号の記録タイミングと正確に一致させることを想定していない。ここで、各々の記録タイミングを正確に合わせようとすると、記録方式の相違から負荷が増大するおそれがある。   However, the background art does not assume that the recording timing of the audio signal with respect to the tape cassette exactly matches the recording timing of the audio signal with respect to the memory card. Here, if the respective recording timings are to be accurately matched, the load may increase due to the difference in the recording method.

それゆえに、この発明の主たる目的は、互いに異なる方式ないし品質に対応する画像データに共通の音声データを割り当てるときの負荷を低減することができる、データ処理装置を提供することである。   SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a data processing apparatus capable of reducing a load when assigning common audio data to image data corresponding to different methods or qualities.

この発明に従うデータ処理装置(10:実施例で相当する参照符号。以下同じ)は、元画像データを周期的に取り込む画像取り込み手段(22)、画像取り込み手段によって取り込まれた元画像データに基づいて第1品質に対応する第1画像データを作成する第1作成手段(26, 38)、画像取り込み手段によって取り込まれた元画像データに基づいて第1品質よりも低い第2品質に対応する第2画像データを作成する処理を第1作成手段の作成処理と並列して実行する第2作成手段(28, 40)、第1作成手段によって作成された第1画像データおよび第2作成手段によって作成された第2画像データの各々に音声データを割り当てる割り当て手段(S21, S25)、および第1作成手段による作成処理の経過を参照して割り当て手段を起動する制御手段(S17)を備える。   A data processing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) is based on image capturing means (22) for periodically capturing original image data, based on the original image data captured by the image capturing means. First creating means (26, 38) for creating first image data corresponding to the first quality, second corresponding to the second quality lower than the first quality based on the original image data captured by the image capturing means. Second creation means (28, 40) for executing processing for creating image data in parallel with the creation processing of the first creation means, the first image data created by the first creation means and the second creation means Further, there are provided assigning means (S21, S25) for assigning audio data to each of the second image data, and control means (S17) for activating the assigning means with reference to the progress of creation processing by the first creating means.

好ましくは、第1画像データのフレームレートは元画像データのフレームレートの1/M(M:整数)に相当し、第2画像データのフレームレートは元画像データのフレームレートの1/N(N:Mを上回る整数)に相当する。   Preferably, the frame rate of the first image data corresponds to 1 / M (M: integer) of the frame rate of the original image data, and the frame rate of the second image data is 1 / N (N : Integer greater than M).

好ましくは、第2画像データの解像度は第1画像データの解像度を下回る。   Preferably, the resolution of the second image data is lower than the resolution of the first image data.

好ましくは、制御手段は第1作成手段によって作成された第1画像データのフレーム数が既定値に達する毎に割り当て手段を起動する。   Preferably, the control means activates the assigning means each time the number of frames of the first image data created by the first creating means reaches a predetermined value.

さらに好ましくは、第1画像データはイントラ符号化画像とインター符号化画像とが混在したストリームデータに相当し、既定値はイントラ符号化画像が出現する周期に対応する。   More preferably, the first image data corresponds to stream data in which an intra-coded image and an inter-coded image are mixed, and the default value corresponds to a cycle in which the intra-coded image appears.

好ましくは、音声データを取り込む音声取り込み手段(36)がさらに備えられ、割り当て手段は音声取り込み手段によって取り込まれた音声データを対象とする。   Preferably, a voice capturing means (36) for capturing voice data is further provided, and the assigning means targets the voice data captured by the voice capturing means.

好ましくは、被写界を表す画像データを出力する撮像手段(16)がさらに備えられ、取り込み手段によって取り込まれる元画像データは撮像手段から出力された画像データに相当する。   Preferably, imaging means (16) for outputting image data representing the object scene is further provided, and the original image data captured by the capturing means corresponds to the image data output from the imaging means.

この発明によれば、第1画像データおよび第2画像データは、周期的に取り込まれる共通の元画像データに基づいて作成される。また、第1画像データの作成処理および第2画像データの作成処理は互いに並列して実行される。さらに、第2画像データの品質は第1画像データの品質よりも低い。したがって、或る周期で取り込まれた元画像データに注目したとき、この元画像データに基づく第1画像データの作成処理が完了した時点では、対応する第2画像データは完成している。音声データは、第1画像データの作成処理の経過を参照して、第1画像データおよび第2画像データの各々に割り当てられる。これによって、互いに異なる方式ないし品質に対応する画像データに共通の音声データを割り当てるときの負荷を低減することができる。   According to this invention, the first image data and the second image data are created based on the common original image data that is periodically captured. The first image data creation process and the second image data creation process are executed in parallel with each other. Furthermore, the quality of the second image data is lower than the quality of the first image data. Therefore, when attention is paid to the original image data captured in a certain cycle, the corresponding second image data is completed at the time when the creation processing of the first image data based on the original image data is completed. The audio data is assigned to each of the first image data and the second image data with reference to the process of creating the first image data. Thus, it is possible to reduce a load when assigning common audio data to image data corresponding to different methods or qualities.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; SDRAMの生画像エリアにおける2つの切り出しエリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of two cutout areas in the raw image area of SDRAM. (A)はMP4データに対応する画像のアスペクト比を示す図解図であり、(B)は3GPデータに対応する画像のアスペクト比を示す図解図である。(A) is an illustrative view showing an aspect ratio of an image corresponding to MP4 data, and (B) is an illustrative view showing an aspect ratio of an image corresponding to 3GP data. (A)はMP4ファイルのデータ構造の一例を示す図解図であり、(B)は3GPファイルのデータ構造の一例を示す図解図である。(A) is an illustrative view showing an example of a data structure of an MP4 file, and (B) is an illustrative view showing an example of a data structure of a 3GP file. 図2実施例の動作の一部を示すタイミング図である。FIG. 3 is a timing chart showing a part of the operation of the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2;

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この発明の画像処理装置は、基本的に次のように構成される。画像取り込み手段1は、元画像データを周期的に取り込む。第1作成手段2は、画像取り込み手段1によって取り込まれた元画像データに基づいて第1品質に対応する第1画像データを作成する。第2作成手段3は、画像取り込み手段1によって取り込まれた元画像データに基づいて第1品質よりも低い第2品質に対応する第2画像データを作成する処理を第1作成手段2の作成処理と並列して実行する。割り当て手段4は、第1作成手段2によって作成された第1画像データおよび第2作成手段3によって作成された第2画像データの各々に音声データを割り当てる。制御手段5は、第1作成手段2による作成処理の経過を参照して割り当て手段4を起動する。   Referring to FIG. 1, the image processing apparatus of the present invention is basically configured as follows. The image capturing unit 1 periodically captures original image data. The first creating unit 2 creates first image data corresponding to the first quality based on the original image data captured by the image capturing unit 1. The second creating means 3 performs a process for creating the second image data corresponding to the second quality lower than the first quality on the basis of the original image data fetched by the image fetching means 1. And run in parallel. The assigning unit 4 assigns audio data to each of the first image data created by the first creating unit 2 and the second image data created by the second creating unit 3. The control means 5 activates the assignment means 4 with reference to the progress of the creation processing by the first creation means 2.

第1画像データおよび第2画像データは、周期的に取り込まれる共通の元画像データに基づいて作成される。また、第1画像データの作成処理および第2画像データの作成処理は互いに並列して実行される。さらに、第2画像データの品質は第1画像データの品質よりも低い。したがって、或る周期で取り込まれた元画像データに注目したとき、この元画像データに基づく第1画像データの作成処理が完了した時点では、対応する第2画像データは完成している。音声データは、第1画像データの作成処理の経過を参照して、第1画像データおよび第2画像データの各々に割り当てられる。これによって、互いに異なる方式ないし品質に対応する画像データに共通の音声データを割り当てるときの負荷を低減することができる。
[実施例]
The first image data and the second image data are created based on common original image data that is periodically captured. The first image data creation process and the second image data creation process are executed in parallel with each other. Furthermore, the quality of the second image data is lower than the quality of the first image data. Therefore, when attention is paid to the original image data captured in a certain cycle, the corresponding second image data is completed at the time when the creation processing of the first image data based on the original image data is completed. The audio data is assigned to each of the first image data and the second image data with reference to the process of creating the first image data. Thus, it is possible to reduce a load when assigning common audio data to image data corresponding to different methods or qualities.
[Example]

図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。被写界の光学像は、これらの部材を通してイメージセンサ16の撮像面に照射される。なお、撮像面の有効画像エリアは、水平2560画素×垂直1600画素の解像度を有する。   Referring to FIG. 2, the digital video camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the object scene is irradiated onto the imaging surface of the image sensor 16 through these members. Note that the effective image area on the imaging surface has a resolution of horizontal 2560 pixels × vertical 1600 pixels.

電源が投入されると、CPU46は、記録制御タスクの下で動画取り込み処理を実行するべく、ドライバ18cを起動する。ドライバ18cは、1/60秒毎に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、撮像面で生成された電荷を順次走査態様で読み出す。イメージセンサ16からは、被写界を表す生画像データが60fpsのフレームレートで出力される。   When the power is turned on, the CPU 46 activates the driver 18c to execute the moving image capturing process under the recording control task. In response to the vertical synchronization signal Vsync generated every 1/60 seconds, the driver 18c exposes the imaging surface and sequentially reads out the charges generated on the imaging surface in a scanning manner. From the image sensor 16, raw image data representing the object scene is output at a frame rate of 60 fps.

前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。このような前処理を施された生画像データは、メモリ制御回路22を通してSDRAM24の生画像エリア24a(図3参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the image sensor 16. The raw image data subjected to such preprocessing is written into the raw image area 24a (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

図4を参照して、生画像エリア24aには、切り出しエリアCT1およびCT2が割り当てられる。切り出しエリアCT1は水平1920画素×垂直1080画素に相当する解像度(アスペクト比は16:9)を有する。一方、切り出しエリアCT2は水平640画素×垂直480画素に相当する解像度(アスペクト比は4:3)を有する。   Referring to FIG. 4, cutout areas CT1 and CT2 are allocated to raw image area 24a. The cutout area CT1 has a resolution (aspect ratio is 16: 9) corresponding to horizontal 1920 pixels × vertical 1080 pixels. On the other hand, the cutout area CT2 has a resolution (aspect ratio is 4: 3) corresponding to horizontal 640 pixels × vertical 480 pixels.

後処理回路26は、メモリ制御回路22を通して生画像エリア24aにアクセスし、切り出しエリアCT1に対応する生画像データを順次走査態様で1/60秒毎に読み出す。読み出された生画像データは色分離,白バランス調整,YUV変換,エッジ強調,ズームなどの処理を施され、この結果、1080/60p方式に対応する画像データ(図5(A)参照)が作成される。作成された画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24b(図3参照)に書き込まれる。   The post-processing circuit 26 accesses the raw image area 24a through the memory control circuit 22, and reads out raw image data corresponding to the cut-out area CT1 every 1/60 seconds in a sequential scanning manner. The read raw image data is subjected to processing such as color separation, white balance adjustment, YUV conversion, edge enhancement, zooming, etc. As a result, image data corresponding to the 1080 / 60p system (see FIG. 5A) is obtained. Created. The created image data is written into the YUV image area 24b (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

LCDドライバ30は、YUV画像エリア24bに格納された画像データを繰り返し読み出し、読み出された画像データをLCDモニタ32の解像度に適合するように縮小し、そして縮小された画像データに基づいてLCDモニタ32を駆動する。この結果、被写界を表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 30 repeatedly reads out the image data stored in the YUV image area 24b, reduces the read-out image data to match the resolution of the LCD monitor 32, and the LCD monitor based on the reduced image data. 32 is driven. As a result, a real-time moving image (through image) representing the scene is displayed on the monitor screen.

前処理回路20はまた、生画像データを簡易的にYデータに変換し、変換されたYデータをCPU46に与える。CPU46は、撮像条件調整タスクの下でYデータにAE処理を施し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、これによってスルー画像の明るさが適度に調整される。CPU46はまた、AF起動条件が満足されるときに、Yデータの高周波成分にAF処理を施す。フォーカスレンズ12はドライバ18aによって合焦点に配置され、これによってスルー画像の鮮鋭度が継続的に向上する。   The preprocessing circuit 20 also simply converts the raw image data into Y data, and provides the converted Y data to the CPU 46. The CPU 46 performs AE processing on the Y data under the imaging condition adjustment task, and calculates an appropriate EV value. The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively, and thereby the brightness of the through image is appropriately adjusted. The CPU 46 also performs AF processing on the high frequency component of the Y data when the AF activation condition is satisfied. The focus lens 12 is arranged at the focal point by the driver 18a, and thereby the sharpness of the through image is continuously improved.

キー入力装置48に向けて記録開始操作が行われると、CPU46は、記録制御タスクの下でI/F42を通して記録媒体44にアクセスし、MP4ファイルおよび3GPファイルを記録媒体44に新規に作成する(作成されたMP4ファイルおよび3GPファイルはオープされる)。   When a recording start operation is performed toward the key input device 48, the CPU 46 accesses the recording medium 44 through the I / F 42 under the recording control task, and newly creates an MP4 file and a 3GP file in the recording medium 44 ( The created MP4 file and 3GP file are opened).

ファイル作成&オープン処理が完了すると、CPU46は、MP4符号化処理を開始するべくMPEG4エンコーダ38を起動し、3GP符号化処理を開始するべく後処理回路28およびMPEG4エンコーダ40を起動し、そして音声取り込み処理を開始するべくAACエンコーダ36を起動する。   When the file creation & opening process is completed, the CPU 46 activates the MPEG4 encoder 38 to start the MP4 encoding process, activates the post-processing circuit 28 and the MPEG4 encoder 40 to start the 3GP encoding process, and captures audio. The AAC encoder 36 is activated to start the process.

MP4エンコーダ38は、YUV画像エリア24bに格納された1080/60p方式の画像データをメモリ制御回路22を通して繰り返し読み出し、読み出された画像データをMPEG4方式に従って符号化し、そして符号化画像データつまりMP4データをメモリ制御回路22を通してSDRAM24の符号化画像エリア24d(図3参照)に書き込む。   The MP4 encoder 38 repeatedly reads the 1080 / 60p format image data stored in the YUV image area 24b through the memory control circuit 22, encodes the read image data according to the MPEG4 format, and encodes encoded image data, that is, MP4 data. Is written into the encoded image area 24d (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

後処理回路28は、切り出しエリアCT2に属する一部の生画像データをメモリ制御回路22を通して読み出し、読み出された生画像データに色分離,白バランス調整,YUV変換,エッジ強調,ズームなどの処理を施して480/30p方式の画像データ(図5(B)参照)を作成し、そして作成された画像データをメモリ制御回路22を通してSDRAM24のYUV画像エリア24c(図3参照)に書き込む。   The post-processing circuit 28 reads out part of the raw image data belonging to the cut-out area CT2 through the memory control circuit 22, and processes such as color separation, white balance adjustment, YUV conversion, edge enhancement, and zooming into the read raw image data. 480 / 30p image data (see FIG. 5B) is created, and the created image data is written into the YUV image area 24c (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

MP4エンコーダ40は、YUV画像エリア24cに格納された480/30p方式の画像データをメモリ制御回路22を通して繰り返し読み出し、読み出された画像データをMPEG4方式に従って符号化し、そして符号化画像データつまり3GPデータをメモリ制御回路22を通してSDRAM24の符号化画像エリア24e(図3参照)に書き込む。   The MP4 encoder 40 repeatedly reads the 480 / 30p format image data stored in the YUV image area 24c through the memory control circuit 22, encodes the read image data according to the MPEG4 format, and encodes the encoded image data, that is, 3GP data. Is written into the encoded image area 24e (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

AACエンコーダ36は、マイクロフォン34から出力された音声データをAAC方式に従って符号化し、符号化音声データつまりAACデータをメモリ制御回路22を通してSDRAM24の符号化音声エリア24f(図3参照)に書き込む。   The AAC encoder 36 encodes the audio data output from the microphone 34 according to the AAC method, and writes the encoded audio data, that is, AAC data, into the encoded audio area 24 f (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

CPU46はその後、60フレームのMP4データが得られる毎に、最新60フレームのMP4データおよび最新1秒分のAACデータをオープン状態のMP4ファイルに転送し、最新30フレームの3GPデータおよび最新1秒分のAACデータをオープン状態の3GPファイルに転送する。   After that, every time 60 frames of MP4 data is obtained, the CPU 46 transfers the latest 60 frames of MP4 data and the latest 1 second of AAC data to the open MP4 file, and the latest 30 frames of 3GP data and the latest 1 second of data. Are transferred to an open 3GP file.

最新60フレームのMP4データおよび最新1秒分のAACデータは、メモリ制御回路22によって符号化画像エリア24dおよび符号化音声エリア24fから読み出され、I/F42を介してMP4ファイルに書き込まれる。また、最新30フレームの3GPデータおよび最新1秒分のAACデータは、メモリ制御回路22によって符号化画像エリア24eおよび符号化音声エリア24fから読み出され、I/F42を介して3GPファイルに書き込まれる。   The latest 60 frames of MP4 data and the latest one second of AAC data are read from the encoded image area 24d and the encoded audio area 24f by the memory control circuit 22, and written to the MP4 file via the I / F 42. The latest 30 frames of 3GP data and the latest AAC data for 1 second are read from the encoded image area 24e and the encoded audio area 24f by the memory control circuit 22 and written to the 3GP file via the I / F 42. .

したがって、MP4データおよびAACデータは、図6(A)に示す要領でMP4ファイルに収められる。また、3GPデータおよびAACデータは、図6(B)に示す要領で3GPファイルに収められる。   Therefore, MP4 data and AAC data are stored in the MP4 file in the manner shown in FIG. Further, the 3GP data and the AAC data are stored in the 3GP file in the manner shown in FIG.

キー入力装置48に向けて記録終了操作が行われると、CPU46は、MP4符号化処理を終了するべくMPEG4エンコーダ38を停止し、3GP符号化処理を終了するべく後処理回路28およびMPEG4エンコーダ40を停止し、そして音声取り込み処理を開始するべくAACエンコーダ36を停止する。   When a recording end operation is performed toward the key input device 48, the CPU 46 stops the MPEG4 encoder 38 in order to end the MP4 encoding process, and causes the post-processing circuit 28 and the MPEG4 encoder 40 to end in the 3GP encoding process. Stop and stop the AAC encoder 36 to start the audio capture process.

CPU46はその後、終端処理を実行する。これによって、SDRAM24に残存する60フレーム未満のMP4データおよび1秒未満のAACデータがMP4ファイルに書き込まれ、SDRAM24に残存する30フレーム未満の3GPデータおよび1秒未満のAACデータが3GPファイルに書き込まれる。オープン状態のMP4ファイルおよび3GPファイルは、終端処理が完了した後にクローズされる。   Thereafter, the CPU 46 performs termination processing. As a result, the MP4 data of less than 60 frames and the AAC data of less than 1 second remaining in the SDRAM 24 are written to the MP4 file, and the 3GP data of less than 30 frames and the AAC data of less than 1 second remaining in the SDRAM 24 are written to the 3GP file. . The open MP4 file and 3GP file are closed after termination processing is completed.

図7を参照して、MP4符号化処理および3GP符号化処理は、互いに並列して実行される。ただし、3GPデータの品質はMP4データの品質よりも低いため(品質:フレームレートおよび/または解像度)、或るフレームの生画像データに基づくMP4データの作成処理が完了した時点では、対応する3GPデータは完成している。このような時間特性に注目して、この実施例では、MP4データの作成処理の経過を参照しつつ、AACデータをMP4データおよび3GPデータの各々に割り当てるようにしている。   Referring to FIG. 7, the MP4 encoding process and the 3GP encoding process are executed in parallel with each other. However, since the quality of the 3GP data is lower than the quality of the MP4 data (quality: frame rate and / or resolution), when the MP4 data creation process based on the raw image data of a certain frame is completed, the corresponding 3GP data Is completed. Focusing on such time characteristics, in this embodiment, AAC data is assigned to each of MP4 data and 3GP data while referring to the progress of the MP4 data creation processing.

具体的に説明すると、MP4データおよび3GPデータはいずれも、イントラ符号化ピクチャ(=Iピクチャ)およびインター符号化ピクチャ(=PピクチャまたはBピクチャ)が混在したデータストリームである。また、1GOPは、Iピクチャから始まる60フレームのMP4データ或いはIピクチャから始まる30フレームの3GPデータによって形成される。さらに、60フレームのMP4データおよび30フレームの3GPデータはいずれも、1秒分の動画像を表す。   More specifically, both MP4 data and 3GP data are data streams in which intra-coded pictures (= I pictures) and inter-coded pictures (= P pictures or B pictures) are mixed. One GOP is formed by 60 frames of MP4 data starting from an I picture or 30 frames of 3GP data starting from an I picture. Furthermore, both 60 frames of MP4 data and 30 frames of 3GP data represent one second of moving images.

これを踏まえて、1秒分のAACデータは、MP4データを形成するIピクチャが作成されるタイミングで、1秒分のMP4データおよび1秒分の3GPデータの各々に割り当てられる。これによって、互いに異なる方式ないし品質に対応する動画像に共通の音声を割り当てるときの負荷を低減することができる。   Based on this, AAC data for one second is allocated to each of MP4 data for one second and 3GP data for one second at the timing when an I picture forming MP4 data is created. As a result, it is possible to reduce the load when assigning common audio to moving images corresponding to different methods or qualities.

CPU46は、図8〜図10に示す記録制御タスクと図11に示す撮像条件調整タスクとを含む複数のタスクを並列的に処理する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ50に記憶される。   The CPU 46 processes a plurality of tasks including the recording control task shown in FIGS. 8 to 10 and the imaging condition adjustment task shown in FIG. 11 in parallel. Note that control programs corresponding to these tasks are stored in the flash memory 50.

図8を参照して、ステップS1では動画取り込み処理を実行する。これによって、スルー画像がLCDモニタ32に表示される。ステップS3では記録開始操作が行われたか否かを繰り返し判別し、判別結果がNOからYESに更新されるとステップS5に進む。ステップS5およびS7では、I/F42を通して記録媒体44にアクセスし、オープン状態のMP4ファイルおよび3GPファイルを記録媒体44に新規に作成する。ステップS9ではMP4符号化処理を開始するべくMPEG4エンコーダ38を起動し、ステップS11では3GP符号化処理を開始するべく後処理回路28およびMPEG4エンコーダ40を起動し、ステップS13では音声取り込み処理を開始するべくAACエンコーダ36を起動する。   Referring to FIG. 8, in step S1, a moving image capturing process is executed. As a result, a through image is displayed on the LCD monitor 32. In step S3, it is repeatedly determined whether or not a recording start operation has been performed. If the determination result is updated from NO to YES, the process proceeds to step S5. In steps S5 and S7, the recording medium 44 is accessed through the I / F 42, and an open MP4 file and 3GP file are newly created in the recording medium 44. In step S9, the MPEG4 encoder 38 is activated to start the MP4 encoding process. In step S11, the post-processing circuit 28 and the MPEG4 encoder 40 are activated to start the 3GP encoding process. In step S13, the audio capturing process is started. Accordingly, the AAC encoder 36 is activated.

MP4エンコーダ38は、YUV画像エリア24bに格納された1080/60p方式の画像データをメモリ制御回路22を通して繰り返し読み出し、読み出された画像データをMPEG4方式に従って符号化し、そして符号化画像データつまりMP4データをメモリ制御回路22を通して符号化画像エリア24dに書き込む。   The MP4 encoder 38 repeatedly reads the 1080 / 60p format image data stored in the YUV image area 24b through the memory control circuit 22, encodes the read image data according to the MPEG4 format, and encodes encoded image data, that is, MP4 data. Is written into the encoded image area 24d through the memory control circuit 22.

後処理回路28は、切り出しエリアCT2に属する一部の生画像データをメモリ制御回路22を通して読み出し、読み出された生画像データに基づいて480/30p方式の画像データを作成し、そして作成された画像データをメモリ制御回路22を通してYUV画像エリア24cに書き込む。   The post-processing circuit 28 reads a part of raw image data belonging to the cut-out area CT2 through the memory control circuit 22, creates 480 / 30p format image data based on the read raw image data, and creates The image data is written into the YUV image area 24c through the memory control circuit 22.

MP4エンコーダ40は、YUV画像エリア24cに格納された480/30p方式の画像データをメモリ制御回路22を通して繰り返し読み出し、読み出された画像データをMPEG4方式に従って符号化し、そして符号化画像データつまり3GPデータをメモリ制御回路22を通して符号化画像エリア24eに書き込む。   The MP4 encoder 40 repeatedly reads the 480 / 30p format image data stored in the YUV image area 24c through the memory control circuit 22, encodes the read image data according to the MPEG4 format, and encodes the encoded image data, that is, 3GP data. Is written into the encoded image area 24e through the memory control circuit 22.

AACエンコーダ36は、マイクロフォン34から出力された音声データをAAC方式に従って符号化し、符号化音声データつまりAACデータをメモリ制御回路22を通して符号化音声エリア24fに書き込む。   The AAC encoder 36 encodes the audio data output from the microphone 34 in accordance with the AAC method, and writes the encoded audio data, that is, AAC data, into the encoded audio area 24 f through the memory control circuit 22.

ステップS15では変数Kを“1”に設定し、ステップS17では60*Kフレーム目のMP4データが完成したか否かを判別する。判別結果がNOからYESに更新されると、ステップS19以降の処理を実行する。   In step S15, the variable K is set to “1”, and in step S17, it is determined whether or not the MP4 data of the 60 * K frame is completed. When the determination result is updated from NO to YES, the processing after step S19 is executed.

ステップS19では、符号化画像エリア24dに格納された最新60フレームのMP4データをメモリ制御回路22を通して読み出し、読み出されたMP4データをI/F42を介してオープン状態のMP4ファイルに書き込む。ステップS21では、符号化音声エリア24fに格納された最新1秒分のAACデータをメモリ制御回路22を通して読み出し、読み出されたAACデータをI/F42を介してオープン状態のMP4ファイルに書き込む。   In step S19, the latest 60 frames of MP4 data stored in the encoded image area 24d are read through the memory control circuit 22, and the read MP4 data is written into the open MP4 file via the I / F 42. In step S21, the latest one-second AAC data stored in the encoded audio area 24f is read through the memory control circuit 22, and the read AAC data is written to the open MP4 file via the I / F 42.

ステップS23では、符号化画像エリア24eに格納された最新30フレームの3GPデータをメモリ制御回路22を通して読み出し、読み出された3GPデータをI/F42を介してオープン状態の3GPファイルに書き込む。ステップS25では、符号化音声エリア24fに格納された最新1秒分のAACデータをメモリ制御回路22を通して読み出し、読み出されたAACデータをI/F42を介してオープン状態の3GPファイルに書き込む。   In step S23, the latest 30 frames of 3GP data stored in the encoded image area 24e are read through the memory control circuit 22, and the read 3GP data is written to the open 3GP file via the I / F 42. In step S25, the latest one-second AAC data stored in the encoded audio area 24f is read through the memory control circuit 22, and the read AAC data is written into the open 3GP file via the I / F 42.

ステップS27では、記録終了操作が行われたか否かを判別する。判別結果がNOであれば、ステップS29で変数KをインクリメントしてからステップS17に戻る。したがって、ステップS19〜S25の処理は、60フレームのMP4データが得られる毎に実行される。ステップS27の判別結果がNOからYESに更新されると、ステップS31に進む。   In step S27, it is determined whether or not a recording end operation has been performed. If the determination result is NO, the variable K is incremented in step S29 and then the process returns to step S17. Therefore, the processes of steps S19 to S25 are executed every time 60 frames of MP4 data are obtained. When the determination result of step S27 is updated from NO to YES, the process proceeds to step S31.

ステップS31では、MP4符号化処理を終了するべくMPEG4エンコーダ38を停止し、ステップS33では3GP符号化処理を終了するべく後処理回路28およびMPEG4エンコーダ40を停止し、ステップS35では音声取り込み処理を開始するべくAACエンコーダ36を停止する。   In step S31, the MPEG4 encoder 38 is stopped to end the MP4 encoding process. In step S33, the post-processing circuit 28 and the MPEG4 encoder 40 are stopped to end the 3GP encoding process. In step S35, the audio capturing process is started. Therefore, the AAC encoder 36 is stopped.

ステップS37では、終端処理を実行する。これによって、SDRAM24に残存する60フレーム未満のMP4データおよび1秒未満のAACデータがMP4ファイルに書き込まれ、SDRAM24に残存する30フレーム未満の3GPデータおよび1秒未満のAACデータが3GPファイルに書き込まれる。ステップS39〜S41では、I/F42を通して記録媒体44にアクセスし、オープン状態のMP4ファイルおよび3GPファイルをクローズする。クローズ処理が完了すると、ステップS3に戻る。   In step S37, termination processing is executed. As a result, the MP4 data of less than 60 frames and the AAC data of less than 1 second remaining in the SDRAM 24 are written to the MP4 file, and the 3GP data of less than 30 frames and the AAC data of less than 1 second remaining in the SDRAM 24 are written to the 3GP file. . In steps S39 to S41, the recording medium 44 is accessed through the I / F 42, and the open MP4 file and 3GP file are closed. When the closing process is completed, the process returns to step S3.

図11を参照して、ステップS51ではフォーカス,絞り量および露光時間を初期化する。ステップS53では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS55でAE処理を実行する。これによって、スルー画像の明るさが適度に調整される。ステップS57ではAF起動条件が満足されるか否かを判別し、NOであればそのままステップS53に戻る一方、YESであればステップS59でAF処理を実行してからステップS53に戻る。AF処理の結果、フォーカスレンズ12は合焦点に配置され、これによってスルー画像の鮮鋭度が向上する。   Referring to FIG. 11, in step S51, the focus, aperture amount, and exposure time are initialized. In step S53, it is determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, an AE process is executed in step S55. As a result, the brightness of the through image is appropriately adjusted. In step S57, it is determined whether or not the AF activation condition is satisfied. If NO, the process directly returns to step S53. If YES, the AF process is performed in step S59, and then the process returns to step S53. As a result of the AF process, the focus lens 12 is disposed at the focal point, thereby improving the sharpness of the through image.

以上の説明から分かるように、メモリ制御回路22は、前処理回路20から出力された生画像データを周期的にSDRAM24に取り込む。後処理回路26は取り込まれた生画像データを1080/60p方式の画像データに変換し、MPEG4エンコーダ38は変換された画像データに基づいてMP4データを作成する。後処理回路28は取り込まれた生画像データを480/30p方式の画像データに変換し、MPEG4エンコーダ40は変換された画像データに基づいて3GPデータを作成する。ここで、MP4データおよび3GPデータは互いに並列して作成され、MP4データの品質は3GPデータの品質よりも高い。CPU46は、AACエンコーダ36から出力されたAACデータをこうして作成されたMP4データおよび3GPデータの各々に割り当てる(S21, S25)。CPU46はまた、AACデータの割り当て処理をMP4データの作成処理の経過を参照して起動する(S17)。   As can be seen from the above description, the memory control circuit 22 periodically fetches the raw image data output from the preprocessing circuit 20 into the SDRAM 24. The post-processing circuit 26 converts the captured raw image data into 1080 / 60p format image data, and the MPEG4 encoder 38 creates MP4 data based on the converted image data. The post-processing circuit 28 converts the captured raw image data into 480 / 30p format image data, and the MPEG4 encoder 40 creates 3GP data based on the converted image data. Here, MP4 data and 3GP data are created in parallel with each other, and the quality of MP4 data is higher than the quality of 3GP data. The CPU 46 assigns the AAC data output from the AAC encoder 36 to each of the MP4 data and 3GP data thus created (S21, S25). The CPU 46 also starts AAC data allocation processing with reference to the progress of MP4 data creation processing (S17).

このように、MP4データおよび3GPデータは、周期的に取り込まれる共通の生画像データに基づいて作成される。また、MP4データの作成処理および3GPデータの作成処理は互いに並列して実行される。さらに、MP4データの品質は3GPデータの品質よりも高い。したがって、或る周期で取り込まれた生画像データに注目したとき、この生画像データに基づくMP4データの作成処理が完了した時点では、対応する3GPデータは完成している。AACデータは、MP4データの作成処理の経過を参照して、MP4データおよび3GPデータの各々に割り当てられる。これによって、互いに異なる方式ないし品質を有する画像データに共通の音声データを割り当てるときの負荷を低減することができる。   Thus, MP4 data and 3GP data are created based on common raw image data that is periodically captured. Also, the MP4 data creation process and the 3GP data creation process are executed in parallel with each other. Furthermore, the quality of MP4 data is higher than the quality of 3GP data. Therefore, when attention is paid to the raw image data captured in a certain cycle, the corresponding 3GP data is completed when the MP4 data creation process based on the raw image data is completed. AAC data is assigned to each of MP4 data and 3GP data with reference to the progress of the MP4 data creation process. Thereby, it is possible to reduce a load when assigning common audio data to image data having different methods or qualities.

なお、この実施例では、1080/60p方式の画像データおよび480/30p方式の画像データのいずれもMPEG4方式で符号化される。しかし、1080/60p方式の画像データおよび480/30p方式の画像データのいずれか一方をJPEG方式で符号化するようにしてもよい。   In this embodiment, both the 1080 / 60p format image data and the 480 / 30p format image data are encoded by the MPEG4 format. However, either the 1080 / 60p format image data or the 480 / 30p format image data may be encoded by the JPEG format.

また、この実施例ではディジタルビデオカメラを想定しているが、この発明は据え置き型のビデオレコーダにも適用できる。   In this embodiment, a digital video camera is assumed, but the present invention can also be applied to a stationary video recorder.

さらに、この実施例では、音声データの符号化方式としてAAC方式を採用しているが、AAC方式以外の符号化方式で音声データを符号化するようにしてもよい。   Furthermore, in this embodiment, the AAC system is adopted as the audio data encoding system, but the audio data may be encoded by an encoding system other than the AAC system.

10 …ディジタルビデオカメラ
16 …イメージセンサ
26,28 …後処理回路
38,40 …MPEG4エンコーダ
44 …記録媒体
46 …CPU
DESCRIPTION OF SYMBOLS 10 ... Digital video camera 16 ... Image sensor 26, 28 ... Post-processing circuit 38, 40 ... MPEG4 encoder 44 ... Recording medium 46 ... CPU

Claims (3)

元画像データを周期的に取り込む画像取り込み手段、
前記画像取り込み手段によって取り込まれた元画像データに基づいて第1品質に対応する第1画像データを作成する第1作成手段、
前記画像取り込み手段によって取り込まれた元画像データに基づいて前記第1品質よりも低い第2品質に対応する第2画像データを作成する処理を前記第1作成手段の作成処理と並列して実行する第2作成手段、
前記第1作成手段によって作成された第1画像データおよび前記第2作成手段によって作成された第2画像データの各々に音声データを割り当てる割り当て手段、
前記第1作成手段による作成処理の経過を参照して前記割り当て手段を起動する制御手段、および
前記第1画像データと該第1画像データに割り当てられた音声データは第1ファイルとして記録し、前記第2画像データと該第2画像データに割り当てられた音声データは前記第1ファイルとは異なる第2ファイルとして記録する記録手段を備えることを特徴とする、データ処理装置。
Image capturing means for periodically capturing original image data;
First creation means for creating first image data corresponding to the first quality based on the original image data captured by the image capture means;
A process of creating second image data corresponding to a second quality lower than the first quality based on the original image data fetched by the image fetching means is executed in parallel with the creation process of the first creating means. Second preparation means,
Assigning means for assigning audio data to each of the first image data created by the first creating means and the second image data created by the second creating means;
Control means for activating the assigning means with reference to the progress of creation processing by the first creating means ; and
The first image data and the audio data assigned to the first image data are recorded as a first file, and the second image data and the audio data assigned to the second image data are different from the first file. A data processing apparatus comprising recording means for recording as a second file .
元画像データを周期的に取り込む画像取り込み手段、Image capturing means for periodically capturing original image data;
前記画像取り込み手段によって取り込まれた元画像データに基づいて第1品質に対応する第1画像データを作成する第1作成手段、First creation means for creating first image data corresponding to the first quality based on the original image data captured by the image capture means;
前記画像取り込み手段によって取り込まれた元画像データに基づいて前記第1品質よりも低い第2品質に対応する第2画像データを作成する処理を前記第1作成手段の作成処理と並列して実行する第2作成手段、A process of creating second image data corresponding to a second quality lower than the first quality based on the original image data fetched by the image fetching means is executed in parallel with the creation process of the first creating means. Second preparation means,
前記第1作成手段によって作成された第1画像データおよび前記第2作成手段によって作成された第2画像データの各々に音声データを割り当てる割り当て手段、およびAssigning means for assigning audio data to each of the first image data created by the first creating means and the second image data created by the second creating means;
前記第1作成手段による作成処理の経過を参照して前記割り当て手段を起動する制御手段を備え、Control means for activating the assigning means with reference to the progress of the creation processing by the first creating means,
前記制御手段は前記第1作成手段によって作成された第1画像データのフレーム数が既定値に達する毎に前記割り当て手段を起動することを特徴とするデータ処理装置。The data processing apparatus according to claim 1, wherein the control means activates the assignment means every time the number of frames of the first image data created by the first creation means reaches a predetermined value.
前記第1画像データはイントラ符号化画像とインター符号化画像とが混在したストリームデータに相当し、The first image data corresponds to stream data in which an intra-coded image and an inter-coded image are mixed,
前記既定値は前記イントラ符号化画像が出現する周期に対応する、請求項2記載のデータ処理装置。The data processing apparatus according to claim 2, wherein the predetermined value corresponds to a cycle in which the intra-coded image appears.
JP2010006808A 2010-01-15 2010-01-15 Data processing device Active JP5631598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010006808A JP5631598B2 (en) 2010-01-15 2010-01-15 Data processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010006808A JP5631598B2 (en) 2010-01-15 2010-01-15 Data processing device

Publications (2)

Publication Number Publication Date
JP2011146976A JP2011146976A (en) 2011-07-28
JP5631598B2 true JP5631598B2 (en) 2014-11-26

Family

ID=44461429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010006808A Active JP5631598B2 (en) 2010-01-15 2010-01-15 Data processing device

Country Status (1)

Country Link
JP (1) JP5631598B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128096A (en) * 1999-10-28 2001-05-11 Toshiba Corp Picture reproducing device
JP2001144936A (en) * 1999-11-12 2001-05-25 Canon Inc Information communication method and system
JP4218029B2 (en) * 2003-09-30 2009-02-04 日本ビクター株式会社 Video recording device
JP4235952B2 (en) * 2004-05-24 2009-03-11 カシオ計算機株式会社 Broadcast recording apparatus and broadcast recording processing program
KR101264817B1 (en) * 2005-09-08 2013-05-15 소니 주식회사 Captured image recording apparatus, captured image recording method, captured image reproducing apparatus, captured image reproducing method, and captured image recording/reproducing system
JP2007166598A (en) * 2005-11-15 2007-06-28 Seiko Epson Corp Information recording device and electronic instrument
JP2008259136A (en) * 2007-04-09 2008-10-23 Pioneer Electronic Corp Reception playback apparatus, reception playback method, reception playback program, and recording medium
JP4958758B2 (en) * 2007-12-14 2012-06-20 三星電子株式会社 Recording apparatus, reproducing apparatus, recording method, reproducing method, and program

Also Published As

Publication number Publication date
JP2011146976A (en) 2011-07-28

Similar Documents

Publication Publication Date Title
US10079041B2 (en) Digital image processing apparatus and method of controlling the same
TWI422219B (en) Imaging device, imaging method and computer-readable recording medium
JP2012175385A (en) Imaging apparatus and control method of the same
JP5909997B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR20120071972A (en) Digital image signal processing apparatus and method for controlling the same
JP2010153964A (en) Electronic camera
JP6354877B2 (en) Imaging control apparatus, and control method and program thereof
US20180077358A1 (en) Imaging apparatus and imaging method
JP5030822B2 (en) Electronic camera
JP6103481B2 (en) Imaging apparatus, and control method and program thereof
JP5631598B2 (en) Data processing device
JP2014049882A (en) Imaging apparatus
US20110043654A1 (en) Image processing apparatus
JP2014121024A (en) Imaging apparatus
JP2007142693A (en) Device and method for image pickup
JP2006148456A (en) Electronic camera
JP6199065B2 (en) Electronic camera
JP6083959B2 (en) Transmission apparatus, control method thereof, and control program
WO2022181087A1 (en) Image processing device and method, and program
US20140029923A1 (en) Image processing apparatus
JP2014007680A (en) Image generation device
JP2012054865A (en) Image processor
JP2012235432A (en) Electronic camera
KR102089981B1 (en) Image processing apparatus, image processing method and program thereof
JP2014107602A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121226

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141008

R150 Certificate of patent or registration of utility model

Ref document number: 5631598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250