JP2009296503A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2009296503A
JP2009296503A JP2008150350A JP2008150350A JP2009296503A JP 2009296503 A JP2009296503 A JP 2009296503A JP 2008150350 A JP2008150350 A JP 2008150350A JP 2008150350 A JP2008150350 A JP 2008150350A JP 2009296503 A JP2009296503 A JP 2009296503A
Authority
JP
Japan
Prior art keywords
data
scenario
unit
image processing
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008150350A
Other languages
Japanese (ja)
Other versions
JP5257980B2 (en
Inventor
Kenji Nakamura
健二 中村
Makoto Arioka
真 有岡
Yusuke Nara
裕介 奈良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2008150350A priority Critical patent/JP5257980B2/en
Publication of JP2009296503A publication Critical patent/JP2009296503A/en
Application granted granted Critical
Publication of JP5257980B2 publication Critical patent/JP5257980B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate recording data by an arithmetic unit, without impairing the execution of other processing by the arithmetic unit. <P>SOLUTION: A digital still camera is provided with an image generating unit 102 and an audio generating unit 103, which perform data processing on material data 90, on the basis of scenario data 93; an A/V codec unit 104 which generates the recording data 94, by encoding editing data (image stream information and audio stream information) generated by the image generating unit 102 and audio generation unit 103, and a schedule unit 105, which detects the free time of a CPU (arithmetic unit) of the digital camera. Then only when the schedule unit 105 detects the free time, will the A/V codec unit 104 start the encoding (generation processing for the recording data 94). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ユーザによって取得された画像データを含む素材データを加工して、符号化された記録データを生成する技術に関する。   The present invention relates to a technique for processing encoded material data by processing material data including image data acquired by a user.

昨今、カメラ付きの携帯電話やデジタルスチルカメラが広く普及し、一般的なユーザが手軽にデジタル画像データを楽しむようになってきた。そして、これらの画像データを単にディスプレイに静止画として表示させて楽しむだけでなく、音声データや文字データと合成してナレーションを入れたり、様々な特殊効果を施した画像データとして表示させるなど、表示形態が多様化してきた。   Recently, mobile phones with cameras and digital still cameras have become widespread, and general users can easily enjoy digital image data. These image data are not only displayed as still images on the display for enjoyment, but they can also be displayed as image data with various special effects, including narration by synthesizing with audio data and text data. The form has diversified.

従来より、デジタルスチルカメラで撮像した複数の静止画像データを、撮影順に一定時間間隔で表示してスライドショーのような動画像を表示させるための編集データ(ビデオストリーム)を作成する技術が知られている。   2. Description of the Related Art Conventionally, a technique for creating editing data (video stream) for displaying a plurality of still image data captured by a digital still camera at a certain time interval in the order of shooting and displaying a moving image such as a slide show is known. Yes.

一方で、動画像を配したブログの作成、動画投稿サイトへのアップロード、あるいはDVDへの書き込みなど、動画像の利用形態も多様化している。すなわち、編集データを作成したその場で単に視聴するだけでなく、編集データを符号化して保存用の記録データ(例えばMotionJPEGファイルやMPEGファイル等)を作成しておきたいという要請が強くなっている。   On the other hand, usage forms of moving images are diversifying, such as creating a blog with moving images, uploading to a video posting site, or writing to a DVD. That is, there is a strong demand not only for viewing the edited data on the spot where it was created, but also for creating the recording data for storage (for example, a Motion JPEG file or an MPEG file) by encoding the edited data. .

特開2007−306426号公報JP 2007-306426 A 特開2008−042256号公報JP 2008-042256 A

ところが、動画像に係る編集データを作成しつつ、これを符号化して記録データを作成するとなると画像処理における演算量や当該画像処理に要する時間が増大するという問題があった。この場合、当該画像処理を行う演算装置が記録データの作成のために占有されてしまい、その間、演算装置による他の処理を実行できないという問題があった。   However, when editing data relating to a moving image is created and recording data is created by encoding the editing data, there is a problem that the amount of calculation in image processing and the time required for the image processing increase. In this case, there is a problem that the arithmetic device that performs the image processing is occupied for creating the recording data, and during that time, other processing by the arithmetic device cannot be executed.

本発明は、上記課題に鑑みてなされたものであり、演算装置による他の処理の実行を妨げることなく、当該演算装置による記録データの作成を行うことを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to create recording data by the arithmetic device without interfering with execution of other processing by the arithmetic device.

上記の課題を解決するため、請求項1の発明は、素材データに基づいて符号化された記録データを作成する画像処理システムであって、要求する素材データと前記要求する素材データに対して施すデータ処理との対応関係を示すシナリオデータと前記シナリオデータにおいて要求される素材データとを事前に記憶する記憶手段と、前記記憶手段に記憶されているシナリオデータに基づいて、前記シナリオデータにおいて要求される素材データに施されるべきデータ処理を特定しつつ、特定したデータ処理を前記素材データに施して編集データを生成する生成手段と、前記生成手段により生成された編集データを演算により符号化して記録データを生成する演算手段と、前記演算手段がタスクを実行していない空き時間を検出して、前記演算手段による前記符号化が前記空き時間に行われるように、前記演算手段が前記符号化を開始するタイミングを決定するスケジュール手段とを備えることを特徴とする。   In order to solve the above-mentioned problems, the invention of claim 1 is an image processing system for creating recording data encoded based on material data, which is applied to requested material data and the requested material data. Storage means for storing scenario data indicating a correspondence relationship with data processing and material data required in the scenario data in advance, and requested in the scenario data based on the scenario data stored in the storage means Generating means for generating edit data by applying the specified data processing to the material data, and encoding the edit data generated by the generating means by calculation A computing means for generating recording data; and an idle time during which the computing means is not executing a task, Wherein such coding is performed in the idle time due to, characterized in that it comprises a scheduling means for determining when said calculation means starts the encoding.

また、請求項2の発明は、請求項1の発明に係る画像処理システムであって、前記スケジュール手段は、前記生成手段による編集データの生成を開始するタイミングを決定することにより、前記演算手段が前記符号化を開始するタイミングを決定することを特徴とする。   The invention according to claim 2 is the image processing system according to the invention according to claim 1, wherein the scheduling means determines the timing for starting generation of edit data by the generating means, whereby the calculating means The timing for starting the encoding is determined.

また、請求項3の発明は、請求項1または2の発明に係る画像処理システムであって、前記スケジュール手段は、ユーザ操作に応じて、前記空き時間を検出することを特徴とする。   According to a third aspect of the present invention, there is provided the image processing system according to the first or second aspect of the present invention, wherein the schedule means detects the idle time in response to a user operation.

また、請求項4の発明は、請求項1ないし3のいずれかの発明に係る画像処理システムであって、前記スケジュール手段は、前記演算手段がタスクを実行中か否かを監視することによって前記空き時間を検出することを特徴とする。   According to a fourth aspect of the present invention, there is provided the image processing system according to any one of the first to third aspects, wherein the scheduling means monitors whether or not the calculation means is executing a task. The free time is detected.

また、請求項5の発明は、請求項4の発明に係る画像処理システムであって、前記スケジュール手段は、前記演算手段が、所定の時間、タスクを実行していないことを検出したときに、前記空き時間を検出したと判断することを特徴とする。   Further, the invention of claim 5 is the image processing system according to the invention of claim 4, wherein the scheduling means detects that the computing means has not executed a task for a predetermined time, It is determined that the idle time is detected.

また、請求項6の発明は、素材データに基づいて符号化された記録データを作成する画像処理方法であって、(a)要求する素材データと前記要求する素材データに対して施すデータ処理との対応関係を示すシナリオデータと前記シナリオデータにおいて要求される素材データとを事前に記憶手段に記憶させる工程と、(b)演算手段がタスクを実行していない空き時間を検出する工程と、(c)前記記憶手段に記憶されているシナリオデータに基づいて、前記シナリオデータにおいて要求される素材データに施されるべきデータ処理を特定しつつ、特定したデータ処理を前記素材データに施して編集データを生成し前記演算手段に伝達する工程と、(d)前記(b)工程において空き時間が検出されたことに応じて、前記(c)工程において前記演算手段に伝達された編集データを前記演算手段に演算させることにより符号化して記録データを生成する工程とを有することを特徴とする。   The invention of claim 6 is an image processing method for creating recording data encoded based on material data, wherein (a) requested material data and data processing applied to the requested material data; Storing the scenario data indicating the correspondence relationship of the above and the material data required in the scenario data in the storage means in advance, (b) detecting the idle time when the calculation means is not executing the task, c) Based on the scenario data stored in the storage means, the data processing to be applied to the material data required in the scenario data is specified, and the specified data processing is applied to the material data to edit data. And (d) is transmitted to the calculation means in the step (c) in response to the detection of an idle time in the step (b). Characterized by a step of generating print data is encoded by calculating the edit data to the arithmetic unit.

また、請求項7の発明は、請求項6の発明に係る画像処理方法であって、前記(c)工程は、前記(b)工程において空き時間が検出されたことに応じて開始される工程であることを特徴とする。   The invention of claim 7 is the image processing method according to the invention of claim 6, wherein the step (c) is started in response to the detection of an empty time in the step (b). It is characterized by being.

また、請求項8の発明は、記憶手段と演算手段とを備えるコンピュータによって実行されるプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータに、(a)要求する素材データと前記要求する素材データに対して施すデータ処理との対応関係を示すシナリオデータと前記シナリオデータにおいて要求される素材データとを事前に前記記憶手段に記憶させる工程と、(b)前記演算手段がタスクを実行していない空き時間を検出する工程と、(c)前記記憶手段に記憶されているシナリオデータに基づいて、前記シナリオデータにおいて要求される素材データに施されるべきデータ処理を特定しつつ、特定したデータ処理を前記素材データに施して編集データを生成し前記演算手段に伝達する工程と、(d)前記(b)工程において空き時間が検出されたことに応じて、前記(c)工程において前記演算手段に伝達された編集データを前記演算手段に演算させることにより符号化して記録データを生成する工程とを実行させることを特徴とする。   The invention according to claim 8 is a program executed by a computer comprising storage means and calculation means, and the execution of the program by the computer is: (a) requesting material data and the request Storing scenario data indicating a correspondence relationship with data processing to be performed on the material data to be performed and material data required in the scenario data in the storage unit in advance, and (b) the calculation unit executes the task A step of detecting a free time that has not been performed, and (c) identifying data processing to be performed on material data required in the scenario data based on the scenario data stored in the storage means Performing the processed data on the material data to generate edit data and transmitting it to the computing means; and (d) the step (b). In response to the detection of a free time, the editing data transmitted to the calculation means in the step (c) is encoded by causing the calculation means to calculate and generating recording data. It is characterized by.

また、請求項9の発明は、請求項8の発明に係るプログラムであって、前記(b)工程において空き時間が検出されたことに応じて前記コンピュータに前記(c)工程を開始させることを特徴とする。   The invention of claim 9 is a program according to the invention of claim 8, wherein the computer is caused to start the step (c) in response to the detection of an empty time in the step (b). Features.

請求項1ないし9に記載の発明は、演算手段がタスクを実行していない空き時間を検出して、演算手段による符号化が検出した空き時間に行われるように、演算手段が符号化を開始するタイミングを決定することにより、演算手段による他のタスクの実行を妨げることなく、演算手段による記録データの作成を行うことができる。   The invention according to any one of claims 1 to 9 detects the idle time when the computing means is not executing a task, and the computing means starts encoding so that the encoding by the computing means is performed during the detected idle time. By determining the timing to perform recording, it is possible to create recording data by the computing means without hindering the execution of other tasks by the computing means.

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.

<1. 第1の実施の形態>
図1は、第1の実施の形態における情報処理システム1を示す図である。情報処理システム1は、本発明に係る画像処理システムとして構成されるデジタルスチルカメラ2と、端末装置3と、例えばコンテンツプロバイダ等に設置されるサーバ装置7とを備えている。本実施の形態における情報処理システム1では、端末装置3とサーバ装置7とが互いにネットワーク8を介して接続される構成となっている。
<1. First Embodiment>
FIG. 1 is a diagram illustrating an information processing system 1 according to the first embodiment. The information processing system 1 includes a digital still camera 2 configured as an image processing system according to the present invention, a terminal device 3, and a server device 7 installed in, for example, a content provider. In the information processing system 1 according to the present embodiment, the terminal device 3 and the server device 7 are connected to each other via a network 8.

なお、ネットワーク8としては、インターネットや公衆網等が該当する。また、サーバ装置7の台数は1台に限定されるものではなく、例えば複数のサーバ装置7がネットワーク8に接続されていてもよい。   The network 8 corresponds to the Internet or a public network. Further, the number of server devices 7 is not limited to one. For example, a plurality of server devices 7 may be connected to the network 8.

サーバ装置7は、データベース70を備えた一般的なコンピュータとして構成されており、先述のようにネットワーク8に接続されている。サーバ装置7のデータベース70には、シナリオ元データ72、GUIデータ73および素材データ74(以下、これらを「コンテンツデータ71」と総称する場合がある。)が予め保存されている。なお、コンテンツデータ71は、シナリオ元データ72、GUIデータ73および素材データ74を全て含んでいる必要はなく、それらのうちのいずれかであってもよい。   The server device 7 is configured as a general computer including a database 70 and is connected to the network 8 as described above. In the database 70 of the server device 7, scenario source data 72, GUI data 73, and material data 74 (hereinafter may be collectively referred to as “content data 71”) are stored in advance. Note that the content data 71 need not include all of the scenario source data 72, the GUI data 73, and the material data 74, and may be any of them.

コンテンツデータ71は、画像処理に関する専門知識を有するオペレータ(イラストレータやカメラマン、プログラマ等)によって予め作成されたデータである。したがって、コンテンツデータ71は、一般ユーザによって作成されるデータに比べて品質の高いデータとして提供される。コンテンツデータ71のうちのシナリオ元データ72およびGUIデータ73は、デジタルスチルカメラ2において実行されるデータであって、例えば、スクリプト言語等で記述されるテキストデータである。   The content data 71 is data created in advance by an operator (such as an illustrator, a cameraman, or a programmer) who has specialized knowledge about image processing. Therefore, the content data 71 is provided as data having higher quality than data created by a general user. The scenario source data 72 and the GUI data 73 in the content data 71 are data executed in the digital still camera 2 and are text data described in a script language or the like, for example.

シナリオ元データ72は、結婚式やゴルフコンペ、運動会、卒業式といった様々なテーマごとにそれぞれ制作されており、対応するテーマと関連づけられて保存されている。したがって、ユーザは具体的なテーマを選択するだけで、個々のシナリオ元データ72の内容を詳細に理解していなくても、所望の編集データを作成するためのシナリオ元データ72をコンテンツプロバイダによって提供される複数のシナリオ元データ72の中から容易に指定することが可能である。   The scenario source data 72 is created for each of various themes such as weddings, golf competitions, athletic events, and graduation ceremonies, and is stored in association with the corresponding themes. Accordingly, the user simply selects a specific theme, and the content provider provides the scenario source data 72 for creating the desired edit data without having to understand the details of the individual scenario source data 72 in detail. It is possible to easily specify from a plurality of scenario source data 72 to be executed.

なお、シナリオ元データ72と関連づけられるテーマは、上記に挙げたものに限定されるものではないが、ユーザが状況に応じて容易に思いつき、かつ、内容を容易に想像できるものが好ましい。また、編集データとは、ユーザが視聴する映像や音声を作成するために必要なデータであって、本実施の形態では画像(静止画像または動画像)や音声を表現した未圧縮のストリーム情報である。   The themes associated with the scenario source data 72 are not limited to those listed above, but are preferably those that the user can easily come up with according to the situation and easily imagine the contents. The edit data is data necessary for creating video and audio to be viewed by the user. In this embodiment, the edit data is uncompressed stream information representing an image (still image or moving image) or audio. is there.

また、各テーマには対応するGUIデータ73も関連づけられている。すなわち、テーマを介して、シナリオ元データ72とGUIデータ73とが互いに関連づけられている。対応づけられるGUIデータ73は、各シナリオ元データ72にとって専用のGUIデータ73であってもよいし、複数のシナリオ元データ72において共通に使用される汎用のGUIデータ73であってもよい。このようにシナリオ元データ72にGUIデータ73が関連づけられていることにより、ユーザはテーマを選択するだけで、シナリオ元データ72を指定できるとともに、当該シナリオ元データ72に必要なGUIデータ73も特定できる。   Each theme is also associated with corresponding GUI data 73. That is, the scenario source data 72 and the GUI data 73 are associated with each other via the theme. The associated GUI data 73 may be dedicated GUI data 73 for each scenario source data 72, or may be general-purpose GUI data 73 commonly used in a plurality of scenario source data 72. Since the GUI data 73 is associated with the scenario source data 72 in this way, the user can specify the scenario source data 72 only by selecting a theme and also specify the GUI data 73 necessary for the scenario source data 72. it can.

シナリオ元データ72には、目的の編集データに必要な編集前データ(画像データや音声データ、フォントデータ等)の識別子が記述されるとともに、各編集前データに対して実行すべき装飾(データ処理)が各編集前データごとに記述される。すなわち、シナリオ元データ72には、編集前データの識別子とデータ処理とが互いに関連づけられて記述される。   In the scenario original data 72, identifiers of pre-edit data (image data, audio data, font data, etc.) necessary for the target edit data are described, and decorations (data processing) to be executed for each pre-edit data. ) Is described for each pre-edit data. That is, in the scenario original data 72, the identifier of the pre-edit data and the data processing are described in association with each other.

シナリオ元データ72に記述されるデータ処理として、例えば、画像を表現した編集前データについて、どのような画像効果(Effect)を施すか、どのような画像合成(Synthesis)を行うか、あるいはどのように画像移行(Transition)させるか等が想定される。また、音声を表現した編集前データについても、再生のタイミングや音量等に関する設定情報(データ処理の種別を示す情報)が記述される。   As the data processing described in the scenario original data 72, for example, what kind of image effect (Effect) is applied to the pre-edit data representing the image, what kind of image synthesis (Synthesis) is performed, or how It is assumed that the image transition (Transition) is performed. In addition, setting data (information indicating the type of data processing) related to reproduction timing, volume, and the like is described for pre-edit data that represents audio.

さらに、音声データを画像に変換して画像データに合成したり、逆に、画像(文字)を認識して音声データ(読み上げ音声)に変換するなどのデータ処理も想定される。データ処理は、対応する編集前データに応じて画像処理の専門家であるオペレータによって選択され、シナリオ元データ72に記述される。   Further, data processing such as converting voice data into an image and synthesizing it into image data, or conversely, recognizing an image (character) and converting it into voice data (read-out voice) is also assumed. The data processing is selected by an operator who is an image processing expert according to the corresponding pre-edit data and is described in the scenario source data 72.

なお、シナリオ元データ72に識別子が記述される編集前データのうち、オペレータが制作したデータ(サーバ装置7に存在する素材データ74)については、当該シナリオ元データ72において当該素材データ74との関連づけが既にされている。したがって、シナリオ元データ72が特定されると、特定されたシナリオ元データ72において使用される素材データ74も編集前データとして特定される。   Of the pre-edit data whose identifier is described in the scenario source data 72, the data produced by the operator (the material data 74 existing in the server device 7) is associated with the material data 74 in the scenario source data 72. Has already been. Therefore, when the scenario source data 72 is specified, the material data 74 used in the specified scenario source data 72 is also specified as pre-edit data.

このように、コンテンツプロバイダは、ユーザがテーマを選択するだけで、サーバ装置7上の必要なシナリオ元データ72、GUIデータ73および素材データ74が容易に特定されるように、それぞれの関連づけを行って提供する。   As described above, the content provider associates each of the scenario source data 72, the GUI data 73, and the material data 74 on the server device 7 so that the necessary scenario source data 72, material data 74 can be easily specified only by the user selecting a theme. To provide.

GUIデータ73は、対応するシナリオ元データ72に応じて、適切なGUIをデジタルスチルカメラ2のユーザに提供するものである。すなわち、GUIデータ73を実行することにより、デジタルスチルカメラ2は、シナリオ元データ72において要求される編集前データを素材データ90(図2)の中から特定するための特定情報を入力するようにユーザに対して要求し、デジタルスチルカメラ2におけるユーザ操作を支援する。   The GUI data 73 provides an appropriate GUI to the user of the digital still camera 2 in accordance with the corresponding scenario source data 72. That is, by executing the GUI data 73, the digital still camera 2 inputs the specific information for specifying the pre-edit data required in the scenario original data 72 from the material data 90 (FIG. 2). A request is made to the user, and the user operation in the digital still camera 2 is supported.

例えば、対応するシナリオ元データ72で要求されている編集前データのうち、ユーザが指定(選択)しなければならないデータについては、その入力を促したり、当該編集前データとして適切な素材データ90をユーザが容易に指定できるように、当該編集前データに関する情報を表示したりする。   For example, among the pre-edit data requested by the corresponding scenario source data 72, the data that the user must specify (select) is prompted to input, or appropriate material data 90 is used as the pre-edit data. Information related to the pre-edit data is displayed so that the user can easily specify it.

素材データ74は、デジタルスチルカメラ2において加工される素材となるデータであって、画像データや音声データ、フォントデータ等である。素材データ74に含まれる画像データとしては、例えば、アニメキャラクタや映画の名場面、名所を撮影した風景画像、イラスト画像等であり、静止画像に限らず動画像であってもよい。また、音声データとしては、例えば、声優や俳優の声、BGM、動物の鳴き声、楽器の音、効果音等であり、現実に録音されたデータであってもよいし、機械的に合成された音を出力するためのデータであってもよい。素材データ74は、各シナリオ元データ72に最適なデータとして、専門家のオペレータによって制作され収集されたデータである。   The material data 74 is data to be processed in the digital still camera 2, and is image data, audio data, font data, or the like. The image data included in the material data 74 is, for example, an animated character or a famous scene of a movie, a landscape image of a famous place, an illustration image, and the like, and may be a moving image instead of a still image. The voice data includes, for example, voice actors and actors' voices, BGM, animal calls, musical instrument sounds, sound effects, etc., and may be actually recorded data or mechanically synthesized. Data for outputting sound may be used. The material data 74 is data produced and collected by an expert operator as the optimum data for each scenario source data 72.

詳細は図示しないが、端末装置3は、一般的なコンピュータとしての構成および機能を備えた装置であって、ネットワーク8に接続されている。すなわち、情報処理システム1では、端末装置3とサーバ装置7との間でネットワーク8を介したデータ通信が可能とされている。したがって、ユーザは、端末装置3を操作することによって、サーバ装置7からコンテンツデータ71を端末装置3にダウンロードすることができる。   Although not shown in detail, the terminal device 3 is a device having a configuration and functions as a general computer, and is connected to the network 8. In other words, in the information processing system 1, data communication via the network 8 is possible between the terminal device 3 and the server device 7. Therefore, the user can download the content data 71 from the server device 7 to the terminal device 3 by operating the terminal device 3.

また、端末装置3はケーブル30を介してデジタルスチルカメラ2と着脱自在に接続することも可能とされている。すなわち、ユーザは、デジタルスチルカメラ2と端末装置3とをケーブル30で接続しておき、サーバ装置7から端末装置3にダウンロードしたコンテンツデータ71をデジタルスチルカメラ2に転送しておくことにより、デジタルスチルカメラ2にコンテンツデータ71を記憶させることが可能である。   Further, the terminal device 3 can be detachably connected to the digital still camera 2 via the cable 30. That is, the user digitally connects the digital still camera 2 and the terminal device 3 with the cable 30 and transfers the content data 71 downloaded from the server device 7 to the terminal device 3 to the digital still camera 2. The content data 71 can be stored in the still camera 2.

デジタルスチルカメラ2は、図1に示すように可搬性の記録メディア9を自在に着脱できるように設計されている。したがって、デジタルスチルカメラ2は、装着された記録メディア9に記憶されているデータを読み出して利用したり、デジタルスチルカメラ2において生成したデータ(あるいは端末装置3から転送されたデータ)を当該記録メディア9に記憶させたりすることが可能である。本実施の形態では記録メディア9としてSDカードを採用するが、記録メディア9はこれに限定されるものではなく、例えばPCカードやメモリスティック等であってもよい。   The digital still camera 2 is designed so that a portable recording medium 9 can be freely attached and detached as shown in FIG. Therefore, the digital still camera 2 reads and uses data stored in the attached recording medium 9 or uses data generated by the digital still camera 2 (or data transferred from the terminal device 3). 9 can be stored. In the present embodiment, an SD card is adopted as the recording medium 9, but the recording medium 9 is not limited to this, and may be, for example, a PC card or a memory stick.

図2は、第1の実施の形態において画像処理システムとして構成されるデジタルスチルカメラ2の構成を示すブロック図である。図2に示す例では、デジタルスチルカメラ2の記録メディア9には、サーバ装置7からダウンロードされたシナリオ元データ72、GUIデータ73および素材データ74が既に格納されている。   FIG. 2 is a block diagram showing a configuration of the digital still camera 2 configured as an image processing system in the first embodiment. In the example shown in FIG. 2, scenario original data 72, GUI data 73 and material data 74 downloaded from the server device 7 are already stored in the recording medium 9 of the digital still camera 2.

なお、撮像データ91および録音データ92は、デジタルスチルカメラ2においてユーザにより撮像または録音され生成されるユーザ由来(サーバ装置7から提供されるデータではないという意味)のデータである。したがって、記録メディア9に記憶される素材データ90は、図2に示すように、オペレータによって制作される素材データ74の他に、撮像データ91および録音データ92を含んでいる。   The imaging data 91 and the recording data 92 are data derived from the user (meaning that the data is not provided from the server device 7) that is captured or recorded by the user in the digital still camera 2. Therefore, the material data 90 stored in the recording medium 9 includes imaging data 91 and recording data 92 in addition to the material data 74 produced by the operator, as shown in FIG.

先述のように、素材データ74はテーマが選択されることによって特定されダウンロードされたデータであるから、当該テーマに関連づけられたシナリオ元データ72において要求されている編集前データである。すなわち、本実施の形態においては、素材データ90は編集前データ以外のデータを含んでいる。   As described above, since the material data 74 is data that is specified and downloaded by selecting a theme, it is pre-edit data requested in the scenario source data 72 associated with the theme. That is, in the present embodiment, the material data 90 includes data other than pre-edit data.

デジタルスチルカメラ2は、各種データに関する演算処理を行うCPU20と、各種データを必要に応じて適宜記憶する記憶部21とを備えており、一般的なコンピュータとしても構成されている。   The digital still camera 2 includes a CPU 20 that performs arithmetic processing on various data and a storage unit 21 that appropriately stores various data as necessary, and is also configured as a general computer.

CPU20は、記憶部21のRAMを一時的なワーキングエリアとして使用しつつ、記憶部21のROMに格納されているプログラム210に従って動作することにより、デジタルスチルカメラ2の各構成を制御する。なお、CPU20は、サーバ装置7からダウンロードされて記録メディア9に格納されているシナリオ元データ72およびGUIデータ73を実行する機能も有しているが詳細は後述する。   The CPU 20 controls each component of the digital still camera 2 by operating according to the program 210 stored in the ROM of the storage unit 21 while using the RAM of the storage unit 21 as a temporary working area. The CPU 20 also has a function of executing the scenario original data 72 and the GUI data 73 downloaded from the server device 7 and stored in the recording medium 9, but details will be described later.

また、デジタルスチルカメラ2は、各種データを取り込むための構成として、ユーザによって操作される操作部22と、周囲の音声を電気信号に変換することにより録音を行うマイク23と、入射する光を電気信号に変換することにより撮像を行う撮像部24とを備えている。   The digital still camera 2 has a configuration for capturing various data, an operation unit 22 operated by a user, a microphone 23 for recording by converting surrounding sound into an electric signal, and incident light as an electric And an imaging unit 24 that performs imaging by converting the signals into signals.

操作部22は、ユーザがデジタルスチルカメラ2に対して指示を入力するために使用される。操作部22は、例えば、デジタルスチルカメラ2(撮像部24)に撮像を行わせるための指示を入力するシャッターボタン、デジタルスチルカメラ2の動作に必要な設定データ等を入力するためのボタン類、あるいは文字データを入力するためのキー等で構成されている。特に、本実施の形態では、操作部22は、ユーザが、所望のテーマ(シナリオ元データ72)を選択するときや、記録メディア9に記憶されている素材データ90から編集前データを特定するための特定情報を入力するとき等に操作される。   The operation unit 22 is used for a user to input an instruction to the digital still camera 2. The operation unit 22 includes, for example, a shutter button for inputting an instruction for causing the digital still camera 2 (imaging unit 24) to perform imaging, buttons for inputting setting data necessary for the operation of the digital still camera 2, Or it is comprised by the key etc. for inputting character data. In particular, in the present embodiment, the operation unit 22 specifies the pre-edit data from the material data 90 stored in the recording medium 9 when the user selects a desired theme (scenario source data 72). It is operated when inputting specific information.

マイク23は、先述のように、音声を電気信号に変換する機能を備えており、マイク23によって取得された電気信号はA/D変換された後、音声データとして、後述するデータ変換部27に伝達される。   As described above, the microphone 23 has a function of converting sound into an electric signal. The electric signal acquired by the microphone 23 is A / D converted and then converted into sound data to a data conversion unit 27 described later. Communicated.

撮像部24は、レンズ等の光学系と、光学系によって導かれた光を受光して電気信号に変換する複数の光電変換素子(例えばCCD素子)とを備えている。複数の光電変換素子は、アレイ状に配列されており、それぞれが撮像時に受光した光の光量に応じた電気信号を出力する。   The imaging unit 24 includes an optical system such as a lens and a plurality of photoelectric conversion elements (for example, CCD elements) that receive light guided by the optical system and convert it into an electrical signal. The plurality of photoelectric conversion elements are arranged in an array, and each outputs an electrical signal corresponding to the amount of light received during imaging.

撮像部24は、ユーザが操作部22(シャッターボタン)を操作することにより撮像を行う。そして、1度の撮像によって複数の光電変換素子から得られたそれぞれの出力信号はA/D変換や色補正等がされた後、1枚の画像を表現したデジタルデータとして、後述するデータ変換部27に伝達される。   The imaging unit 24 performs imaging when the user operates the operation unit 22 (shutter button). Each output signal obtained from a plurality of photoelectric conversion elements by one imaging is subjected to A / D conversion, color correction, and the like, and then converted into digital data representing one image as a data conversion unit to be described later 27.

デジタルスチルカメラ2は、各種データを出力するための構成として、音声データに基づいて生成される電気信号により音声を再生するスピーカ25と、画像データに基づいて画像を表示する液晶パネル26とを備える。   As a configuration for outputting various data, the digital still camera 2 includes a speaker 25 that reproduces sound by an electric signal generated based on the sound data, and a liquid crystal panel 26 that displays an image based on the image data. .

スピーカ25は、録音データ92、編集データに含まれる音声ストリーム情報、あるいは再生データ(後述)を構成する音声データ等に基づいて音声を再生するための装置である。   The speaker 25 is a device for playing back sound based on the recording data 92, the sound stream information included in the editing data, or the sound data constituting the playback data (described later).

液晶パネル26は、CPU20からの制御によって必要なデータを画像として表示する表示装置として構成されている。例えば、液晶パネル26は記録メディア9内に記憶されている素材データ90(画像を表現したデータ)や、作成された編集データのうちの映像に関するデータを再生表示するだけでなく、CPU20からの指示に従って所定のメッセージ(文字)等を表示する機能も有している。   The liquid crystal panel 26 is configured as a display device that displays necessary data as an image under the control of the CPU 20. For example, the liquid crystal panel 26 not only reproduces and displays material data 90 (data representing an image) stored in the recording medium 9 and data related to video in the created editing data, but also gives instructions from the CPU 20. And has a function of displaying a predetermined message (character) or the like.

特に、本実施の形態における液晶パネル26は、CPU20がGUIデータ73を実行することにより提供されるGUI画面や編集データに含まれる画像ストリーム情報、あるいは再生データを構成する画像データ等を表示する機能を有している。   In particular, the liquid crystal panel 26 according to the present embodiment has a function of displaying a GUI screen provided when the CPU 20 executes the GUI data 73, image stream information included in edit data, image data constituting playback data, or the like. have.

さらに、デジタルスチルカメラ2は、データ変換部27、カードスロット28および通信部29を備えている。   Further, the digital still camera 2 includes a data conversion unit 27, a card slot 28, and a communication unit 29.

データ変換部27は、論理回路(ハードウェア)から主に構成され、伝達されるデータのデータ形式を圧縮変換(エンコード)する機能と、圧縮変換されたデータをデコードする機能とを有している。   The data converter 27 is mainly composed of a logic circuit (hardware), and has a function of compressing (encoding) the data format of transmitted data and a function of decoding the compressed and converted data. .

本実施の形態におけるデータ変換部27は、撮像部24から伝達される画像データをJPEG形式に圧縮された撮像データ91(静止画像データ)として生成する機能と、JPEG形式の画像データ(撮像データ91を含む)をデコードして液晶パネル26に表示可能な状態に変換する機能とを有している。   The data conversion unit 27 according to the present embodiment has a function of generating image data transmitted from the imaging unit 24 as imaging data 91 (still image data) compressed in JPEG format, and JPEG-format image data (imaging data 91). And a function of converting the information into a state that can be displayed on the liquid crystal panel 26.

また、データ変換部27は、マイク23から伝達される音声データをMP3形式に圧縮された録音データ92として生成する機能と、MP3形式の音声データ(録音データ92を含む)をデコードしてスピーカ25が再生可能な状態に変換する機能とを有している。   The data conversion unit 27 also decodes the MP3 format audio data (including the recording data 92) by decoding the audio data transmitted from the microphone 23 as the recording data 92 compressed into the MP3 format, and the speaker 25. Has a function of converting to a reproducible state.

一般に撮像により得られる画像データや録音により得られる音声データはデータサイズが大きなデータとなる。したがって、これを圧縮せずにそのままの状態で保存(記憶)すると記録媒体(記録メディア9)のデータ容量(記憶可能なデータ量)が不足するおそれがある。したがって、撮像機能や録音機能を有する装置において、撮像や録音により得られたデータを保存用に圧縮するデータ変換部27のような専用のハードウェアを設けることは、一般的なアーキテクチャとして広く採用されている。ただし、画像データや音声データを圧縮変換する形式はJPEG形式やMP3形式に限定されるものではない。なお、データ変換部27により生成された撮像データ91および録音データ92は、記録メディア9に転送され記憶される。   In general, image data obtained by imaging and audio data obtained by recording are data having a large data size. Therefore, if this is stored (stored) as it is without being compressed, the data capacity (data amount that can be stored) of the recording medium (recording medium 9) may be insufficient. Therefore, in a device having an imaging function and a recording function, it is widely adopted as a general architecture to provide dedicated hardware such as a data conversion unit 27 that compresses data obtained by imaging or recording for storage. ing. However, the format for compressing and converting image data and audio data is not limited to the JPEG format or the MP3 format. The imaging data 91 and the recording data 92 generated by the data conversion unit 27 are transferred to the recording medium 9 and stored.

カードスロット28は、デジタルスチルカメラ2に記録メディア9を装着する機能を提供するハードウェアインタフェースである。カードスロット28に記録メディア9が装着されることにより、デジタルスチルカメラ2は記録メディア9を記憶装置として使用することが可能となる。   The card slot 28 is a hardware interface that provides a function of attaching the recording medium 9 to the digital still camera 2. By mounting the recording medium 9 in the card slot 28, the digital still camera 2 can use the recording medium 9 as a storage device.

通信部29は、デジタルスチルカメラ2を端末装置3にケーブル30を介して着脱自在に接続する機能を有している。これにより、デジタルスチルカメラ2は、端末装置3からコンテンツデータ71を取得することが可能である。本実施の形態における情報処理システム1では、ケーブル30と通信部29として、USBケーブルとUSB端子とを採用する。   The communication unit 29 has a function of detachably connecting the digital still camera 2 to the terminal device 3 via the cable 30. Thereby, the digital still camera 2 can acquire the content data 71 from the terminal device 3. In the information processing system 1 according to the present embodiment, a USB cable and a USB terminal are employed as the cable 30 and the communication unit 29.

なお、デジタルスチルカメラ2が端末装置3からコンテンツデータ71を取得するための構成は、ケーブル30を介したデータ通信に限定されるものではない。例えば、記録メディア9を端末装置3に装着し、端末装置3において記録メディア9にコンテンツデータ71を記憶させてから、当該記録メディア9をデジタルスチルカメラ2に装着するように構成してもよい。このように構成した場合、デジタルスチルカメラ2において通信部29は不要となる。   The configuration for the digital still camera 2 to acquire the content data 71 from the terminal device 3 is not limited to data communication via the cable 30. For example, the recording medium 9 may be attached to the terminal device 3, the content data 71 may be stored in the recording medium 9 in the terminal device 3, and then the recording medium 9 may be attached to the digital still camera 2. When configured in this manner, the communication unit 29 is not necessary in the digital still camera 2.

以上、ここまでに説明したように、本実施の形態におけるデジタルスチルカメラ2の各ハードウェアは、本発明に特化した専用のハードウェアである必要がなく、広く一般的に流通している撮像装置と同様のハードウェアを採用することができる。したがって、本発明を実現するハードウェアとしては、市販の撮像装置を採用可能であり、システム全体のコストを抑制することができる。   As described above, each hardware of the digital still camera 2 in the present embodiment does not have to be dedicated hardware specialized for the present invention, and is widely distributed in general. The same hardware as the device can be employed. Therefore, a commercially available imaging device can be adopted as hardware for realizing the present invention, and the cost of the entire system can be suppressed.

図3は、第1の実施の形態において画像処理システムとして構成されるデジタルスチルカメラ2の機能ブロックをデータの流れとともに示す図である。図3に示す要求部100、シナリオ解析部101、画像生成部102、音声生成部103、A/Vコーデック部104およびスケジュール部105は、主にCPU20が記憶部21に記憶されているプログラム210に従って動作することにより実現される機能ブロックである。   FIG. 3 is a diagram showing functional blocks of the digital still camera 2 configured as an image processing system in the first embodiment together with a data flow. The request unit 100, scenario analysis unit 101, image generation unit 102, audio generation unit 103, A / V codec unit 104, and schedule unit 105 shown in FIG. 3 are mainly according to a program 210 stored in the storage unit 21 by the CPU 20. It is a functional block realized by operating.

なお、以下の説明では、ユーザによって「テーマ」が既に選択されており、当該選択されたテーマに応じて特定された1つのシナリオ元データ72がデジタルスチルカメラ2において取得されているものとする。すなわち、図3は、ユーザが操作部22を操作することにより、既にシナリオ元データ72の特定は完了し、特定されたシナリオ元データ72に関連づけられているGUIデータ73および素材データ74も既に記録メディア9に記憶されている状態を示している。   In the following description, it is assumed that “theme” has already been selected by the user, and one scenario source data 72 specified according to the selected theme has been acquired in the digital still camera 2. That is, in FIG. 3, when the user operates the operation unit 22, the specification of the scenario source data 72 has already been completed, and the GUI data 73 and the material data 74 associated with the specified scenario source data 72 have already been recorded. The state stored in the medium 9 is shown.

要求部100は、GUIデータ73を参照しつつ、そこに記述されている内容に従って、デジタルスチルカメラ2のユーザに対して必要な情報を入力するように促すGUIを提供する。すなわち、要求部100は、液晶パネル26にメニュー画面や入力画面等を表示させることにより、シナリオ元データ72において要求される編集前データを特定するための特定情報を入力するようにユーザに対して要求する機能を有している。   The request unit 100 refers to the GUI data 73 and provides a GUI that prompts the user of the digital still camera 2 to input necessary information according to the contents described therein. That is, the request unit 100 displays a menu screen, an input screen, or the like on the liquid crystal panel 26, thereby prompting the user to input specific information for specifying pre-edit data required in the scenario source data 72. It has the required function.

シナリオ元データ72に記述されている編集前データの識別子とは、いわば編集データにおける役名である。そして、各役名にどの俳優(素材データ90)を具体的に割り当てるかは、ユーザが特定情報を入力することにより決定される。ユーザがGUIデータ73によって提供されるGUIに従って入力することにより、編集前データの識別子(役名)と素材データ90の識別子(俳優名)とが関連づけられる。   The identifier of the pre-edit data described in the scenario original data 72 is, so to speak, a role name in the edit data. Which actor (material data 90) is specifically assigned to each role name is determined by the user inputting specific information. When the user inputs according to the GUI provided by the GUI data 73, the identifier (title) of the pre-edit data and the identifier (actor name) of the material data 90 are associated with each other.

言い換えれば、ユーザは、液晶パネル26に表示されるGUI画面によって要求される情報を、当該GUI画面に従って操作部22を操作して入力するだけで、専門的な知識を有していなくても、編集データを作成するために必要な指示をデジタルスチルカメラ2に与えることが可能である。   In other words, the user simply inputs the information requested by the GUI screen displayed on the liquid crystal panel 26 by operating the operation unit 22 in accordance with the GUI screen. It is possible to give the digital still camera 2 instructions necessary for creating edit data.

また、本実施の形態における要求部100は、すでに記録メディア9に記憶されている素材データ90から編集前データとなるデータを選択するように要求するだけではなく、素材収集指示情報をGUI画面として液晶パネル26に表示させることにより、ユーザに対して、編集前データとなる新たな素材データ90を取得するように要求する。具体的には、既に撮像され撮り溜めされた過去の撮像データ91を選択させるだけでなく、新たに撮像を行って撮像データ91を取得するよう要求する。   In addition, the request unit 100 according to the present embodiment not only requests to select data to be pre-edit data from the material data 90 already stored in the recording medium 9, but also uses the material collection instruction information as a GUI screen. By displaying on the liquid crystal panel 26, the user is requested to acquire new material data 90 as pre-edit data. Specifically, it requests not only to select past imaging data 91 that has already been captured and collected, but also to acquire imaging data 91 by performing a new imaging.

すなわち、要求部100は、例えば、撮像指示情報を液晶パネル26に表示させることにより撮像部24よる撮像をユーザに対して要求するとともに、その要求に応じて行われる撮像により生成される撮像データ91を、シナリオ元データ72において要求される編集前データとして特定するための特定情報を生成する。撮像指示情報は、新たな撮像を行うように指示するメッセージだけでなく、どのような場面や被写体を撮像すればよいか等を指示するメッセージ等を含めることも可能である。   That is, for example, the request unit 100 requests the user to perform image capturing by the image capturing unit 24 by displaying image capturing instruction information on the liquid crystal panel 26, and also captures image data 91 generated by image capturing performed in response to the request. Is generated as the pre-edit data required in the scenario source data 72. The imaging instruction information can include not only a message for instructing to perform new imaging, but also a message for instructing what kind of scene or subject should be imaged.

なお、要求部100は、GUI画面に従って、ユーザが撮像(あるいは録音)を行って新たに取得したデータをデータ変換部27を介して記録メディア9に記憶させる機能も有している。すなわち、マイク23および撮像部24から要求部100に入力される新たなデータ(音声データおよび画像データ)は、データ変換部27において圧縮処理された後、記録メディア9に転送され素材データ90として記憶される。   Note that the request unit 100 also has a function of storing data newly acquired by image capturing (or recording) by the user in the recording medium 9 via the data conversion unit 27 in accordance with the GUI screen. That is, new data (audio data and image data) input from the microphone 23 and the imaging unit 24 to the request unit 100 is compressed by the data conversion unit 27, transferred to the recording medium 9, and stored as material data 90. Is done.

ユーザからの指示に従って選択あるいは新たに取得された各素材データ90は、シナリオ元データ72において宣言されている各編集前データとしてユーザに指定されたものとみなされ、互いに関連づけが行われて、その情報が要求部100からシナリオ解析部101に伝達される。すなわち、全ての編集前データに関するユーザの指定が完了した段階で、要求部100は、シナリオ元データ72で要求される編集前データの識別子と、記録メディア9に記憶されている各素材データ90の記録メディア9上の識別子(例えば記録メディア9における各素材データ90のファイル名)とを関連づけた情報(以下、「素材指定情報」と称する)をシナリオ解析部101に伝達する。先に示した例えで言えば、素材指定情報とは、役名と俳優名とを関連づけたリスト情報となる。   Each material data 90 selected or newly acquired in accordance with an instruction from the user is regarded as specified by the user as each pre-edit data declared in the scenario source data 72, and is associated with each other. Information is transmitted from the request unit 100 to the scenario analysis unit 101. That is, at the stage where the user designation for all the pre-edit data has been completed, the request unit 100 stores the identifier of the pre-edit data requested in the scenario source data 72 and each material data 90 stored in the recording medium 9. Information (hereinafter referred to as “material designation information”) associated with an identifier on the recording medium 9 (for example, the file name of each material data 90 in the recording medium 9) is transmitted to the scenario analysis unit 101. In the example shown above, the material designation information is list information in which a role name and an actor name are associated with each other.

シナリオ解析部101は、要求部100から伝達される素材指定情報とシナリオ元データ72とに基づいて、記録メディア9に記憶された素材データ90の中から当該シナリオ元データ72において要求される編集前データを特定する。   Based on the material designation information and the scenario source data 72 transmitted from the request unit 100, the scenario analysis unit 101 performs pre-editing requested in the scenario source data 72 from the material data 90 stored in the recording medium 9. Identify the data.

また、シナリオ解析部101は、編集前データとして特定された素材データ90の識別子と、編集前データに対して実行すべきデータ処理を示す識別子とを、それぞれに関連づけられている編集前データの識別子を仲立ちにして、互いに関連づけ、シナリオデータ93を作成し、記録メディア9に記憶させる。すなわち、シナリオデータ93とは、シナリオ元データ72と、素材指定情報とに基づいてシナリオ解析部101によって作成されるデータであって、要求する素材データ90と当該素材データに対して施すデータ処理との対応関係を示すデータである。   In addition, the scenario analysis unit 101 associates the identifier of the material data 90 identified as the pre-edit data and the identifier indicating the data processing to be executed on the pre-edit data with the pre-edit data identifiers associated with each other. Are associated with each other, scenario data 93 is created and stored in the recording medium 9. That is, the scenario data 93 is data created by the scenario analysis unit 101 based on the scenario original data 72 and the material designation information, and includes requested material data 90 and data processing applied to the material data. It is the data which shows the corresponding relationship.

このようなシナリオデータ93が作成されることによって、編集データを作成するために要求される全ての素材データ90が特定され、かつ、各素材データ90に対するデータ処理が特定される。なお、デジタルスチルカメラ2では、様々な場面においてシナリオデータ93が作成される。すなわち、記録メディア9に記憶されているシナリオデータ93は1つとは限らず、複数のシナリオデータ93が存在している場合がある。以下の説明では、複数のシナリオデータ93のうち、作成しようとする編集データに対応したシナリオデータ93を特に「対象シナリオデータ93」と称する。   By creating such scenario data 93, all material data 90 required for creating edit data is specified, and data processing for each material data 90 is specified. In the digital still camera 2, scenario data 93 is created in various scenes. That is, the scenario data 93 stored in the recording medium 9 is not limited to one, and a plurality of scenario data 93 may exist. In the following description, among the plurality of scenario data 93, the scenario data 93 corresponding to the edit data to be created is particularly referred to as “target scenario data 93”.

画像生成部102は、対象シナリオデータ93(より詳しくは映像に係る対象シナリオデータ93)を参照しつつ、そこに記述されている素材データ90の識別子に基づいて記録メディア9から該当する素材データ90を読み出す。そして、当該対象シナリオデータ93において当該素材データ90に関連づけられているデータ処理の識別子に応じて、当該素材データ90にデータ処理を施して編集データ(より詳しくは編集データのうちの映像に係るデータ)を生成する。なお、画像生成部102は、素材データ90にデータ処理を施すに際して、素材データ90における画像を解析して被写体の動きや形状等を判定したり、画像の合成や補間、変換等の様々な加工を行う機能も有している。   The image generation unit 102 refers to the target scenario data 93 (more specifically, the target scenario data 93 related to the video), and based on the identifier of the material data 90 described therein, the corresponding material data 90 from the recording medium 9. Is read. Then, according to the data processing identifier associated with the material data 90 in the target scenario data 93, the material data 90 is subjected to data processing to be edited data (more specifically, data related to the video in the editing data). ) Is generated. Note that the image generation unit 102 analyzes the image in the material data 90 to determine the movement and shape of the subject when performing data processing on the material data 90, and performs various processes such as image composition, interpolation, and conversion. It also has a function to perform.

画像生成部102は、生成した映像に係る編集データを液晶パネル26あるいはA/Vコーデック部104に伝達する。本実施の形態における画像生成部102は、スケジュール部105によって編集データの作成が指示された場合にのみ、生成した編集データをA/Vコーデック部104に伝達する。一方、リアルタイムに演算しつつ編集データを作成して再生するようにユーザにより指示がされた場合、画像生成部102は生成した編集データをA/Vコーデック部104に伝達せずに、液晶パネル26に伝達する。これにより、液晶パネル26に編集データに係る画像(主に動画像)が表示される。   The image generation unit 102 transmits editing data related to the generated video to the liquid crystal panel 26 or the A / V codec unit 104. The image generation unit 102 according to the present embodiment transmits the generated edit data to the A / V codec unit 104 only when the schedule unit 105 instructs the creation of the edit data. On the other hand, when the user gives an instruction to create and play the edited data while calculating in real time, the image generating unit 102 does not transmit the generated edited data to the A / V codec unit 104, but the liquid crystal panel 26. To communicate. As a result, an image (mainly a moving image) related to the editing data is displayed on the liquid crystal panel 26.

音声生成部103は、対象シナリオデータ93(より詳しくは音声に係る対象シナリオデータ93)を参照しつつ、そこに記述されている素材データ90の識別子に基づいて記録メディア9から該当する素材データ90を読み出す。そして、当該対象シナリオデータ93において当該素材データ90に関連づけられているデータ処理の識別子に応じて、当該素材データ90にデータ処理を施して編集データ(より詳しくは編集データのうちの音声に係るデータ)を生成する。   The sound generation unit 103 refers to the target scenario data 93 (more specifically, the target scenario data 93 related to sound), and based on the identifier of the material data 90 described therein, the corresponding material data 90 from the recording medium 9. Is read. Then, according to the data processing identifier associated with the material data 90 in the target scenario data 93, the material data 90 is subjected to data processing to be edited data (more specifically, data related to the voice of the editing data). ) Is generated.

音声生成部103は、生成した音声に係る編集データをスピーカ25あるいはA/Vコーデック部104に伝達する。本実施の形態における音声生成部103は、スケジュール部105によって編集データの作成が指示された場合にのみ、生成した編集データをA/Vコーデック部104に伝達する。一方、リアルタイムに演算しつつ編集データを作成して再生するようにユーザにより指示がされた場合、音声生成部103は生成した編集データをA/Vコーデック部104に伝達せずに、スピーカ25に伝達する。これにより、スピーカ25によって編集データに係る音声が再生される。   The audio generation unit 103 transmits editing data related to the generated audio to the speaker 25 or the A / V codec unit 104. The sound generation unit 103 in the present embodiment transmits the generated edit data to the A / V codec unit 104 only when the schedule unit 105 instructs the creation of the edit data. On the other hand, when the user gives an instruction to create and play the edited data while calculating in real time, the voice generating unit 103 does not transmit the generated edited data to the A / V codec unit 104 and sends it to the speaker 25. introduce. Thereby, the sound related to the editing data is reproduced by the speaker 25.

A/Vコーデック部104は、画像生成部102および音声生成部103によって生成され伝達される編集データ(画像ストリーム情報および音声ストリーム情報)を符号化して記録データ94を生成し、記録メディア9に記憶させる機能を有する。A/Vコーデック部104は、先述のように、CPU20がプログラム210に従って演算を行うことにより実現される機能ブロックである。したがって、主にCPU20が本発明における演算手段に相当する。   The A / V codec unit 104 encodes editing data (image stream information and audio stream information) generated and transmitted by the image generation unit 102 and the audio generation unit 103 to generate recording data 94 and stores it in the recording medium 9. It has a function to make it. The A / V codec unit 104 is a functional block realized when the CPU 20 performs an operation according to the program 210 as described above. Therefore, the CPU 20 mainly corresponds to the calculation means in the present invention.

本実施の形態におけるA/Vコーデック部104は、「MotionJPEG形式」に圧縮されたデータとして記録データ94を作成する。「MotionJPEG形式」とは、動画像を構成する各フレームの画像データをJPEG形式とする符号化方式(規格)である。   The A / V codec unit 104 in the present embodiment creates recording data 94 as data compressed in the “Motion JPEG format”. “Motion JPEG format” is an encoding method (standard) in which image data of each frame constituting a moving image is in JPEG format.

一般に画像生成部102によって生成される画像ストリーム情報や、音声生成部103によって生成される音声ストリーム情報はデータサイズが大きなデータとなる。したがって、これを圧縮せずにそのままの状態で保存(記憶)すると記録媒体(記録メディア9)のデータ容量(記憶可能なデータ量)が不足するおそれがある。   In general, the image stream information generated by the image generation unit 102 and the audio stream information generated by the audio generation unit 103 are data having a large data size. Therefore, if this is stored (stored) as it is without being compressed, the data capacity (data amount that can be stored) of the recording medium (recording medium 9) may be insufficient.

しかし、本実施の形態におけるデジタルスチルカメラ2は、「MotionJPEG形式」に圧縮された記録データ94を作成することにより、保存用のデータのサイズを抑制することができる。   However, the digital still camera 2 in the present embodiment can suppress the size of the data for storage by creating the recording data 94 compressed in the “Motion JPEG format”.

また、広く一般に用いられている規格に従ってデータ圧縮された記録データ94を生成することにより、例えば、記録データ94を他の装置において容易に再生することができ、保存用の記録データ94の汎用性が向上する。ただし、記録データ94のデータ形式は「MotionJPEG形式」に限定されるものではなく、例えば、各フレーム間の画像データの差分に基づいて、さらに圧縮率を向上させたMPEG形式であってもよい。   In addition, by generating the recording data 94 that is data-compressed in accordance with a widely used standard, for example, the recording data 94 can be easily reproduced on other devices, and the versatility of the recording data 94 for storage can be reduced. Will improve. However, the data format of the recording data 94 is not limited to the “Motion JPEG format”, and may be, for example, an MPEG format in which the compression rate is further improved based on the difference in image data between frames.

記録データ94を再生するようにユーザにより指示がされた場合、A/Vコーデック部104は、記録メディア9に記憶されている記録データ94をデコードして、画像に係る再生データを液晶パネル26に表示させるとともに、音声に係る再生データをスピーカ25に再生させる機能も有する。   When the user gives an instruction to reproduce the recorded data 94, the A / V codec unit 104 decodes the recorded data 94 stored in the recording medium 9, and the reproduced data relating to the image is displayed on the liquid crystal panel 26. In addition to displaying, the speaker 25 has a function of reproducing reproduction data related to sound.

本実施の形態におけるスケジュール部105は、シナリオ解析部101によってシナリオデータ93が作成されたときに、管理データ95に、新たに作成されたシナリオデータ93の識別子を格納し、当該シナリオデータ93を管理データ95に登録する。一方、スケジュール部105は、A/Vコーデック部104によって記録データ94が作成されたときに、作成された記録データ94に対応するシナリオデータ93の識別子を管理データ95から削除する。   In the present embodiment, when the scenario data 93 is created by the scenario analysis unit 101, the schedule unit 105 stores the identifier of the newly created scenario data 93 in the management data 95, and manages the scenario data 93 Register in the data 95. On the other hand, the schedule unit 105 deletes the identifier of the scenario data 93 corresponding to the created recording data 94 from the management data 95 when the recording data 94 is created by the A / V codec unit 104.

また、スケジュール部105は管理データ95にシナリオデータ93が登録されているか否かに基づいて、記録データ94を作成すべきシナリオデータ93が記録メディア9に存在するか否かを監視する機能を有している。そして、管理データ95に登録されているシナリオデータ93が存在する場合には、CPU20がタスクを実行していない空き時間を検出して、CPU20(A/Vコーデック部104)による符号化(記録データ94の作成)が当該空き時間に行われるように、A/Vコーデック部104が記録データ94の作成を行うタイミングを決定する。   Further, the schedule unit 105 has a function of monitoring whether or not the scenario data 93 for which the recording data 94 should be created exists in the recording medium 9 based on whether or not the scenario data 93 is registered in the management data 95. is doing. If the scenario data 93 registered in the management data 95 exists, the CPU 20 (A / V codec unit 104) detects the free time during which the CPU 20 is not executing a task and encodes it (record data). The timing at which the A / V codec unit 104 creates the recording data 94 is determined so that the creation of the recording data 94 is performed during the idle time.

先述のように、スケジュール部105によって編集データの生成が指示された場合、画像生成部102および音声生成部103は編集データをA/Vコーデック部104に伝達し、A/Vコーデック部104によって記録データ94が生成される。すなわち、本実施の形態におけるスケジュール部105は、画像生成部102および音声生成部103による編集データの生成を開始するタイミングを決定することにより、A/Vコーデック部104が記録データ94の作成を行うタイミングを決定する。なお、スケジュール部105が当該タイミングを決定する手法については後述する。   As described above, when generation of edit data is instructed by the schedule unit 105, the image generation unit 102 and the sound generation unit 103 transmit the edit data to the A / V codec unit 104 and record it by the A / V codec unit 104. Data 94 is generated. That is, the schedule unit 105 in the present embodiment determines the timing for starting the generation of edit data by the image generation unit 102 and the audio generation unit 103, so that the A / V codec unit 104 creates the recording data 94. Determine timing. Note that a method by which the schedule unit 105 determines the timing will be described later.

さらに、スケジュール部105は、決定したタイミングに画像生成部102および音声生成部103に編集データの生成開始を指示するとともに、どのシナリオデータ93に基づいて編集データの生成を行うのかを画像生成部102および音声生成部103に指示する。具体的には、決定したタイミングに、管理データ95から取得したシナリオデータ93の識別子(すなわち対象シナリオデータ93の識別子)を画像生成部102および音声生成部103に伝達する。   Further, the schedule unit 105 instructs the image generation unit 102 and the sound generation unit 103 to start generation of edit data at the determined timing, and determines which scenario data 93 is used to generate the edit data. And instructs the voice generation unit 103. Specifically, the identifier of the scenario data 93 acquired from the management data 95 (that is, the identifier of the target scenario data 93) is transmitted to the image generation unit 102 and the sound generation unit 103 at the determined timing.

以上が情報処理システム1の構成および機能の説明である。次に、デジタルスチルカメラ2によって実施される画像処理方法について説明する。   The above is the description of the configuration and functions of the information processing system 1. Next, an image processing method performed by the digital still camera 2 will be described.

図4は、第1の実施の形態における画像処理方法を示す流れ図である。なお、図4に示す処理が開始されるまでに、デジタルスチルカメラ2は、ユーザによって電源が投入され、所定の初期設定を行った後、監視状態に遷移しているものとする。   FIG. 4 is a flowchart showing the image processing method according to the first embodiment. It is assumed that the digital still camera 2 is in the monitoring state after the power is turned on by the user and predetermined initial settings are made before the processing shown in FIG. 4 is started.

監視状態において、デジタルスチルカメラ2のCPU20は、ユーザによってシナリオ作成指示がされたか(ステップS1)、管理データ95にシナリオデータ93が登録されているか(ステップS3)およびデジタルスチルカメラ2における処理を終了する指示がユーザによってされたか(ステップS6)を監視している。   In the monitoring state, the CPU 20 of the digital still camera 2 determines whether a scenario has been instructed by the user (step S1), whether the scenario data 93 is registered in the management data 95 (step S3), and terminates the processing in the digital still camera 2. It is monitored whether an instruction to perform has been given by the user (step S6).

シナリオ作成指示とは、デジタルスチルカメラ2に新たなシナリオデータ93を作成させるための指示であって、ユーザが操作部22を操作することにより入力され、CPU20によって検出される。また、管理データ95にシナリオデータ93が登録されているか否かは、スケジュール部105が管理データ95を参照することによりCPU20によって検出される。さらに、デジタルスチルカメラ2による処理を終了する指示とは、ユーザが操作部22を操作することによって、デジタルスチルカメラ2の電源がOFFにされることである。   The scenario creation instruction is an instruction for causing the digital still camera 2 to create new scenario data 93, which is input when the user operates the operation unit 22 and is detected by the CPU 20. Whether or not the scenario data 93 is registered in the management data 95 is detected by the CPU 20 when the schedule unit 105 refers to the management data 95. Further, the instruction to end the processing by the digital still camera 2 is that the power of the digital still camera 2 is turned off when the user operates the operation unit 22.

なお、監視状態において、CPU20によって実行される処理は、図4に示す監視処理(ステップS1,S3,S6)に限定されるものではなく、適宜、通常の撮像処理等の他の処理(タスク)を受け付けるための監視処理も実行されている。したがって、ステップS1,S3,S6が実行される間に、適宜、別の監視処理により受け付けられた別のタスクがCPU20によって実行される。   Note that the processing executed by the CPU 20 in the monitoring state is not limited to the monitoring processing (steps S1, S3, and S6) shown in FIG. 4, and other processing (tasks) such as normal imaging processing as appropriate. Monitoring processing for accepting is also executed. Therefore, while the steps S1, S3, and S6 are executed, another task accepted by another monitoring process is executed by the CPU 20 as appropriate.

監視状態において、ユーザが操作部22を操作してシナリオ作成指示がされると、CPU20はステップS1においてYesと判定し、シナリオデータ作成処理を実行する(ステップS2)。言い換えれば、CPU20が実行すべきタスクとして、シナリオデータ作成処理が選択され、当該処理が開始される。   In the monitoring state, when the user operates the operation unit 22 to give a scenario creation instruction, the CPU 20 determines Yes in step S1, and executes scenario data creation processing (step S2). In other words, the scenario data creation process is selected as a task to be executed by the CPU 20, and the process is started.

図5は、第1の実施の形態におけるシナリオデータ作成処理を示す流れ図である。なお、シナリオデータ作成処理が開始されるまでに、サーバ装置7には、オペレータによって作成されたコンテンツデータ71が記憶されているものとする。すなわち、画像処理の専門家であるオペレータがシナリオ元データ72を予め作成する工程は、図5に示す各工程の前に既に完了しているものとする。   FIG. 5 is a flowchart showing scenario data creation processing in the first embodiment. It is assumed that content data 71 created by the operator is stored in the server device 7 before the scenario data creation processing is started. That is, it is assumed that the process of creating the scenario source data 72 in advance by the operator who is an image processing expert has already been completed before each process shown in FIG.

まず、ユーザはデジタルスチルカメラ2と端末装置3とをケーブル30によって接続する。次に、端末装置3の操作部を操作して、所望する状況に応じてテーマを入力する。例えば、結婚式を撮像した素材データ90を編集して編集データを作成しようとする場合、ユーザはテーマとして「結婚式」を入力する。より詳細には、ユーザはサーバ装置7のネットワーク8におけるアドレスや、ダウンロードするコンテンツデータ71の保存場所としてデジタルスチルカメラ2の記録メディア9を指定する情報等も入力する。   First, the user connects the digital still camera 2 and the terminal device 3 with the cable 30. Next, a theme is input according to a desired situation by operating the operation unit of the terminal device 3. For example, when editing the material data 90 obtained by imaging a wedding to create edited data, the user inputs “wedding” as the theme. More specifically, the user also inputs an address in the network 8 of the server device 7 and information specifying the recording medium 9 of the digital still camera 2 as a storage location of the content data 71 to be downloaded.

これに応じて端末装置3がネットワーク8を介してサーバ装置7にアクセスし、入力されたテーマ「結婚式」をサーバ装置7に伝達する。サーバ装置7は端末装置3から伝達されたテーマ「結婚式」をキーワードとしてデータベース70を検索し、当該テーマに関連づけられているシナリオ元データ72を、GUIデータ73および素材データ74とともに端末装置3に送信する。これによって、コンテンツデータ71(シナリオ元データ72、GUIデータ73および素材データ74)が端末装置3にダウンロードされるとともに(ステップS11)、デジタルスチルカメラ2に装着されている記録メディア9に記憶される。   In response to this, the terminal device 3 accesses the server device 7 via the network 8 and transmits the input theme “wedding” to the server device 7. The server device 7 searches the database 70 using the theme “wedding” transmitted from the terminal device 3 as a keyword, and the scenario source data 72 associated with the theme is stored in the terminal device 3 together with the GUI data 73 and the material data 74. Send. As a result, the content data 71 (scenario source data 72, GUI data 73, and material data 74) is downloaded to the terminal device 3 (step S11) and stored in the recording medium 9 attached to the digital still camera 2. .

ダウンロードが完了すると、ユーザはデジタルスチルカメラ2からケーブル30を抜き、デジタルスチルカメラ2と端末装置3との接続状態を解除する。これによって、デジタルスチルカメラ2は再び携帯可能な状態となり、ユーザによって任意の場所(撮像場所)に持参される。   When the download is completed, the user disconnects the cable 30 from the digital still camera 2 and releases the connection state between the digital still camera 2 and the terminal device 3. As a result, the digital still camera 2 becomes portable again and is brought to an arbitrary location (imaging location) by the user.

次に、ユーザは操作部22を操作して指定作業の開始を指示する(ステップS12)。この指示に応じて、デジタルスチルカメラ2の要求部100が記録メディア9に格納されたGUIデータ73を参照し、ユーザに必要な入力を促すGUI画面を液晶パネル26に表示させる(ステップS13)。   Next, the user operates the operation unit 22 to instruct the start of designated work (step S12). In response to this instruction, the request unit 100 of the digital still camera 2 refers to the GUI data 73 stored in the recording medium 9, and displays a GUI screen that prompts the user for necessary input on the liquid crystal panel 26 (step S13).

このとき、要求部100は、要求される編集前データに関するデータを表示するとともに、当該編集前データとして、既に記録メディア9に記憶されている素材データ90から選択するか否かを選択するようにユーザに対して要求するメッセージを表示する(ステップS14)。   At this time, the request unit 100 displays data related to the requested pre-edit data, and selects whether or not to select from the material data 90 already stored in the recording medium 9 as the pre-edit data. A message requested to the user is displayed (step S14).

ユーザは、既に記録メディア9に記憶されている素材データ90を指定する場合は、ステップS14において「選択する」旨を入力する。これにより要求部100はステップS14においてYesと判定し、その時点で記録メディア9に記憶されている素材データ90を一覧表示した選択画面をGUI画面として液晶パネル26に表示する(ステップS15)。選択画面が表示されると、ユーザは、一覧表示された素材データ90から適当なデータを特定するための特定情報を入力することにより、編集前データとしての素材データ90を選択する(ステップS16)。   When designating the material data 90 already stored in the recording medium 9, the user inputs “select” in step S14. Accordingly, the request unit 100 determines Yes in step S14, and displays a selection screen displaying a list of material data 90 stored in the recording medium 9 at that time as a GUI screen on the liquid crystal panel 26 (step S15). When the selection screen is displayed, the user selects the material data 90 as pre-edit data by inputting specific information for specifying appropriate data from the displayed material data 90 (step S16). .

これにより、素材データ90の中からシナリオ元データ72において要求される編集前データが1つ特定され、素材指定情報の1レコードが作成される。なお、ステップS16が実行される場合とは、要求される編集前データのうちの1つが既に記録メディア9に素材データ90として記憶されていたことを示す。   As a result, one pre-edit data required in the scenario source data 72 is specified from the material data 90, and one record of material designation information is created. The case where step S16 is executed indicates that one of the requested pre-edit data has already been stored as the material data 90 on the recording medium 9.

一方、ユーザが新たに素材データ90を取得しようと所望する場合は、ステップS14において「選択しない」旨を入力する。これにより要求部100はステップS14においてNoと判定し、GUI画面として取得画面を液晶パネル26に表示させる(ステップS17)。取得画面が表示されると、ユーザは取得画面に表示される撮像指示情報(または録音指示情報)に従って、撮像(または録音)を行うように操作部22を操作し、これにより撮像(または録音)が行われる(ステップS18)。   On the other hand, when the user desires to newly acquire the material data 90, “not selected” is input in step S14. Accordingly, the request unit 100 determines No in step S14, and displays the acquisition screen on the liquid crystal panel 26 as a GUI screen (step S17). When the acquisition screen is displayed, the user operates the operation unit 22 to perform imaging (or recording) according to the imaging instruction information (or recording instruction information) displayed on the acquisition screen, thereby imaging (or recording). Is performed (step S18).

ステップS18が実行されることにより取得された画像データまたは音声データはデータ変換部27によって所定のデータ圧縮が施された後、素材データ90(撮像データ91または録音データ92)として記録メディア9に記憶される。さらに、要求部100は、ステップS18において作成された素材データ90を、シナリオ元データ72において要求されている編集前データの1つとして特定し、素材指定情報の1レコードを作成する。   The image data or audio data acquired by executing step S18 is subjected to predetermined data compression by the data converter 27 and then stored in the recording medium 9 as material data 90 (imaging data 91 or recording data 92). Is done. Further, the request unit 100 identifies the material data 90 created in step S18 as one of the pre-edit data requested in the scenario source data 72, and creates one record of material designation information.

すなわち、ステップS18が実行されることにより、1つの編集データを作成するために要求される素材データ90のうち、未だ記録メディア9に記憶されていなかった(作成されていなかった)素材データ90が新たに1つ作成され記憶されたことになる。なお、ステップS18は撮像と録音のいずれか一方のみが行われる処理に限定されるものではなく、撮像と録音とが同時に行われてもよい。すなわち、撮像データ91と録音データ92とが1回の指定によって作成されてもよい。   That is, by executing step S18, among the material data 90 required for creating one piece of edit data, material data 90 that has not yet been stored in the recording medium 9 (has not been created). One is newly created and stored. Note that step S18 is not limited to the process in which only one of imaging and recording is performed, and imaging and recording may be performed at the same time. That is, the imaging data 91 and the recording data 92 may be created by one designation.

ステップS16またはステップS18が実行されるたびに、要求部100は、GUIデータ73を参照することにより、全ての編集前データが特定されたか否かを判定する(ステップS19)。要求部100は、参照したGUIデータ73において要求されている編集前データ(すなわちシナリオ元データ72において要求されている編集前データ)のうち、未だ特定されていない編集前データが存在する場合はステップS19においてNoと判定し、ステップS13からの処理を繰り返す。   Each time step S16 or step S18 is executed, the request unit 100 refers to the GUI data 73 to determine whether or not all pre-edit data has been specified (step S19). If there is pre-edit data that has not yet been specified among the pre-edit data requested in the referenced GUI data 73 (that is, the pre-edit data requested in the scenario source data 72), the request unit 100 performs a step. It determines with No in S19 and repeats the process from step S13.

一方、全ての編集前データが特定されていれば、要求部100はステップS19においてYesと判定する。これにより、1つの編集データにおいて要求される全ての素材データ90が記録メディア9に記憶され、特定されたことになる。   On the other hand, if all the pre-edit data has been specified, the request unit 100 determines Yes in step S19. As a result, all the material data 90 required in one editing data is stored in the recording medium 9 and specified.

全ての編集前データが特定されると(ステップS19においてYes)、シナリオ解析部101が、要求部100から伝達される素材指定情報と、記録メディア9に記憶されているシナリオ元データ72とを参照する。そして、編集前データとして特定された各素材データ90と、各素材データ90に対して実行すべきデータ処理との関連づけを行い、シナリオデータ93を生成し記録メディア9に記憶させる(ステップS20)。   When all the data before editing is specified (Yes in step S19), the scenario analysis unit 101 refers to the material designation information transmitted from the request unit 100 and the scenario original data 72 stored in the recording medium 9. To do. Then, each material data 90 specified as pre-edit data is associated with data processing to be executed for each material data 90, and scenario data 93 is generated and stored in the recording medium 9 (step S20).

また、ステップS20では、スケジュール部105がステップS20において生成されたシナリオデータ93の識別子を管理データ95に登録する。本実施の形態では、シナリオデータ93が作成されると、自動的に、当該シナリオデータ93の識別子が管理データ95に書き込まれ登録される。これにより、ユーザはシナリオデータ93の作成を指示するだけで、当該シナリオデータ93による記録データ94の作成処理を予約することができる。ただし、管理データ95への登録(あるいは削除)は、ユーザからの別途指示によって行われてもよい。   In step S20, the schedule unit 105 registers the identifier of the scenario data 93 generated in step S20 in the management data 95. In the present embodiment, when the scenario data 93 is created, the identifier of the scenario data 93 is automatically written and registered in the management data 95. As a result, the user can reserve the creation processing of the recording data 94 by the scenario data 93 only by instructing the creation of the scenario data 93. However, registration (or deletion) in the management data 95 may be performed by a separate instruction from the user.

以上のように、デジタルスチルカメラ2は、編集データを作成するためのシナリオデータ93と、当該シナリオデータ93において要求される素材データ90のうちコンテンツデータ71に含まれない素材データ90とを作成して記憶(あるいは既に記憶されている素材データ90から特定)しておくことが可能である。また、素材データ74についてはダウンロードにより予め記憶しておくことが可能である。   As described above, the digital still camera 2 creates scenario data 93 for creating editing data and material data 90 not included in the content data 71 among the material data 90 required in the scenario data 93. Can be stored (or specified from already stored material data 90). The material data 74 can be stored in advance by downloading.

なお、シナリオデータ作成処理を複数回繰り返すことによって、複数のシナリオデータ93と、それぞれにおいて要求される素材データ90とを記憶しておくことも可能である。   It is also possible to store a plurality of scenario data 93 and material data 90 required in each by repeating the scenario data creation process a plurality of times.

ステップS20の処理が終了すると、デジタルスチルカメラ2は、図5に示すシナリオ作成処理を終了して図4の処理に戻り、再び監視状態となる。   When the process of step S20 ends, the digital still camera 2 ends the scenario creation process shown in FIG. 5, returns to the process of FIG. 4, and enters the monitoring state again.

監視状態において、スケジュール部105が管理データ95を参照することにより、管理データ95にシナリオデータ93の識別子が登録されていることを検出すると、スケジュール部105は、記録データ94を作成するべきシナリオデータ93が存在するとみなして、ステップS3においてYesと判定する。   In the monitoring state, when the schedule unit 105 detects that the identifier of the scenario data 93 is registered in the management data 95 by referring to the management data 95, the schedule unit 105 sets the scenario data for creating the recording data 94. 93 is determined to exist, and Yes is determined in step S3.

ステップS3においてYesと判定した場合、スケジュール部105は、CPU20がタスクを実行していない空き時間であるか否かをさらに判定する(ステップS4)。   When it determines with Yes in step S3, the schedule part 105 further determines whether it is the idle time when CPU20 is not performing the task (step S4).

ステップS4において、デジタルスチルカメラ2のCPU20が、空き時間を検出する手法はいくつか考えられる。   In step S4, the CPU 20 of the digital still camera 2 can consider several methods for detecting free time.

例えば、ステップS4を実行するときに、CPU20がタスクを実行中か否かを確認し、タスクを実行していなければ空き時間を検出したと判定してもよい。すなわち、ステップS4を実行するタイミングごとにタスクを実行中か否かを判定して、その判定結果に応じて空き時間を検出したか否かを判断する手法を採用することができる。あるいは、CPU20が、所定の時間(予め初期設定された時間)タスクを実行していないことを検出したときに、空き時間を検出したと判断してもよい。   For example, when executing step S4, it may be determined whether or not the CPU 20 is executing a task. If the task is not being executed, it may be determined that a free time has been detected. That is, it is possible to adopt a method of determining whether or not the task is being executed at each timing of executing step S4 and determining whether or not the idle time is detected according to the determination result. Alternatively, when the CPU 20 detects that a task is not executed for a predetermined time (preliminarily initialized time), it may be determined that a free time has been detected.

さらに、ユーザ操作をトリガにして、空き時間を検出することも可能である。   Furthermore, it is possible to detect the idle time by using a user operation as a trigger.

空き時間を検出したと判定可能なユーザ操作とは、例えば、ユーザがデジタルスチルカメラ2をスリープモードに遷移するように指示を与える操作が考えられる。あるいは、ユーザがデジタルスチルカメラ2にケーブル30を装着し、デジタルスチルカメラ2を端末装置3に接続する操作であってもよい。携帯型のデジタルスチルカメラ2が端末装置3に接続された場合、その状態で撮像処理(優先されるべき他のタスク)がユーザによって要求されることは希だからである。また、本実施の形態のように、USB接続を採用している場合、記録データ94を作成するための電力を端末装置3から供給することができ、さらに好都合だからである。   The user operation that can be determined that the idle time has been detected is, for example, an operation in which the user gives an instruction to shift the digital still camera 2 to the sleep mode. Alternatively, the user may perform an operation of attaching the cable 30 to the digital still camera 2 and connecting the digital still camera 2 to the terminal device 3. This is because when the portable digital still camera 2 is connected to the terminal device 3, it is rare that the user requests an imaging process (other tasks to be prioritized) in that state. In addition, when the USB connection is adopted as in the present embodiment, it is possible to supply power for creating the recording data 94 from the terminal device 3, which is more convenient.

これらの手法により、CPU20がタスクを実行していない空き時間を検出したと判定した場合、スケジュール部105は、ステップS4においてYesと判定し、その判定を行ったタイミングを、A/Vコーデック部104(CPU20)が記録データ94を作成する処理を開始するタイミングとして決定する。   When it is determined by these methods that the CPU 20 has detected a free time during which no task is being executed, the scheduling unit 105 determines Yes in step S <b> 4, and determines the timing at which the determination is made as the A / V codec unit 104. The CPU 20 determines the timing for starting the process of creating the recording data 94.

すなわち、スケジュール部105は、ステップS4においてYesと判定したタイミングで、シナリオデータ93の識別子を画像生成部102および音声生成部103に伝達し、これにより、デジタルスチルカメラ2は記録データ生成処理を開始する(ステップS5)。   In other words, the schedule unit 105 transmits the identifier of the scenario data 93 to the image generation unit 102 and the sound generation unit 103 at the timing determined as Yes in step S4, whereby the digital still camera 2 starts the recording data generation process. (Step S5).

図6は、記録データ生成処理を示す流れ図である。なお、記録データ作成処理は、管理データ95にシナリオデータ93が登録されている場合にのみ開始される。したがって、図6に示す記録データ生成処理が開始されるまでに、デジタルスチルカメラ2において図5に示したシナリオデータ作成処理が少なくとも1回以上実行され、デジタルスチルカメラ2に装着されている記録メディア9には、少なくとも1つのシナリオデータ93と、当該少なくとも1つのシナリオデータ93において要求されるすべての素材データ90が既に記憶されている。   FIG. 6 is a flowchart showing the recording data generation process. The recording data creation process is started only when the scenario data 93 is registered in the management data 95. Therefore, before the recording data generation process shown in FIG. 6 is started, the scenario data creation process shown in FIG. 5 is executed at least once in the digital still camera 2, and the recording medium attached to the digital still camera 2 is installed. 9, at least one scenario data 93 and all material data 90 required in the at least one scenario data 93 are already stored.

記録データ生成処理が開始されると、画像生成部102および音声生成部103は、スケジュール部105から伝達されたシナリオデータ93の識別子に基づいて、記録メディア9に記憶されている複数のシナリオデータ93から、対象シナリオデータ93を特定する(ステップS21)。なお、対象シナリオデータ93とは、先述のように編集データを作成する対象(ここでは記録データ94を作成する対象でもある)となるシナリオデータ93である。   When the recording data generation process is started, the image generation unit 102 and the sound generation unit 103, based on the scenario data 93 identifier transmitted from the schedule unit 105, a plurality of scenario data 93 stored in the recording medium 9. From this, the target scenario data 93 is specified (step S21). The target scenario data 93 is scenario data 93 that is a target for creating edit data (here, a target for creating the recording data 94) as described above.

次に、画像生成部102および音声生成部103は、特定された対象シナリオデータ93を参照しつつ、当該対象シナリオデータ93に記述される素材データ90を1つずつ特定し(ステップS22)、記録メディア9から読み出す。さらに、読み出した素材データ90に対して、当該対象シナリオデータ93において当該素材データ90に関連づけられているデータ処理を施して編集データを生成しつつ(ステップS23)、生成した編集データをA/Vコーデック部104に伝達する。   Next, the image generation unit 102 and the sound generation unit 103 specify the material data 90 described in the target scenario data 93 one by one while referring to the specified target scenario data 93 (step S22), and record it. Read from the media 9. Further, the read material data 90 is subjected to data processing associated with the material data 90 in the target scenario data 93 to generate edit data (step S23), and the generated edit data is converted to A / V. This is transmitted to the codec unit 104.

そして、A/Vコーデック部104は、編集データを演算によりMotionJPEG形式に符号化することによって記録データ94を生成する(ステップS24)。   Then, the A / V codec unit 104 generates the recording data 94 by encoding the editing data into the Motion JPEG format by calculation (step S24).

画像生成部102および音声生成部103は、特定された対象シナリオデータ93を参照しつつ、当該対象シナリオデータ93に記述されている全ての素材データ90に対して処理を終了したか否かを判定し(ステップS25)、未だ終了していない素材データ90が存在する場合は、ステップS22に戻って処理を繰り返す。   The image generation unit 102 and the sound generation unit 103 determine whether or not the processing has been completed for all material data 90 described in the target scenario data 93 while referring to the specified target scenario data 93. If there is material data 90 that has not been completed yet (step S25), the process returns to step S22 and the process is repeated.

一方、全ての素材データ90に対して処理を終了した場合、CPU20は、ステップS25においてYesと判定し、記録データ94を作成する際に用いられた素材データ90のうち、所定の素材データ90を削除する(ステップS26)。   On the other hand, when the processing is completed for all the material data 90, the CPU 20 determines Yes in step S25, and uses the predetermined material data 90 among the material data 90 used when creating the recording data 94. Delete (step S26).

ステップS26において削除される素材データ90とは、例えば、コンテンツデータ71に含まれる素材データ74の一部が考えられる。素材データ74は、コンテンツプロバイダによって提供されるデータであって、著作権が存在する場合が考えられる。したがって、記録データ94の作成(本来の目的)を達成した後には、これらのデータが不正に複製等されないように記録メディア9から削除することが好ましい。なお、ステップS26において削除すべき素材データ90には、削除されるべきことを示す識別子が予め付加されているものとする。   As the material data 90 deleted in step S26, for example, a part of the material data 74 included in the content data 71 can be considered. The material data 74 is data provided by a content provider, and there may be a case where a copyright exists. Therefore, after the creation (original purpose) of the recording data 94 is achieved, it is preferable to delete the data from the recording medium 9 so that the data is not illegally copied. It is assumed that an identifier indicating that the material data 90 to be deleted in step S26 is to be deleted is added in advance.

素材データ90の削除が終了すると、A/Vコーデック部104は、ステップS24を繰り返すことによって作成した記録データ94を記録メディア9に保存する(ステップS27)。これにより、記録メディア9に記録データ94が記憶される。   When the deletion of the material data 90 is completed, the A / V codec unit 104 stores the recording data 94 created by repeating Step S24 in the recording medium 9 (Step S27). As a result, the recording data 94 is stored in the recording medium 9.

このように、本実施の形態におけるデジタルスチルカメラ2では、電源が投入された状態(様々な処理が実行され得る状況)において、スケジュール部105によってCPU20の空き時間を検出し、空き時間が検出されたときにのみ、記録データ94の作成を行う。これにより、CPU20による他の処理の実行を妨げることなく、CPU20(A/Vコーデック部104)による記録データ94の作成を行うことができる。   As described above, in the digital still camera 2 according to the present embodiment, the idle time of the CPU 20 is detected by the schedule unit 105 in a state where the power is turned on (a situation where various processes can be executed), and the idle time is detected. Only when the recording data 94 is generated. Accordingly, the recording data 94 can be created by the CPU 20 (A / V codec unit 104) without preventing the CPU 20 from executing other processes.

ステップS27が実行され、記録メディア9に記録データ94が保存されると、スケジュール部105が管理データ95から対象シナリオデータ93の識別子を削除する。そして、デジタルスチルカメラ2は、記録データ生成処理を終了して図4に示す処理に戻り、再び監視状態となる。   When step S27 is executed and the recording data 94 is stored in the recording medium 9, the scheduling unit 105 deletes the identifier of the target scenario data 93 from the management data 95. Then, the digital still camera 2 ends the recording data generation process, returns to the process shown in FIG. 4, and enters the monitoring state again.

監視状態において、ユーザが操作部22を操作して、デジタルスチルカメラ2の電源をOFF状態にする操作がされると、CPU20はユーザがデジタルスチルカメラ2における全ての処理を終了するよう指示を入力したと判定して、図4に示すステップS6においてYesと判定し、全ての処理を終了する。   In the monitoring state, when the user operates the operation unit 22 to turn off the power of the digital still camera 2, the CPU 20 inputs an instruction for the user to end all processing in the digital still camera 2. It determines with having carried out, it determines with Yes in step S6 shown in FIG. 4, and complete | finishes all the processes.

以上のように、第1の実施の形態におけるデジタルスチルカメラ2は、CPU20が他のタスクを実行していない空き時間を検出し、空き時間が検出されたときにA/Vコーデック部104による符号化処理を実行して記録データ94を作成する。これにより、専用のハードウェアを備えていなくても、通常の撮影処理等の実行を妨げることなく、記録データ94の作成を行うことができる。   As described above, the digital still camera 2 according to the first embodiment detects the idle time when the CPU 20 is not executing another task, and the code by the A / V codec unit 104 is detected when the idle time is detected. The recording data 94 is created by executing the digitizing process. As a result, even if no dedicated hardware is provided, the recording data 94 can be created without hindering the execution of normal photographing processing or the like.

なお、ケーブル30と通信部29とは端末装置3からコンテンツデータ71を取得する機能を実現できるものであればUSBケーブルとUSB端子とに限定されるものではない。例えば、デジタルスチルカメラ2専用のクレードルと、当該クレードルが接続されるフレキシブル端子とによって構成されてもよい。   The cable 30 and the communication unit 29 are not limited to the USB cable and the USB terminal as long as the function of acquiring the content data 71 from the terminal device 3 can be realized. For example, it may be configured by a cradle dedicated to the digital still camera 2 and a flexible terminal to which the cradle is connected.

また、デジタルスチルカメラ2においてコンテンツデータ71を取得するための構成は端末装置3を介した構成に限定されるものではない。例えば、デジタルスチルカメラ2において無線通信機能を備えた通信部29を採用し、必要に応じてネットワーク8に接続することによって、サーバ装置7から直接コンテンツデータ71をデジタルスチルカメラ2にダウンロードする構成としてもよい。このような無線通信機能を実現する通信部29の構成としては、WiFi(Wireless Fidelity)や赤外線通信といった通信規格を採用することが可能である。   The configuration for acquiring the content data 71 in the digital still camera 2 is not limited to the configuration via the terminal device 3. For example, the digital still camera 2 employs a communication unit 29 having a wireless communication function and connects to the network 8 as necessary to download the content data 71 directly from the server device 7 to the digital still camera 2. Also good. As a configuration of the communication unit 29 that realizes such a wireless communication function, it is possible to adopt a communication standard such as WiFi (Wireless Fidelity) or infrared communication.

さらに、デジタルスチルカメラ2で使用されるコンテンツデータ71はサーバ装置7によってネットワーク8および端末装置3を介して提供されると説明したが、例えば、記録メディア9によって提供されてもよい。すなわち、コンテンツデータ71を記憶した記録メディア9が店頭等において配布され、これをデジタルスチルカメラ2に装着して利用するように構成してもよい。   Further, the content data 71 used in the digital still camera 2 has been described as being provided by the server device 7 via the network 8 and the terminal device 3, but may be provided by the recording medium 9, for example. That is, the recording medium 9 storing the content data 71 may be distributed at a store or the like, and may be configured to be used by being attached to the digital still camera 2.

<2. 第2の実施の形態>
第1の実施の形態における画像処理システムは、デジタルスチルカメラ2として構成されており、撮像機能(撮像部24)を有するシステムとして説明した。すなわち、画像処理システムが素材データ90の作成(撮像および録音)と、記録データ94の作成とを行う機能を有していたが、本発明はこのようなシステム構成の画像処理システムに限定されるものではない。
<2. Second Embodiment>
The image processing system in the first embodiment is configured as the digital still camera 2 and has been described as a system having an imaging function (imaging unit 24). That is, the image processing system has a function of creating (imaging and recording) the material data 90 and creating the recording data 94, but the present invention is limited to the image processing system having such a system configuration. It is not a thing.

図7は、第2の実施の形態における情報処理システム1aを示す図である。情報処理システム1aは、本発明に係る画像処理システムとして構成されるコンピュータ4と、デジタルスチルカメラ5とを備えている。また、第2の実施の形態における情報処理システム1aは、図7に示すように、第1の実施の形態における情報処理システム1と同様のサーバ装置7を備えている。サーバ装置7およびネットワーク8については、第1の実施の形態と同様の構成を採用することができるため、以下、説明を省略する。また、詳細は後述するが、情報処理システム1aでは、デジタルスチルカメラ5が素材データ90の作成を行い、コンピュータ4が符号化された記録データ94を作成する。   FIG. 7 is a diagram illustrating an information processing system 1a according to the second embodiment. The information processing system 1a includes a computer 4 configured as an image processing system according to the present invention and a digital still camera 5. Moreover, the information processing system 1a in 2nd Embodiment is provided with the server apparatus 7 similar to the information processing system 1 in 1st Embodiment, as shown in FIG. About the server apparatus 7 and the network 8, since the structure similar to 1st Embodiment can be employ | adopted, description is abbreviate | omitted below. Although details will be described later, in the information processing system 1a, the digital still camera 5 creates the material data 90, and the computer 4 creates the encoded recording data 94.

図8は、第2の実施の形態において画像処理システムとして構成されるコンピュータ4の構成を示すブロック図である。コンピュータ4は、CPU40、ROM41、RAM42およびハードディスク43を備えており、詳細は後述するが、本発明における画像処理システムとして構成されている。   FIG. 8 is a block diagram showing a configuration of the computer 4 configured as an image processing system in the second embodiment. The computer 4 includes a CPU 40, a ROM 41, a RAM 42, and a hard disk 43, which will be described later in detail, but is configured as an image processing system in the present invention.

CPU40は、ROM41に格納されたプログラム410に従って動作することにより、コンピュータ4の各構成を制御する。CPU40の機能および動作については後述する。   The CPU 40 controls each component of the computer 4 by operating according to the program 410 stored in the ROM 41. The function and operation of the CPU 40 will be described later.

ROM41、RAM42およびハードディスク43はコンピュータ4が備える記憶装置を構成しており、各種データを記憶する。ROM41は、読み取り専用の記憶装置であり、主にプログラム410を格納する。RAM42は、比較的高速にアクセス可能な記憶装置であり、CPU40の一時的なワーキングエリアとして使用される。ハードディスク43は、比較的大容量のデータを記憶することが可能な記憶装置である。なお、プログラム410の一部がハードディスク43に記憶されていてもよい。すなわち、CPU40は、ハードディスク43に記憶されているプログラム410を必要に応じてRAM42に読み出して実行してもよい。   The ROM 41, the RAM 42, and the hard disk 43 constitute a storage device included in the computer 4 and store various data. The ROM 41 is a read-only storage device and mainly stores the program 410. The RAM 42 is a storage device that can be accessed at a relatively high speed, and is used as a temporary working area of the CPU 40. The hard disk 43 is a storage device capable of storing a relatively large amount of data. A part of the program 410 may be stored in the hard disk 43. That is, the CPU 40 may read and execute the program 410 stored in the hard disk 43 to the RAM 42 as necessary.

操作部44は、ユーザによって操作されるキーボード(ボタンやキー)やポインティングデバイス(マウスやタッチパネル)、各種スイッチ等から構成されるハードウェアである。ユーザは、コンピュータ4に対して何らかの指示を与えるときに操作部44を操作する。すなわち、ユーザは、操作部44を操作することによって、コンピュータ4に対して、様々なデータ(指示)を入力することができる。   The operation unit 44 is hardware including a keyboard (buttons and keys) operated by a user, a pointing device (mouse and touch panel), various switches, and the like. The user operates the operation unit 44 when giving any instruction to the computer 4. That is, the user can input various data (instructions) to the computer 4 by operating the operation unit 44.

スピーカ45は音声を再生するための一般的な装置である。スピーカ45は、音声データ(録音データ92や編集データのうちの音声に係るデータ等)に基づいて生成される電気信号に従って音声を再生する機能を有している。   The speaker 45 is a general device for reproducing sound. The speaker 45 has a function of reproducing sound in accordance with an electric signal generated based on sound data (data related to sound in the recording data 92 or editing data).

ディスプレイ46は、液晶ディスプレイやCRT等が該当し、各種データを画面に画像として表示する装置である。   The display 46 corresponds to a liquid crystal display, a CRT, or the like, and is a device that displays various data as images on a screen.

USB端子47は、ケーブル31の一方端と接続するために必要な形状を有しており、コンピュータ4がケーブル31の他方端に接続されたデジタルスチルカメラ5との間でUSB規格に従ったデータ通信を行うために使用される。すなわち、デジタルスチルカメラ5がケーブル31を介してUSB端子47に接続された状態のとき、コンピュータ4は、デジタルスチルカメラ5に記憶されているデータ(例えば、撮像データ91や録音データ92)を適宜参照したり、ハードディスク43に複写することが可能となる。   The USB terminal 47 has a shape necessary to connect to one end of the cable 31, and data in accordance with the USB standard is used between the computer 4 and the digital still camera 5 connected to the other end of the cable 31. Used for communication. That is, when the digital still camera 5 is connected to the USB terminal 47 via the cable 31, the computer 4 appropriately stores data (for example, image data 91 and recording data 92) stored in the digital still camera 5. It can be referred to or copied to the hard disk 43.

通信部48は、コンピュータ4をネットワーク8に接続する機能を提供する。これにより、コンピュータ4はネットワーク8を介してサーバ装置7との間で、データ通信を行うことができる。   The communication unit 48 provides a function of connecting the computer 4 to the network 8. Thus, the computer 4 can perform data communication with the server device 7 via the network 8.

図9は、第2の実施の形態において画像処理システムとして構成されるコンピュータ4の機能ブロックをデータの流れとともに示す図である。図9に示す要求部100a、シナリオ解析部101、画像生成部102、音声生成部103、A/Vコーデック部104およびスケジュール部105は、CPU40がプログラム410に従って動作することにより実現される機能ブロックである。   FIG. 9 is a diagram illustrating functional blocks of the computer 4 configured as an image processing system in the second embodiment together with a data flow. The request unit 100a, the scenario analysis unit 101, the image generation unit 102, the audio generation unit 103, the A / V codec unit 104, and the schedule unit 105 illustrated in FIG. 9 are functional blocks realized by the CPU 40 operating according to the program 410. is there.

なお、シナリオ解析部101、画像生成部102、音声生成部103、A/Vコーデック部104およびスケジュール部105は、第1の実施の形態におけるデジタルスチルカメラ2において実現された各機能ブロックと同様であるため、それぞれ同一の符号を付し、説明を省略する。   The scenario analysis unit 101, the image generation unit 102, the audio generation unit 103, the A / V codec unit 104, and the schedule unit 105 are the same as the functional blocks realized in the digital still camera 2 according to the first embodiment. Therefore, the same reference numerals are given, and the description is omitted.

要求部100aは、GUIデータ73を参照しつつ、そこに記述されている内容に従って、コンピュータ4のユーザに対して必要な情報を入力するように促すGUIを提供する。すなわち、要求部100aは、ディスプレイ46にメニュー画面や入力画面等を表示させることにより、シナリオ元データ72において要求される編集前データを特定するための特定情報を入力するようにユーザに対して要求する機能を有している。   While referring to the GUI data 73, the request unit 100a provides a GUI that prompts the user of the computer 4 to input necessary information according to the contents described therein. That is, the request unit 100a requests the user to input specific information for specifying pre-edit data required in the scenario source data 72 by displaying a menu screen, an input screen, or the like on the display 46. It has a function to do.

要求部100aは、すでにハードディスク43に記憶されている素材データ90を選択候補としてディスプレイ46に一覧表示させる。このとき、デジタルスチルカメラ5が接続されていれば、要求部100aは、USB端子47およびケーブル31を介して、デジタルスチルカメラ5と通信を行い、デジタルスチルカメラ5に記憶されている撮像データ91および録音データ92についても選択候補としてディスプレイ46に一覧表示させる。   The request unit 100a causes the display 46 to display a list of material data 90 already stored in the hard disk 43 as selection candidates. At this time, if the digital still camera 5 is connected, the request unit 100 a communicates with the digital still camera 5 via the USB terminal 47 and the cable 31, and the imaging data 91 stored in the digital still camera 5. The recorded data 92 is also displayed on the display 46 as a selection candidate.

第2の実施の形態においても、第1の実施の形態と同様に、シナリオ元データ72に記述されている編集前データにどのデータを具体的に割り当てるかは、ユーザが特定情報を入力することにより決定される。ユーザがGUIデータ73によって提供されるGUI画面に従って入力することにより、指定された素材データ90の識別子と編集前データの識別子とが関連づけられる。   Also in the second embodiment, as in the first embodiment, the user inputs specific information as to which data is specifically assigned to the pre-edit data described in the scenario source data 72. Determined by. When the user inputs according to the GUI screen provided by the GUI data 73, the identifier of the designated material data 90 and the identifier of the pre-edit data are associated with each other.

なお、デジタルスチルカメラ5に記憶されている撮像データ91または録音データ92が指定された場合は、指定されたデータがデジタルスチルカメラ5からハードディスク43に素材データ90として転送される。そして、転送後の当該素材データ90の識別子と編集前データの識別子とが要求部100aによって関連づけられる。   When the image data 91 or the recording data 92 stored in the digital still camera 5 is designated, the designated data is transferred from the digital still camera 5 to the hard disk 43 as material data 90. Then, the identifier of the material data 90 after the transfer and the identifier of the pre-edit data are associated by the request unit 100a.

このように、第2の実施の形態においても、ユーザは、ディスプレイ46に表示されるGUI画面によって要求される情報を、当該GUI画面に従って操作部44を操作して入力するだけで、専門的な知識を有していなくても、編集データを作成するために必要な指示をコンピュータ4に与えることが可能である。   As described above, also in the second embodiment, the user only has to input information required by the GUI screen displayed on the display 46 by operating the operation unit 44 according to the GUI screen. Even if the user does not have knowledge, it is possible to give the computer 4 instructions necessary for creating the editing data.

ただし、本実施の形態における要求部100aは、すでに収集されているデータから編集前データとなる素材データ90を選択するように要求するのみである。すなわち、第1の実施の形態のように素材収集指示情報をGUI画面としてディスプレイ46に表示させることにより、ユーザに対して、編集前データとなる新たな素材データ90を取得するように要求することはない。したがって、新たに撮像や録音を行って、撮像データ91や録音データ92を新たに取得するよう要求することはない。   However, the request unit 100a in the present embodiment only requests to select the material data 90 that is the pre-edit data from the already collected data. That is, as shown in the first embodiment, the material collection instruction information is displayed on the display 46 as a GUI screen, thereby requesting the user to acquire new material data 90 as pre-edit data. There is no. Accordingly, there is no need to newly acquire the image data 91 or the recording data 92 by performing image capturing or recording.

ユーザからの指示に従って選択された各素材データ90は、シナリオ元データ72において宣言されている各編集前データとしてユーザに指定されたものとみなされ、互いに関連づけが行われて、その情報が要求部100aからシナリオ解析部101に伝達される。すなわち、全ての編集前データに関するユーザの指定が完了した段階で、要求部100aは、シナリオ元データ72で要求される編集前データの識別子と、ハードディスク43に記憶されている各素材データ90のハードディスク43上の識別子(例えばハードディスク43における各素材データ90のファイル名)とを関連づけた素材指定情報をシナリオ解析部101に伝達する。   Each material data 90 selected in accordance with an instruction from the user is regarded as specified by the user as each pre-edit data declared in the scenario original data 72, and is associated with each other, and the information is stored in the request part. 100a is transmitted to the scenario analysis unit 101. That is, at the stage where the user designation for all the pre-edit data is completed, the request unit 100a determines the pre-edit data identifier requested by the scenario source data 72 and the hard disk of each material data 90 stored in the hard disk 43. 43, the material designation information associated with the identifier on 43 (for example, the file name of each material data 90 in the hard disk 43) is transmitted to the scenario analysis unit 101.

図7に戻って、デジタルスチルカメラ5は、記録媒体としての記録メディア9を装着し利用できるように構成されている。また、デジタルスチルカメラ5は、USB規格に準拠したケーブル31の一方端と接続することが可能な端子(図示せず)を備えており、USB規格に準拠したデータ通信をコンピュータ4との間で実行することが可能である。   Returning to FIG. 7, the digital still camera 5 is configured so that a recording medium 9 as a recording medium can be mounted and used. In addition, the digital still camera 5 includes a terminal (not shown) that can be connected to one end of a cable 31 compliant with the USB standard, and data communication compliant with the USB standard is performed between the computer 4 and the computer 4. It is possible to execute.

デジタルスチルカメラ5は、撮像データ91を取得する撮像機能と、録音データ92を取得する録音機能とを有するが、市販の一般的なデジタルスチルカメラを採用することにより実現できるため、詳細な説明は省略する。   Although the digital still camera 5 has an imaging function for acquiring the imaging data 91 and a recording function for acquiring the recording data 92, the digital still camera 5 can be realized by adopting a commercially available general digital still camera. Omitted.

以上が、第2の実施の形態における情報処理システム1aの構成および機能の説明である。次に、情報処理システム1aを用いて実現される第2の実施の形態における画像処理方法について説明する。   The above is the description of the configuration and functions of the information processing system 1a according to the second embodiment. Next, an image processing method in the second embodiment realized using the information processing system 1a will be described.

図10は、第2の実施の形態における画像処理方法を示す流れ図である。なお、図10の処理が開始されるまでに、ユーザによってコンピュータ4がすでに起動されて監視状態(様々なタスクを実行することが可能な状態)に遷移しており、コンピュータ4がネットワーク8に接続されているものとする。   FIG. 10 is a flowchart illustrating an image processing method according to the second embodiment. By the time the processing of FIG. 10 is started, the computer 4 has already been activated by the user and has transitioned to a monitoring state (a state in which various tasks can be performed), and the computer 4 is connected to the network 8. It is assumed that

コンピュータ4のCPU40は、監視状態において、図10に示した処理以外の処理(タスク)を適宜実行しつつ、シナリオ作成指示がされたか(ステップS31)、CPU40の空き時間を検出したか(ステップS33)、および、処理終了が指示されたか(ステップS36)を監視している。   In the monitoring state, the CPU 40 of the computer 4 appropriately executes processing (tasks) other than the processing shown in FIG. 10 and is instructed to create a scenario (step S31), or has the CPU 40 detected a free time (step S33)? ) And whether the end of processing is instructed (step S36).

監視状態においてユーザがコンピュータ4の操作部44を操作して、シナリオデータ93を作成する指示をコンピュータ4に与えると、CPU40がステップS31においてYesと判定する。これによって、CPU40が実行すべきタスクとして、シナリオデータ作成処理が選択され、当該処理が開始される(ステップS32)。   When the user operates the operation unit 44 of the computer 4 in the monitoring state and gives an instruction to create the scenario data 93 to the computer 4, the CPU 40 determines Yes in step S31. As a result, the scenario data creation process is selected as a task to be executed by the CPU 40, and the process is started (step S32).

図11は、第2の実施の形態におけるシナリオデータ作成処理を示す流れ図である。第2の実施の形態においても、第1の実施の形態とほぼ同様の手順によって、ユーザによりサーバ装置7におけるコンテンツデータ71が指定される。   FIG. 11 is a flowchart showing scenario data creation processing in the second embodiment. Also in the second embodiment, the content data 71 in the server device 7 is designated by the user by a procedure substantially similar to that in the first embodiment.

これにより、指定されたコンテンツデータ71(シナリオ元データ72、GUIデータ73および素材データ74)がコンピュータ4にダウンロードされ(ステップS41)、ハードディスク43に記憶される。   As a result, the designated content data 71 (scenario original data 72, GUI data 73, and material data 74) is downloaded to the computer 4 (step S41) and stored in the hard disk 43.

ダウンロードが完了すると、ユーザは操作部44を操作して指定作業の開始を指示する(ステップS42)。この指示に応じて、要求部100aがハードディスク43に格納されたGUIデータ73を参照し、ユーザに必要な入力を促すGUI画面(選択画面)をディスプレイ46に表示させる(ステップS43)。   When the download is completed, the user operates the operation unit 44 to instruct the start of designated work (step S42). In response to this instruction, the request unit 100a refers to the GUI data 73 stored in the hard disk 43, and causes the display 46 to display a GUI screen (selection screen) that prompts the user for necessary input (step S43).

ステップS43においてディスプレイ46に表示される選択画面とは、当該選択画面において特定すべき編集前データの特徴を示すデータと、当該編集前データとして選択可能なデータ(選択候補のデータ)の一覧である。また、編集前データの特徴を示すデータとは、例えば、テーマ「結婚式」において、特定すべき編集前データが新郎新婦が指輪を交換している場面を表現した画像として要求される編集前データであれば、「指輪交換(写真)」といった文字データが考えられる。また、同じ場面であっても音声として要求される編集前データであれば、「指輪交換(BGM)」といった文字データが考えられる。   The selection screen displayed on the display 46 in step S43 is a list of data indicating characteristics of pre-edit data to be specified on the selection screen and data (selection candidate data) that can be selected as the pre-edit data. . The data indicating the characteristics of the pre-edit data is, for example, pre-edit data required as an image representing a scene in which the bride and groom are exchanging rings in the theme “wedding”. Then, character data such as “ring exchange (photo)” can be considered. In addition, even in the same scene, text data such as “ring exchange (BGM)” is conceivable as long as it is pre-edit data required as sound.

ステップS43を実行するとき、要求部100aは、USB端子47にケーブル31を介してデジタルスチルカメラ5が接続されているか否かを検出する。そして、デジタルスチルカメラ5が接続されている場合には、選択画面において選択可能なデータとして、ハードディスク43に記憶されている素材データ90のみならず、当該デジタルスチルカメラ5に記憶されている撮像データ91および録音データ92も表示させる。   When executing step S43, the request unit 100a detects whether or not the digital still camera 5 is connected to the USB terminal 47 via the cable 31. When the digital still camera 5 is connected, not only the material data 90 stored in the hard disk 43 but also the imaging data stored in the digital still camera 5 as selectable data on the selection screen. 91 and recorded data 92 are also displayed.

ユーザは選択画面に表示された一覧表から、当該選択画面において特定される編集前データとして最適のデータを選択することにより、特定情報を入力する(ステップS44)。   The user inputs specific information from the list displayed on the selection screen by selecting optimum data as pre-edit data specified on the selection screen (step S44).

これにより、素材データ90の中からシナリオ元データ72において要求される編集前データが1つ特定され、指定された素材データ90と編集前データとが関連づけられる(ステップS45)。すなわち、ステップS45が実行されるごとに、1つの編集前データが特定され、素材指定情報の1レコードが作成される。なお、ステップS44において選択されたデータが、デジタルスチルカメラ5に記憶されている撮像データ91または録音データ92であった場合には、これらのデータが素材データ90としてハードディスク43に複写された後、ステップS45における関連づけが行われる。   Thereby, one pre-edit data required in the scenario source data 72 is identified from the material data 90, and the designated material data 90 and pre-edit data are associated (step S45). That is, each time step S45 is executed, one pre-edit data is identified and one record of material designation information is created. If the data selected in step S44 is the imaging data 91 or the recording data 92 stored in the digital still camera 5, these data are copied to the hard disk 43 as the material data 90, Association in step S45 is performed.

ステップS45が実行されると、要求部100aは、全ての編集前データについて特定が終了したか否かを判定し(ステップS46)、未だ特定されていない編集前データが存在する場合はステップS43に戻って処理を繰り返す。   When step S45 is executed, the request unit 100a determines whether or not the specification for all the pre-edit data has been completed (step S46). If there is pre-edit data that has not been specified yet, the request unit 100a proceeds to step S43. Return and repeat the process.

一方、全ての編集前データについて特定が終了すると、シナリオ解析部101が、要求部100aから伝達される素材指定情報と、ハードディスク43記憶されているシナリオ元データ72とを参照する。そして、編集前データとして特定された各素材データ90と、各素材データ90に対して実行すべきデータ処理との関連づけを行い、シナリオデータ93を生成しハードディスク43に記憶させる(ステップS47)。また、ステップS47では、第1の実施の形態と同様に、スケジュール部105がステップS47において生成されたシナリオデータ93の識別子を管理データ95に登録する。   On the other hand, when the specification for all the pre-edit data is completed, the scenario analysis unit 101 refers to the material designation information transmitted from the request unit 100a and the scenario source data 72 stored in the hard disk 43. Then, each material data 90 specified as pre-edit data is associated with data processing to be executed for each material data 90, and scenario data 93 is generated and stored in the hard disk 43 (step S47). In step S47, as in the first embodiment, the schedule unit 105 registers the identifier of the scenario data 93 generated in step S47 in the management data 95.

ステップS47を終了すると、コンピュータ4のCPU40は、シナリオデータ作成処理を終了して、図10に示す処理に戻り、再び監視状態に戻る。   When step S47 ends, the CPU 40 of the computer 4 ends the scenario data creation process, returns to the process shown in FIG. 10, and returns to the monitoring state again.

監視状態において、CPU40の空き時間を検出すると、CPU40はステップS33においてYesと判定する。このとき、さらにCPU40(スケジュール部105)は、管理データ95を参照して、シナリオデータ93が登録されているか否かを判定する(ステップS34)。   When the CPU 40 detects a free time in the monitoring state, the CPU 40 determines Yes in step S33. At this time, the CPU 40 (schedule unit 105) further refers to the management data 95 to determine whether or not the scenario data 93 is registered (step S34).

管理データ95にシナリオデータ93が登録されている場合(ステップS34においてYes)、CPU40は、記録データ生成処理を実行する(ステップS35)。なお、第2の実施の形態における記録データ生成処理は、第1の実施の形態における記録データ生成処理(図6)と同様に実行することが可能であるため、説明を省略する。   When the scenario data 93 is registered in the management data 95 (Yes in step S34), the CPU 40 executes a recording data generation process (step S35). Note that the recording data generation process in the second embodiment can be executed in the same manner as the recording data generation process (FIG. 6) in the first embodiment, and thus the description thereof is omitted.

一方、管理データ95にシナリオデータ93が登録されていない場合(ステップS34においてNo)、例え、CPU40が、CPU40の空き時間を検出したとしても記録データ94の作成を行う必要はないので、ステップS35をスキップして監視状態に戻る。   On the other hand, when the scenario data 93 is not registered in the management data 95 (No in step S34), for example, even if the CPU 40 detects the free time of the CPU 40, it is not necessary to create the recording data 94. To return to the monitoring state.

監視状態において、ユーザが操作部44を操作して、コンピュータ4による全ての処理を終了するように指示がされると、CPU40は、図10に示すステップS36においてYesと判定する。   In the monitoring state, when the user operates the operation unit 44 and is instructed to end all processing by the computer 4, the CPU 40 determines Yes in step S36 shown in FIG.

本実施の形態におけるCPU40は、コンピュータ4による全ての指示を終了する指示が与えられたときに、直ちに電源をOFF状態に切り替えるのではなく、スケジュール部105が管理データ95を参照することにより、この時点で、管理データ95に登録されたシナリオデータ93が未だ残っているか否かを判定する(ステップS37)。   The CPU 40 in the present embodiment does not immediately switch the power supply to the OFF state when an instruction to end all the instructions by the computer 4 is given, but the schedule unit 105 refers to the management data 95 so that the power is turned off. At the time, it is determined whether or not the scenario data 93 registered in the management data 95 still remains (step S37).

そして、ステップS37が実行された時点で、管理データ95に登録されたシナリオデータ93が存在しない場合(ステップS37においてNo)、記録データ94を作成すべきシナリオデータ93が既に存在しないとみなして、コンピュータ4の電源をOFF状態に切り替える。   When the scenario data 93 registered in the management data 95 does not exist at the time when step S37 is executed (No in step S37), it is assumed that the scenario data 93 for which the recording data 94 should be created does not already exist. The computer 4 is turned off.

一方、ステップS37が実行された時点で、管理データ95に登録されたシナリオデータ93が存在する場合(ステップS37においてYes)、記録データ94を作成すべきシナリオデータ93が未だ存在するとみなして、記録データ生成処理を実行する(ステップS38)。そして、ステップS37においてNoと判定されるまで(管理データ95に登録された全てのシナリオデータ93について記録データ生成処理を完了するまで)、ステップS38の処理を繰り返し実行する。なお、ステップS38の処理は、ステップS35の処理と同様に実行することが可能であるため、説明は省略する。   On the other hand, when the scenario data 93 registered in the management data 95 exists at the time when step S37 is executed (Yes in step S37), it is assumed that the scenario data 93 for which the recording data 94 should be created still exists and the recording is performed. Data generation processing is executed (step S38). Then, the process of step S38 is repeatedly executed until it is determined No in step S37 (until the recording data generation process is completed for all scenario data 93 registered in the management data 95). Note that the process of step S38 can be performed in the same manner as the process of step S35, and thus description thereof is omitted.

このように、コンピュータ4における全て処理を終了するように指示された後は、CPU40が優先すべき他のタスクを実行することのない空き時間として検出して、記録データ生成処理を実行する。これにより、CPU40による他の処理の実行を妨げることなく、CPU40(A/Vコーデック部104)による記録データ94の作成を行うことができる。   As described above, after instructed to finish all the processes in the computer 4, the CPU 40 detects a free time in which another task to be prioritized is not executed, and executes the recording data generation process. Thus, the recording data 94 can be created by the CPU 40 (A / V codec unit 104) without preventing the CPU 40 from executing other processes.

<3. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<3. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

例えば、上記実施の形態では画像処理システムとしてデジタルスチルカメラ2またはコンピュータ4を例に説明したが、本発明に係る画像処理システムは携帯電話によって構成されてもよい。なお、画像処理システムとして、上記のように携帯電話が採用された場合には、当該携帯電話の通信機能によって、サーバ装置7からコンテンツデータ71をダウンロードしてもよい。   For example, in the above embodiment, the digital still camera 2 or the computer 4 has been described as an example of the image processing system. However, the image processing system according to the present invention may be configured by a mobile phone. When a mobile phone is employed as the image processing system as described above, the content data 71 may be downloaded from the server device 7 by the communication function of the mobile phone.

また、上記実施の形態における機能ブロックはプログラム210,410(ソフトウェア)によって実現される例で説明したが、これらの機能ブロックによって実現される機能の一部または全部を専用の論理回路(ハードウェア)として実現してもよい。一方、上記実施の形態において論理回路により構成されると説明した構成(例えばデータ変換部27)の一部または全部をソフトウェアによって実現するように構成してもよい。   Moreover, although the functional block in the said embodiment was demonstrated by the example implement | achieved by program 210,410 (software), a part or all of the function implement | achieved by these functional blocks is a dedicated logic circuit (hardware). It may be realized as. On the other hand, part or all of the configuration (for example, the data conversion unit 27) described as being configured by a logic circuit in the above embodiment may be realized by software.

また、上記に示した処理の内容はあくまでも例示であって、同様の効果が得られるならば、各工程の内容および順序等が適宜変更されてもよい。   Moreover, the content of the process shown above is an illustration to the last, and if the same effect is acquired, the content, order, etc. of each process may be changed suitably.

また、上記実施の形態では、画像処理システム(デジタルスチルカメラ2またはコンピュータ4)においてシナリオデータ93を作成すると説明したが、シナリオデータ93は画像処理システムで作成されなくてもよい。例えば、デジタルスチルカメラ5に要求部100およびシナリオ解析部101に相当する機能ブロックを設けて、素材データ90の特定、およびシナリオデータ93の作成をデジタルスチルカメラ5で行ってもよい。その後、作成されたシナリオデータ93と必要な素材データ90とをコンピュータ4に転送するとともに管理データ95に登録し、コンピュータ4において記録データ94を作成するように構成してもよい。   In the above embodiment, the scenario data 93 is created in the image processing system (the digital still camera 2 or the computer 4). However, the scenario data 93 may not be created in the image processing system. For example, the digital still camera 5 may be provided with functional blocks corresponding to the request unit 100 and the scenario analysis unit 101, and the material data 90 may be specified and the scenario data 93 may be created by the digital still camera 5. Thereafter, the created scenario data 93 and necessary material data 90 may be transferred to the computer 4 and registered in the management data 95 so that the recording data 94 is created in the computer 4.

また、上記実施の形態では、編集データの生成と記録データ94の生成とを同じ装置で行う例について説明した。すなわち、画像生成部102および音声生成部103と、A/Vコーデック部104とが同じ装置に搭載されている例で説明した。しかし、これらの処理は別々の装置で行われてもよい。例えば、要求部100、シナリオ解析部101、画像生成部102および音声生成部103を備えるデジタルスチルカメラと、A/Vコーデック部104およびスケジュール部105を備えるコンピュータとによって画像処理システムを構成することも可能である。この場合、スケジュール部105からの制御に従ってデジタルスチルカメラで編集データを作成しつつ接続されたコンピュータに転送し、当該コンピュータのA/Vコーデック部104が記録データ94を生成してもよい。   In the above-described embodiment, the example in which the editing data is generated and the recording data 94 is generated by the same apparatus has been described. That is, the example in which the image generation unit 102, the audio generation unit 103, and the A / V codec unit 104 are mounted on the same device has been described. However, these processes may be performed by separate apparatuses. For example, an image processing system may be configured by a digital still camera including a request unit 100, a scenario analysis unit 101, an image generation unit 102, and an audio generation unit 103, and a computer including an A / V codec unit 104 and a schedule unit 105. Is possible. In this case, editing data may be created by a digital still camera and transferred to a connected computer in accordance with control from the schedule unit 105, and the A / V codec unit 104 of the computer may generate the recording data 94.

さらに、上記実施の形態では、一旦、記録データ94の生成を開始した後は、他のタスクの発生にかかわらず、当該処理を継続するように説明した。しかし、記録データ94の生成中(記録データ生成処理の実行中)においても他のタスクが発生していないかを常に監視し、発生した場合は記録データ94の生成を一時的に中断するように構成してもよい。   Further, in the above embodiment, it has been described that once the generation of the recording data 94 is started, the process is continued regardless of the occurrence of other tasks. However, while the recording data 94 is being generated (during the execution of the recording data generation process), it is always monitored whether another task has occurred, and if it occurs, the generation of the recording data 94 is temporarily interrupted. It may be configured.

第1の実施の形態における情報処理システムを示す図である。It is a figure which shows the information processing system in 1st Embodiment. 第1の実施の形態において画像処理システムとして構成されるデジタルスチルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital still camera comprised as an image processing system in 1st Embodiment. 第1の実施の形態において画像処理システムとして構成されるデジタルスチルカメラの機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block of the digital still camera comprised as an image processing system in 1st Embodiment with the flow of data. 第1の実施の形態における画像処理方法を示す流れ図である。3 is a flowchart illustrating an image processing method according to the first embodiment. 第1の実施の形態におけるシナリオデータ作成処理を示す流れ図である。It is a flowchart which shows the scenario data creation process in 1st Embodiment. 記録データ生成処理を示す流れ図である。It is a flowchart which shows a recording data generation process. 第2の実施の形態における情報処理システムを示す図である。It is a figure which shows the information processing system in 2nd Embodiment. 第2の実施の形態において画像処理システムとして構成されるコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the computer comprised as an image processing system in 2nd Embodiment. 第2の実施の形態において画像処理システムとして構成されるコンピュータの機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block of the computer comprised as an image processing system in 2nd Embodiment with the flow of data. 第2の実施の形態における画像処理方法を示す流れ図である。It is a flowchart which shows the image processing method in 2nd Embodiment. 第2の実施の形態におけるシナリオデータ作成処理を示す流れ図である。It is a flowchart which shows the scenario data creation process in 2nd Embodiment.

符号の説明Explanation of symbols

2 デジタルスチルカメラ
20,40 CPU
100,100a 要求部
101 シナリオ解析部
102 画像生成部
103 音声生成部
104 A/Vコーデック部
105 スケジュール部
21 記憶部
210,410 プログラム
22,44 操作部
23 マイク
24 撮像部
25 スピーカ
26 液晶パネル
27 データ変換部
28 カードスロット
29 通信部
3 端末装置
4 コンピュータ
43 ハードディスク
46 ディスプレイ
72 シナリオ元データ
73 GUIデータ
74,90 素材データ
8 ネットワーク
9 記録メディア
91 撮像データ
92 録音データ
93 シナリオデータ
94 記録データ
95 管理データ
2 Digital still camera 20, 40 CPU
100, 100a Request section 101 Scenario analysis section 102 Image generation section 103 Audio generation section 104 A / V codec section 105 Schedule section 21 Storage section 210, 410 Program 22, 44 Operation section 23 Microphone 24 Imaging section 25 Speaker 26 Liquid crystal panel 27 Data Conversion unit 28 Card slot 29 Communication unit 3 Terminal device 4 Computer 43 Hard disk 46 Display 72 Scenario source data 73 GUI data 74, 90 Material data 8 Network 9 Recording medium 91 Imaging data 92 Recording data 93 Scenario data 94 Recording data 95 Management data

Claims (9)

素材データに基づいて符号化された記録データを作成する画像処理システムであって、
要求する素材データと前記要求する素材データに対して施すデータ処理との対応関係を示すシナリオデータと前記シナリオデータにおいて要求される素材データとを事前に記憶する記憶手段と、
前記記憶手段に記憶されているシナリオデータに基づいて、前記シナリオデータにおいて要求される素材データに施されるべきデータ処理を特定しつつ、特定したデータ処理を前記素材データに施して編集データを生成する生成手段と、
前記生成手段により生成された編集データを演算により符号化して記録データを生成する演算手段と、
前記演算手段がタスクを実行していない空き時間を検出して、前記演算手段による前記符号化が前記空き時間に行われるように、前記演算手段が前記符号化を開始するタイミングを決定するスケジュール手段と、
を備えることを特徴とする画像処理システム。
An image processing system for creating recorded data encoded based on material data,
Storage means for storing in advance scenario data indicating a correspondence relationship between requested material data and data processing applied to the requested material data, and material data required in the scenario data;
Based on the scenario data stored in the storage means, the data processing to be performed on the material data required in the scenario data is specified, and the specified data processing is performed on the material data to generate edit data. Generating means for
Calculation means for encoding the edit data generated by the generation means to generate recording data;
Scheduling means for determining a timing at which the computing means starts the encoding so that the computing means detects an idle time during which no task is being executed and the encoding by the computing means is performed during the idle time. When,
An image processing system comprising:
請求項1に記載の画像処理システムであって、
前記スケジュール手段は、前記生成手段による編集データの生成を開始するタイミングを決定することにより、前記演算手段が前記符号化を開始するタイミングを決定することを特徴とする画像処理システム。
The image processing system according to claim 1,
The image processing system according to claim 1, wherein the scheduling unit determines a timing at which the calculation unit starts the encoding by determining a timing at which the generation unit starts generating edited data.
請求項1または2に記載の画像処理システムであって、
前記スケジュール手段は、ユーザ操作に応じて、前記空き時間を検出することを特徴とする画像処理システム。
The image processing system according to claim 1 or 2,
The image processing system according to claim 1, wherein the schedule means detects the idle time in response to a user operation.
請求項1ないし3のいずれかに記載の画像処理システムであって、
前記スケジュール手段は、前記演算手段がタスクを実行中か否かを監視することによって前記空き時間を検出することを特徴とする画像処理システム。
The image processing system according to any one of claims 1 to 3,
The image processing system according to claim 1, wherein the schedule unit detects the idle time by monitoring whether or not the calculation unit is executing a task.
請求項4に記載の画像処理システムであって、
前記スケジュール手段は、前記演算手段が、所定の時間、タスクを実行していないことを検出したときに、前記空き時間を検出したと判断することを特徴とする画像処理システム。
The image processing system according to claim 4,
The image processing system according to claim 1, wherein the scheduling unit determines that the idle time has been detected when the calculation unit detects that the task is not executed for a predetermined time.
素材データに基づいて符号化された記録データを作成する画像処理方法であって、
(a) 要求する素材データと前記要求する素材データに対して施すデータ処理との対応関係を示すシナリオデータと前記シナリオデータにおいて要求される素材データとを事前に記憶手段に記憶させる工程と、
(b) 演算手段がタスクを実行していない空き時間を検出する工程と、
(c) 前記記憶手段に記憶されているシナリオデータに基づいて、前記シナリオデータにおいて要求される素材データに施されるべきデータ処理を特定しつつ、特定したデータ処理を前記素材データに施して編集データを生成し前記演算手段に伝達する工程と、
(d) 前記(b)工程において空き時間が検出されたことに応じて、前記(c)工程において前記演算手段に伝達された編集データを前記演算手段に演算させることにより符号化して記録データを生成する工程と、
を有することを特徴とする画像処理方法。
An image processing method for creating recording data encoded based on material data,
(a) storing scenario data indicating a correspondence relationship between requested material data and data processing applied to the requested material data and material data requested in the scenario data in a storage unit in advance;
(b) a step of detecting free time when the computing means is not executing a task;
(c) Based on the scenario data stored in the storage means, the data processing to be applied to the material data required in the scenario data is specified, and the specified data processing is applied to the material data for editing. Generating data and transmitting it to the computing means;
(d) When the idle time is detected in the step (b), the editing data transmitted to the calculation unit in the step (c) is encoded by causing the calculation unit to calculate and record the recorded data. Generating step;
An image processing method comprising:
請求項6に記載の画像処理方法であって、
前記(c)工程は、前記(b)工程において空き時間が検出されたことに応じて開始される工程であることを特徴とする画像処理方法。
The image processing method according to claim 6,
Step (c) is an image processing method that is started in response to the detection of a free time in step (b).
記憶手段と演算手段とを備えるコンピュータによって実行されるプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータに、
(a) 要求する素材データと前記要求する素材データに対して施すデータ処理との対応関係を示すシナリオデータと前記シナリオデータにおいて要求される素材データとを事前に前記記憶手段に記憶させる工程と、
(b) 前記演算手段がタスクを実行していない空き時間を検出する工程と、
(c) 前記記憶手段に記憶されているシナリオデータに基づいて、前記シナリオデータにおいて要求される素材データに施されるべきデータ処理を特定しつつ、特定したデータ処理を前記素材データに施して編集データを生成し前記演算手段に伝達する工程と、
(d) 前記(b)工程において空き時間が検出されたことに応じて、前記(c)工程において前記演算手段に伝達された編集データを前記演算手段に演算させることにより符号化して記録データを生成する工程と、
を実行させることを特徴とするプログラム。
A program that is executed by a computer including a storage unit and a calculation unit, and the execution of the program by the computer is performed on the computer,
(a) storing scenario data indicating a correspondence relationship between requested material data and data processing applied to the requested material data and material data required in the scenario data in the storage unit in advance;
(b) detecting a free time when the computing means is not executing a task;
(c) Based on the scenario data stored in the storage means, the data processing to be applied to the material data required in the scenario data is specified, and the specified data processing is applied to the material data for editing. Generating data and transmitting it to the computing means;
(d) When the idle time is detected in the step (b), the editing data transmitted to the calculation unit in the step (c) is encoded by causing the calculation unit to calculate and record the recorded data. Generating step;
A program characterized by having executed.
請求項8に記載のプログラムであって、
前記(b)工程において空き時間が検出されたことに応じて前記コンピュータに前記(c)工程を開始させることを特徴とするプログラム。
The program according to claim 8, wherein
A program for causing the computer to start the step (c) in response to the detection of a free time in the step (b).
JP2008150350A 2008-06-09 2008-06-09 Image processing system, image processing method, and program Expired - Fee Related JP5257980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008150350A JP5257980B2 (en) 2008-06-09 2008-06-09 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008150350A JP5257980B2 (en) 2008-06-09 2008-06-09 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2009296503A true JP2009296503A (en) 2009-12-17
JP5257980B2 JP5257980B2 (en) 2013-08-07

Family

ID=41544222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008150350A Expired - Fee Related JP5257980B2 (en) 2008-06-09 2008-06-09 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5257980B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086921A (en) * 1995-02-24 2004-03-18 Matsushita Electric Ind Co Ltd Multiprocessor system and method for executing task in multiprocessor system thereof
JP2005506643A (en) * 2000-12-22 2005-03-03 ミュビー テクノロジーズ ピーティーイー エルティーディー Media production system and method
JP2005149126A (en) * 2003-11-14 2005-06-09 Sony Corp Information acquiring system and method, and information processing program
JP2005252580A (en) * 2004-03-03 2005-09-15 Canon Inc Picture processor
JP2007160522A (en) * 2005-12-09 2007-06-28 Seiko Epson Corp Printer
JP2007306426A (en) * 2006-05-12 2007-11-22 Fujifilm Corp Method, device, and program for reproducing image, storage medium, method, device, and program for reproducing content, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086921A (en) * 1995-02-24 2004-03-18 Matsushita Electric Ind Co Ltd Multiprocessor system and method for executing task in multiprocessor system thereof
JP2005506643A (en) * 2000-12-22 2005-03-03 ミュビー テクノロジーズ ピーティーイー エルティーディー Media production system and method
JP2005149126A (en) * 2003-11-14 2005-06-09 Sony Corp Information acquiring system and method, and information processing program
JP2005252580A (en) * 2004-03-03 2005-09-15 Canon Inc Picture processor
JP2007160522A (en) * 2005-12-09 2007-06-28 Seiko Epson Corp Printer
JP2007306426A (en) * 2006-05-12 2007-11-22 Fujifilm Corp Method, device, and program for reproducing image, storage medium, method, device, and program for reproducing content, and storage medium

Also Published As

Publication number Publication date
JP5257980B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
US9124860B2 (en) Storing a video summary as metadata
JP5568178B2 (en) How to summarize videos
US8446490B2 (en) Video capture system producing a video summary
JP5783737B2 (en) Image pickup apparatus and moving image recording apparatus control method
JP2006186420A (en) Imaging apparatus and its control method
JP5818599B2 (en) Movie recording device
JP5283433B2 (en) Digital still camera, image processing method and program
JP5683301B2 (en) Image recording device
JP2011147119A (en) Image processing apparatus and image processing program
JP5769434B2 (en) Movie recording device, information processing device
JP5257980B2 (en) Image processing system, image processing method, and program
JP4698961B2 (en) Electronic camera and electronic camera control program
JP2009272846A (en) Image processor, image processing method and program
JP4130517B2 (en) Digital still camera with music playback function and image music playback device
JP2009253710A (en) Image processing system, information processor, and image processing method
JP2009055618A (en) Electronic camera and control program of electronic camera
JP2009266215A (en) Image processor, image processing method, and program
JP2008276899A (en) Recording and playback device and control method thereof
JP4616895B2 (en) Digital still camera with music playback function and image music playback device
JP6079907B2 (en) Image editing apparatus and editing program
JP5866896B2 (en) Image editing apparatus and editing program
JP6566826B2 (en) Image processing apparatus, control method thereof, and control program
JP2004304777A (en) Image photographing apparatus
JP5704945B2 (en) Imaging apparatus, control method therefor, and program
JP2003189212A (en) Imaging device, imaging method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130418

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5257980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees