JP2003110995A - Image processing apparatus, image processing system, image processing method, storage medium, and program - Google Patents

Image processing apparatus, image processing system, image processing method, storage medium, and program

Info

Publication number
JP2003110995A
JP2003110995A JP2001302970A JP2001302970A JP2003110995A JP 2003110995 A JP2003110995 A JP 2003110995A JP 2001302970 A JP2001302970 A JP 2001302970A JP 2001302970 A JP2001302970 A JP 2001302970A JP 2003110995 A JP2003110995 A JP 2003110995A
Authority
JP
Japan
Prior art keywords
image data
moving image
image processing
camera
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001302970A
Other languages
Japanese (ja)
Inventor
Hiroshi Tojo
洋 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001302970A priority Critical patent/JP2003110995A/en
Priority to US10/216,748 priority patent/US7391436B2/en
Publication of JP2003110995A publication Critical patent/JP2003110995A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus by which a user can easily perform desirable sophisticated moving picture edit without notifying expert intelligence about moving picture edit (video edit). SOLUTION: An acquisition means 131 acquires image data (video data obtained by operating a video camera and photographing an object) obtained by operation of an optional device or system and information (operation information) with respect to the operation. A processing means 133 applies prescribed image processing (special effect processing at image edit) to the image data obtained by the acquisition means 131 on the basis of the operation information obtained by the acquisition means 131.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、ビデオカ
メラ等により撮影して得られた動画像(映像)を編集す
るための装置或いはシステムに用いられる、画像処理装
置、画像処理システム、画像処理方法、それを実施する
ためのプログラムを記憶したコンピュータ読出可能な記
憶媒体、及び当該プログラムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing system, and an image processing used for an apparatus or a system for editing a moving image (video) obtained by shooting with a video camera or the like. The present invention relates to a method, a computer-readable storage medium storing a program for implementing the method, and the program.

【0002】[0002]

【従来の技術】従来より、ビデオカメラ等により撮影し
て得られた映像(動画像)を編集するための画像編集装
置において、ユーザが映像編集の作業を行う場合、例え
ば、ユーザは、編集対象映像中(動画素材中)の必要な
区間を決定し、この区間のシーンを順に記録していく。
この結果が、映像編集の結果とされる。
2. Description of the Related Art Conventionally, in an image editing apparatus for editing an image (moving image) obtained by shooting with a video camera or the like, when a user performs an image editing operation, for example, the user is an object to be edited. Determine the necessary section of the video (in the video material) and record the scenes in this section in order.
This result is the result of video editing.

【0003】ところで、映像編集を行うユーザが、例え
ば、映像製作に関わるプロフェッショナルなユーザであ
る場合、このようなユーザは一般的に、映像(動画素
材)中のパン、チルト、ズーム、及びカメラアングル等
のカメラ操作による表現(シーン)を組み合わせること
で、メリハリの利いた迫力のある映像を得るための技術
等を有する。これに対して、プロフェッショナルなユー
ザでない、特に、アマチュアのユーザは、カメラ操作に
よる表現やその組み合わせによって、どのような映像効
果が得られるか等について知識が乏しいため、メリハリ
の利いた映像等のような良好な映像を編集結果として得
ることが難しい。
By the way, when a user who edits an image is, for example, a professional user who is involved in image production, such a user generally has pan, tilt, zoom, and camera angle in an image (moving image material). By combining expressions (scenes) operated by the camera such as, for example, there is a technology for obtaining a sharp and powerful image. On the other hand, non-professional users, especially amateur users, do not have enough knowledge about what kind of image effects can be obtained by the expression by the camera operation and the combination thereof, so that it seems to be a sharp image. It is difficult to obtain a good video as a result of editing.

【0004】そこで、上記の問題を解決するために、例
えば、特開平9−37150号等に記載されているよう
な構成を備えた画像編集装置は、「刺激的に」等のよう
な自然な言葉(自然言語)の表現と、カメラ操作による
映像効果との対応辞書を有し、ユーザからの自然言語を
用いた映像効果の指定により、容易に高度な映像編集の
結果を得ることを可能としている。
Therefore, in order to solve the above problems, an image editing apparatus having a structure as disclosed in, for example, Japanese Patent Laid-Open No. 9-37150, has a natural "stimulating" or the like. It has a dictionary that supports the expression of words (natural language) and the video effects by operating the camera, and it is possible to easily obtain the results of advanced video editing by specifying the video effects using natural language from the user. There is.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
たような、特開平9−37150等に記載の従来の画像
編集装置は、自然言語による表現により映像効果を指定
する構成であったので、ユーザそれぞれの主観による違
いに対応することができなかった。例えば、同じ「刺激
的に」という自然言語による表現であっても、それぞれ
のユーザの間にはその「刺激的に」の感じ方の度合いの
違いがある場合が多く、これに対応することは非常に困
難である。また、ユーザは、実際の映像編集作業を行う
前に、予め、どのような映像効果にするか等を決めてお
く必要があったので、ユーザが編集作業を進めながら自
由に発想を膨らませる、などという映像編集作業を行う
ことが非常に困難であった。
However, the conventional image editing apparatus described in Japanese Patent Laid-Open No. 9-37150, etc., as described above, has a configuration in which the video effect is specified by the expression in natural language. It was not possible to cope with the difference due to the subjectivity of. For example, even if the same natural language expression "stimulatingly" is used, there is often a difference in the degree of "stimulatingly" feeling between users. Very difficult. In addition, the user had to decide in advance what kind of video effect, etc., before performing the actual video editing work, so that the user can freely expand the idea while proceeding with the editing work. It was very difficult to do such video editing work.

【0006】そこで、本発明は、上記の欠点を除去する
ために成されたもので、動画像編集(映像編集)に関し
て専門的な知識を意識させることなく、高度な所望する
動画像編集を容易に行える、画像処理装置、画像処理シ
ステム、画像処理方法、それを実施するためのプログラ
ムを記憶したコンピュータ読出可能な記憶媒体、及び当
該プログラムを提供することを目的とする。
Therefore, the present invention has been made in order to eliminate the above-mentioned drawbacks, and facilitates highly desired moving image editing without being aware of specialized knowledge about moving image editing (video editing). It is an object of the present invention to provide an image processing device, an image processing system, an image processing method, a computer-readable storage medium storing a program for implementing the same, and the program.

【0007】[0007]

【課題を解決するための手段】斯かる目的下において、
第1の発明は、任意の装置或いはシステム上の操作によ
り得られた画像データ、及び当該操作に関する情報を取
得する取得手段と、上記取得手段で得られた操作情報に
基づいて、上記取得手段で得られた画像データに対して
所定の画像処理を施す処理手段とを備える画像処理装置
であることを特徴とする。
[Means for Solving the Problems] Under such a purpose,
According to a first aspect of the present invention, there is provided an image data obtained by an operation on an arbitrary device or a system, an acquisition means for acquiring information regarding the operation, and an acquisition means for acquiring the operation information based on the operation information obtained by the acquisition means. The image processing apparatus is provided with a processing unit that performs predetermined image processing on the obtained image data.

【0008】第2の発明は、上記第1の発明において、
上記任意の装置或いはシステムは、ユーザからなされた
操作に従った撮影動作により動画像データを取得する機
能を有し、上記操作情報は、上記撮影時の操作に関する
情報を含むことを特徴とする。
A second invention is the same as the first invention,
The arbitrary device or system has a function of acquiring moving image data by a shooting operation according to an operation performed by a user, and the operation information includes information about an operation at the time of shooting.

【0009】第3の発明は、上記第1の発明において、
上記任意の装置或いはシステムは、カメラを含み、上記
操作情報は、上記画像データ取得時の上記カメラの動
き、上記カメラの状態、上記カメラの操作の種類、上記
カメラの方向、及び上記カメラの操作がなされた区間の
少なくとも何れかの情報を含むことを特徴とする。
A third invention is the same as the first invention,
The arbitrary device or system includes a camera, and the operation information includes movement of the camera when acquiring the image data, a state of the camera, a type of operation of the camera, a direction of the camera, and an operation of the camera. It is characterized in that it includes at least information of at least one of the sections.

【0010】第4の発明は、上記第1の発明において、
上記取得手段は、任意の記録媒体から上記画像データ及
び上記操作情報を読み取って取得することを特徴とす
る。
A fourth invention is the same as the first invention,
The acquisition unit is characterized by reading and acquiring the image data and the operation information from an arbitrary recording medium.

【0011】第5の発明は、上記第1の発明において、
上記所定の画像処理は、上記画像データに対する特殊効
果処理を含むことを特徴とする。
A fifth invention is based on the first invention,
The predetermined image processing includes a special effect processing for the image data.

【0012】第6の発明は、上記第1の発明において、
上記特殊効果処理は、上記画像データに対してトランジ
ションエフェクトを付与する処理を含むことを特徴とす
る。
A sixth invention is the same as the first invention,
The special effect process includes a process of adding a transition effect to the image data.

【0013】第7の発明は、上記第1の発明において、
上記取得手段で上記画像データとして得られた動画像デ
ータを構成する複数区間の中の任意区間を複数指定する
指定手段を備え、上記処理手段は、上記取得手段で得ら
れた、上記指定手段で指定された複数の区間の動画像デ
ータに対応した操作情報に基づいて、上記動画像データ
に対して所定の画像処理を施すことを特徴とする。
A seventh invention is based on the first invention,
The specifying means includes a specifying means for specifying a plurality of arbitrary sections among a plurality of sections forming the moving image data obtained as the image data by the obtaining means, and the processing means is the specifying means obtained by the obtaining means. The above-mentioned moving image data is subjected to predetermined image processing based on operation information corresponding to moving image data of a plurality of designated sections.

【0014】第8の発明は、上記第1の発明において、
上記処理手段は、上記任意の装置或いはシステム上の操
作の組み合わせに関する規則に基いて、上記画像データ
に対して所定の画像処理を施すことを特徴とする。
An eighth invention is based on the first invention,
The processing means is characterized by performing predetermined image processing on the image data based on a rule regarding a combination of operations on the arbitrary device or system.

【0015】第9の発明は、上記第8の発明において、
上記処理手段は、上記操作の組み合わせに関する規則
と、上記任意の装置或いはシステム上で実際になされた
操作に関する情報との照合結果に基づいて、上記画像デ
ータに対して所定の画像処理を施すことを特徴とする。
In a ninth aspect based on the eighth aspect,
The processing means may perform predetermined image processing on the image data based on a comparison result between a rule regarding a combination of the operations and information about an operation actually performed on the arbitrary device or system. Characterize.

【0016】第10の発明は、任意の装置或いはシステ
ム上の操作により得られた動画像データの画像処理装置
であって、上記動画像データ及び上記操作に関する情報
を取得する取得手段と、上記取得手段で得られた動画像
データを構成する複数の区間の中の任意の複数の区間
と、当該複数の区間の順序とを指定する指定手段と、上
記取得手段で取得された操作情報により、上記指定手段
で指定された区間に対応する操作情報を検出する検出手
段と、上記任意の装置或いはシステム上の操作に関する
規則を記憶する記憶手段と、上記検出手段で検出された
操作情報と上記記憶手段に記憶された規則を照合した結
果に基づいて、上記取得手段で得られた動画像データに
対してトランジションエフェクトを付与する処理手段と
を備えたことを特徴とする。
A tenth aspect of the present invention is an image processing apparatus for moving image data obtained by an operation on an arbitrary device or system, wherein the obtaining means obtains the moving image data and information on the operation, and the obtaining means. By a plurality of arbitrary sections among the plurality of sections constituting the moving image data obtained by the means, a specifying means for specifying the order of the plurality of sections, and the operation information acquired by the acquisition means, Detecting means for detecting operation information corresponding to the section designated by the designating means, storage means for storing rules relating to operation on the arbitrary device or system, operation information detected by the detecting means, and storage means And a processing unit that adds a transition effect to the moving image data obtained by the acquisition unit based on the result of matching the rules stored in To.

【0017】第11の発明は、上記第10の発明におい
て、上記記憶手段は、少なくとも上記操作の存在区間、
及びその時系列上の並びに関する規則を記憶することを
特徴とする。
An eleventh aspect of the invention is the same as the tenth aspect of the invention, wherein the storage means is at least the existence section of the operation,
And a rule regarding a sequence on the time series is stored.

【0018】第12の発明は、上記第10の発明におい
て、上記処理手段は、上記検出手段で検出された操作情
報が、所定の長さより短い区間の操作に関する情報であ
る場合、上記照合の対象としないことを特徴とすること
を特徴とする。
In a twelfth aspect based on the tenth aspect, when the processing information detected by the detecting means is information relating to an operation in a section shorter than a predetermined length, the processing means is a target of the collation. It is characterized in that it does not.

【0019】第13の発明は、上記第10の発明におい
て、上記処理手段は、上記照合結果に基づく処理を、上
記指定手段による区間指定のタイミングに基いて実行す
ることを特徴とする。
A thirteenth invention is characterized in that, in the tenth invention, the processing means executes the processing based on the collation result on the basis of the timing of the section designation by the designating means.

【0020】第14の発明は、上記第10の発明におい
て、上記処理手段は、上記取得手段で得られる動画像デ
ータとは別の動画像データとして用意されたトランジシ
ョンエフェクトを、上記取得手段で得られた動画像デー
タに対して付与することを特徴とする。
In a fourteenth aspect based on the tenth aspect, the processing means obtains a transition effect prepared as moving image data different from the moving image data obtained by the obtaining means by the obtaining means. It is characterized in that it is added to the obtained moving image data.

【0021】第15の発明は、上記第10の発明におい
て、上記処理手段は、上記照合結果により上記操作情報
による操作が上記規則に反している場合に、トランジシ
ョンエフェクトを上記動画像データに対して付与するこ
とを特徴とする。
In a fifteenth aspect based on the tenth aspect, the processing means applies a transition effect to the moving image data when the operation based on the operation information violates the rule based on the collation result. It is characterized by being given.

【0022】第16の発明は、上記第10の発明におい
て、上記処理手段は、上記照合結果により上記操作情報
による操作が上記規則に反していない場合で、且つ上記
動画像データに対して既にトランジションエフェクトが
付与されている場合、上記動画像データからトランジシ
ョンエフェクトを取り除くことを特徴とする。
In a sixteenth aspect based on the tenth aspect, the processing means determines that the operation based on the operation information does not violate the rule based on the collation result, and the transition has already been made to the moving image data. When an effect is added, the transition effect is removed from the moving image data.

【0023】第17の発明は、上記第10の発明におい
て、上記トランジションエフェクトは、固定の長さ、又
は上記操作情報に応じた長さを有することを特徴とす
る。
The seventeenth invention is characterized in that, in the tenth invention, the transition effect has a fixed length or a length according to the operation information.

【0024】第18の発明は、複数の機器が互いに通信
可能に接続されてなる画像処理システムであって、上記
複数の機器のうち少なくとも1つの機器は、請求項1〜
17の何れかに記載の画像処理装置の機能を有すること
を特徴とする。
An eighteenth invention is an image processing system in which a plurality of devices are communicably connected to each other, and at least one device among the plurality of devices is defined by any one of claims 1 to 1.
17. The image processing device according to any one of 17).

【0025】第19の発明は、撮影操作により得られた
動画像データに対する画像処理方法であって、上記動画
像データ取得時の撮影操作に関する情報に基づいて、上
記動画像データに対して所定の画像処理を施す処理ステ
ップを含むことを特徴とする。
A nineteenth aspect of the present invention is an image processing method for moving image data obtained by a shooting operation, wherein a predetermined amount is set for the moving image data based on information about the shooting operation when the moving image data is acquired. It is characterized by including a processing step for performing image processing.

【0026】第20の発明は、上記第19の発明におい
て、上記所定の画像処理は、上記動画像データに対する
特殊効果処理を含むことを特徴とする。
A twentieth invention is characterized in that, in the nineteenth invention, the predetermined image processing includes a special effect processing for the moving image data.

【0027】第21の発明は、上記第19の発明におい
て、上記動画像データを構成する複数区間の中の任意区
間を複数指定する指定ステップを含み、上記処理ステッ
プは、上記指定ステップにより指定された複数の区間の
動画像データ取得時の撮影操作に関する情報に基づい
て、上記動画像データに対して所定の画像処理を施すス
テップを含むことを特徴とする。
A twenty-first aspect of the invention is directed to the nineteenth aspect of the invention, which includes a designating step of designating a plurality of arbitrary sections of the plurality of sections forming the moving image data, and the processing step is designated by the designating step. It is characterized by including a step of subjecting the moving image data to predetermined image processing based on information regarding a shooting operation at the time of acquiring moving image data of a plurality of sections.

【0028】第22の発明は、上記第19の発明におい
て、上記処理ステップは、撮影操作に関する所定の規則
と、上記動画像データ取得時の撮影操作との照合結果に
基づいて、上記動画像データに対して所定の画像処理を
施すステップを含むことを特徴とする。
In a twenty-second aspect of the invention based on the nineteenth aspect, the processing step is based on a comparison result between a predetermined rule relating to the photographing operation and the photographing operation at the time of acquiring the moving image data. And a step of performing a predetermined image processing on

【0029】第23の発明は、ビデオカメラにより得ら
れた動画像データに対する画像処理方法であって、上記
デオカメラにより得られた動画像データ、及び当該動画
像データの取得時における上記ビデオカメラの操作に関
する情報を、任意の記録媒体から再生する再生ステップ
と、上記再生ステップにより再生された操作情報に基づ
いて、上記再生ステップにより再生された動画像データ
に対して特殊効果処理を施す処理ステップとを含むこと
を特徴とする。
A twenty-third invention is an image processing method for moving image data obtained by a video camera, wherein the moving image data obtained by the video camera and the operation of the video camera at the time of obtaining the moving image data. A reproduction step of reproducing information on an arbitrary recording medium, and a processing step of performing special effect processing on the moving image data reproduced by the reproduction step, based on the operation information reproduced by the reproduction step. It is characterized by including.

【0030】第24の発明は、ビデオカメラにより得ら
れた動画像データに対する画像処理方法であって、上記
デオカメラにより得られた動画像データ、及び当該動画
像データの取得時における上記ビデオカメラの操作に関
する情報を、任意の記録媒体から再生する再生ステップ
と、上記再生ステップにより再生された動画像データを
構成する複数の区間のうちの任意の区間を複数指定する
指定ステップと、上記指定ステップにより指定された複
数の区間の動画像データに対応した上記操作情報に基づ
いて、上記再生ステップにより再生された動画像データ
に対して特殊効果処理を施す処理ステップとを含むこと
を特徴とする。
A twenty-fourth invention is an image processing method for moving image data obtained by a video camera, wherein the moving image data obtained by the video camera and the operation of the video camera at the time of obtaining the moving image data. Information about the information from any recording medium, a designation step of designating a plurality of arbitrary sections of the plurality of sections constituting the moving image data reproduced by the reproduction step, and a designation step of the specification step. And a processing step of performing special effect processing on the moving image data reproduced by the reproducing step based on the operation information corresponding to the moving image data of the plurality of sections.

【0031】第25の発明は、カメラ操作により得られ
た動画像データに対する画像処理方法であって、上記動
画像データ及び上記カメラ操作に関する情報を記憶する
記憶ステップと、上記記憶ステップによる記憶情報から
処理対象となる動画像データ及びこれに対応するカメラ
操作情報を読み出す読出ステップと、上記読出ステップ
により読み出された対象動画像データに対して任意の区
間を複数指定する区間指定ステップと、上記区間指定ス
テップにより指定された区間に対応するカメラ操作情報
を、上記読出ステップにより読み出されたカメラ操作情
報から検出する検出ステップと、カメラ操作に関する規
則を記憶する規則記憶ステップと、上記検出ステップに
より検出されたカメラ操作情報と、上記規則記憶ステッ
プにより記憶された規則との照合結果に基いて、上記読
出ステップにより読み出された動画像データに対してト
ランジションエフェクトを付与する処理ステップとを含
むことを特徴とする。
A twenty-fifth aspect of the present invention is an image processing method for moving image data obtained by a camera operation, comprising a storing step of storing the moving image data and information about the camera operation, and storing information by the storing step. A reading step of reading moving image data to be processed and camera operation information corresponding thereto; a section designating step of designating a plurality of arbitrary sections for the target moving image data read by the reading step; A detection step of detecting camera operation information corresponding to the section designated by the designation step from the camera operation information read by the reading step, a rule storage step of storing a rule relating to the camera operation, and a detection step of the detection step. Stored by the rule storing step Based on the comparison result of the rule, characterized in that it comprises a processing step of applying a transition effect to the moving image data read out by said reading step.

【0032】第26の発明は、カメラ操作により得られ
た動画像データに対する画像処理方法であって、上記動
画像データを記憶する記憶ステップと、上記記憶ステッ
プにより記憶された動画像データから当該動画像データ
取得時のカメラの操作情報を抽出する抽出ステップと、
上記記憶ステップにより記憶された動画像データに対し
て任意の区間を複数指定する指定ステップと、上記区間
指定ステップにより指定された区間に対応するカメラ操
作情報を、上記抽出ステップにより抽出されたカメラ操
作情報から検出する検出ステップと、カメラ操作に関す
る規則を記憶する規則記憶ステップと、上記検出ステッ
プにより検出されたカメラ操作情報と、上記規則記憶ス
テップにより記憶された規則との照合結果に基いて、上
記記憶ステップにより記憶された動画像データに対して
トランジションエフェクトを付与する処理ステップとを
含むことを特徴とする。
A twenty-sixth aspect of the present invention is an image processing method for moving image data obtained by operating a camera, comprising a storing step of storing the moving image data, and the moving image from the moving image data stored by the storing step. An extraction step of extracting camera operation information when acquiring image data,
The camera operation extracted by the extracting step includes a specifying step of specifying a plurality of arbitrary sections for the moving image data stored in the storing step, and camera operation information corresponding to the section specified by the section specifying step. A detection step of detecting from information, a rule storage step of storing a rule relating to camera operation, camera operation information detected by the detection step, and a comparison result of the rule stored by the rule storage step, And a processing step of applying a transition effect to the moving image data stored by the storing step.

【0033】第27の発明は、カメラ操作により撮影し
て得られた動画像データに対する画像処理方法であっ
て、カメラ操作により被写体を撮影して当該被写体の動
画像データを生成する撮影ステップと、上記撮影ステッ
プにおけるカメラに対する設定情報及びカメラ状態情報
をカメラ操作情報として取得する取得ステップと、上記
撮影ステップにより得られた動画像データ、及び上記取
得ステップにより得られたカメラ操作情報を任意の記録
媒体に記録する記録ステップと、上記記録媒体から処理
対象となる動画像データ及びこれに対応するカメラ操作
情報を読み出す読出ステップと、上記読出ステップによ
り読み出された対象動画像データに対して任意の区間を
複数指定する区間指定ステップと、上記区間指定ステッ
プにより指定された区間に対応するカメラ操作情報を、
上記読出ステップにより読み出されたカメラ操作情報か
ら検出する検出ステップと、カメラ操作に関する規則を
記憶する規則記憶ステップと、上記検出ステップにより
検出されたカメラ操作情報と、上記規則記憶ステップに
より記憶された規則との照合結果に基いて、上記読出ス
テップにより読み出された動画像データに対してトラン
ジションエフェクトを付与する処理ステップとを含むこ
とを特徴とする。
A twenty-seventh aspect of the present invention is an image processing method for moving image data obtained by shooting by operating a camera, and a shooting step of shooting a subject by operating the camera and generating moving image data of the subject. An acquisition step of acquiring the setting information and the camera state information for the camera in the photographing step as camera operation information, the moving image data obtained in the photographing step, and the camera operation information obtained in the acquisition step are arbitrary recording media. A recording step of recording the moving image data to be processed and the camera operation information corresponding thereto from the recording medium, and an arbitrary section for the target moving image data read by the reading step. Section specified step multiple times, and specified by the section specification step above Corresponding camera operation information between,
A detection step of detecting from the camera operation information read by the reading step, a rule storage step of storing a rule regarding camera operation, a camera operation information detected by the detection step, and a rule storage step stored by the rule storage step. And a processing step of applying a transition effect to the moving image data read by the reading step, based on the result of matching with the rule.

【0034】第28の発明は、上記第25〜27の何れ
かの発明において、上記区間指定ステップにより指定さ
れた複数の区間の順序を指定する順序指定ステップを含
むことを特徴とする。
A twenty-eighth invention is characterized in that, in any one of the twenty-fifth to twenty-seventh inventions, it includes an order designating step for designating the order of the plurality of sections designated by the section designating step.

【0035】第29の発明は、上記第25〜27の何れ
かの発明において、上記カメラ操作情報は、動画像デー
タ取得時のカメラの動き、カメラの状態、カメラ操作の
種類、カメラ操作がなされた区間、及びカメラの方向の
少なくとも1つの情報を含むことを特徴とする。
A thirty-ninth aspect of the invention is the camera according to any one of the twenty-fifth to twenty-seventh aspects, wherein the camera operation information indicates a camera movement, a camera state, a type of camera operation, and a camera operation at the time of acquiring moving image data. And at least one piece of information on the section and the direction of the camera.

【0036】第30の発明は、上記第25〜27の何れ
かの発明において、上記規則は、少なくとも、上記カメ
ラ操作情報の存在区間及びその時系列上の並びを含むこ
とを特徴とする。
The thirtieth invention is characterized in that, in any one of the twenty-fifth to twenty-seventh inventions, the rule includes at least an existing section of the camera operation information and a time-series arrangement thereof.

【0037】第31の発明は、上記第25〜27の何れ
かの発明において、上記処理ステップは、上記カメラ操
作情報により示されるカメラ操作が、所定の長さより短
い区間のカメラ操作である場合、上記カメラ操作情報を
上記照合の対象としないステップを含むことを特徴とす
る。
In a thirty-first invention based on the twenty-fifth to twenty-seventh inventions, in the processing step, when the camera operation indicated by the camera operation information is a camera operation in a section shorter than a predetermined length, It is characterized in that it includes a step in which the camera operation information is not a target of the collation.

【0038】第32の発明は、上記第25〜27の何れ
かの発明において、上記処理ステップは、上記区間指定
ステップにおいてユーザから区間の指定が行なわれる毎
に処理実行するステップを含むことを特徴とする。
A thirty-second invention is characterized in that, in any one of the twenty-fifth to twenty-seventh inventions, the processing step includes a step of executing processing each time a section is specified by the user in the section specifying step. And

【0039】第33の発明は、上記第25〜27の何れ
かの発明において、上記トランジションエフェクトを、
処理対象となる動画像データとは別の動画像データとし
て生成して保持する保持ステップを含むことを特徴とす
る。
A thirty-third invention is characterized in that, in any of the twenty-fifth to twenty-seventh inventions, the transition effect is
It is characterized by including a holding step of generating and holding moving image data different from the moving image data to be processed.

【0040】第34の発明は、上記第25〜27の何れ
かの発明において、上記処理ステップは、上記照合結果
により、上記カメラ操作情報により示されるカメラ操作
が上記規則に反している場合、上記トランジションエフ
ェクトの付与処理を実行するステップと、上記照合結果
により、上記カメラ操作情報により示されるカメラ操作
が上記規則に反していない場合、上記動画像データに対
して既にトランジションエフェクトが付与されているか
否かを判定し、その判定の結果、既にトランジションエ
フェクトが付与されている場合、上記動画像データから
トランジションエフェクトを取り除くステップとを含む
ことを特徴とする。
A thirty-fourth invention is based on any one of the twenty-fifth to twenty-seventh inventions, and in the processing step, when the camera operation indicated by the camera operation information is against the rule based on the collation result, the processing step is performed. If the camera operation indicated by the camera operation information does not violate the rules based on the step of executing the transition effect applying process and the collation result, whether or not the transition effect has already been applied to the moving image data. And whether the transition effect has already been added as a result of the determination, the step of removing the transition effect from the moving image data is included.

【0041】第35の発明は、上記第25〜27の何れ
かの発明において、上記トランジションエフェクトは、
固定の長さ、又は上記カメラ操作情報に応じた長さを有
することを特徴とする。
A thirty-fifth aspect of the invention is the invention of any one of the twenty-fifth to twenty-seventh aspects, wherein the transition effect is
It is characterized by having a fixed length or a length according to the camera operation information.

【0042】第36の発明は、上記第25〜27の何れ
かの発明において、上記検出ステップは、予めカメラ操
作情報を区間毎に管理するステップを含むことを特徴と
する。
A thirty-sixth invention is characterized in that, in any one of the twenty-fifth to twenty-seventh inventions, the detecting step includes a step of previously managing camera operation information for each section.

【0043】第37の発明は、請求項1〜17の何れか
に記載の画像処理装置の機能、又は請求項18記載の画
像処理システムの機能をコンピュータに実現させるため
のプログラムをコンピュータ読出可能な記憶媒体に記録
したことを特徴とする。
A thirty-seventh invention is a computer-readable program for causing a computer to realize the function of the image processing apparatus according to any one of claims 1 to 17 or the function of the image processing system according to claim 18. It is characterized by being recorded in a storage medium.

【0044】第38の発明は、請求項19〜36の何れ
かに記載の画像処理方法の処理ステップをコンピュータ
に実行させるためのプログラムをコンピュータ読出可能
な記憶媒体に記録したことを特徴とする。
A thirty-eighth invention is characterized in that a program for causing a computer to execute the processing steps of the image processing method according to any one of the nineteenth to thirty-sixth aspects is recorded in a computer-readable storage medium.

【0045】第39の発明は、請求項1〜17の何れか
に記載の画像処理装置の機能、又は請求項18記載の画
像処理システムの機能をコンピュータに実現させるため
のプログラムであることを特徴とする。
A thirty-ninth invention is a program for causing a computer to realize the function of the image processing apparatus according to any one of claims 1 to 17 or the function of the image processing system according to claim 18. And

【0046】第40の発明は、請求項19〜36の何れ
かに記載の画像処理方法の処理ステップをコンピュータ
に実行させるためのプログラムであることを特徴とす
る。
A fortieth aspect of the invention is a program for causing a computer to execute the processing steps of the image processing method according to any one of the nineteenth to thirty-sixth aspects.

【0047】[0047]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0048】[第1の実施の形態]本発明は、例えば、図
1に示すような動画像編集装置100に適用される。本
実施の形態の動画像編集装置100は、特に、ユーザが
動画像(映像)を編集するにあたり、当該ユーザが、映
像効果等に関して知識のあまりないユーザであっても、
所望する映像編集作業を自由に行え、高度な映像編集の
結果を容易に得られるように構成されている。以下、本
実施の形態の動画像編集装置100の構成及び動作につ
いて具体的に説明する。
[First Embodiment] The present invention is applied to, for example, a moving image editing apparatus 100 as shown in FIG. In the moving image editing apparatus 100 according to the present embodiment, particularly when the user edits a moving image (video), even if the user is a user who has little knowledge about video effects,
It is configured so that desired video editing work can be freely performed and a high-level video editing result can be easily obtained. Hereinafter, the configuration and operation of the moving image editing apparatus 100 according to this embodiment will be specifically described.

【0049】<動画像編集装置100の全体構成>動画
像編集装置100は、上記図1に示すように、被写体を
撮影して当該被写体の映像(動画像)を取得する撮影部
110と、撮影部110で得られた映像データが記録さ
れる記録媒体120と、ユーザの指示に基づき記憶媒体
120に記録された映像データを編集する動画編集部1
30とを備えている。
<Overall Structure of Moving Image Editing Apparatus 100> As shown in FIG. 1, the moving image editing apparatus 100 includes a photographing section 110 for photographing a subject and acquiring a video (moving image) of the subject, and a photographing section. A recording medium 120 in which the video data obtained by the unit 110 is recorded, and a moving image editing unit 1 for editing the video data recorded in the storage medium 120 based on a user's instruction.
30 and 30.

【0050】<撮影部110の構成>撮影部110は、
例えば、図2に示すように、撮像部111、画像圧縮部
112、カメラ操作部113、センサ部114、制御部
115、及び記録部116を備えている。
<Structure of Photographing Unit 110>
For example, as shown in FIG. 2, the image pickup unit 111, the image compression unit 112, the camera operation unit 113, the sensor unit 114, the control unit 115, and the recording unit 116 are provided.

【0051】撮像部111は、レンズ、撮像素子、及び
A/D変換器等(不図示)を含む構成により被写体の撮
像を行うことで、当該被写体の動画像データ(映像デー
タ)を取得して出力する。画像圧縮部112は、撮像部
111で得られた映像データに対して、所定の圧縮方式
のアルゴリズムに基づいた圧縮符号化処理を施す。ここ
での圧縮方式としては、例えば、ディジタルビデオにお
けるDCT(Discrete Cosine Transform)及びVLC(Va
riable Length Code)を用いた方式や、DCTと動き補
償予測を用いたMPEG(Moving Picture Experts Grou
p)−1やMPEG−2等の方式が挙げられる。カメラ操
作部113は、撮影開始ボタンやズームボタン等を有
し、これらのユーザからの操作に基いて、当該操作情報
を入力する。センサ部114は、撮影部11の状態(撮
像部111の状態、以下、「カメラ状態」とも言う)を
検知するための各種センサを含み、例えば、撮像部11
1における絞りの開度や焦点距離等の検知結果情報(以
下、「センサ情報」とも言う)を取得する。制御部11
5は、撮影部110全体の動作制御を司るものであり、
例えば、カメラ操作部113から入力されたユーザの操
作情報や、センサ部114で得られた情報に基いて、撮
像部111における撮像動作を制御する。記録部116
は、画像圧縮部112で得られた圧縮符号化処理後の映
像データと、制御部115からのカメラ操作情報(カメ
ラ操作部113のユーザによる操作情報、及びセンサ部
114のセンサ情報を含む情報)とを、タイミングを取
りながら多重化を行って記録媒体120に記録する。
The image pickup section 111 obtains moving image data (video data) of the subject by taking an image of the subject with a configuration including a lens, an image pickup element, an A / D converter, etc. (not shown). Output. The image compression unit 112 subjects the video data obtained by the imaging unit 111 to compression encoding processing based on an algorithm of a predetermined compression method. As a compression method here, for example, DCT (Discrete Cosine Transform) and VLC (Va
Variable Length Code) and MPEG (Moving Picture Experts Grou) using DCT and motion compensation prediction.
Examples thereof include p) -1 and MPEG-2. The camera operation unit 113 has a shooting start button, a zoom button, and the like, and inputs the operation information based on the operation by the user. The sensor unit 114 includes various sensors for detecting the state of the image capturing unit 11 (state of the image capturing unit 111, hereinafter also referred to as “camera state”), and for example, the image capturing unit 11
The detection result information (hereinafter, also referred to as “sensor information”) such as the aperture of the diaphragm and the focal length in 1 is acquired. Control unit 11
Reference numeral 5 controls the operation of the entire imaging unit 110,
For example, the imaging operation in the imaging unit 111 is controlled based on the operation information of the user input from the camera operation unit 113 and the information obtained by the sensor unit 114. Recording unit 116
Is the video data after the compression encoding process obtained by the image compression unit 112, and camera operation information from the control unit 115 (information including operation information by the user of the camera operation unit 113 and sensor information of the sensor unit 114). And are recorded on the recording medium 120 by performing multiplexing while taking timing.

【0052】記録媒体120には、撮影部110の記録
部116により映像データとカメラ操作情報の多重化デ
ータが記録されるが、この記録媒体120としては、例
えば、磁気テープや、光磁気ディスク、或いはハードデ
ィスク等を適用可能である。
On the recording medium 120, multiplexed data of video data and camera operation information is recorded by the recording unit 116 of the photographing unit 110. The recording medium 120 is, for example, a magnetic tape, a magneto-optical disk, or the like. Alternatively, a hard disk or the like can be applied.

【0053】図23は、制御部115の構成を示すブロ
ック図である。制御部115は、上記図23に示すよう
に、周知のCPU115(0)、ROM115(1)、
RAM115(2)、I/Oインターフェース115
(3)、及びバス115(4)を有する。ROM115
(1)には、CPU115(0)によって実行される後
述のプログラム、テーブル値などが格納されている。
FIG. 23 is a block diagram showing the structure of the control unit 115. As shown in FIG. 23, the control unit 115 has a well-known CPU 115 (0), ROM 115 (1),
RAM 115 (2), I / O interface 115
(3) and the bus 115 (4). ROM115
In (1), a program to be described later executed by the CPU 115 (0), a table value, and the like are stored.

【0054】<動画編集部130の構成>図3は、動画
編集部130の制御構成を具体的に示したものである。
動画編集部130は、上記図3に示すように、CPU1
30(1)、ROM130(2)、RAM130
(3)、キーボード130(4)、マウス130
(5)、外部記憶装置130(6)、表示器130
(7)、及びNIC130(8)が、バス130(1
1)を介して互いに通信可能なように接続された構成と
している。
<Structure of Moving Image Editing Unit 130> FIG. 3 specifically shows the control structure of the moving image editing unit 130.
The moving image editing unit 130, as shown in FIG.
30 (1), ROM130 (2), RAM130
(3), keyboard 130 (4), mouse 130
(5), external storage device 130 (6), display device 130
(7), and the NIC 130 (8), the bus 130 (1
It is configured so that they can communicate with each other via 1).

【0055】CPU130(1)は、所定の処理プログ
ラムを実行する等して、動画編集部130全体の動作制
御を司る。ROM130(2)は、画像編集装置100
の立ち上げ時等に実行されるブートプログラムや、CP
U130(1)で実行される処理プログラム、及び各種
データを格納する。RAM130(3)は、CPU13
0(1)で実行される処理プログラムが読み出される領
域、及びCPU130(1)の作業用領域等を提供す
る。キーボード130(4)及びマウス130(5)
は、ユーザによる各種の入力操作環境を提供する。外部
記憶装置130(6)としては、ハードディスクや、フ
レキシブルディスク、或いはCD−ROM等を適用可能
である。表示器130(7)は、ディスプレイ等を含
み、各種の処理結果等をユーザに対して表示する。NI
C130(8)は、ネットワークインターフェースであ
り、ネットワーク上の装置或いはシステムとの通信を可
能とする。
The CPU 130 (1) controls the operation of the entire moving picture editing unit 130 by executing a predetermined processing program or the like. The ROM 130 (2) is the image editing apparatus 100.
Boot program that is executed at startup of the
The processing program executed in U130 (1) and various data are stored. The RAM 130 (3) is the CPU 13
An area from which a processing program executed at 0 (1) is read out, a work area of the CPU 130 (1), and the like are provided. Keyboard 130 (4) and mouse 130 (5)
Provides various input operation environments by the user. A hard disk, a flexible disk, a CD-ROM, or the like can be applied as the external storage device 130 (6). The display unit 130 (7) includes a display and the like, and displays various processing results and the like to the user. NI
C130 (8) is a network interface and enables communication with a device or system on the network.

【0056】図4は、動画編集部130の機能構成を示
す図である。動画編集部130は、例えば、図4に示す
ように、読取部131、表示部132、シーンシール照
合部133、ユーザ操作部134、及びシーンシール記
憶部135を備えている。
FIG. 4 is a diagram showing the functional configuration of the moving image editing section 130. The moving image editing unit 130 includes, for example, as shown in FIG. 4, a reading unit 131, a display unit 132, a scene sticker collating unit 133, a user operation unit 134, and a scene sticker storage unit 135.

【0057】読取部131は、(外部)記憶媒体120
に記録されたデータ(映像データとカメラ操作情報が多
重化されたデータ)おいて、任意の位置(アドレス)か
らのデータ読出を行い、この読出データ(多重化デー
タ)から、映像データ及びカメラ操作情報を取得する。
読取部131としては、例えば、記録媒体120からデ
ータを直接読み取るCD−ROMドライブのような構
成、或いはIEEE1394等のインターフェースを介
して、撮影部110側に内蔵されているドライブ装置か
らデータを読み取る構成等を適用可能である。表示部1
32は、映像編集中の状態や編集結果等の情報をユーザ
に対して表示する。シーンルール照合部133は、後述
するシーンルールと、編集中の映像データに対応するカ
メラ操作情報とを照合し、その結果に基いて、トランジ
ションエフェクトをシーンのつなぎ目に付与する。 ユ
ーザ操作部134は、編集中の映像におけるシーン区間
の指定等のような、映像編集に必要なユーザからの操作
を受け付ける。シーンシール記憶部135は、映像に対
して、見易さやメリハリ等のような映像効果を高める上
で必要なルールを記述したものであるシーンシールを記
憶する。
The reading unit 131 uses the (external) storage medium 120.
In the data recorded in (data in which video data and camera operation information are multiplexed), data is read from an arbitrary position (address), and video data and camera operation are performed from this read data (multiplexed data). Get information.
As the reading unit 131, for example, a configuration such as a CD-ROM drive that directly reads data from the recording medium 120, or a configuration that reads data from a drive device built in the imaging unit 110 side via an interface such as IEEE1394. Etc. are applicable. Display 1
32 displays to the user information such as the state of video editing and the result of editing. The scene rule matching unit 133 matches a scene rule described later with camera operation information corresponding to the video data being edited, and based on the result, adds a transition effect to the scene joint. The user operation unit 134 receives an operation from the user necessary for video editing, such as designation of a scene section in the video being edited. The scene sticker storage unit 135 stores a scene sticker, which describes rules necessary for enhancing a video effect such as visibility and sharpness for a video.

【0058】<画像編集装置100の動作> (1)撮影部110の動作 撮影部110の動作は、例えば、図5のフローチャート
により示される。
<Operation of Image Editing Apparatus 100> (1) Operation of Photographing Section 110 The operation of the photographing section 110 is shown, for example, by the flowchart of FIG.

【0059】ステップS201:制御部115は、ユー
ザがカメラ操作部113において撮像部111に対する
カメラ設定を行ったか否かを判別する。ここでのカメラ
設定とは、例えば、フォーカスモード(自動/手動)、
露光モード(自動、ゲイン優先、シャッター速度優先、
絞り優先、手動)、及びホワイトバランスモード(自
動、ホールド、ワンプッシュ、プリセット)等の設定を
示す。この判別の結果、カメラ設定有りの場合には次の
ステップS202に進み、カメラ設定無しの場合には次
のステップS202はスキップして後述するステップS
203に進む。
Step S201: The control section 115 determines whether or not the user has made a camera setting for the image pickup section 111 in the camera operation section 113. The camera settings here are, for example, focus mode (automatic / manual),
Exposure mode (automatic, gain priority, shutter speed priority,
Settings such as aperture priority, manual), white balance mode (auto, hold, one push, preset) are shown. As a result of this determination, if there is a camera setting, the process proceeds to the next step S202, and if there is no camera setting, the next step S202 is skipped and a step S to be described later.
Proceed to 203.

【0060】ステップS202:ステップS201の判
別の結果、カメラ設定有りの場合、制御部115は、当
該カメラ設定に基いて、撮影部110の現在のカメラ設
定を変更し、当該変更後のカメラ設定情報(ユーザから
なされたカメラ設定の情報)をカメラ操作情報として、
記録部116に供給する。
Step S202: If the result of the determination in step S201 is that there is a camera setting, the control unit 115 changes the current camera setting of the photographing unit 110 based on the camera setting, and the camera setting information after the change. (Camera setting information made by the user) as camera operation information,
It is supplied to the recording unit 116.

【0061】ステップS203:ステップS202の処
理後、又はステップS201においてカメラ設定無しと
判別された場合、制御部115は、ユーザからカメラ操
作部113に設けられた録画ボタン(不図示)がONさ
れたか否かを判別する。この判別の結果、録画ボタンO
Nである場合には次のステップS204に進み、録画ボ
タンONでない場合には待機状態として再びステップS
201に戻る。
Step S203: After the processing of step S202 or when it is determined in step S201 that there is no camera setting, the control unit 115 determines whether the recording button (not shown) provided on the camera operation unit 113 is turned on by the user. Determine whether or not. As a result of this determination, the recording button O
If it is N, the process proceeds to the next step S204, and if it is not the recording button ON, the standby state is set and the step S204 is performed again.
Return to 201.

【0062】ステップS204:ステップS203の判
別の結果、録画ボタンがONされた場合、制御部115
は、撮影部110を録画状態(録画モード)にすると共
に、このときの録画開始時刻情報をカメラ操作情報とし
て、記録部116に供給する。制御部115による録画
モードにより、撮像部111は、被写体の撮像を開始
し、これにより得られた映像データを出力する。画像圧
縮部112は、撮像部111からの映像データを圧縮符
号化して記録部116へ供給する。
Step S204: When the record button is turned on as a result of the determination in step S203, the control unit 115
Sets the photographing unit 110 in a recording state (recording mode) and supplies the recording start time information at this time to the recording unit 116 as camera operation information. According to the recording mode by the control unit 115, the image pickup unit 111 starts image pickup of the subject and outputs the video data obtained by this. The image compression unit 112 compresses and encodes the video data from the imaging unit 111 and supplies the video data to the recording unit 116.

【0063】ステップS205:制御部115は、ユー
ザがカメラ操作部113において撮像部111に対する
カメラ操作を行ったか否かを判別する。ここでのカメラ
操作とは、例えば、ズームボタンのON/OFF、パ
ン、及びチルト等の操作を示す。この判別の結果、カメ
ラ操作有りの場合には次のステップS206に進み、カ
メラ操作無しの場合には次のステップS206はスキッ
プして後述するステップS207に進む。
Step S205: The control unit 115 determines whether or not the user has performed a camera operation on the image pickup unit 111 in the camera operation unit 113. The camera operation here means, for example, operations such as ON / OFF of the zoom button, panning, and tilting. As a result of this determination, if there is a camera operation, the process proceeds to the next step S206, and if there is no camera operation, the next step S206 is skipped and the process proceeds to step S207 described later.

【0064】ステップS206:ステップS205の判
別の結果、カメラ操作有りの場合、制御部115は、セ
ンサ部114でのセンサ情報に基づいて、撮像部111
等を駆動制御(カメラ制御)する。ここでのセンサの情
報とは、例えば、撮像部111における焦点距離や合焦
距離、及び手ぶれ検出等の結果情報を示す。具体的には
例えば、制御部115は、ユーザからズーム操作された
と判断した場合、当該ズーム操作がなされた区間(ズー
ムボタンが押下された区間)のみ、撮像部111に設け
られているレンズ(不図示)を駆動制御することでズー
ムを行い、また、センサ部113で得られた焦点距離や
合焦距離等のセンサ情報に基いて、撮像部111におい
てピント合わせのための動作制御を行う。このとき、制
御部115は、センサ部113でのセンサ情報(焦点距
離や合焦距離等の情報)をカメラ操作情報として、記録
部116に供給する。
Step S206: If the result of determination in step S205 is that there is a camera operation, the control section 115 determines the image pickup section 111 based on the sensor information from the sensor section 114.
Drive control (camera control). The information of the sensor here indicates, for example, focal length and focusing distance in the image pickup unit 111, and result information such as camera shake detection. Specifically, for example, when the control unit 115 determines that a zoom operation has been performed by the user, the lens (non-operation) provided in the imaging unit 111 only in a section in which the zoom operation is performed (a section in which the zoom button is pressed). Zooming is performed by driving and controlling (illustrated), and operation control for focusing is performed in the image pickup unit 111 based on sensor information such as a focal length and a focusing distance obtained by the sensor unit 113. At this time, the control unit 115 supplies the sensor information (information such as the focal length and the focus distance) of the sensor unit 113 to the recording unit 116 as camera operation information.

【0065】記録部116は、上述のようにして制御部
115から供給されたカメラ操作情報(ステップS20
2、S204、及びS206参照)と、画像圧縮部11
2から供給された圧縮符号化後の映像データ(ステップ
S204参照)とを多重化して記憶媒体120に記録す
る。ここでの多重化の方法としては、例えば、MPEG
−2のシステムで規格化されている方法等が適用可能で
あり、映像データ及びカメラ操作情報をそれぞれPES
(Packetized Elementary Stream)にパケット化し、こ
れらをTS(Transport Stream)やPS(Program Str
eam)の多重ストリームとする。
The recording unit 116 stores the camera operation information (step S20) supplied from the control unit 115 as described above.
2, S204, and S206), and the image compression unit 11
The video data after compression and encoding supplied from No. 2 (see step S204) are multiplexed and recorded in the storage medium 120. As the multiplexing method here, for example, MPEG
-2 method can be applied, and video data and camera operation information can be obtained by PES.
(Packetized Elementary Stream) and packetize these into TS (Transport Stream) and PS (Program Str
eam) multiple stream.

【0066】ステップS207:ステップS206の処
理後、又はステップS205においてカメラ操作無しと
判別された場合、制御部115は、ユーザからカメラ操
作部113に設けられた録画ボタン(不図示)がOFF
されたか否かを判別する。この判別の結果、録画ボタン
OFFである場合には待機状態になることを認識して再
びステップS201に戻り、録画ボタンOFFでない場
合には撮影状態のままであることを認識して再びステッ
プS204に戻る。
Step S207: After the processing of step S206 or when it is determined in step S205 that there is no camera operation, the control section 115 turns off the recording button (not shown) provided on the camera operation section 113 by the user.
It is determined whether it has been done. As a result of this determination, when the recording button is OFF, the standby state is recognized and the process returns to step S201. When the recording button is not OFF, the shooting state is recognized and the process returns to step S204. Return.

【0067】ここで、本実施の形態では、上述したよう
にカメラ操作情報として、カメラ操作部113で得られ
る情報、及びセンサ部114で得られる情報とを用いて
いる。カメラ操作情報のフォーマット形式としては、例
えば、図6に示すようなDVフォーマット形式や、図7
に示すようなフォーマット形式等を適用可能である。
尚、上記図6及び図7はそれぞれ、説明の簡単のため、
フォーマットの一部のみ示したものである。
Here, in the present embodiment, as described above, the information obtained by the camera operating section 113 and the information obtained by the sensor section 114 are used as the camera operating information. As the format of the camera operation information, for example, the DV format as shown in FIG. 6 or FIG.
Format formats such as those shown in can be applied.
It should be noted that FIG. 6 and FIG.
Only part of the format is shown.

【0068】(2)動画編集部130の動作 動画編集部130の動作は、例えば、図8のフローチャ
ートにより示される。
(2) Operation of the moving picture editing section 130 The operation of the moving picture editing section 130 is shown, for example, by the flowchart of FIG.

【0069】ステップS301:読取部131は、記録
媒体120から、処理対象となる多重化データ(映像デ
ータとカメラ操作情報の多重化データ)の基本データを
読み込む。ここで、記録媒体120には、撮影部110
で得られた映像データが、例えば、クリップ(撮影部1
11において不図示の録画ボタンがユーザからONされ
てからOFFされるまでの区間)毎のファイルデータと
して記録されていてもよいし、或いは、複数のクリップ
毎の同一のファイルデータとして記録されていてもよ
い。ここでは説明の簡単のため、記録媒体120には、
撮影部110で得られた映像データが、クリップ毎のフ
ァイルデータとして記録されているものとする。また、
基本データとは、対象映像データのファイルを示すI
D、当該ファイルの長さ(例えば、フレーム数)を示す
情報、及び対象映像データの先頭のサムネイル画像デー
タ等を含むデータであり、後述するユーザインターフェ
ース上への表示に用いられる。
Step S301: The reading unit 131 reads basic data of the multiplexed data (multiplexed data of video data and camera operation information) to be processed from the recording medium 120. Here, the recording medium 120 includes the image capturing unit 110.
The video data obtained by
11, the recording button (not shown) is recorded as file data for each period from when the user turns it on until it is turned off, or as the same file data for a plurality of clips. Good. Here, for simplicity of explanation, the recording medium 120 is
It is assumed that the video data obtained by the photographing unit 110 is recorded as file data for each clip. Also,
The basic data is I indicating the file of the target video data.
The data includes D, information indicating the length of the file (for example, the number of frames), thumbnail image data at the beginning of the target video data, and the like, and is used for display on the user interface described later.

【0070】ステップS302、ステップS303:表
示部132は、例えば、図9に示すような操作画面40
0を表示する。この操作画面400は、詳細は後述する
が、表示部132及びユーザ操作部134で実施される
UI(ユーザ・インターフェース)である。ユーザは、
UI(ユーザ・インターフェース)400により、所望
するクリップ及びシーンを指定する。ここでのシーンと
は、編集対象の映像中でユーザが編集所望する区間を示
し、編集時の最小単位とする。ユーザから指定されたシ
ーンに関する情報は、例えば、ユーザ操作部134によ
り、図10に示すようなシーン情報として生成される。
当該シーン情報は、ユーザから指定(選択)されたクリ
ップを示すID(クリップID)に対応した、ユーザか
ら指定されたシーン(区間)の開始点及び終了点を示す
フレームIDを含むテーブルデータである。また、当該
シーン情報ではシーン順で情報管理されるため、編集結
果として再生されるシーンの順番は当該シーン情報の先
頭からの順番となる。
Step S302, Step S303: The display unit 132 displays the operation screen 40 as shown in FIG. 9, for example.
Display 0. The operation screen 400 is a UI (user interface) implemented by the display unit 132 and the user operation unit 134, the details of which will be described later. The user
A desired clip and scene are designated by a UI (User Interface) 400. The scene here refers to a section desired to be edited by the user in the video to be edited, and is a minimum unit at the time of editing. The information on the scene designated by the user is generated as the scene information as shown in FIG. 10 by the user operation unit 134, for example.
The scene information is table data including a frame ID indicating a start point and an end point of a scene (section) specified by the user, which corresponds to an ID (clip ID) indicating a clip specified (selected) by the user. . In addition, since the scene information is managed in order of scenes, the order of scenes to be played back as an edited result is from the beginning of the scene information.

【0071】ステップS304:読取部131は、ステ
ップS302及びS303でユーザから指定されたシー
ンに対応するカメラ操作情報を、ステップS301で読
み込んだ多重化データから取得する。
Step S304: The reading unit 131 acquires camera operation information corresponding to the scene designated by the user in steps S302 and S303 from the multiplexed data read in step S301.

【0072】ステップS305:シーンルール照合部1
33は、詳細は後述するが、シーン情報に対応するカメ
ラ操作情報と、シーンルール記憶部135に記憶された
シーンルールの情報とを照合する。ここでのシーンルー
ルとは、映像編集において映像効果を得るための各シー
ンのつながりに関するルールを示す。すなわち、当該シ
ーンルールとは、落ち着きのない映像、或いはメリハリ
のない単調な映像等とならないようにする、良好な編集
後の映像を取得するためのルールである。例えば、「パ
ンで終了するシーンと、パンで開始するシーンとでは、
両方のパンの方向が揃っていなければならない。」とい
うルール(1)や、「チルトで終了するシーンと、チル
トで開始するシーンとでは、両方のチルトの方向が揃っ
ていなければならない。」というルール(2)等がシー
ンルールとして挙げられ、このようなシーンルールに反
すると、落ち着きのない映像等となってしまう。
Step S305: Scene rule matching unit 1
As will be described later in detail, the reference numeral 33 collates the camera operation information corresponding to the scene information with the scene rule information stored in the scene rule storage unit 135. The scene rule here is a rule regarding connection of scenes for obtaining a video effect in video editing. That is, the scene rule is a rule for obtaining a good edited image so as to prevent a restless image or a monotonous image without sharpness. For example, "A scene that ends with a pan and a scene that starts with a pan
Both breads must have the same orientation. The rule (1) "," the rule "2" and "the scene ending with tilt and the scene starting with tilt must be aligned in the same direction." If this scene rule is violated, the image will be restless.

【0073】ステップS306:シーンルール照合部1
33は、ステップS305の照合の結果により、シーン
情報に対応するカメラ操作情報が、シーンルール記憶部
135のシーンルールに反しているか否かを判別する。
この判別の結果、シーンルールに反している場合にはス
テップS307からの処理に進み、シーンルールに反し
ていない場合にはステップS311に進む。
Step S306: Scene rule matching unit 1
33 determines whether or not the camera operation information corresponding to the scene information violates the scene rule of the scene rule storage unit 135 based on the result of the collation in step S305.
If the result of this determination is that the scene rules have been violated, the processing proceeds to step S307, and if the scene rules have not been violated, the processing proceeds to step S311.

【0074】ステップS307:ステップS306の判
別の結果、シーン情報がシーンルールに反している場
合、シーンルール照合部133は、当該シーン情報によ
り示される編集対象のシーン(編集対象の映像中でユー
ザが指定した編集所望する区間)のつなぎ目に対して、
トランジションエフェクト(ワイプ、フェードイン・ア
ウト、ディゾルブ等)を付与することで、シーンのつな
ぎ目の見づらさを隠すための処理を施す。その後、後述
するステップS308に進む。
Step S307: If the result of the determination in step S306 is that the scene information violates the scene rule, the scene rule matching unit 133 causes the scene to be edited indicated by the scene information (the user in the video to be edited For the joint of the specified edit desired section),
By adding a transition effect (wipe, fade-in / out, dissolve, etc.), processing to hide the unsightliness of the joints in the scene is performed. Then, it progresses to step S308 mentioned later.

【0075】ステップS311:ステップS306の判
別の結果、シーン情報がシーンルールに反していない場
合、シーンルール照合部133は、当該シーン情報によ
り示される編集対象のシーンに対して既にトランジショ
ンエフェクトが付与されているか否かを判別し、この判
別の結果、既にトランジションエフェクトが付与されて
いる場合のみ次のステップS312の処理を実行し、そ
うでない場合にはそのまま後述するステップS308に
進む。
Step S311: As a result of the determination in step S306, when the scene information does not violate the scene rule, the scene rule collating unit 133 has already added the transition effect to the scene to be edited indicated by the scene information. If the result of this determination is that a transition effect has already been added, the process of the next step S312 is executed, and if not, the process proceeds directly to step S308 described later.

【0076】ステップS312:ステップS311の判
別の結果、上記シーン情報により示される編集対象のシ
ーンに対して既にトランジションエフェクトが付与され
ている場合、シーンルール照合部133は、当該トラン
ジションエフェクトを取り除く処理を実行する。これ
は、ユーザが編集作業を進めていく中で、以前シーンル
ールに反していたシーン箇所がシーンルールに反しなく
なる、という場合に相当する。その後、次のステップS
308に進む。
Step S312: If the result of determination in step S311 is that a transition effect has already been added to the scene to be edited, which is indicated by the scene information, the scene rule matching unit 133 performs processing for removing the transition effect. Run. This corresponds to a case where a scene part that was previously against the scene rule is not against the scene rule as the user proceeds with the editing work. After that, the next step S
Proceed to 308.

【0077】ステップS308、ステップS309:ユ
ーザは、上記図9に示したようなUI(ユーザ・インタ
ーフェース)400により、編集作業を続行するための
次のシーンの指定、又は別のクリップを指定する。ユー
ザ操作部134は、ユーザからのUI(ユーザ・インタ
ーフェース)400による操作から、シーンの指定が行
なわれたか(ステップS308)、或いは別のクリップ
の指定が行なわれたかを判別する(ステップS30
9)。これらの判別の結果、シーンの指定があった場合
には再びステップS303へ戻り、一方、別のクリップ
の指定があった場合には再びステップS302に戻る。
Steps S308 and S309: The user uses the UI (user interface) 400 shown in FIG. 9 to specify the next scene or another clip for continuing the editing work. The user operation unit 134 determines whether a scene has been designated (step S308) or another clip has been designated by the user's operation through the UI (user interface) 400 (step S30).
9). As a result of these determinations, if a scene is designated, the process returns to step S303 again, while if another clip is designated, the process returns to step S302.

【0078】上述のようにして、動画編集部130で
は、ステップS301〜ステップS309の一連の動作
が、ユーザからの必要なシーンの指定が全て終了し、最
終的なシーン情報が完成するまで実行される。そして、
編集結果としての映像は、当該最終的なシーン情報に基
づいて順次シーンが再生されるものとなる。
As described above, in the moving image editing section 130, a series of operations from step S301 to step S309 is executed until all the necessary scenes designated by the user have been designated and the final scene information is completed. It And
In the video as the editing result, scenes are sequentially reproduced based on the final scene information.

【0079】尚、動画編集部130において、複数のシ
ーンルールを適用する場合、これらのシーンルールに予
め付与された優先順位に基づき、該当する適切なシーン
ルールを用いるようにすればよい。
When a plurality of scene rules are applied in the moving image editing section 130, appropriate scene rules may be used based on the priorities given to these scene rules in advance.

【0080】<動画編集部130:UI(ユーザ・イン
ターフェース)400>動画編集部130において、ユ
ーザからの各種操作(シーン指定等の操作)は、表示部
132及びユーザ操作部134により実施される、上記
図9に示したようなUI(ユーザ・インターフェース)
400を用いて行なわれる。ここでは、UI(ユーザ・
インターフェース)400について具体的に説明する。
<Movie Editing Unit 130: UI (User Interface) 400> In the movie editing unit 130, various operations by the user (operations such as scene designation) are performed by the display unit 132 and the user operation unit 134. UI (user interface) as shown in FIG. 9 above
400 is used. Here, the UI (user
The interface 400 will be specifically described.

【0081】UI(ユーザ・インターフェース)400
は、編集作業を行うための領域としての編集作業ウィン
ドウからなる。また、UI(ユーザ・インターフェー
ス)400において、再生ウィンドウ410では、ユー
ザが選択したクリップ(撮影部111において不図示の
録画ボタンをONしてからOFFするまでのシーン区
間)や、編集結果の映像を再生して確認することが可能
である。クリップウィンドウ420には、記録媒体12
0に記憶されているファイルデータ(映像データ)を構
成する各クリップの先頭のサムネイル画像の一覧が表示
される。操作部430は、その左側より「再生」、「一
時停止」、「停止」、「巻き戻し」、及び「早送り」等
の操作ボタンを含み、ユーザは、この操作部430によ
り、再生ウィンドウ410で再生させる映像等を操作可
能である。シーン指定ウィンドウ440では、ユーザが
選択したクリップのシーンが並べて表示され、採用する
シーン区間を指定することが可能である。シーン指定バ
ー450は、これを操作することで、ユーザが選択した
クリップ(上記図9の斜線部分参照)の開始点と終了点を
指定することが可能である。
UI (User Interface) 400
Is composed of an edit work window as an area for performing edit work. Also, in the UI (user interface) 400, in the playback window 410, a clip selected by the user (a scene section from when a recording button (not shown) in the imaging unit 111 is turned on to when it is turned off) and an image of an edited result are displayed. It is possible to check by playing. In the clip window 420, the recording medium 12
A list of the thumbnail images at the beginning of each clip constituting the file data (video data) stored in 0 is displayed. The operation unit 430 includes operation buttons such as “play”, “pause”, “stop”, “rewind”, and “fast forward” from the left side thereof, and the user operates the operation unit 430 on the reproduction window 410. It is possible to operate the image to be reproduced. In the scene designation window 440, the scenes of the clip selected by the user are displayed side by side, and the scene section to be adopted can be designated. By operating the scene designation bar 450, it is possible to designate the start point and end point of the clip selected by the user (see the hatched portion in FIG. 9 above).

【0082】シーン指定バー450によるクリップの開
始点及び終了点の操作について具体的に説明すると、例
えば、ユーザは、クリップウィンドウ420から所望す
るクリップのサムネイル画像を順次選択する上で、これ
らの選択サムネイル画像を再生したい順番にシーン指定
ウィンドウ440へドラッグ&ドロップし、そして、シ
ーン指定バー450を用いて、開始点と終了点の修正を
行う。このとき、ユーザは、必要に応じて、再生ウィン
ドウ410で修正結果の映像を再生させることで、随時
編集の確認を行うことも可能である。
The operation of the clip start point and end point by the scene designation bar 450 will be specifically described. For example, when the user sequentially selects thumbnail images of desired clips from the clip window 420, these selected thumbnails are selected. The images are dragged and dropped to the scene designation window 440 in the order in which they are to be reproduced, and the start and end points are modified using the scene designation bar 450. At this time, the user can confirm the editing at any time by playing back the video of the correction result in the playing window 410 as needed.

【0083】尚、各クリップは、ユーザが認識できるよ
うにサムネイル画像が重ねて表示される。
It should be noted that thumbnail images are superposed on each clip so that the user can recognize them.

【0084】<動画編集部130:シーン情報に対応す
るカメラ操作情報とシーンルールの照合処理>ここで
は、上記図8に示したステップS305及びステップS
306において、シーン照合部133が実行する、上記
図10に示したようなシーン情報に対応するカメラ操作
情報とシーンルールの照合処理について具体的に説明す
る。図11は、ステップS305及びステップS306
の処理に関して、より詳細に示したフローチャートであ
る。尚、ここでは説明の簡単のため、シーンルールとし
て、上述したような「パンで終了するシーンと、パンで
開始するシーンとでは、両方のパンの方向が揃っていな
ければならない。」というルール(1)を用いるが、こ
れに限られることはない。
<Movie Editing Section 130: Collation Processing of Camera Operation Information Corresponding to Scene Information and Scene Rule> Here, step S305 and step S shown in FIG.
In 306, the collation process of the camera operation information corresponding to the scene information as shown in FIG. 10 and the scene rule, which is executed by the scene collating unit 133, will be specifically described. FIG. 11 shows steps S305 and S306.
6 is a flowchart showing in more detail the processing of FIG. Here, for the sake of simplicity of explanation, as a scene rule, the rule that “both the pan direction ends in the pan and the pan start scene in the pan must be aligned” as described above. 1) is used, but the present invention is not limited to this.

【0085】以下のステップS501〜ステップS51
1の処理は、上記図10に示したようなシーン情報に設
定されているクリップIDにより示される全てのシーン
に対して順次実行される。
The following steps S501 to S51
The process No. 1 is sequentially executed for all the scenes indicated by the clip IDs set in the scene information as shown in FIG.

【0086】ステップS501:シーン情報中の対象シ
ーンと、これに対応するカメラ操作情報とを取得する。
例えば、上記図10に示すシーン情報において、先頭の
クリップID=1のシーンが対象シーンである場合、こ
のシーンに関する情報を取り出し、クリップの開始点で
あるフレームID=1から、クリップの最終点であるフ
レームID=300までの中に存在するカメラ操作情報
を読み出す。ここでのカメラ操作情報は、パン情報とす
る。そして、フレームID=1〜300のシーンの中の
どの区間に、カメラ操作情報としてのパン情報が存在し
たかを、不図示の内部メモリ等に保持しておく。このと
きの保持情報は、一連の処理が終了するまで、保持され
るものとする。
Step S501: The target scene in the scene information and the camera operation information corresponding thereto are acquired.
For example, in the scene information shown in FIG. 10 above, when the scene with the first clip ID = 1 is the target scene, information regarding this scene is extracted, and from the frame ID = 1, which is the clip start point, to the last point of the clip. The camera operation information existing within a certain frame ID = 300 is read. The camera operation information here is pan information. Then, in which section of the scene of frame ID = 1 to 300, the pan information as the camera operation information is stored in an internal memory or the like (not shown). The retained information at this time is retained until a series of processing is completed.

【0087】ステップS502:対象シーンに対して、
1つ前のシーンが存在するか否かを判別する。ここでの
1つ前のシーンの存在とは、シーン情報において、「現
在読み出している対象シーンの1つ前に、他のクリップ
IDが設定されているか?」ということである。したが
って、最初の処理実行時(上記図10のシーン情報で
は、クリップID=1のシーンに対する処理実行時)で
は、1つ前のシーンは存在しない、という判別結果とな
る。この判別の結果、1つ前のシーンが存在する場合に
は次のステップS503に進み、そうでない場合には後
述するステップS509に進む。
Step S502: For the target scene,
It is determined whether or not there is the previous scene. The existence of the previous scene here means "is another clip ID set immediately before the target scene currently read?" In the scene information. Therefore, when the first process is executed (in the scene information of FIG. 10, when the process for the scene with the clip ID = 1) is executed, the determination result is that there is no previous scene. If the result of this determination is that there is a previous scene, processing advances to the next step S503, and otherwise, processing advances to step S509, which will be described later.

【0088】ステップS503:ステップS502の判
別の結果、対象シーンの1つ前にシーンが存在している
場合、当該シーンがパンで終了しているか否かを判別す
る。この判別方法としては、ステップS501での保持
情報の中から、当該シーンに対応するカメラ操作情報
(パン情報)を取得し、当該取得情報から判定する方法
が挙げられる。この判別の結果、1つ前のシーンがパン
で終了している場合には次のステップS504に進み、
そうでない場合には後述するステップS509に進む。
Step S503: If the result of the determination in step S502 is that there is a scene immediately preceding the target scene, it is determined whether or not the scene has ended in pan. An example of this determination method is a method in which camera operation information (pan information) corresponding to the scene is acquired from the held information in step S501, and the determination is made from the acquired information. If the result of this determination is that the previous scene has ended with a pan, the operation proceeds to the next step S504,
If not, the process proceeds to step S509 described below.

【0089】ステップS504:ステップS503の判
別の結果、対象シーンの1つ前にシーンがパンで終了し
ている場合、当該パンの長さが所定の長さ以上であるか
否かを判別する。ここでの判別は、「当該パンが、あま
りに短いパンであり、人間の目には気にならないレベル
であれば、本ルールを適用しない」ということを示す。
パンの所定の長さとしては、実験等で求められた結果を
用いるようにしてもよいし、特に限定されるものではな
いが、例えば、10フレーム程度が望ましい。この判別
の結果、1つ前のシーンが所定の長さを持ったパンで終
了している場合には次のステップS505に進み、そう
でない場合には後述するステップS509に進む。
Step S504: If the result of the determination in step S503 is that the scene ends one pan before the target scene, it is determined whether the length of the pan is greater than or equal to a predetermined length. The determination here indicates that "this rule is not applied if the bread is a bread that is too short and is not noticeable to human eyes."
The predetermined length of the bread may be a result obtained by an experiment or the like, and is not particularly limited, but for example, about 10 frames is desirable. If the result of this determination is that the previous scene has ended with a pan having a predetermined length, processing advances to the next step S505, and if not, processing advances to step S509 described below.

【0090】ステップS505:ステップS504の判
別の結果、1つ前のシーンが所定の長さを持ったパンで
終了している場合、対象シーンがパンで開始しているか
否かを判別する。ここでの判別は、ステップS501で
保持したカメラ操作情報(パン情報)を用いて行なうこ
とができる。この判別の結果、対象シーンがパンで開始
している場合には次のステップS506に進み、そうで
ない場合には後述するステップS509に進む。
Step S505: If the result of the determination in step S504 is that the previous scene ends with pan having a predetermined length, it is determined whether or not the target scene starts with pan. The determination here can be performed using the camera operation information (pan information) held in step S501. As a result of this determination, if the target scene starts with pan, the process proceeds to the next step S506, and if not, the process proceeds to step S509 described later.

【0091】ステップS506:ステップS505の判
別の結果、対象シーンがパンで開始している場合、当該
パンの長さが所定の長さ以上であるか否かを判別する。
ここでの判別は、ステップS504と同様の理由から実
行される。この判別の結果、対象シーンが所定の長さを
持ったパンである場合には次のステップS507に進
み、そうでない場合には後述するステップS509に進
む。
Step S506: If the result of the determination in step S505 is that the target scene starts with pan, it is determined whether or not the pan length is equal to or longer than a predetermined length.
The determination here is executed for the same reason as in step S504. As a result of this determination, if the target scene is a pan having a predetermined length, the process proceeds to the next step S507, and if not, the process proceeds to step S509 described later.

【0092】ステップS507:ステップS506の判
別の結果、対象シーンが所定の長さを持ったパンである
場合、前後のパンの方向が異なっているか否かを判別す
る。例えば、対象シーンの1つ前のシーンの終了のパン
が右から左へのパンである場合に、対象シーンのパンが
左から右へのパンであるかを判別する。この判別の結
果、そうである場合(両者のパンの方向が異なっている
場合)には、本ルールに反することになり、したがっ
て、次のステップS508に進むことになる。
Step S507: If the result of the determination in step S506 is that the target scene is a pan having a predetermined length, it is determined whether or not the directions of the front and rear pans are different. For example, when the ending pan of the scene immediately before the target scene is a pan from right to left, it is determined whether the pan of the target scene is a pan from left to right. As a result of this determination, if this is the case (when both pan directions are different), this rule is violated, and therefore the process proceeds to the next step S508.

【0093】ステップS508:ステップS507の判
別の結果、対象シーンのパンの方向と、その1つ前のシ
ーンのパンの方向とが異なる場合、詳細は後述するが、
例えば、図12に示すように、対象シーン601と、そ
の1つ前のシーン602とのつなぎ目の部分に、所定の
長さのトランジションエフェクト603を付与する。こ
れにより、見づらい部分が隠され目立たなくなり、良好
な映像となる。その後、後述するステップS511に進
む。
Step S508: If the result of the determination in step S507 is that the pan direction of the target scene is different from the pan direction of the scene immediately before it, details will be described later.
For example, as shown in FIG. 12, a transition effect 603 having a predetermined length is added to the joint between the target scene 601 and the scene 602 immediately before it. As a result, a hard-to-see part is hidden and becomes inconspicuous, and a good image is obtained. Then, it progresses to step S511 mentioned later.

【0094】ステップS509:一方、上述したステッ
プS502〜ステップS507の各判別の何れか1つに
おいて、“NO”に分岐した場合、本ルールを満たして
いると認識し、対象シーンに対して、以前の編集過程で
既にトランジションエフェクトが付与されているか否か
を判別する。この判別の結果、対象シーンの既にトラン
ジションエフェクトが付与されている場合には次のステ
ップS510に進み、そうでない場合にはそのまま後述
するステップS511に進む。
Step S509: On the other hand, in any one of the determinations of Steps S502 to S507 described above, if the determination is “NO”, it is recognized that this rule is satisfied, and the target scene is It is determined whether or not a transition effect has already been added in the editing process of. If the result of this determination is that a transition effect has already been added to the target scene, the process proceeds to the next step S510, and if not, the process proceeds directly to step S511 described below.

【0095】ステップS510:ステップS509の判
別の結果、対象シーンの既にトランジションエフェクト
が付与されている場合、詳細は後述するが、対象シーン
からトランジションエフェクトを取り除き、次のステッ
プS511に進む。
Step S510: If the result of determination in step S509 is that a transition effect has already been added to the target scene, the transition effect will be removed from the target scene, and details will be described later, and the flow advances to step S511.

【0096】ステップS511:シーン情報中の全ての
シーンについての処理が終了したか否かを判別し、未だ
処理終了していないシーンがある場合には、そのシーン
に対する処理を実行するために、再びステップS501
に戻る。一方、全てのシーンに対する処理終了の場合、
本処理終了とする。
Step S511: It is determined whether or not the processing has been completed for all the scenes in the scene information, and if there is a scene that has not been processed yet, the processing for that scene is executed again. Step S501
Return to. On the other hand, when the processing is completed for all scenes,
This processing ends.

【0097】<動画編集部130:トランジションエフ
ェクト付与処理>ここでは、上記図8に示したステップ
S307、具体的には上記図11に示したステップS5
08において、シーンルール照合部133が実行するト
ランジションエフェクトの付与処理について説明する。
<Movie Editing Section 130: Transition Effect Adding Process> Here, step S307 shown in FIG. 8 above, specifically step S5 shown in FIG. 11 above.
In 08, the transition effect adding process executed by the scene rule matching unit 133 will be described.

【0098】まず、上記図12に示されるようにして、
トランジションエフェクト603は、対象シーン602
と、その1つ前のシーン601とのつなぎ目に付与され
る。ここでのトランジションエフェクト603は、所定
の長さのトランジションエフェクトであり、当該所定の
長さは、シーンのつなぎ目の見づらさ等を軽減できれる
長さであれば十分であり、特に規定されるものではない
が、例えば、60フレーム分としている。
First, as shown in FIG.
The transition effect 603 is the target scene 602.
Is added to the scene 601 immediately before that. The transition effect 603 here is a transition effect of a predetermined length, and the predetermined length is sufficient as long as it is possible to reduce the difficulty of seeing the joints of the scene, and is particularly specified. However, it is set to 60 frames, for example.

【0099】トランジションエフェクト603と、対象
シーン602と、その1つ前のシーン601との順序関
係は、上記図12(b)に示される関係にあり、同図の
矢印の方向で再生されるため、見かけ上、同図(a)に
示すようにトランジションエフェクト603が付与され
たように見えることになる。
The order effect of the transition effect 603, the target scene 602, and the scene 601 immediately before it is the relationship shown in FIG. 12 (b), and is reproduced in the direction of the arrow in FIG. Apparently, it looks as if the transition effect 603 is added as shown in FIG.

【0100】例えば、上記図10に示したようなシーン
情報を有する対象映像データにおいて、クリップID=
2で示されるシーンが対象シーン(3番目のシーン)で
あり、その1つ前のシーンがクリップID=4で示され
るシーン(2番目のシーン)であり、これらの間にトラ
ンジションエフェクトが、上記図12に示したようにし
て付与された場合、当該シーン情報は、図13に示すよ
うな情報となる。
For example, in the target video data having the scene information as shown in FIG. 10, clip ID =
The scene indicated by 2 is the target scene (the third scene), the scene immediately before it is the scene indicated by the clip ID = 4 (the second scene), and the transition effect between them is When added as shown in FIG. 12, the scene information becomes information as shown in FIG.

【0101】上記図13のシーン情報において、“クリ
ップID=10000”は、トランジションエフェクト
のクリップであり、トランジションエフェクトのクリッ
プIDとしては、ここでの“10000”等のように、
特別なクリップIDを付与する。これにより、どのクリ
ップIDがトランジションエフェクトであるかを区別す
ることができる。
In the scene information shown in FIG. 13, "clip ID = 10000" is a transition effect clip, and the transition effect clip ID is "10000" here.
A special clip ID is given. This makes it possible to distinguish which clip ID is the transition effect.

【0102】また、上記図10のシーン情報と、上記図
13のトランジションエフェクト付与後のシーン情報と
の比較から分かるように、対象シーン(クリップID=
2のシーン)の1つ前のシーン(クリップID=4のシ
ーン)の終了点が30フレーム分短くされ、対象シーン
(クリップID=2のシーン)の開始点が30フレーム
分短された状態で、これらの間に、クリップID=10
000として、トランジションエフェクトが挿入され
る。
As can be seen from the comparison between the scene information in FIG. 10 and the scene information after the transition effect is added in FIG. 13, the target scene (clip ID =
In the state where the end point of the scene immediately before the second scene (scene of clip ID = 4) is shortened by 30 frames and the start point of the target scene (scene of clip ID = 2) is shortened by 30 frames. , Clip ID = 10 between these
000, a transition effect is inserted.

【0103】尚、トランジションエフェクトのクリップ
は、対象シーンの1つ前のシーンの最後の30フレーム
分と、対象シーンの最初の30フレーム分とのフレーム
を用いて、レンダリングを行うことで生成できる。
Note that the transition effect clip can be generated by rendering using the frames of the last 30 frames of the scene immediately before the target scene and the first 30 frames of the target scene.

【0104】上記図8に示したステップS312、具体
的には上記図11に示したステップS510において、
シーンルール照合部133が実行するトランジションエ
フェクトの取除処理では、上述したようなトランジショ
ンエフェクトの付与処理とは逆の操作が行われる。これ
により、シーン情報が、上記図13に示した状態から上
記図10に示した状態に戻されることになる。また、ト
ランジションエフェクトの取除処理は、前回の処理で既
にトランジションエフェクトが付与されている場合に実
行されるが、前回の処理で既にトランジションエフェク
トが付与されているかの判定は、トランジションエフェ
クト用のクリップIDとしては上述したように特別なI
Dが用いられていることにより、当該特別なIDを検索
することで容易に行なえる。
In step S312 shown in FIG. 8, specifically step S510 shown in FIG. 11,
In the transition effect removing process executed by the scene rule checking unit 133, an operation reverse to the above-described transition effect applying process is performed. As a result, the scene information is returned from the state shown in FIG. 13 to the state shown in FIG. Also, the removal process of the transition effect is executed when the transition effect has already been added in the previous process. As the ID, the special I
Since D is used, it can be easily performed by searching for the special ID.

【0105】[第2の実施の形態]第1の実施の形態で
は、上記図1に示した画像編集装置100において、撮
影部110による撮影時に、カメラ操作部113及びセ
ンサ部114からカメラ操作情報を取得するように構成
した。本実施の形態では、撮影時にカメラ操作情報を得
る手段が無いものとする。具体的には例えば、第1の実
施の形態では、撮像部110を、ディスクに記録型のビ
デオカメラで構成し、動画編集部を、当該ディスクへの
記録情報を読み込むドライブを有するPC(及び動画編
集アプリケーション)を備える構成とした。これに対
し、本実施の形態では、例えば、PC(上のアプリケー
ション)のみで構成し、映像の取り込み手段を、ビデオ
カメラをIEEE1394等でPCに接続する構成とする。
[Second Embodiment] In the first embodiment, in the image editing apparatus 100 shown in FIG. 1, the camera operation information is read from the camera operation unit 113 and the sensor unit 114 at the time of image capturing by the image capturing unit 110. Configured to get. In the present embodiment, it is assumed that there is no means for obtaining camera operation information during shooting. Specifically, for example, in the first embodiment, the image capturing unit 110 is configured by a recording type video camera on a disc, and the moving image editing unit is a PC (and a moving image) that has a drive for reading recording information on the disc. Editing application). On the other hand, in the present embodiment, for example, it is configured by only the PC (application above), and the video capturing means is configured to connect the video camera to the PC by IEEE1394 or the like.

【0106】すなわち、本実施の形態では、図14に示
すように、ビデオカメラ150(10)やVTR150
(12)で得られた映像を取込可能とするビデオインタ
ーフェース(I/F)150(9)を備える構成として
いる。
That is, in this embodiment, as shown in FIG. 14, the video camera 150 (10) and the VTR 150 are used.
The video interface (I / F) 150 (9) capable of capturing the image obtained in (12) is provided.

【0107】尚、ビデオカメラ150(10)、VTR
150(12)、及び外部記憶装置150(6)につい
ては、ネットワーク上に配置し、NIC150(8)を
介した通信によりデータのやり取り等を行なうようにし
てもよい。
The video camera 150 (10), VTR
The 150 (12) and the external storage device 150 (6) may be arranged on a network to exchange data and the like by communication via the NIC 150 (8).

【0108】図15は、本実施の形態における編集装置
150の機能ブロック図である。すなわち、本実施の形
態の動画編集部150は、上記図4に示した構成に加え
て、動画入力部156(0)、フレーム抽出部156
(1)、カット検出部156(2)、動画像/インデッ
クス蓄積部156(3)、及びカメラ操作判定部156
(4)を備えた構成としている。
FIG. 15 is a functional block diagram of editing apparatus 150 in the present embodiment. That is, in addition to the configuration shown in FIG. 4, the moving image editing unit 150 of this embodiment has a moving image input unit 156 (0) and a frame extracting unit 156.
(1), cut detection unit 156 (2), moving image / index storage unit 156 (3), and camera operation determination unit 156.
(4) is provided.

【0109】動画入力部156(0)は、ビデオI/F
115(9)を介して、ビデオカメラ150(10)或
いはVTR150(12)で得られた動画像(映像)デ
ータを読み出して動画編集部150内に取り込む。フレ
ーム抽出部156(1)は、動画入力部156(0)に
より取り込まれた映像データを構成するフレーム(フレ
ーム画像)を順番に抽出する。カット検出部156
(2)は、フレーム抽出部156(1)により抽出され
たフレーム画像により、映像中のカット点を検出する。
動画像/インデックス蓄積部156(3)は、外部記憶
装置150(6)等のような記憶装置を適用可能であ
り、フレーム抽出部156(1)により抽出されたフレ
ーム画像や後述するカメラ操作情報等を蓄積する。
The moving image input section 156 (0) has a video I / F.
The moving image (video) data obtained by the video camera 150 (10) or the VTR 150 (12) is read out via 115 (9) and taken into the moving image editing section 150. The frame extraction unit 156 (1) sequentially extracts the frames (frame images) constituting the video data captured by the moving image input unit 156 (0). Cut detection unit 156
(2) detects the cut point in the video from the frame image extracted by the frame extraction unit 156 (1).
A storage device such as the external storage device 150 (6) can be applied to the moving image / index storage unit 156 (3), and the frame image extracted by the frame extraction unit 156 (1) and camera operation information described later can be used. Etc. are accumulated.

【0110】読取部151は、動画像/インデックス蓄
積部150(3)から任意の位置のデータを読み取る。
カメラ操作判定部156(4)は、読取部151により
読み出された映像データに対して画像処理を施し、当該
処理後データからカメラ操作情報を判定する。
The reading unit 151 reads data at an arbitrary position from the moving image / index storage unit 150 (3).
The camera operation determination unit 156 (4) performs image processing on the video data read by the reading unit 151 and determines camera operation information from the processed data.

【0111】表示部152は、第1の実施の形態と同様
に、対象映像の編集中の状態や当該編集結果等をユーザ
に対して表示する。シーンルール照合部153は、第1
の実施の形態と同様に、シーンルール記憶部155に記
憶されたシーンルールと、カメラ操作判定部156
(4)で得られたカメラ操作情報とを照合した結果に基
づいて、トランジションエフェクトをシーンのつなぎ目
に付与する。ユーザ操作部154は、第1の実施の形態
と同様に、シーンの区間の指定等、映像編集に必要なユ
ーザからの操作を受け付ける。
Similar to the first embodiment, the display unit 152 displays to the user the status of editing the target video, the editing result, and the like. The scene rule matching unit 153 is the first
Similar to the embodiment described above, the scene rules stored in the scene rule storage unit 155 and the camera operation determination unit 156.
Based on the result of collation with the camera operation information obtained in (4), the transition effect is added to the scene joint. As in the first embodiment, the user operation unit 154 accepts an operation from the user necessary for video editing, such as designation of a section of a scene.

【0112】図16は、本実施の形態の動画編集部15
0の全体動作をフローチャートにより示したものであ
る。
FIG. 16 shows the moving picture editing section 15 of this embodiment.
The whole operation of 0 is shown by a flowchart.

【0113】ステップS701:上記図15に示した画
像編集部150において、動画入力部156(0)は、
映像データを取り込む。フレーム抽出部156(1)
は、動画入力部156(0)により取り込まれた映像デ
ータを構成するフレーム画像を順に抽出する。カット検
出部156(2)は、フレーム抽出部156(1)によ
り抽出されたフレーム画像から映像中のカット点を検出
する。動画像/インデックス蓄積部156(3)は、フ
レーム抽出部156(1)により抽出されたフレーム画
像を蓄積する。
Step S701: In the image editing section 150 shown in FIG. 15, the moving image input section 156 (0)
Import video data. Frame extraction unit 156 (1)
Sequentially extracts the frame images constituting the video data captured by the moving image input unit 156 (0). The cut detection unit 156 (2) detects a cut point in the video from the frame image extracted by the frame extraction unit 156 (1). The moving image / index storage unit 156 (3) stores the frame image extracted by the frame extraction unit 156 (1).

【0114】ステップS702:読取部151は、動画
像/インデックス蓄積部156(3)から編集対象の映
像データを読み出す。カメラ操作判定部156(4)
は、読取部151により得られた対象映像データに対し
て画像処理を施すことで、対象画像データからメラ操作
を判定し、当該判定結果の情報(カメラ操作情報)を、
動画像/インデックス蓄積部156(3)へ蓄積させ
る。
Step S702: The reading unit 151 reads the video data to be edited from the moving image / index storage unit 156 (3). Camera operation determination unit 156 (4)
Performs image processing on the target video data obtained by the reading unit 151, determines the camera operation from the target image data, and outputs the information (camera operation information) of the determination result.
The moving image / index storage unit 156 (3) is stored.

【0115】ステップS703:読取部151、表示部
152、シーンルール照合部153、ユーザ操作部15
4、及びシーンルール記憶部155はそれぞれ、第1の
実施の形態と同様に動作することで、対象映像データの
編集処理を実行する。
Step S703: Reading unit 151, display unit 152, scene rule matching unit 153, user operation unit 15
4 and the scene rule storage unit 155 respectively operate in the same manner as in the first embodiment to execute the editing process of the target video data.

【0116】図17は、上記図16に示したステップS
701の動画取込処理を具体的に示したものである。
FIG. 17 shows the step S shown in FIG.
701 specifically shows the moving image capturing process of 701.

【0117】ステップS721:動画入力部156
(0)は、ビデオI/F115(9)を介して、ビデオ
カメラ115(10)或いはVTR115(12)等で
得られた動画像(映像)データを読み出して動画編集部
150内に取り込む。尚、動画入力部156(0)の映
像取込先としては、ビデオカメラ115(10)或いは
VTR115(12)等に限られることはなく、例え
ば、第1の実施の形態と同様に、記録媒体120として
もよい。
Step S721: Movie input section 156
(0) reads the moving image (video) data obtained by the video camera 115 (10) or the VTR 115 (12) via the video I / F 115 (9) and loads it into the moving image editing unit 150. Note that the video capture destination of the moving image input unit 156 (0) is not limited to the video camera 115 (10) or the VTR 115 (12), and may be, for example, a recording medium as in the first embodiment. It may be 120.

【0118】ステップS722:フレーム抽出部156
(1)は、動画入力部156(0)により取り込まれた
映像データを構成するフレーム(フレーム画像)を順番に
抽出してカット検出部156(2)に供給する。
Step S722: Frame extraction unit 156
In (1), frames (frame images) constituting the video data captured by the moving image input unit 156 (0) are sequentially extracted and supplied to the cut detection unit 156 (2).

【0119】ステップS723:カット検出部156
(2)は、フレーム抽出部156(1)により抽出され
たフレーム画像に対してそれぞれフレームIDを付与
し、フレームID付与後のフレーム画像を動画像/イン
デックス蓄積部156(3)に蓄積する。ここでのフレ
ームIDは、クリップ単位毎に“1”から始まるIDで
ある。
Step S723: Cut detection unit 156
(2) assigns a frame ID to each of the frame images extracted by the frame extraction unit 156 (1), and stores the frame image after the frame ID is assigned in the moving image / index storage unit 156 (3). The frame ID here is an ID starting from "1" for each clip unit.

【0120】ステップS724:カット検出部156
(2)は、動画像/インデックス蓄積部156(3)に
蓄積したフレーム画像に対して、隣接フレーム間の類似
度を検出する。隣接フレーム間の類似度の検出方法の一
例を挙げると、まず、フレーム間の類似性距離を算出
し、これが100%で完全に同じであるとして、百分率
で表わしたものを“類似度”とする。フレーム間の類似
性距離の算出方法については、特にそのアルゴリズムを
限定しないが、その一例を挙げると、例えば、図18に
示すように、比較対象のそれぞれのフレーム(2つの隣
接フレーム)800を縦横に複数のブロック分割を行な
い、それぞれのブロックに関して、RGBの平均値を算
出し、比較対象のそれぞれの対応するブロック同士のR
GB各チャンネルの差の二乗和を求め、これをフレーム
間類似性距離とする。フレーム間類似性距離は、例え
ば、その値が小さいほど2つのフレームが類似してお
り、大きいほど類似していない、すなわち、カット点で
ある可能性が大きいとする。フレーム間類似性距離は、
Step S724: Cut detection unit 156
(2) detects the degree of similarity between adjacent frames in the frame image stored in the moving image / index storage unit 156 (3). To give an example of the method of detecting the similarity between adjacent frames, first, the similarity distance between frames is calculated, and assuming that this is 100% and completely the same, the percentage expressed as a “similarity”. . The algorithm for calculating the similarity distance between frames is not particularly limited, but an example thereof is, for example, as illustrated in FIG. 18, each frame (two adjacent frames) 800 to be compared is vertically and horizontally arranged. Is divided into a plurality of blocks, the average value of RGB is calculated for each block, and the R of the corresponding blocks to be compared is calculated.
The sum of squares of the differences between the GB channels is obtained and used as the inter-frame similarity distance. As for the inter-frame similarity distance, for example, the smaller the value is, the more similar the two frames are, and the larger the value is, the less similar the distances are. The similarity distance between frames is

【0121】[0121]

【数1】 [Equation 1]

【0122】なる(式1)により表される。上記フレー
ム間類似性距離を、類似度に変換し使用する。
It is represented by the following (formula 1). The inter-frame similarity distance is converted into a similarity and used.

【0123】ステップS725:カット検出部156
(2)は、ステップS724で求めた隣接フレーム間の
類似度が所定値H以下であるか否かを判別する。この判
別により、クリップの変わり目(カット点)を検出する
ことになるが、ここで、クリップの変わり目(カット点)
では、フレーム画像が急激に変化するため、前後のフレ
ームが類似度が低くなる。すなわち、所定値Hは、カッ
ト点でないとみなせる類似度の下限値である。このよう
な所定値Hは、例えば、実験により求めることができる
値であり、特に限定されるものではないが、例えば、8
0%程度が望ましい。本ステップS725の判別の結
果、隣接フレーム間の類似度が所定値H以下である場合
にはステップS726に進み、隣接フレーム間の類似度
が所定値H以下でない場合にはステップS728に進
む。
Step S725: Cut detector 156
In (2), it is determined whether or not the similarity between the adjacent frames obtained in step S724 is equal to or less than the predetermined value H. By this judgment, the transition point (cut point) of the clip will be detected. Here, the transition point (cut point) of the clip will be detected.
Then, since the frame image changes abruptly, the similarity between the frames before and after becomes low. That is, the predetermined value H is the lower limit value of the similarity that can be regarded as not a cut point. The predetermined value H is, for example, a value that can be obtained by an experiment, and is not particularly limited, but is, for example, 8
About 0% is desirable. As a result of the determination in this step S725, if the similarity between adjacent frames is less than or equal to the predetermined value H, the process proceeds to step S726, and if the similarity between adjacent frames is not less than or equal to the predetermined value H, the process proceeds to step S728.

【0124】ステップS726:ステップS725の判
別の結果、隣接フレーム間の類似度が所定値H以下であ
る場合、カット検出部156(2)は、現在処理対象の
フレーム画像はカット点であると認識し、これをインデ
ックスとして採用するために、当該フレーム画像を縮小
してサムネイル画像を生成する。 ステップS727:カット検出部156(2)は、ステ
ップS726で生成したサムネイル画像をインデックス
情報として、例えば、図19に示すように、先頭のクリ
ップから順に付与されるクリップID、クリップの長さ
(フレーム数)、及びサムネイル画像からなる情報を、
動画像/インデックス蓄積部156(3)に蓄積する。
その後、次のステップS728に進む。
Step S726: If the result of the determination in step S725 is that the similarity between adjacent frames is less than or equal to the predetermined value H, the cut detection unit 156 (2) recognizes that the frame image currently being processed is the cut point. Then, in order to use this as an index, the frame image is reduced to generate a thumbnail image. Step S727: The cut detection unit 156 (2) uses the thumbnail image generated in step S726 as index information, for example, as shown in FIG. 19, clip IDs and clip lengths (frames) sequentially assigned from the first clip. Number) and information consisting of thumbnail images,
It is stored in the moving image / index storage unit 156 (3).
Then, it progresses to the following step S728.

【0125】ステップS728:動画入力部156
(0)で取り込むべき映像データの当該取込処理が未だ
終了していない場合には再びステップS721からの処
理を繰り返し実行し、当該取込処理が終了した場合に、
本処理終了となる。
Step S728: Video input section 156
If the capture process of the video data to be captured in (0) is not yet completed, the process from step S721 is repeatedly executed again, and if the capture process is completed,
This processing ends.

【0126】図20は、上記図16に示したステップS
702のカメラ操作情報の判定処理を具体的に示したも
のである。
FIG. 20 shows the step S shown in FIG.
7 specifically shows the camera operation information determination process 702.

【0127】ステップS731:上記図19に示したよ
うな情報中の全てのクリップに対して処理実行するため
に、読取部151は、処理対象のクリップを示すインデ
ックスNに対して、初期値“1”を設定する。 ステップS732:読取部151は、動画像/インデッ
クス蓄積部156(3)から、インデックスNのIDを
有するクリップに対応するフレーム群を取り出す。
Step S731: In order to execute the processing for all the clips in the information as shown in FIG. 19, the reading unit 151 sets the initial value "1" for the index N indicating the clip to be processed. "Set. Step S732: The reading unit 151 extracts the frame group corresponding to the clip having the ID of the index N from the moving image / index storage unit 156 (3).

【0128】ステップS733:カメラ操作判定部15
6(4)は、読取部151により取り出されたフレーム
群のデータから、カメラの操作を判定する。ここでの判
定方法としては、例えば、ハフ変換を用いて動きのベク
トルの消失点を求め、複数有る消失点のうちの最大の投
票数を得た消失点を背景に対する消失点とし、カメラ操
作に関する拘束式を説く、などという手法を適用可能で
ある。カメラ操作と消失点の関係や、カメラ操作を求め
るための手法については、例えば、「金谷健一著:画像
理解(森北出版)」等に詳しく記載されている。 ステップS734:カメラ操作判定部156(4)は、
ステップS733で取得したカメラ操作の判定結果を、
例えば、上記図6や上記図7に示したようなフォーマッ
ト形式のカメラ操作情報として、対応するフレームIDと
関連付け、ファイルのフッタ領域に格納するなどの方法
で、動画像/インデックス蓄積部156(3)へ蓄積さ
せる。
Step S733: Camera operation determination unit 15
6 (4) determines the operation of the camera from the data of the frame group extracted by the reading unit 151. As the determination method here, for example, the vanishing point of the motion vector is obtained by using the Hough transform, and the vanishing point having the largest number of votes among the plural vanishing points is set as the vanishing point with respect to the background, and is related to the camera operation. It is possible to apply a method such as preaching a restraint formula. The relationship between the camera operation and the vanishing point, and the method for obtaining the camera operation are described in detail, for example, in “Kenichi Kanaya: Image Understanding (Morikita Publishing)”. Step S734: The camera operation determination unit 156 (4)
The determination result of the camera operation acquired in step S733 is
For example, the moving image / index storage unit 156 (3) may be stored in the footer area of the file by associating it with the corresponding frame ID as the camera operation information in the format shown in FIGS. 6 and 7 above. ).

【0129】ステップS735、ステップS736:上
記図19に示したような情報中において、未だ処理して
いないクリップが存在する場合には(ステップS73
5)、インデックスNをインクリメントして(ステップ
S736)、再びステップS732からの処理を実行
し、全てのクリップに対する処理を終了した場合に、本
処理終了となる。
Steps S735 and S736: If there is a clip that has not been processed yet in the information as shown in FIG. 19 (step S73).
5) The index N is incremented (step S736), the processing from step S732 is executed again, and when the processing for all clips is completed, this processing ends.

【0130】尚、第2の実施の形態において、上記図1
6に示したステップS703の動画編集処理について
は、第1の実施の形態における動画編集処理と同様であ
るため、その詳細な説明は省略する。
Incidentally, in the second embodiment, the above-mentioned FIG.
The moving image editing process of step S703 shown in FIG. 6 is the same as the moving image editing process in the first embodiment, and thus detailed description thereof will be omitted.

【0131】また、第1及び第2の実施の形態におい
て、上記図1に示したように、撮影部110と動画編集
部130を個別に設けるように構成したが、これに限ら
れることはなく、例えば、撮像部110に対して十分な
演算能力等を設ける、或いは、動画編集部130に対し
て撮影用のレンズ等を含む撮影機能を搭載することで、
1つの構成部(装置)としてもよい。
Further, in the first and second embodiments, as shown in FIG. 1, the photographing section 110 and the moving picture editing section 130 are separately provided, but the present invention is not limited to this. For example, by providing the image capturing unit 110 with sufficient computing capability, or by providing the moving image editing unit 130 with a photographing function including a lens for photographing,
It may be one component (device).

【0132】また、第1及び第2の実施の形態におい
て、適用するシーンルールについては上述したようなル
ール(1)に限られることはなく、例えば、チルトに関
するルール等の様々なルールをも適用可能である。
Further, in the first and second embodiments, the scene rule to be applied is not limited to the above-mentioned rule (1), and various rules such as a rule regarding tilt are also applied. It is possible.

【0133】また、第1及び第2の実施の形態におい
て、例えば、シーン情報とシーンルールとの照合処理を
より高速化するために、フレーム単位に付与されたカメ
ラ操作情報を予め、図21に示すように、開始点及び終
了点で示されるシーン区間、カメラ操作情報の種類、及
びカメラ操作情報のパラメータの情報として、シーン区
間毎にまとめて管理するようにしてもよい。
Further, in the first and second embodiments, for example, in order to speed up the collation process of the scene information and the scene rule, the camera operation information given in frame units is previously shown in FIG. As shown, the scene section indicated by the start point and the end point, the type of camera operation information, and the parameter of the camera operation information may be collectively managed for each scene section.

【0134】また、第1及び第2の実施の形態におい
て、フレームの位置を示すのにフレームIDを用いたが、
例えば、タイムコードであってもよい。すなわち、対象
動画中でそのフレームの位置を特定できれば、どのよう
なものであっても構わない。
Also, in the first and second embodiments, the frame ID is used to indicate the position of the frame.
For example, it may be a time code. That is, any frame may be used as long as the position of the frame in the target moving image can be specified.

【0135】また、第1の実施の形態において、撮影部
110の動作は上記図5のフローチャートにより示され
るものとしたが、これに限定されるものではない。例え
ば、画像撮像中にカメラの設定を変更可能とする動作と
してもよい。
Further, in the first embodiment, the operation of the photographing section 110 is shown by the flow chart of FIG. 5, but the operation is not limited to this. For example, the operation may be such that the setting of the camera can be changed during image capturing.

【0136】また、第1及び第2の実施の形態におい
て、トランジションエフェクトの長さを固定長とした
が、例えば、パンの長さの60%の長さ等、動的にトラ
ンジションエフェクトの長さを決定するようにしてもよ
い。
Further, in the first and second embodiments, the length of the transition effect is fixed, but the length of the transition effect is dynamically set, for example, 60% of the bread length. May be determined.

【0137】また、第1及び第2の実施の形態におい
て、トランジションエフェクトは2つのシーンにまたが
るように付与するように構成したが、これに限られるこ
とはなく、見づらい映像を隠す等という目的が達せられ
るものであれば、例えば、何れか一方のシーンのみにト
ランジションエフェクトを付与する等という構成をとる
ようにすることも可能である。
Further, in the first and second embodiments, the transition effect is configured to be applied so as to extend over two scenes, but the present invention is not limited to this, and the purpose is to hide an image that is difficult to see. It is also possible to adopt a configuration in which the transition effect is added to only one of the scenes as long as it can be achieved.

【0138】また、第1の実施の形態では、映像をクリ
ップ単位に保存するように構成した。また、第2の実施
の形態において、映像をカット検出部156(2)によ
りクリップ単位に分けるように構成した。これは、ユー
ザがシーンを指定する際の操作性を考慮したものであ
る。したがって、操作性の低下を容認するならば、必ず
しも映像クリップ単位に分ける必要はなく、例えば、第
1の実施の形態では全てのクリップを1つのファイルで
保存し、第2の実施の形態ではカット検出部156
(2)の処理の省略が可能である。
Further, in the first embodiment, the video is stored in clip units. In addition, in the second embodiment, the video is divided by the cut detection unit 156 (2) into clip units. This is in consideration of operability when the user specifies a scene. Therefore, if the decrease in operability is tolerated, it is not always necessary to divide the video clips into units, for example, in the first embodiment, all clips are saved as one file, and in the second embodiment, cuts Detector 156
It is possible to omit the process of (2).

【0139】また、第1及び第2の実施の形態では、カ
メラ操作情報のフォーマット形式として、上記図6或い
は上記図7に示されるフォーマット形式を用いるように
構成したが、これに限定されるものではなく、カメラ操
作情報の種類、存在した区間、及び方向等の情報や、必
要に応じて強さ等の情報が含まれるものであれば、どの
ようなフォーマット形式であっても適用可能である。
Further, in the first and second embodiments, the format format of the camera operation information is configured to use the format format shown in FIG. 6 or FIG. 7, but the format is not limited to this. However, any format can be applied as long as it includes information such as the type of camera operation information, the existing section, and direction, and information such as strength as necessary. .

【0140】また、第1及び第2の実施の形態におい
て、シーンルールに反する場合、例えば、上記図9に示
したようなUI(ユーザ・インターフェース)400に
おいて、シーン指定ウィンドウ440に対応するシーン
を表示すると共にメッセージウィンドウを表示し、随時
ユーザに不図示の確認ボタンの押下を促すようにしても
よい。これにより、ユーザは、どのシーンとどのシーン
が対応しており、これらがシーンルールを反しているの
かを容易に確認することができる。しかしながら、この
ような構成に限られることはなく、一度に表示をすると
どのシーンとどのシーンが対応しているかわからなくな
るのを防ぐ目的を達するための表示の構成であれば、他
の表示方式を用いることも可能である。
In the first and second embodiments, when the scene rule is violated, for example, in the UI (user interface) 400 as shown in FIG. 9, the scene corresponding to the scene designation window 440 is displayed. The message window may be displayed together with the message to prompt the user to press a confirmation button (not shown) at any time. This allows the user to easily confirm which scene corresponds to which scene and which these scene rules are violated. However, the present invention is not limited to such a configuration, and other display methods may be used as long as the display configuration is for the purpose of preventing the user from not knowing which scene corresponds to which scene when displayed at one time. It is also possible to use.

【0141】また、本発明は、例えば、ホストコンピュ
ータ、インターフェース機器、リーダ、及びプリンタ等
の複数の機器から構成されるシステムに適用すること
も、1つの機器からなる装置(例えば、複写機やファク
シミリ装置等の装置)に適用することも可能である。
The present invention can also be applied to a system composed of a plurality of devices such as a host computer, an interface device, a reader, and a printer, for example, a device composed of one device (for example, a copying machine or a facsimile). It is also possible to apply to a device such as a device).

【0142】また、本発明の目的は、第1及び第2の実
施の形態のホスト及び端末の機能を実現するソフトウェ
アのプログラムコードを記憶した記憶媒体を、システム
或いは装置に供給し、そのシステム或いは装置のコンピ
ュータ(又はCPUやMPU)が記憶媒体に格納された
プログラムコードを読みだして実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が第1及び
第2の実施の形態の機能を実現することとなり、そのプ
ログラムコードを記憶した記憶媒体及び当該プログラム
コードは本発明を構成することとなる。プログラムコー
ドを供給するための記憶媒体としては、ROM、フレキ
シブルディスク、ハードディスク、光ディスク、光磁気
ディスク、CD−ROM、CD−R、磁気テープ、不揮
発性のメモリカード等を用いることができる。
Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the host and the terminal of the first and second embodiments to a system or an apparatus, and the system or the apparatus. It is needless to say that it is also achieved by the computer (or CPU or MPU) of the device reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the first and second embodiments, and the storage medium storing the program code and the program code constitute the present invention. Becomes A ROM, flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, non-volatile memory card, or the like can be used as a storage medium for supplying the program code.

【0143】また、コンピュータが読み出したプログラ
ムを実行することにより、第1及び第2の実施の形態の
機能が実現されるだけでなく、そのプログラムコードの
指示に基づき、コンピュータ上で稼動しているOS(オ
ペレーティングシステム)等が実際の処理の一部又は全
部を実行し、当該処理により第1及び第2の実施の形態
の機能が実現される場合も含まれることは言うまでもな
い。さらに、記憶媒体から読み出されたプログラムコー
ドが、コンピュータに挿入された機能拡張ボードやコン
ピュータに接続された機能拡張ユニットに備わるメモリ
に書き込まれた後、そのプログラムコードの指示に基づ
き、その機能拡張ボードや機能拡張ユニットに備わるC
PU等が実際の処理の一部又は全部を実行し、当該処理
により第1及び第2の実施の形態の機能が実現される場
合も含まれることは言うまでもない。
Further, by executing the program read by the computer, not only the functions of the first and second embodiments are realized, but also the computer operates on the basis of the instructions of the program code. It goes without saying that a case where an OS (operating system) or the like executes a part or all of the actual processing and the functions of the first and second embodiments are realized by the processing is also included. Further, after the program code read from the storage medium is written in the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. C on board and function expansion unit
Needless to say, this also includes the case where the PU or the like executes a part or all of the actual processing and the functions of the first and second embodiments are realized by the processing.

【0144】図22は、上記コンピュータの機能900
を示したものである。コンピュータ機能900は、上記
図22に示すように、CPU901と、ROM902
と、RAM903と、キーボード(KB)909のキー
ボードコントローラ(KBC)905と、表示部として
のCRTディスプレイ(CRT)910のCRTコント
ローラ(CRTC)906と、ハードディスク(HD)
911及びフレキシブルディスク(FD)912のディ
スクコントローラ(DKC)907と、ネットワーク9
20との接続のためのネットワークインターフェースコ
ントローラ(NIC)908とが、システムバス904
を介して互いに通信可能に接続された構成としている。
FIG. 22 shows the function 900 of the computer.
Is shown. As shown in FIG. 22, the computer function 900 includes a CPU 901 and a ROM 902.
A RAM 903, a keyboard controller (KBC) 905 of a keyboard (KB) 909, a CRT controller (CRTC) 906 of a CRT display (CRT) 910 as a display unit, and a hard disk (HD).
911 and a flexible disk (FD) 912 disk controller (DKC) 907, and a network 9
A network interface controller (NIC) 908 for connection with the
It is configured to be communicably connected to each other via.

【0145】CPU901は、ROM902或いはHD
911に記憶されたソフトウェア、或いはFD912よ
り供給されるソフトウェアを実行することで、システム
バス904に接続された各構成部を総括的に制御する。
すなわち、CPU901は、所定の処理シーケンスに従
った処理プログラムを、ROM902、或いはHD91
1、或いはFD912から読み出して実行することで、
第1及び第2の実施の形態での動作を実現するための制
御を行う。
The CPU 901 is a ROM 902 or HD.
By executing the software stored in 911 or the software supplied from the FD 912, each component connected to the system bus 904 is comprehensively controlled.
That is, the CPU 901 executes the processing program according to the predetermined processing sequence in the ROM 902 or the HD 91.
1 or by reading from FD912 and executing,
Control for realizing the operation in the first and second embodiments is performed.

【0146】RAM903は、CPU901の主メモリ
或いはワークエリア等として機能する。KBC905
は、KB909や図示していないポインティングデバイ
ス等からの指示入力を制御する。CRTC906は、C
RT910の表示を制御する。DKC907は、ブート
プログラム、種々のアプリケーション、編集ファイル、
ユーザファイル、ネットワーク管理プログラム、及び本
実施の形態における所定の処理プログラム等を記憶する
HD911及びFD912とのアクセスを制御する。N
IC908は、ネットワーク920上の装置或いはシス
テムと双方向にデータをやりとりする。
The RAM 903 functions as the main memory or work area of the CPU 901. KBC905
Controls instruction input from the KB 909, a pointing device (not shown), or the like. CRTC906 is C
Control the display of RT910. The DKC907 is a boot program, various applications, edit files,
It controls access to the HD 911 and the FD 912 that store the user file, the network management program, and the predetermined processing program according to the present embodiment. N
The IC 908 bidirectionally exchanges data with a device or system on the network 920.

【0147】[0147]

【発明の効果】以上説明したように本発明では、任意の
装置或いはシステム上の操作により得られた画像データ
(ビデオカメラでの操作により撮影して得られた映像デ
ータ等)に対して、当該操作に関する情報(操作情報)
に基づき所定の画像処理(画像編集の際の特殊効果処理
等)を施すように構成した。これにより、対象画像取得
時になされた操作に応じた適切な画像処理が施されるこ
とにより、ユーザは、画像を扱うにあたり専門的な知識
を要することなく、容易に、良好な処理後画像を得るこ
とができる。
As described above, according to the present invention, the image data obtained by the operation on the arbitrary device or system (the image data obtained by the operation by the video camera, etc.) Information about operations (operation information)
Based on the above, predetermined image processing (special effect processing at the time of image editing, etc.) is performed. As a result, appropriate image processing is performed according to the operation performed when the target image is acquired, and the user can easily obtain a good processed image without requiring specialized knowledge in handling the image. be able to.

【0148】具体的には例えば、本発明を、ビデオカメ
ラにより被写体を撮影して得られた動画像データ(映像
データ)に対して、ユーザから指定された複数の区間を
順じ記録し、これを編集結果とする装置に適用した場
合、ビデオカメラ操作による表現の組み合わせの規則
と、実際のビデオカメラ操作との照合処理(チェック)
を自動化することができ、また、トランジションエフェ
クト付与処理によりシーンのつなぎ目の不自然さを自動
的に解消することができるので、ユーザは、画像編集に
関して専門的な知識を必要とすることなく、アマチュア
であっても、容易に高度な編集結果を得ることが可能と
なる。また、画像編集中に随時、規則とのチェックを行
うことができるので、ユーザは、自由な工程で画像編集
作業を進めることが可能となる。
Specifically, for example, according to the present invention, a plurality of sections designated by the user are sequentially recorded on moving image data (video data) obtained by photographing a subject with a video camera, When applied to a device that uses as an edited result, the matching process (check) between the rules of expression combination by video camera operation and the actual video camera operation
Since the transition effects can be automatically eliminated and the unnaturalness of the joints in the scene can be automatically eliminated, the user does not need specialized knowledge about image editing, and the amateur Even in this case, it is possible to easily obtain a high-level editing result. Further, since it is possible to check with the rule at any time during image editing, the user can proceed with image editing work in a free process.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施の形態において、本発明を適用した
画像編集装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image editing apparatus to which the present invention has been applied in a first embodiment.

【図2】上記画像編集装置の撮影部の構成を示すブロッ
ク図である。
FIG. 2 is a block diagram showing a configuration of a photographing unit of the image editing apparatus.

【図3】上記画像編集装置の動画編集部の構成を示すブ
ロック図である。
FIG. 3 is a block diagram showing a configuration of a moving image editing section of the image editing apparatus.

【図4】上記動画編集部の機能構成を示すブロック図で
ある。
FIG. 4 is a block diagram showing a functional configuration of the moving image editing unit.

【図5】上記撮影部の動作を説明するためのフローチャ
ートである。
FIG. 5 is a flowchart for explaining the operation of the image capturing unit.

【図6】上記撮影部で得られるカメラ操作情報のフォー
マット形式の一例を説明するための図である。
FIG. 6 is a diagram for explaining an example of a format format of camera operation information obtained by the image capturing unit.

【図7】上記カメラ操作情報のフォーマット形式の他の
例を説明するための図である。
FIG. 7 is a diagram for explaining another example of the format format of the camera operation information.

【図8】上記動画編集部の動作を説明するためのフロー
チャートである。
FIG. 8 is a flowchart for explaining the operation of the moving image editing unit.

【図9】上記動画編集部のユーザインターフェースを説
明するための図である。
FIG. 9 is a diagram illustrating a user interface of the moving image editing unit.

【図10】上記撮影部で得られるシーン情報を説明する
ための図である。
FIG. 10 is a diagram for explaining scene information obtained by the image capturing unit.

【図11】上記動画編集部の動作において、シーン情報
とシーンルールの照合処理を説明するためのフローチャ
ートである。
FIG. 11 is a flowchart for explaining a process of collating scene information with a scene rule in the operation of the moving image editing unit.

【図12】上記シーン情報とシーンルールの照合処理に
おいて、シーンに付与するトランジションエフェクトを
説明するための図である。
FIG. 12 is a diagram for explaining a transition effect added to a scene in the matching process of the scene information and the scene rule.

【図13】上記トランジションエフェクト付与後のシー
ン情報を説明するための図である。
FIG. 13 is a diagram for describing scene information after the transition effect is added.

【図14】第2の実施の形態における上記制御部の構成
を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of the control unit in the second embodiment.

【図15】第2の実施の形態における上記動画編集部の
構成を示すブロック図である。
FIG. 15 is a block diagram showing a configuration of the moving image editing unit in the second embodiment.

【図16】上記動画編集部の全体動作を説明するための
フローチャートである。
FIG. 16 is a flowchart for explaining an overall operation of the moving image editing unit.

【図17】上記動画編集部の全体動作において、動作取
込処理を説明するためのフローチャートである。
FIG. 17 is a flowchart for explaining a motion capturing process in the overall motion of the moving image editing unit.

【図18】上記動作取込処理において、隣接フレーム間
の類似度の検出(カット点の検出)方法の一例を説明す
るための図である。
FIG. 18 is a diagram for explaining an example of a method of detecting the degree of similarity between adjacent frames (detection of a cut point) in the operation capturing process.

【図19】上記検出処理の結果情報(インデックス情
報)の一例を説明するための図である。
FIG. 19 is a diagram for explaining an example of result information (index information) of the detection processing.

【図20】上記動画編集部の全体動作において、カメラ
操作情報判定処理を説明するためのフローチャートであ
る。
FIG. 20 is a flowchart for explaining camera operation information determination processing in the overall operation of the moving image editing unit.

【図21】上記カメラ操作情報の他の例を説明するため
の図である。
FIG. 21 is a diagram for explaining another example of the camera operation information.

【図22】上記画像編集装置の機能をコンピュータに実
現させるためのプログラムをコンピュータ読出可能な記
憶媒体から読み出して実行する当該コンピュータの構成
を示すブロック図である。
FIG. 22 is a block diagram showing a configuration of a computer that reads a program for causing a computer to realize the functions of the image editing apparatus from a computer-readable storage medium and executes the program.

【図23】上記撮影部の制御部の構成を示すブロック図
である。
FIG. 23 is a block diagram showing a configuration of a control unit of the photographing unit.

【符号の説明】[Explanation of symbols]

100 画像編集装置 110 撮影部 111 撮像部 112 画像圧縮部 113 カメラ操作部 114 センサ部 115 制御部 116 記録部 120 記録媒体 130 動画編集部 131 読取部 132 表示部 133 シーンルール照合部 134 ユーザ操作部 135 シーンルール記憶部 100 image editing device 110 Imaging Department 111 Imaging unit 112 Image compression unit 113 Camera control section 114 sensor 115 control unit 116 recording section 120 recording media 130 Video Editing Department 131 Reader 132 display 133 Scene rule matching unit 134 User Operation Unit 135 Scene rule storage

Claims (40)

【特許請求の範囲】[Claims] 【請求項1】 任意の装置或いはシステム上の操作によ
り得られた画像データ、及び当該操作に関する情報を取
得する取得手段と、 上記取得手段で得られた操作情報に基づいて、上記取得
手段で得られた画像データに対して所定の画像処理を施
す処理手段とを備えることを特徴とする画像処理装置。
1. An image data obtained by an operation on an arbitrary device or a system, an acquisition means for acquiring information on the operation, and an operation means obtained on the basis of the operation information obtained by the acquisition means. An image processing apparatus, comprising: a processing unit that performs predetermined image processing on the obtained image data.
【請求項2】 上記任意の装置或いはシステムは、ユー
ザからなされた操作に従った撮影動作により動画像デー
タを取得する機能を有し、 上記操作情報は、上記撮影時の操作に関する情報を含む
ことを特徴とする請求項1記載の画像処理装置。
2. The arbitrary device or system has a function of acquiring moving image data by a shooting operation according to an operation made by a user, and the operation information includes information on the operation at the time of shooting. The image processing apparatus according to claim 1, wherein:
【請求項3】 上記任意の装置或いはシステムは、カメ
ラを含み、 上記操作情報は、上記画像データ取得時の上記カメラの
動き、上記カメラの状態、上記カメラの操作の種類、上
記カメラの方向、及び上記カメラの操作がなされた区間
の少なくとも何れかの情報を含むことを特徴とする請求
項1記載の画像処理装置。
3. The arbitrary device or system includes a camera, and the operation information includes movement of the camera when acquiring the image data, a state of the camera, a type of operation of the camera, a direction of the camera, The image processing apparatus according to claim 1, further comprising information on at least one of a section in which the camera is operated.
【請求項4】 上記取得手段は、任意の記録媒体から上
記画像データ及び上記操作情報を読み取って取得するこ
とを特徴とする請求項1記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the acquisition unit reads and acquires the image data and the operation information from an arbitrary recording medium.
【請求項5】 上記所定の画像処理は、上記画像データ
に対する特殊効果処理を含むことを特徴とする請求項1
記載の画像処理装置。
5. The predetermined image processing includes special effect processing for the image data.
The image processing device described.
【請求項6】 上記特殊効果処理は、上記画像データに
対してトランジションエフェクトを付与する処理を含む
ことを特徴とする請求項5記載の画像処理装置。
6. The image processing apparatus according to claim 5, wherein the special effect process includes a process of adding a transition effect to the image data.
【請求項7】 上記取得手段で上記画像データとして得
られた動画像データを構成する複数区間の中の任意区間
を複数指定する指定手段を備え、 上記処理手段は、上記取得手段で得られた、上記指定手
段で指定された複数の区間の動画像データに対応した操
作情報に基づいて、上記動画像データに対して所定の画
像処理を施すことを特徴とする請求項1記載の画像処理
装置。
7. The specifying means is provided for specifying a plurality of arbitrary sections among a plurality of sections forming the moving image data obtained as the image data by the obtaining means, and the processing means is obtained by the obtaining means. The image processing apparatus according to claim 1, wherein predetermined image processing is performed on the moving image data based on operation information corresponding to moving image data of a plurality of sections designated by the designating means. .
【請求項8】 上記処理手段は、上記任意の装置或いは
システム上の操作の組み合わせに関する規則に基いて、
上記画像データに対して所定の画像処理を施すことを特
徴とする請求項1記載の画像処理装置。
8. The processing means is based on a rule regarding a combination of operations on the arbitrary device or system,
The image processing apparatus according to claim 1, wherein predetermined image processing is performed on the image data.
【請求項9】 上記処理手段は、上記操作の組み合わせ
に関する規則と、上記任意の装置或いはシステム上で実
際になされた操作に関する情報との照合結果に基づい
て、上記画像データに対して所定の画像処理を施すこと
を特徴とする請求項8記載の画像処理装置。
9. The processing means sets a predetermined image for the image data based on a comparison result between a rule regarding a combination of the operations and information about an operation actually performed on the arbitrary device or system. The image processing apparatus according to claim 8, wherein the image processing apparatus performs processing.
【請求項10】 任意の装置或いはシステム上の操作に
より得られた動画像データの画像処理装置であって、 上記動画像データ及び上記操作に関する情報を取得する
取得手段と、 上記取得手段で得られた動画像データを構成する複数の
区間の中の任意の複数の区間と、当該複数の区間の順序
とを指定する指定手段と、 上記取得手段で取得された操作情報により、上記指定手
段で指定された区間に対応する操作情報を検出する検出
手段と、 上記任意の装置或いはシステム上の操作に関する規則を
記憶する記憶手段と、 上記検出手段で検出された操作情報と上記記憶手段に記
憶された規則を照合した結果に基づいて、上記取得手段
で得られた動画像データに対してトランジションエフェ
クトを付与する処理手段とを備えたことを特徴とする画
像処理装置。
10. An image processing device for moving image data obtained by an operation on an arbitrary device or system, wherein the obtaining means obtains information on the moving image data and the operation, and is obtained by the obtaining means. Specifying means for specifying any of a plurality of sections forming the moving image data and the order of the plurality of sections, and specifying by the specifying means by the operation information acquired by the acquiring means. Detection means for detecting operation information corresponding to the selected section, storage means for storing rules relating to operation on the arbitrary device or system, operation information detected by the detection means, and the storage means stored in the storage means. An image comprising a processing means for applying a transition effect to the moving image data obtained by the obtaining means, based on the result of matching the rules. Management apparatus.
【請求項11】 上記記憶手段は、少なくとも上記操作
の存在区間、及びその時系列上の並びに関する規則を記
憶することを特徴とする請求項10記載の画像処理装
置。
11. The image processing apparatus according to claim 10, wherein the storage unit stores at least the existence section of the operation and a rule regarding a time-series arrangement thereof.
【請求項12】 上記処理手段は、上記検出手段で検出
された操作情報が、所定の長さより短い区間の操作に関
する情報である場合、上記照合の対象としないことを特
徴とすることを特徴とする請求項10記載の画像処理装
置。
12. The processing means is characterized in that when the operation information detected by the detecting means is information about an operation in a section shorter than a predetermined length, it is not targeted for the collation. The image processing apparatus according to claim 10.
【請求項13】 上記処理手段は、上記照合結果に基づ
く処理を、上記指定手段による区間指定のタイミングに
基いて実行することを特徴とする請求項10記載の画像
処理装置。
13. The image processing apparatus according to claim 10, wherein the processing means executes the processing based on the collation result at the timing of section designation by the designating means.
【請求項14】 上記処理手段は、上記取得手段で得ら
れる動画像データとは別の動画像データとして用意され
たトランジションエフェクトを、上記取得手段で得られ
た動画像データに対して付与することを特徴とする請求
項10記載の画像処理装置。
14. The processing means adds a transition effect prepared as moving image data different from the moving image data obtained by the obtaining means, to the moving image data obtained by the obtaining means. The image processing apparatus according to claim 10, wherein:
【請求項15】 上記処理手段は、上記照合結果により
上記操作情報による操作が上記規則に反している場合
に、トランジションエフェクトを上記動画像データに対
して付与することを特徴とする請求項10記載の画像処
理装置。
15. The processing means adds a transition effect to the moving image data when the operation based on the operation information violates the rule based on the collation result. Image processing device.
【請求項16】 上記処理手段は、上記照合結果により
上記操作情報による操作が上記規則に反していない場合
で、且つ上記動画像データに対して既にトランジション
エフェクトが付与されている場合、上記動画像データか
らトランジションエフェクトを取り除くことを特徴とす
る請求項10記載の画像処理装置。
16. The moving image if the operation according to the operation information does not violate the rule based on the collation result and the transition effect has already been added to the moving image data. 11. The image processing apparatus according to claim 10, wherein the transition effect is removed from the data.
【請求項17】 上記トランジションエフェクトは、固
定の長さ、又は上記操作情報に応じた長さを有すること
を特徴とする請求項10記載の画像処理装置。
17. The image processing apparatus according to claim 10, wherein the transition effect has a fixed length or a length according to the operation information.
【請求項18】 複数の機器が互いに通信可能に接続さ
れてなる画像処理システムであって、 上記複数の機器のうち少なくとも1つの機器は、請求項
1〜17の何れかに記載の画像処理装置の機能を有する
ことを特徴とする画像処理システム。
18. An image processing system comprising a plurality of devices communicably connected to each other, wherein at least one of the plurality of devices is an image processing device according to any one of claims 1 to 17. An image processing system having the function of.
【請求項19】 撮影操作により得られた動画像データ
に対する画像処理方法であって、 上記動画像データ取得時の撮影操作に関する情報に基づ
いて、上記動画像データに対して所定の画像処理を施す
処理ステップを含むことを特徴とする画像処理方法。
19. An image processing method for moving image data obtained by a shooting operation, wherein predetermined image processing is performed on the moving image data based on information related to the shooting operation at the time of obtaining the moving image data. An image processing method comprising a processing step.
【請求項20】 上記所定の画像処理は、上記動画像デ
ータに対する特殊効果処理を含むことを特徴とする請求
項19記載の画像処理方法。
20. The image processing method according to claim 19, wherein the predetermined image processing includes special effect processing for the moving image data.
【請求項21】 上記動画像データを構成する複数区間
の中の任意区間を複数指定する指定ステップを含み、 上記処理ステップは、上記指定ステップにより指定され
た複数の区間の動画像データ取得時の撮影操作に関する
情報に基づいて、上記動画像データに対して所定の画像
処理を施すステップを含むことを特徴とする請求項19
記載の画像処理方法。
21. A step of designating a plurality of arbitrary sections among a plurality of sections constituting the moving image data is included, and the processing step includes a step of acquiring moving image data of the plurality of sections designated by the specifying step. 20. A step of subjecting the moving image data to predetermined image processing based on information regarding a shooting operation is included.
The described image processing method.
【請求項22】 上記処理ステップは、撮影操作に関す
る所定の規則と、上記動画像データ取得時の撮影操作と
の照合結果に基づいて、上記動画像データに対して所定
の画像処理を施すステップを含むことを特徴とする請求
項19記載の画像処理方法。
22. The processing step includes a step of performing predetermined image processing on the moving image data based on a result of comparison between a predetermined rule regarding a shooting operation and a shooting operation at the time of acquiring the moving image data. The image processing method according to claim 19, further comprising:
【請求項23】 ビデオカメラにより得られた動画像デ
ータに対する画像処理方法であって、 上記デオカメラにより得られた動画像データ、及び当該
動画像データの取得時における上記ビデオカメラの操作
に関する情報を、任意の記録媒体から再生する再生ステ
ップと、 上記再生ステップにより再生された操作情報に基づい
て、上記再生ステップにより再生された動画像データに
対して特殊効果処理を施す処理ステップとを含むことを
特徴とする画像処理方法。
23. An image processing method for moving image data obtained by a video camera, comprising: moving image data obtained by the video camera; and information about operation of the video camera at the time of obtaining the moving image data. It includes a reproducing step of reproducing from an arbitrary recording medium, and a processing step of performing special effect processing on the moving image data reproduced by the reproducing step based on the operation information reproduced by the reproducing step. Image processing method.
【請求項24】 ビデオカメラにより得られた動画像デ
ータに対する画像処理方法であって、 上記デオカメラにより得られた動画像データ、及び当該
動画像データの取得時における上記ビデオカメラの操作
に関する情報を、任意の記録媒体から再生する再生ステ
ップと、 上記再生ステップにより再生された動画像データを構成
する複数の区間のうちの任意の区間を複数指定する指定
ステップと、 上記指定ステップにより指定された複数の区間の動画像
データに対応した上記操作情報に基づいて、上記再生ス
テップにより再生された動画像データに対して特殊効果
処理を施す処理ステップとを含むことを特徴とする画像
処理方法。
24. An image processing method for moving image data obtained by a video camera, comprising: moving image data obtained by the video camera; and information on an operation of the video camera at the time of obtaining the moving image data. A reproducing step of reproducing from an arbitrary recording medium, a specifying step of specifying a plurality of arbitrary sections among a plurality of sections forming the moving image data reproduced by the reproducing step, and a plurality of specifying sections of the specifying step. And a processing step of performing special effect processing on the moving image data reproduced by the reproducing step based on the operation information corresponding to the moving image data of the section.
【請求項25】 カメラ操作により得られた動画像デー
タに対する画像処理方法であって、 上記動画像データ及び上記カメラ操作に関する情報を記
憶する記憶ステップと、 上記記憶ステップによる記憶情報から処理対象となる動
画像データ及びこれに対応するカメラ操作情報を読み出
す読出ステップと、 上記読出ステップにより読み出された対象動画像データ
に対して任意の区間を複数指定する区間指定ステップ
と、 上記区間指定ステップにより指定された区間に対応する
カメラ操作情報を、上記読出ステップにより読み出され
たカメラ操作情報から検出する検出ステップと、 カメラ操作に関する規則を記憶する規則記憶ステップ
と、 上記検出ステップにより検出されたカメラ操作情報と、
上記規則記憶ステップにより記憶された規則との照合結
果に基いて、上記読出ステップにより読み出された動画
像データに対してトランジションエフェクトを付与する
処理ステップとを含むことを特徴とする画像処理方法。
25. An image processing method for moving image data obtained by a camera operation, comprising a storage step of storing the moving image data and information about the camera operation, and a storage object by the storage step to be processed. A reading step for reading out the moving image data and the camera operation information corresponding thereto, a section specifying step for specifying a plurality of arbitrary sections for the target moving image data read out by the reading step, and a specifying step by the section specifying step. The camera operation information corresponding to the selected section from the camera operation information read by the reading step, a rule storing step of storing a rule regarding camera operation, and a camera operation detected by the detecting step. Information,
An image processing method, comprising: a processing step of applying a transition effect to the moving image data read by the reading step, based on a result of collation with the rule stored by the rule storing step.
【請求項26】 カメラ操作により得られた動画像デー
タに対する画像処理方法であって、 上記動画像データを記憶する記憶ステップと、 上記記憶ステップにより記憶された動画像データから当
該動画像データ取得時のカメラの操作情報を抽出する抽
出ステップと、 上記記憶ステップにより記憶された動画像データに対し
て任意の区間を複数指定する指定ステップと、 上記区間指定ステップにより指定された区間に対応する
カメラ操作情報を、上記抽出ステップにより抽出された
カメラ操作情報から検出する検出ステップと、 カメラ操作に関する規則を記憶する規則記憶ステップ
と、 上記検出ステップにより検出されたカメラ操作情報と、
上記規則記憶ステップにより記憶された規則との照合結
果に基いて、上記記憶ステップにより記憶された動画像
データに対してトランジションエフェクトを付与する処
理ステップとを含むことを特徴とする画像処理方法。
26. An image processing method for moving image data obtained by operating a camera, comprising a storing step of storing the moving image data, and a step of acquiring the moving image data from the moving image data stored in the storing step. Extraction step of extracting the camera operation information, a designation step of designating a plurality of arbitrary sections for the moving image data stored in the storage step, and a camera operation corresponding to the section designated by the section designation step. A detection step of detecting information from the camera operation information extracted by the extraction step, a rule storage step of storing a rule regarding camera operation, and camera operation information detected by the detection step,
An image processing method, comprising: a processing step of applying a transition effect to the moving image data stored in the storing step, based on a matching result with the rule stored in the rule storing step.
【請求項27】 カメラ操作により撮影して得られた動
画像データに対する画像処理方法であって、 カメラ操作により被写体を撮影して当該被写体の動画像
データを生成する撮影ステップと、 上記撮影ステップにおけるカメラに対する設定情報及び
カメラ状態情報をカメラ操作情報として取得する取得ス
テップと、 上記撮影ステップにより得られた動画像データ、及び上
記取得ステップにより得られたカメラ操作情報を任意の
記録媒体に記録する記録ステップと、 上記記録媒体から処理対象となる動画像データ及びこれ
に対応するカメラ操作情報を読み出す読出ステップと、 上記読出ステップにより読み出された対象動画像データ
に対して任意の区間を複数指定する区間指定ステップ
と、 上記区間指定ステップにより指定された区間に対応する
カメラ操作情報を、上記読出ステップにより読み出され
たカメラ操作情報から検出する検出ステップと、 カメラ操作に関する規則を記憶する規則記憶ステップ
と、 上記検出ステップにより検出されたカメラ操作情報と、
上記規則記憶ステップにより記憶された規則との照合結
果に基いて、上記読出ステップにより読み出された動画
像データに対してトランジションエフェクトを付与する
処理ステップとを含むことを特徴とする画像処理方法。
27. An image processing method for moving image data obtained by photographing with a camera operation, comprising: a photographing step of photographing a subject by camera operation to generate moving image data of the subject; Acquisition step of acquiring setting information and camera status information for the camera as camera operation information, moving image data obtained in the above-mentioned shooting step, and recording for recording the camera operation information obtained in the above-mentioned acquisition step in an arbitrary recording medium Steps, a reading step for reading moving image data to be processed and camera operation information corresponding thereto from the recording medium, and a plurality of arbitrary sections are designated for the target moving image data read by the reading step. Corresponds to the section specification step and the section specified in the section specification step above The camera operation information to be detected from the camera operation information read by the reading step, a rule storing step for storing a rule relating to the camera operation, the camera operation information detected by the detecting step,
An image processing method, comprising: a processing step of applying a transition effect to the moving image data read by the reading step, based on a result of collation with the rule stored by the rule storing step.
【請求項28】 上記区間指定ステップにより指定さ
れた複数の区間の順序を指定する順序指定ステップを含
むことを特徴とする請求項25〜27の何れかに記載の
画像処理方法。
28. The image processing method according to claim 25, further comprising an order specifying step of specifying an order of a plurality of sections specified by the section specifying step.
【請求項29】 上記カメラ操作情報は、動画像デー
タ取得時のカメラの動き、カメラの状態、カメラ操作の
種類、カメラ操作がなされた区間、及びカメラの方向の
少なくとも1つの情報を含むことを特徴とする請求項2
5〜27の何れかに記載の画像処理方法。
29. The camera operation information includes at least one piece of information about a camera movement at the time of acquiring moving image data, a camera state, a type of camera operation, a section in which the camera operation is performed, and a camera direction. Claim 2 characterized by the above-mentioned.
The image processing method according to any one of 5 to 27.
【請求項30】 上記規則は、少なくとも、上記カメ
ラ操作情報の存在区間及びその時系列上の並びを含むこ
とを特徴とする請求項25〜27の何れかに記載の画像
処理方法。
30. The image processing method according to claim 25, wherein the rule includes at least an existing section of the camera operation information and a time-series arrangement thereof.
【請求項31】 上記処理ステップは、上記カメラ操
作情報により示されるカメラ操作が、所定の長さより短
い区間のカメラ操作である場合、上記カメラ操作情報を
上記照合の対象としないステップを含むことを特徴とす
る請求項25〜27の何れかに記載の画像処理方法。
31. The processing step includes a step of, when the camera operation indicated by the camera operation information is a camera operation in a section shorter than a predetermined length, not making the camera operation information the target of the collation. The image processing method according to any one of claims 25 to 27, which is characterized in that.
【請求項32】 上記処理ステップは、上記区間指定
ステップにおいてユーザから区間の指定が行なわれる毎
に処理実行するステップを含むことを特徴とする請求項
25〜27の何れかに記載の画像処理方法。
32. The image processing method according to claim 25, wherein the processing step includes a step of executing processing each time a section is specified by a user in the section specifying step. .
【請求項33】 上記トランジションエフェクトを、
処理対象となる動画像データとは別の動画像データとし
て生成して保持する保持ステップを含むことを特徴とす
る請求項25〜27の何れかに記載の画像処理方法。
33. The transition effect,
28. The image processing method according to claim 25, further comprising a holding step of generating and holding as moving image data different from the moving image data to be processed.
【請求項34】 上記処理ステップは、 上記照合結果により、上記カメラ操作情報により示され
るカメラ操作が上記規則に反している場合、上記トラン
ジションエフェクトの付与処理を実行するステップと、 上記照合結果により、上記カメラ操作情報により示され
るカメラ操作が上記規則に反していない場合、上記動画
像データに対して既にトランジションエフェクトが付与
されているか否かを判定し、その判定の結果、既にトラ
ンジションエフェクトが付与されている場合、上記動画
像データからトランジションエフェクトを取り除くステ
ップとを含むことを特徴とする請求項25〜27の何れ
かに記載の画像処理方法。
34. According to the result of the collation, if the camera operation indicated by the camera operation information violates the rule, the step of executing the process of adding the transition effect, and the result of the collation include: If the camera operation indicated by the camera operation information does not violate the rules, it is determined whether or not a transition effect has already been added to the moving image data, and as a result of the determination, the transition effect has already been added. 28. The image processing method according to claim 25, further comprising a step of removing a transition effect from the moving image data.
【請求項35】 上記トランジションエフェクトは、
固定の長さ、又は上記カメラ操作情報に応じた長さを有
することを特徴とする請求項25〜27の何れかに記載
の画像処理方法。
35. The transition effect,
28. The image processing method according to claim 25, wherein the image processing method has a fixed length or a length according to the camera operation information.
【請求項36】 上記検出ステップは、予めカメラ操
作情報を区間毎に管理するステップを含むことを特徴と
する請求項25〜27の何れかに記載の画像処理方法。
36. The image processing method according to claim 25, wherein the detecting step includes a step of previously managing camera operation information for each section.
【請求項37】 請求項1〜17の何れかに記載の画像
処理装置の機能、又は請求項18記載の画像処理システ
ムの機能をコンピュータに実現させるためのプログラム
を記録したコンピュータ読出可能な記憶媒体。
37. A computer-readable storage medium recording a program for causing a computer to realize the function of the image processing apparatus according to claim 1 or the function of the image processing system according to claim 18. .
【請求項38】 請求項19〜36の何れかに記載の画
像処理方法の処理ステップをコンピュータに実行させる
ためのプログラムを記録したコンピュータ読取可能な記
憶媒体。
38. A computer-readable storage medium recording a program for causing a computer to execute the processing steps of the image processing method according to claim 19.
【請求項39】 請求項1〜17の何れかに記載の画像
処理装置の機能、又は請求項18記載の画像処理システ
ムの機能をコンピュータに実現させるためのプログラ
ム。
39. A program for causing a computer to realize the function of the image processing apparatus according to claim 1 or the function of the image processing system according to claim 18.
【請求項40】 請求項19〜36の何れかに記載の画
像処理方法の処理ステップをコンピュータに実行させる
ためのプログラム。
40. A program for causing a computer to execute the processing steps of the image processing method according to any one of claims 19 to 36.
JP2001302970A 2001-08-28 2001-09-28 Image processing apparatus, image processing system, image processing method, storage medium, and program Pending JP2003110995A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001302970A JP2003110995A (en) 2001-09-28 2001-09-28 Image processing apparatus, image processing system, image processing method, storage medium, and program
US10/216,748 US7391436B2 (en) 2001-08-28 2002-08-13 Image processing apparatus with comparing of difference of camera operation information between image data of plural sections in input image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001302970A JP2003110995A (en) 2001-09-28 2001-09-28 Image processing apparatus, image processing system, image processing method, storage medium, and program

Publications (1)

Publication Number Publication Date
JP2003110995A true JP2003110995A (en) 2003-04-11

Family

ID=19123125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001302970A Pending JP2003110995A (en) 2001-08-28 2001-09-28 Image processing apparatus, image processing system, image processing method, storage medium, and program

Country Status (1)

Country Link
JP (1) JP2003110995A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225906A (en) * 2011-03-29 2013-10-31 Nikon Corp Image reproduction device
US8743269B2 (en) 2009-06-15 2014-06-03 Olympus Imaging Corp. Photographing device, photographing method, and playback method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8743269B2 (en) 2009-06-15 2014-06-03 Olympus Imaging Corp. Photographing device, photographing method, and playback method
JP2013225906A (en) * 2011-03-29 2013-10-31 Nikon Corp Image reproduction device

Similar Documents

Publication Publication Date Title
EP2741293A1 (en) Video processing apparatus and method
KR101655078B1 (en) Method and apparatus for generating moving photograph
US7391436B2 (en) Image processing apparatus with comparing of difference of camera operation information between image data of plural sections in input image data
JP2004056397A (en) Image processing apparatus and method
JP2002176613A (en) Moving image editing unit, moving image editing method and recording medium
JP4497761B2 (en) Image processing apparatus and index creation method
JP2003324678A (en) Image processing unit, image processing system, image processing method, storage medium, and program
JP5317710B2 (en) Image processing apparatus, control method therefor, program, and recording medium
US8538247B2 (en) Image processing apparatus and image processing method
JP2004104471A (en) Data processor
JP2005260749A (en) Electronic camera and control program thereof
JP2003304492A (en) Image processing device
JP4698961B2 (en) Electronic camera and electronic camera control program
US20120219264A1 (en) Image processing device
JP2003110995A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
US9854166B2 (en) Image pickup apparatus and method of controlling the same, and reproduction apparatus and method of controlling the same
JP2007096532A (en) Image storage apparatus and image storage system
JP2003069947A (en) Moving picture processing apparatus, moving picture processing method and storage medium
JP2009055618A (en) Electronic camera and control program of electronic camera
JP2004104534A (en) Image pickup device
JP2010288212A (en) Camera and program for editing motion picture
JP6679333B2 (en) Image processing apparatus, image processing method, and program
JP2011109253A (en) Imaging apparatus
JP2005303807A (en) Photography-taking apparatus and method and program
JP5269639B2 (en) Imaging apparatus and communication system