JP2005348328A - Video camera photographing support program and editing support program - Google Patents

Video camera photographing support program and editing support program Download PDF

Info

Publication number
JP2005348328A
JP2005348328A JP2004168626A JP2004168626A JP2005348328A JP 2005348328 A JP2005348328 A JP 2005348328A JP 2004168626 A JP2004168626 A JP 2004168626A JP 2004168626 A JP2004168626 A JP 2004168626A JP 2005348328 A JP2005348328 A JP 2005348328A
Authority
JP
Japan
Prior art keywords
image
shots
shot
normal
pan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004168626A
Other languages
Japanese (ja)
Other versions
JP4568797B2 (en
Inventor
Kuniaki Uehara
邦昭 上原
Yasuo Ariki
康雄 有木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New Industry Research Organization NIRO
Original Assignee
New Industry Research Organization NIRO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New Industry Research Organization NIRO filed Critical New Industry Research Organization NIRO
Priority to JP2004168626A priority Critical patent/JP4568797B2/en
Publication of JP2005348328A publication Critical patent/JP2005348328A/en
Application granted granted Critical
Publication of JP4568797B2 publication Critical patent/JP4568797B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To call attention in real time to user's camera work at a time of video camera photographing in a video camera photographing support program and an editing support program, and obtain a photographing image which includes many dynamic images suitable for editing. <P>SOLUTION: The camera work, in photographing a dynamic image, is analyzed in real time (S2) by projecting luminance of each pixel in each frame image which constitutes the photographed dynamic image in a horizontal direction and a vertical direction, and comparing the amount of luminance projection of the horizontal direction and the vertical direction between respective frame images. And, navigation for calling attention about the user's camera work, is performed (S3, S4) based on image grammar using the analysis result. By this means, it is possible to obtain photographing images which include many dynamic images suitable for user's editing. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ユーザによるビデオカメラの撮影を支援するための撮影支援プログラム、及びビデオカメラで撮影された動画像の編集を支援するための編集支援プログラムに関するものである。   The present invention relates to a shooting support program for supporting shooting of a video camera by a user and an editing support program for supporting editing of a moving image shot by a video camera.

近年、安価のディジタルビデオカメラが広く普及して、一般ユーザが、気軽に動画像を撮影することができるようになった。また、ディジタル化によって動画像をノンリニアに取り扱うことが可能になり、さまざまな動画像編集ソフトも販売されている。しかしながら、一般ユーザが編集作業を行うのは稀で、各家庭で大量の動画像が未編集のまま残されているのが現状である。これには2つの原因が考えられる。   In recent years, inexpensive digital video cameras have become widespread, and general users can easily shoot moving images. In addition, digitalization makes it possible to handle moving images in a non-linear manner, and various moving image editing software is on the market. However, it is rare for general users to perform editing work, and at present, a large amount of moving images are left unedited in each home. There are two possible causes for this.

まず、1つ目の原因は、動画像編集の知識がないことである。動画像編集作業では、まず撮影で失敗したショットを除外し、次に、複数のショットの中から、前後のショットとの関係を考慮した上で1つのショットを選択する。そして、そのショットを、情報量を失わず、かつ冗長性のない適切な長さに切り取って、ショットの接続を行う。これらのショットの選択、及びショットの長さの決定の仕方は無限に存在するが,制作者側の意図することを視聴者に正確に伝えることを目的として編集した場合、ある普遍的な規則が存在する。これを映像文法と呼ぶ。しかしながら、一般ユーザは、この映像文法を学習する機会がなく、編集に際してどのショットを使用したらいいのか、またどのショットを何秒ほど用いればいいのかが分からないため、動画像編集は困難なものとなっている。   First, the first cause is lack of knowledge of moving image editing. In the moving image editing work, first, shots that have failed in shooting are excluded, and then one shot is selected from a plurality of shots in consideration of the relationship with previous and subsequent shots. Then, the shots are cut to an appropriate length without losing the amount of information and without redundancy, and the shots are connected. There are an infinite number of ways to select these shots and determine the length of the shots, but there are some universal rules when edited to accurately convey to the viewer what the producer intended. Exists. This is called video grammar. However, since general users do not have the opportunity to learn this video grammar and do not know which shot to use for editing and which shot should be used for how many seconds, moving image editing is difficult. It has become.

そして、2つ目の原因は、撮影された動画像中に編集に適した動画像が少ないことである。本来、動画像は、前述した映像文法を考慮して撮影されるべきであるが、一般ユーザが編集を意識して撮影するのは非常に困難である。そのため、撮影した動画像を編集する段階になって、撮影した動画像中に編集に適したショットがないことに気がつくことになる。   The second cause is that there are few moving images suitable for editing in the captured moving images. Originally, a moving image should be taken in consideration of the above-mentioned video grammar, but it is very difficult for a general user to take an image while being aware of editing. For this reason, at the stage of editing the captured moving image, it is noticed that there is no shot suitable for editing in the captured moving image.

ところで、動画像撮影テクニック指導教材の分野において、ユーザが撮影した映像をディスプレイ上に上映して、この映像内で、プロカメラマンにベスト構図、ズーム、パン、チル等の最良のテクニックを駆使して、ビデオカメラで撮影してもらい、プロカメラマンが撮影しなかった部分にスモークをかけることにより、容易かつ低費用でプロカメラマンの撮影テクニックを習得することができるようにしたものが知られている(例えば、特許文献1参照)。   By the way, in the field of instructional materials for moving image shooting techniques, the video shot by the user is shown on the display, and within this video, the best techniques such as best composition, zoom, pan, chill, etc. are used by professional photographers. , It is known that you can capture professional cameraman's shooting techniques easily and at low cost by shooting with a video camera and applying smoke to the part that the professional cameraman did not shoot ( For example, see Patent Document 1).

しかしながら、上記のようなユーザが撮影した映像をディスプレイ上に上映して、この映像内でプロカメラマンに再撮影してもらう方法では、真に上記の映像文法に沿った、制作者側の意図することを視聴者に正確に伝えることが可能なショットを撮影することは難しい。また、ビデオカメラの撮影時に、ユーザのカメラワークに対して、リアルタイムに注意を喚起することはできない。   However, in the method of displaying the video shot by the user as described above on the display and having the professional photographer recapture the video within this video, the intention of the producer side is truly in line with the above video grammar. It is difficult to take a shot that can accurately tell the viewer. Also, it is not possible to call attention to the user's camera work in real time when shooting with the video camera.

また、ビデオ編集支援システムの分野において、ビデオデータベース内のビデオデータから映像表現技法のパターンを抽出し、そのパターンに基づいて、ユーザが新たに撮影するビデオ映像に対して、特定の表現意図に合った映像表現技法を提供するようにしたものが知られている(例えば、特許文献2参照)。   In addition, in the field of video editing support systems, a video expression technique pattern is extracted from video data in a video database, and a video image newly shot by a user meets a specific expression intention based on the pattern. There is known one that provides a video expression technique (see, for example, Patent Document 2).

しかしながら、上記のビデオデータベース内のビデオデータから特定の表現意図に合った映像表現技法のパターンを抽出するビデオ編集支援システムでは、ビデオデータベースに蓄積されたビデオデータが理想的なものである保障はなく、しかも、このビデオ編集支援システムで提供可能な映像表現技法は、シーンの数や長さに限られるため、ユーザは、このシステムを用いて、真に編集に適したショットを撮影することはできない。また、この発明では、上記特許文献1に示される発明と同様に、ビデオカメラの撮影時に、ユーザのカメラワークに対して、リアルタイムに注意を喚起することはできない。
特開平6−4016号公報(第1−4頁、図1) 特開2002−262219号公報(第1−5頁、図1−5)
However, there is no guarantee that the video data stored in the video database is ideal in the video editing support system that extracts the pattern of the video expression technique that matches the specific expression intention from the video data in the video database. Moreover, since the video expression technique that can be provided by this video editing support system is limited to the number and length of scenes, the user cannot take a shot that is truly suitable for editing using this system. . Further, in the present invention, as in the invention disclosed in Patent Document 1, it is not possible to alert the user's camera work in real time when the video camera is photographed.
Japanese Patent Laid-Open No. 6-4016 (page 1-4, FIG. 1) JP 2002-262219 A (page 1-5, FIG. 1-5)

本発明は、上記の問題を解決するためになされたものであり、ビデオカメラの撮影時に、ユーザのカメラワークに対して、リアルタイムに注意を喚起することができるようにして、編集に適した動画像を多く含む撮影画像を得ることが可能なビデオカメラの撮影支援プログラムを提供することを目的とする。また、本発明は、ビデオカメラの撮影時に、ユーザのカメラワークに対して、リアルタイムに注意を喚起することができるようにして、編集に適した動画像を多く含む撮影画像を得ることができ、しかも、撮影した動画像中のどの部分が編集に適しているかを瞬時に把握することが可能なビデオカメラの編集支援プログラムを提供することを目的とする。   The present invention has been made in order to solve the above-mentioned problem, and is capable of calling a user's camera work in real time when shooting with a video camera, and is suitable for editing. An object of the present invention is to provide a shooting support program for a video camera capable of obtaining a shot image including many images. In addition, the present invention can obtain a captured image including a large number of moving images suitable for editing so that the user's camera work can be alerted in real time when the video camera is captured. Moreover, it is an object of the present invention to provide an editing support program for a video camera that can instantly grasp which part of a captured moving image is suitable for editing.

上記目的を達成するために請求項1の発明は、ビデオカメラの撮影を支援するためにプロセッサを、撮影手段により撮影された動画像を構成する各フレーム画像中の各画素の輝度を水平方向及び垂直方向に投影して、各フレーム画像間における水平方向及び垂直方向の輝度投影量を比較することにより、動画像を撮影した際のカメラワークをリアルタイムに解析するカメラワーク解析手段、撮影手段により撮影された動画像を用いて映像を編集する場合に、編集者がその意図を視聴者に正確に伝えるのに必要とされる普遍的な規則である映像文法に基づいて、カメラワーク解析手段による解析結果として得られたカメラワークに対して、注意を喚起するためのナビゲーションが必要か否かを判定する判定手段、及び判定手段によりナビゲーションが必要であると判定されたときに、ナビゲーション用の信号を出力する出力手段として機能させるためのビデオカメラの撮影支援プログラムである。   In order to achieve the above object, the invention of claim 1 provides a processor for supporting shooting by a video camera, the luminance of each pixel in each frame image constituting a moving image shot by the shooting means in the horizontal direction and Photographed by camera work analysis means and photographing means for analyzing in real time the camera work when moving images are shot by projecting in the vertical direction and comparing the luminance projection amounts in the horizontal and vertical directions between the frame images When the video is edited using the recorded video, the analysis by the camera work analysis means based on the video grammar, which is a universal rule required for the editor to accurately convey the intention to the viewer Judgment means for determining whether or not navigation for calling attention is necessary for the resulting camera work, and navigation by the judgment means When the emission is determined to be necessary, a video camera photographing support program to function as output means for outputting a signal for navigation.

請求項2の発明は、請求項1に記載のビデオカメラの撮影支援プログラムにおいて、判定手段は、カメラワーク解析手段による解析結果として得られたカメラワークについて、少なくとも、激しい手ぶれに相当する部分が存在する場合、パン処理(カメラを回転させながら撮影を行う処理)時におけるカメラの回転操作の速度が速すぎる場合、ズーム処理の操作が速すぎる場合、パン処理時の動画像(パン画像)やズーム処理時の動画像(ズーム画像)の前後に1秒間以上のフィックス画像(固定された視点で撮影された動画像)が撮影されていない場合、パン画像やズーム画像の前後以外の位置に存在するフィックス画像が3秒間以上撮影されていない場合、及び明るすぎるショットや暗すぎるショットが存在する場合に、このカメラワークに対して、注意を喚起するためのナビゲーションが必要であると判定するものである。   According to a second aspect of the present invention, in the video camera photographing support program according to the first aspect, the determination means includes at least a portion corresponding to severe camera shake in the camera work obtained as an analysis result by the camera work analysis means. When panning (shooting while rotating the camera), if the camera rotation speed is too fast, zooming is too fast, panning moving images (pan images) or zooming If a fixed image (moving image taken from a fixed viewpoint) of 1 second or longer is not taken before or after the moving image (zoom image) at the time of processing, it exists at a position other than before or after the pan image or zoom image. If the fixed image has not been shot for more than 3 seconds, and there are shots that are too bright or too dark, this camera Respect, it is to determine that it is necessary to navigation for attention.

請求項3の発明は、請求項2に記載のビデオカメラの撮影支援プログラムにおいて、プロセッサを、さらに、カメラワーク解析手段による解析結果に基づき、カメラワークの開始点や終了点を境界として、撮影手段により撮影された動画像をショットに分類するショット分類手段、ショット分類手段により分類されたショットに対して、激しい映像のぶれがないフィックス画像のショット、正常な(速すぎない)パン処理時の動画像のショット、正常な(速すぎない)ズーム処理時の動画像のショット、速すぎるパン処理時の動画像のショット、速すぎるズーム処理時の動画像のショット、及び激しい映像のぶれにより利用できないフィックス画像のショットといったラベル付けを行うインデキシング手段、撮影手段による動画像の撮影の終了時に、インデキシング手段による各ショットへのラベル付け結果に基づいて、激しい映像のぶれがないフィックス画像のショットのうち、撮影時間が十分なショットの割合である時間正常率と、パン画像のショットのうち、正常なパン画像のショットの割合であるパン正常率と、ズーム画像のショットのうち、正常なズーム画像のショットの割合であるズーム正常率と、フィックス画像のショットのうち、激しい映像のぶれがないフィックス画像のショットの割合である、ぶれ正常率とを算出する正常率算出手段、正常率算出手段により算出した時間正常率とパン正常率とズーム正常率とぶれ正常率とに基づいて、撮影手段により撮影された動画像についてのスコアを算出するスコア算出手段、及び正常率算出手段により算出した時間正常率、パン正常率、ズーム正常率又はぶれ正常率が、所定の閾値以下であるか否かを判定する正常率判定手段として機能させ、上記出力手段が、スコア算出手段による算出結果を表す信号と、正常率判定手段により所定の閾値以下であると判定された項目についての注意を促すためのガイド情報を表す信号とを出力するものである。   According to a third aspect of the present invention, there is provided the video camera photographing support program according to the second aspect, wherein the processor further captures the camera work based on the analysis result of the camera work analysis means with the start point and end point of the camera work as a boundary. Shot classification means for classifying moving images shot by the above, shots of fixed images that do not cause severe blurring of shots classified by the shot classification means, and videos during normal (not too fast) pan processing Unusable due to image shots, moving shots during normal (not too fast) zoom processing, moving image shots during pan processing too fast, moving image shots during zoom processing too fast, and severe image blur Indexing means for labeling shots of fixed images, etc. Sometimes, based on the result of labeling each shot by the indexing means, out of fixed image shots that do not have intense image blurring, the time normal rate, which is the ratio of shots with sufficient shooting time, and out of pan image shots The pan normal rate, which is the ratio of normal pan image shots, and the zoom normal rate, which is the ratio of normal zoom image shots out of zoom image shots, and severe image blurring among fixed image shots. Normal rate calculation means for calculating the normal rate of blur, which is the ratio of shots of fixed images that are not present, shooting based on the normal rate time, pan normal rate, zoom normal rate, and normal blur rate calculated by the normal rate calculation unit A score calculation means for calculating a score for a moving image photographed by the means, and a normal time calculated by a normal rate calculation means , The pan normal rate, the zoom normal rate or the blur normal rate function as normal rate determination means for determining whether or not the predetermined threshold value or less, and the output means represents a signal representing a calculation result by the score calculation means; A signal representing guide information for calling attention to an item determined to be equal to or less than a predetermined threshold by the normal rate determination means is output.

請求項4の発明は、請求項3に記載のビデオカメラの撮影支援プログラムにおいて、プロセッサを、さらに、ビデオカメラ内の操作手段を用いて、ユーザにより、ビデオカメラによる撮影対象となる行事の種類が選択されたときに、この選択内容に対応した行事についてプロのカメラマンが予め撮影したショットのデータを、プロセッサ内の記憶装置から読み取る読取手段、及び読取手段により読み取ったショットのデータに基づいて、このショットの表示用の信号をビデオカメラ内の表示手段に出力するショット出力手段として機能させるものである。   According to a fourth aspect of the present invention, in the video camera photographing support program according to the third aspect, the type of the event to be photographed by the video camera is determined by the user using the processor and the operation means in the video camera. Based on the reading means for reading the shot data previously taken by the professional photographer for the event corresponding to the selected content from the storage device in the processor and the data of the shot read by the reading means when selected. It functions as shot output means for outputting a signal for displaying a shot to display means in the video camera.

請求項5の発明は、ビデオカメラで撮影された動画像の編集を支援するためにプロセッサを、撮影手段により撮影された動画像を構成する各フレーム画像中の各画素の輝度を水平方向及び垂直方向に投影して、各フレーム画像間における水平方向及び垂直方向の輝度投影量を比較することにより、動画像を撮影した際のカメラワークをリアルタイムに解析するカメラワーク解析手段、撮影手段により撮影された動画像を用いて映像を編集する場合に、編集者がその意図を視聴者に正確に伝えるのに必要とされる普遍的な規則である映像文法に基づいて、カメラワーク解析手段による解析結果として得られたカメラワークに対して、注意を喚起するためのナビゲーションが必要か否かを判定する判定手段、カメラワーク解析手段による解析結果に基づき、カメラワークの開始点や終了点を境界として、撮影手段により撮影された動画像をショットに分類するショット分類手段、ショット分類手段により分類されたショットに対して、激しい映像のぶれがないフィックス画像(固定された視点で撮影された動画像)のショット、正常な(速すぎない)パン処理時の動画像のショット、正常な(速すぎない)ズーム処理時の動画像のショット、速すぎるパン処理時の動画像のショット、速すぎるズーム処理時の動画像のショット、及び激しい映像のぶれにより利用できないフィックス画像のショットといったラベル付けを行うインデキシング手段、インデキシング手段による各ショットへのラベル付け結果に基づいて、フィックス画像のショットの撮影時間が3秒間以上である区間か、正常なパン処理時の動画像のショットの前後のショットが、いずれも撮影時間1秒以上のフィックス画像のショットである区間か、正常なズーム処理時の動画像のショットの前後のショットが、いずれも撮影時間1秒以上のフィックス画像のショットである区間を、ビデオカメラで撮影された動画像の編集時に利用することが望ましい推奨区間として検出する利用推奨区間検出手段、及び利用推奨区間検出手段により検出された推奨区間をビデオカメラ内の表示手段に表示するための信号を出力すると共に、判定手段によりナビゲーションが必要であると判定されたときに、リアルタイムにナビゲーション用の信号を出力する出力手段として機能させるためのビデオカメラの編集支援プログラムであって、判定手段は、カメラワーク解析手段による解析結果として得られたカメラワークについて、少なくとも、激しい手ぶれに相当する部分が存在する場合、パン処理時におけるカメラの回転操作の速度が速すぎる場合、ズーム処理の操作が速すぎる場合、パン処理時の動画像(パン画像)やズーム処理時の動画像(ズーム画像)の前後に1秒間以上のフィックス画像が撮影されていない場合、パン画像やズーム画像の前後以外の位置に存在するフィックス画像が3秒間以上撮影されていない場合、及び明るすぎるショットや暗すぎるショットが存在する場合に、このカメラワークに対して、注意を喚起するためのナビゲーションが必要であると判定するものである。   According to the fifth aspect of the present invention, a processor is provided to support editing of a moving image photographed by a video camera, and the luminance of each pixel in each frame image constituting the moving image photographed by the photographing means is set in the horizontal direction and the vertical direction. By projecting in the direction and comparing the horizontal and vertical luminance projection amounts between the frame images, the camerawork analysis means for analyzing the camerawork in real time when the moving image is photographed is photographed by the photographing means. Result of camera work analysis based on video grammar, which is a universal rule required for editors to accurately convey their intentions to viewers As a result of the determination, it is necessary to determine whether navigation is required to call attention to the camerawork obtained as a result of the analysis. Based on the start point and end point of camera work, the shot classification means for classifying the moving images shot by the shooting means into shots, and the shots classified by the shot classification means are free from severe blurring of the video Shots of images (moving images taken from a fixed viewpoint), moving images during normal (not too fast) panning, moving images during normal (not too fast) zooming, too fast Indexing means for labeling shots of moving images during pan processing, shots of moving images during zoom processing that is too fast, and shots of fixed images that cannot be used due to severe video blurring, and the result of labeling each shot by indexing means Based on whether the fixed image shot was taken for 3 seconds or longer The shots before and after the moving image shot during panning are either fixed image shots with a shooting time of 1 second or longer, or the shots before and after the moving image shot during normal zoom processing are both Detected using recommended section detection means and recommended section detection means that detect sections of fixed image shots with a shooting time of 1 second or longer as recommended sections that should be used when editing moving images shot with a video camera. Outputs a signal for displaying the recommended section on the display means in the video camera, and outputs a navigation signal in real time when the determination means determines that navigation is necessary A video camera editing support program for determining whether the determination means is a camera work analysis means. If there is at least a part corresponding to severe camera shake in the camera work obtained as a result of the analysis, the camera rotation operation speed during pan processing is too fast, the zoom processing operation is too fast, pan processing Fixed image that exists at a position other than before or after the panned image or zoomed image when a fixed image of 1 second or longer is not photographed before or after the moving image (panned image) at the time or the moving image (zoomed image) at the time of zoom processing Is not photographed for 3 seconds or more, and when there are shots that are too bright or too dark, it is determined that navigation is required to call attention to this camera work.

請求項6の発明は、請求項5に記載のビデオカメラの編集支援プログラムにおいて、プロセッサを、さらに、撮影手段による動画像の撮影の終了時に、インデキシング手段による各ショットへのラベル付け結果に基づいて、激しい映像のぶれがないフィックス画像のショットのうち、撮影時間が十分なショットの割合である時間正常率と、パン処理時の動画像のショットのうち、正常なパン画像のショットの割合であるパン正常率と、ズーム処理時の動画像のショットのうち、正常なズーム画像のショットの割合であるズーム正常率と、フィックス画像のショットのうち、激しい映像のぶれがないフィックス画像のショットの割合である、ぶれ正常率とを算出する正常率算出手段、正常率算出手段により算出した時間正常率とパン正常率とズーム正常率とぶれ正常率とに基づいて、撮影手段により撮影された動画像についてのスコアを算出するスコア算出手段、及び正常率算出手段により算出した時間正常率、パン正常率、ズーム正常率又はぶれ正常率が、所定の閾値以下であるか否かを判定する正常率判定手段として機能させ、上記出力手段が、スコア算出手段による算出結果を表す信号と、正常率判定手段により所定の閾値以下であると判定された項目についての注意を促すためのガイド情報を表す信号とを出力するものである。   According to a sixth aspect of the present invention, in the video camera editing support program according to the fifth aspect of the invention, the processor is further configured to, based on the result of labeling each shot by the indexing unit, at the end of the moving image shooting by the shooting unit The ratio of normal time, which is the ratio of shots with sufficient shooting time among fixed image shots without intense video blur, and the ratio of normal pan image shots of moving image shots during pan processing Pan normal rate, zoom normal rate that is the proportion of normal zoom image shots among moving image shots during zoom processing, and proportion of fixed image shots that do not have intense video blur among fixed image shots The normal rate calculating means for calculating the blur normal rate, the time normal rate and the bread normal rate calculated by the normal rate calculating means A score calculating means for calculating a score for a moving image photographed by the photographing means based on the normality rate and the blur normal rate, and a time normal rate, a pan normal rate, a zoom normal rate calculated by the normal rate calculating means, or It functions as normal rate determination means for determining whether or not the blur normal rate is equal to or less than a predetermined threshold value, and the output means outputs a signal indicating the calculation result by the score calculation means and the normal rate determination means with a predetermined threshold value or less. And a signal representing guide information for calling attention to an item determined to be.

請求項7の発明は、請求項6に記載のビデオカメラの編集支援プログラムにおいて、プロセッサを、さらに、ビデオカメラ内の操作手段を用いて、ユーザにより、ビデオカメラによる撮影対象となる行事の種類が選択されたときに、この選択内容に対応した行事についてプロのカメラマンが予め撮影したショットのデータを、プロセッサ内の記憶装置から読み取る読取手段、及び読取手段により読み取ったショットのデータに基づいて、このショットの表示用の信号をビデオカメラ内の表示手段に出力するショット出力手段として機能させるものである。   According to a seventh aspect of the present invention, in the video camera editing support program according to the sixth aspect, the type of the event to be photographed by the video camera is further determined by the user using the processor and the operation means in the video camera. Based on the reading means for reading the shot data previously taken by the professional photographer for the event corresponding to the selected content from the storage device in the processor and the data of the shot read by the reading means when selected. It functions as shot output means for outputting a signal for displaying a shot to display means in the video camera.

請求項1の発明によれば、リアルタイムにユーザのカメラワークを解析して、ユーザにそのカメラワークに関する注意を喚起するためのナビゲーションを行うことができる。これにより、ユーザが編集に適した動画像を多く含む撮影画像を得ることができる。   According to the first aspect of the present invention, it is possible to analyze the user's camera work in real time and perform navigation for alerting the user about the camera work. As a result, it is possible to obtain a captured image including many moving images suitable for editing by the user.

請求項2の発明によれば、カメラワーク解析手段による解析結果として得られたカメラワークについて、少なくとも、激しい手ぶれに相当する部分が存在する場合、パン処理時におけるカメラの回転操作の速度が速すぎる場合、ズーム処理の操作が速すぎる場合、パン画像やズーム画像の前後に1秒間以上のフィックス画像が撮影されていない場合、パン画像やズーム画像の前後以外の位置に存在するフィックス画像が3秒間以上撮影されていない場合、及び明るすぎるショットや暗すぎるショットが存在する場合に、このカメラワークに対して、注意を喚起するためのナビゲーションが行われる。これにより、上記請求項1に記載の効果を的確に得ることができる。   According to the invention of claim 2, when the camera work obtained as an analysis result by the camera work analysis means includes at least a portion corresponding to severe camera shake, the speed of the camera rotation operation during pan processing is too high. If the zoom processing operation is too fast, if a fixed image of 1 second or longer is not photographed before or after the pan image or zoom image, a fixed image existing at a position other than the front or back of the pan image or zoom image is 3 seconds. When no shot is taken, and when there are shots that are too bright or too dark, navigation for calling attention to this camera work is performed. Thereby, the effect described in claim 1 can be obtained accurately.

請求項3の発明によれば、撮影された動画像について、時間正常率とパン正常率とズーム正常率とぶれ正常率とに基づくスコアと、これらの正常率の中で所定の閾値以下である正常率についての注意を促すためのガイド情報とを出力することができる。これにより、ユーザにより撮影された動画像におけるカメラワークを客観的に評価、採点することができると共に、このカメラワークについての改善点を提示することができる。   According to the third aspect of the present invention, a score based on the time normal rate, the pan normal rate, the zoom normal rate, and the blur normal rate for the captured moving image, and the normal rate is equal to or less than a predetermined threshold. It is possible to output guide information for calling attention to the normal rate. Thereby, while being able to objectively evaluate and score the camerawork in the moving image image | photographed by the user, the improvement point about this camerawork can be shown.

請求項4の発明によれば、ユーザによる選択内容に対応した行事についてプロのカメラマンが予め撮影したショットのデータを、ビデオカメラ内の表示手段に表示することができる。これにより、プロのカメラマンと同様なカメラワークやカメラアングルで撮影することができるので、見栄えのする動画像を得ることができる。   According to the fourth aspect of the present invention, it is possible to display shot data previously captured by a professional photographer for an event corresponding to the content selected by the user on the display means in the video camera. Thereby, since it can image | photograph with the camera work and camera angle similar to a professional cameraman, the moving image which looks good can be obtained.

請求項5の発明によれば、リアルタイムにユーザのカメラワークを解析して、ユーザにそのカメラワークに関する注意を喚起するためのナビゲーションを行うことができる。これにより、ユーザが編集に適した動画像を多く含む撮影画像を得ることができる。また、フィックス画像のショットの撮影時間が3秒間以上である区間か、正常なパン処理時の動画像のショットの前後のショットがいずれも撮影時間1秒以上のフィックス画像のショットである区間か、正常なズーム処理時の動画像のショットの前後のショットがいずれも撮影時間1秒以上のフィックス画像のショットである区間を、ビデオカメラで撮影された動画像の編集時に利用することが望ましい推奨区間として検出することができるので、ユーザが、撮影した動画像中のどの部分が編集に適しているかを、客観的な基準に基づいて瞬時に把握することができる。   According to invention of Claim 5, a user's camera work can be analyzed in real time and the navigation for calling the user the attention regarding the camera work can be performed. As a result, it is possible to obtain a captured image including many moving images suitable for editing by the user. In addition, whether the shot time of the fixed image shot is 3 seconds or more, or the shots before and after the moving image shot at the time of normal pan processing are both fixed image shots with a shooting time of 1 second or more, Recommended section that should be used when editing a video shot with a video camera, where the shots before and after the shot of the video during normal zoom processing are both fixed image shots with a shooting time of 1 second or longer Therefore, the user can instantly grasp which part of the captured moving image is suitable for editing based on an objective standard.

請求項6の発明によれば、上記請求項5に記載の効果に加えて、請求項3に記載の効果と同様な効果を得ることができる。   According to the invention of claim 6, in addition to the effect of claim 5, the same effect as the effect of claim 3 can be obtained.

請求項7の発明によれば、上記請求項6に記載の効果に加えて、請求項4に記載の効果と同様な効果を得ることができる。   According to the invention of claim 7, in addition to the effect of claim 6, the same effect as the effect of claim 4 can be obtained.

本発明を実施するための最良の形態について図面を参照して説明する。本発明は、ユーザによるビデオカメラの撮影を支援するための撮影支援プログラム、及びビデオカメラで撮影された動画像の編集を支援するための編集支援プログラムに関するものであり、編集に適した動画像を多く含む撮影画像を得ることができ、しかも、撮影した動画像中のどの部分が編集に適しているかを瞬時に把握することができるようにしたものである。本実施形態では、本発明による撮影支援プログラム及び編集支援プログラムをディジタルビデオカメラのROM内に格納した場合の例について説明する。なお、以下に記載した実施形態は、本発明を網羅するものではなく、本発明は、下記の形態だけに限定されない。   The best mode for carrying out the present invention will be described with reference to the drawings. The present invention relates to a shooting support program for supporting shooting of a video camera by a user, and an editing support program for supporting editing of a moving image shot by a video camera, and a moving image suitable for editing is provided. A large number of captured images can be obtained, and moreover, it is possible to instantly grasp which part of a captured moving image is suitable for editing. In the present embodiment, an example in which the photographing support program and the editing support program according to the present invention are stored in the ROM of a digital video camera will be described. In addition, embodiment described below does not cover this invention, and this invention is not limited only to the following form.

図1は、本実施形態による撮影支援プログラム及び編集支援プログラム(以下、これらをまとめて支援プログラムと呼ぶ)を内蔵したディジタルビデオカメラの構成を示す。このディジタルビデオカメラ1は、支援プログラム2を記憶したROM3と、このROM3から各種のプログラムを読み込んで、カメラ全体の制御を行うマイクロプロセッサ4(プロセッサ)と、撮像素子であるCCD(Charge Coupled Device)5(撮影手段)と、CCD5から出力されたアナログ信号の形式の動画像データをデジタル信号の形式に変換するA/D変換部6と、A/D変換部6から出力されたデジタル信号(R,G,Bの撮像信号)の形式の動画像データを一時的に蓄積する画像メモリ7と、画像メモリ7から読み込んだR,G,Bの撮像信号の形式の動画像データに文字等のデータを重合させるためのOSD合成部8と、OSD合成部8を経由したR,G,Bの撮像信号をNTSCコンポジット信号に変換するNTSCエンコーダ9と、NTSCエンコーダ9からの出力信号をアナログ信号に変換して、テレビジョン等の外部出力機器に出力するD/A変換部10とを有している。また、ディジタルビデオカメラ1は、OSD合成部8から出力されたR,G,Bの撮像信号の形式の動画像データに対するMPEG方式の圧縮処理と、カードメモリ13から読み出したMPEG圧縮された動画像データに対する伸長処理とを行うMPEG圧縮伸長部12、及びMPEG圧縮伸長部12でMPEG圧縮された動画像データを記憶するカードメモリ13を有している。さらに、ディジタルビデオカメラ1は、OSD合成部8を経由したR,G,Bの撮像信号に基づく画像を表示するための液晶ファインダ11(表示手段)と、各種の操作キー等よりなる操作部14とを有している。上記の液晶ファインダ11は、ROM内に格納された、各種の行事についてプロのカメラマンが予め撮影したショットの動画像を表示する際にも使用される。なお、請求項におけるカメラワーク解析手段、判定手段、出力手段、ショット分類手段、インデキシング手段、正常率算出手段、スコア算出手段、正常率判定手段、読取手段、ショット出力手段、利用推奨区間検出手段は、上記のマイクロプロセッサ4及び支援プログラム2により実現される。   FIG. 1 shows a configuration of a digital video camera incorporating a photographing support program and an editing support program (hereinafter collectively referred to as a support program) according to the present embodiment. The digital video camera 1 includes a ROM 3 that stores a support program 2, a microprocessor 4 (processor) that reads various programs from the ROM 3 and controls the entire camera, and a CCD (Charge Coupled Device) that is an image sensor. 5 (imaging means), an A / D converter 6 for converting moving image data in the form of an analog signal output from the CCD 5 into a digital signal format, and a digital signal (R) output from the A / D converter 6 , G, B imaging signals) in the form of moving image data temporarily stored therein, and R, G, B imaging signal format moving image data read from the image memory 7 in the form of characters and other data And an NTSC encoder for converting R, G, B imaging signals via the OSD synthesis unit 8 into NTSC composite signals. 9 converts the output signal from the NTSC encoder 9 into an analog signal, and a D / A converter 10 to be outputted to an external output device such as a television. The digital video camera 1 also compresses the moving image data in the format of the R, G, and B image signals output from the OSD combining unit 8 and the MPEG compressed moving image read from the card memory 13. An MPEG compression / decompression unit 12 that performs data decompression processing, and a card memory 13 that stores moving image data MPEG-compressed by the MPEG compression / decompression unit 12 are provided. Further, the digital video camera 1 includes a liquid crystal finder 11 (display means) for displaying an image based on the R, G, and B imaging signals via the OSD synthesis unit 8, and an operation unit 14 including various operation keys. And have. The above-mentioned liquid crystal finder 11 is also used when displaying a moving image of shots previously taken by a professional photographer for various events stored in the ROM. The camerawork analysis means, determination means, output means, shot classification means, indexing means, normal rate calculation means, score calculation means, normal rate determination means, reading means, shot output means, and recommended use section detection means in the claims are: This is realized by the microprocessor 4 and the support program 2 described above.

次に、図2のフローチャートを参照して、上記の支援プログラム2に基づくマイクロプロセッサ4の処理について説明する。ユーザにより撮影(S1)が開始されると、CCD5から出力されたアナログ信号の形式の動画像データが、A/D変換部6によりデジタル信号の形式に変換されて、このデジタル信号(R,G,Bの撮像信号)の形式の動画像データが画像メモリ7に一時的に蓄積される。マイクロプロセッサ4は、支援プログラム2の命令に基づいて、画像メモリ7に格納されたR,G,Bの撮像信号の形式の動画像データを読み込んで、この動画像を構成する各フレーム画像中の各画素の輝度を水平方向及び垂直方向に投影して、各フレーム画像間における水平方向及び垂直方向の輝度投影量を比較することにより、動画像を撮影した際のカメラワークをリアルタイムに解析する(S2)。   Next, processing of the microprocessor 4 based on the support program 2 will be described with reference to the flowchart of FIG. When shooting (S1) is started by the user, the moving image data in the analog signal format output from the CCD 5 is converted into a digital signal format by the A / D converter 6, and the digital signals (R, G) are converted. , B imaging signals) is temporarily stored in the image memory 7. The microprocessor 4 reads moving image data in the form of R, G, B imaging signals stored in the image memory 7 on the basis of the instruction of the support program 2, and in each frame image constituting the moving image. By projecting the luminance of each pixel in the horizontal direction and the vertical direction and comparing the luminance projection amounts in the horizontal direction and the vertical direction between the respective frame images, the camera work at the time of shooting the moving image is analyzed in real time ( S2).

次に、図3を参照して、上記S2に示されるカメラワーク解析処理について簡単に説明する。このカメラワーク解析処理は、投影法を用いたものであり、上記のように、撮影した動画像を構成する各フレーム画像中の各画素の輝度を水平方向及び垂直方向に投影して、各フレーム画像間における水平方向及び垂直方向の輝度投影量を比較することにより、動画像を撮影した際のカメラワークを解析するものである。   Next, the camera work analysis process shown in S2 will be briefly described with reference to FIG. This camera work analysis process uses a projection method, and as described above, the luminance of each pixel in each frame image constituting the captured moving image is projected in the horizontal direction and the vertical direction, and each frame is projected. By comparing the luminance projection amounts in the horizontal direction and the vertical direction between the images, the camera work when the moving image is photographed is analyzed.

一般に、ディジタル画像は、画素と呼ばれる正方形の集合によって表され、画像の縦や横の長さは何百画素というように表される。ディジタル画像では、色は、R,G,Bの3色の光の合成で表現されており、個々の画素は、この色情報をR,G,Bに分けてそれぞれ0〜255の256段階で保持している。   In general, a digital image is represented by a set of squares called pixels, and the vertical and horizontal lengths of the image are expressed as hundreds of pixels. In a digital image, colors are expressed by combining light of three colors R, G, and B, and each pixel is divided into R, G, and B in 256 steps from 0 to 255. keeping.

また、輝度は、単位面積あたりの明るさを表す尺度であり、白黒画像の明るさに等しい値となり、白いほど輝度が高くなる。輝度は、カラー画像を構成するR,G,Bの撮像信号を元に、
輝度 = 赤×0.30 + 緑×0.59 + 青×0.11
の式で求めることができる。
In addition, the luminance is a scale representing the brightness per unit area, and has a value equal to the brightness of a black and white image. Luminance is based on R, G, B imaging signals that make up a color image.
Luminance = Red x 0.30 + Green x 0.59 + Blue x 0.11
It can be calculated by the following formula.

上記の式を用いて各画素の輝度を求め、すべての行と列に対して、その一列または一行の輝度の平均を求めることで、1枚の画像の特徴を2つのグラフに落とし込む(1つの縦×横×輝度の3次元情報から、縦×輝度、横×輝度の2つの2次元情報を得る)。これが輝度投影量で、白っぽい画素が多く存在する行や列は投影量が高くなり、黒っぽい画素が多く存在する行や列は投影量が低くなる。たとえば、図3に示されるフレーム21の場合、行22には人23の存在が、行24には人23の存在と車25の存在が投影量に影響を与えることになり、行22と行24の間には車25の有無による投影量の違いが現れる。実際の作業では、画像のすべての行に対してこの作業が行われるため、図3のグラフ26のような曲線的な変化になる。上記のように、撮影された動画像を構成する各フレーム画像には、明るい行や列、暗い行や列のばらつきが存在し、その特徴を横×輝度のグラフ26や、縦×輝度のグラフ(図5中のグラフP(f,i)を参照)により取り出すことができる。この特徴量をフレーム画像毎に取り出して比較することで、ユーザのカメラワークを解析することができる。 The luminance of each pixel is obtained using the above formula, and the average of the luminance of one column or one row is obtained for all rows and columns, thereby dropping the characteristics of one image into two graphs (one From the three-dimensional information of vertical x horizontal x luminance, two two-dimensional information of vertical x luminance and horizontal x luminance is obtained). This is the luminance projection amount, and the projection amount is high for rows and columns where many whitish pixels are present, and the projection amount is low for rows and columns where many blackish pixels are present. For example, in the case of the frame 21 shown in FIG. 3, the presence of the person 23 on the line 22 and the presence of the person 23 and the car 25 on the line 24 affect the projection amount. 24, a difference in projection amount due to the presence or absence of the vehicle 25 appears. In actual work, since this work is performed for all the rows of the image, the curve changes as shown by the graph 26 in FIG. As described above, there are variations in bright rows and columns, dark rows and columns in each frame image constituting the captured moving image, and the characteristics are shown in the horizontal × luminance graph 26 or the vertical × luminance graph. (See graph P Y (f, i) in FIG. 5). By extracting and comparing this feature amount for each frame image, the user's camera work can be analyzed.

上記のカメラワーク解析処理においては、縦横方向へのパン処理(ディジタルビデオカメラ1を回転させながら撮影を行う処理)による移動量の算出、ズーム処理におけるズーム量の算出、及び各フレームの明度算出が行われる。   In the camera work analysis processing described above, calculation of the movement amount by pan processing in the vertical and horizontal directions (processing for shooting while rotating the digital video camera 1), calculation of the zoom amount in the zoom processing, and calculation of the brightness of each frame are performed. Done.

上記の各処理のうち、横方向へのパン処理による移動量の算出は、以下のようにして行われる。まず、図4に示されるように、パン処理の前におけるフレーム画像21における投影量を表す縦×輝度のグラフ31と、パン処理の後におけるフレーム画像32における投影量を表す縦×輝度のグラフ33とを重ね合わせ、画像幅の±10%の範囲で左右にずらしながら、最も特徴が似ている位置を探す。このパン処理の前のグラフ31とパン処理の後のグラフ33との重ね合わせには、パン処理の前のグラフ31の中央部34(フレーム画像からとり得る最大の移動量分だけそれぞれの両端から除いた中央の部分)と、パン処理の後のグラフ33における、中央部34と同じ大きさのエリア34’が用いられる。そして、画像幅の±10%の範囲で左右にずらしながら、最も特徴が似ている位置を探す。実際には、画像幅の±10%の範囲で1ピクセルずつ左右にずらしながら、その輝度投影量の差を縦一列ごとに計算して合計し、その合計値が最小となるところをパン処理による移動量と推定する。図4の場合、左にずらした位置Aにおいて、パン処理の前のグラフ31の中央部34とパン処理の後のグラフ33におけるエリア34’との投影量の差が最小となるので、右にパンした(パン処理により右方向に移動した)と推定される。実際には、図に示される位置A,B,Cだけではなく、画像幅の±10%の範囲で、およそ60〜120通りの位置において、投影量の差が最小となるエリア34’の検出処理が行われる。縦方向へのパン処理による移動量も同様の作業で推定される。また、ズーム処理におけるズーム量の推定処理は、輝度投影量の長さを拡大または縮小し、上記のパン処理による移動量の算出の場合と同様に、輝度の差の合計が最小値となるところをズーム量と推定する。これらの投影法を用いたカメラワーク解析法は、処理速度に優れている。従って、この投影法を用いたカメラワーク解析法を用いて、撮影中にリアルタイムでカメラワークの解析を行うことが可能である。   Of the above-described processes, the movement amount is calculated by panning in the horizontal direction as follows. First, as shown in FIG. 4, a vertical x luminance graph 31 representing the projection amount in the frame image 21 before panning processing and a vertical x luminance graph 33 representing the projection amount in the frame image 32 after panning processing. Are searched and a position having the most similar feature is searched for while shifting left and right within a range of ± 10% of the image width. In order to superimpose the graph 31 before pan processing and the graph 33 after pan processing, the central portion 34 of the graph 31 before pan processing (from the respective ends by the maximum amount of movement that can be taken from the frame image). The area 34 ′ having the same size as the central portion 34 in the graph 33 after the pan processing and the central portion 34) after panning is used. Then, a position with the most similar feature is searched while shifting left and right within a range of ± 10% of the image width. Actually, the luminance projection amount difference is calculated for each vertical column while being shifted to the left and right by one pixel within the range of ± 10% of the image width and summed up, and the place where the total value becomes the minimum is obtained by pan processing. Estimated travel. In the case of FIG. 4, at the position A shifted to the left, the difference in projection amount between the central portion 34 of the graph 31 before panning and the area 34 ′ in the graph 33 after panning is minimized, so It is estimated that panning (moved to the right by panning) is performed. Actually, not only the positions A, B, and C shown in the figure, but also the detection of the area 34 ′ where the difference in projection amount is the minimum at approximately 60 to 120 positions within the range of ± 10% of the image width. Processing is performed. The amount of movement due to the panning process in the vertical direction is estimated by the same operation. In addition, the zoom amount estimation processing in the zoom processing enlarges or reduces the length of the luminance projection amount, and, similarly to the calculation of the movement amount by the pan processing described above, the sum of the luminance differences is the minimum value. Is estimated as the zoom amount. Camera work analysis methods using these projection methods are excellent in processing speed. Therefore, it is possible to analyze the camera work in real time during shooting using the camera work analysis method using this projection method.

次に、上述した投影法を用いたカメラワーク解析処理の詳細について、数式を用いて説明する。まず、上記の輝度投影量について、数式を用いて説明する。図5は、投影分布作成の概念を示す。図において、フレームfの画像について、水平方向に投影した分布をP(f,j)、垂直方向に投影した分布をP(f,i)で表している。iは、1からフレーム画像の幅wまでの範囲をとり、jは,同様に1から画像の高さhまでの範囲をとる。図中のフレームfとP(f,j)とは、それぞれ図3中のフレーム21とグラフ26中の投影分布とに相当する。画像フレームf中の座標(i,j)の輝度値をGray(f,i,j)で表したとき、輝度投影量P(f,j),P(f,i)の各値は、下記の式(1)、(2)のように表すことができる。

Figure 2005348328
Next, details of the camera work analysis process using the above-described projection method will be described using mathematical expressions. First, the luminance projection amount will be described using mathematical expressions. FIG. 5 shows the concept of creating a projection distribution. In the figure, for the image of the frame f, the distribution projected in the horizontal direction is represented by P X (f, j), and the distribution projected in the vertical direction is represented by P Y (f, i). i takes a range from 1 to the width w of the frame image, and j similarly takes a range from 1 to the height h of the image. Frame f and P X (f, j) in the figure correspond to the frame 21 in FIG. 3 and the projection distribution in the graph 26, respectively. When the luminance value of the coordinates (i, j) in the image frame f is expressed by Gray (f, i, j), each value of the luminance projection amounts P X (f, j), P Y (f, i) is These can be expressed as the following formulas (1) and (2).
Figure 2005348328

次に、上記のパン処理による移動量の推定処理(パン判定処理)について、数式を用いて説明する。このパン判定処理では、2つのフレーム間の縦横方向の移動量を算出する。図6は、移動量算出の概要を示す。図中のフレームf、フレーム(f+k)、P(f,i)、P(f+k,i)は、それぞれ図4中のフレーム21、フレーム32、グラフ31中の投影分布、グラフ33中の投影分布に相当する。時間的に近接しているフレームfとフレーム(f+k)とからそれぞれ求めた投影分布、P(f,i)とP(f+k,i)とを比較することにより、フレームf〜フレーム(f+k)間の横方向の移動量Panlrを計算する。また、P(f,j)とP(f+k,j)とを比較することにより、縦方向の移動量Panudを計算する。横方向の比較には、フレームfからとり得る最大の移動量dlr分だけ両端からそれぞれ除いた中央部のみを用い、フレーム(f+k)の投影分布を±dlr画素の範囲で横方向にシフトさせながら比較を行う。同様に、縦方向の比較には、フレームfからとり得る最大の移動量dud分だけ上下からそれぞれ除いた中央部のみを用い、フレーム(f+k)の投影分布を±dud画素の範囲で縦方向にシフトさせながら比較を行う。最も相関の高いときのシフト量が縦横方向の移動量、Panud,Panlrとなる。ここで、2つのフレーム間の縦横方向の投影距離は、それぞれ下記の式(3)、(4)として計算され、横方向の移動量Panlrと縦方向の移動量Panudは、それぞれ下記の式(5)、(6)として定義することができる。なお、δlrには、(δlr=−dlr,・・,0,・・dlr)を、δudには、(δud=−dud,・・,0,・・dud)をそれぞれ用いる。最小距離が複数現れた場合は、対応するδlr,δudのうち、前フレームと同符号のδlr,δudを優先とし,また絶対値が最も小さいδlr,δudを選択する。これは、小さい動きを優先することに相当する。

Figure 2005348328
Next, the movement amount estimation process (pan determination process) by the pan process will be described using mathematical expressions. In this pan determination process, the amount of movement in the vertical and horizontal directions between two frames is calculated. FIG. 6 shows an outline of movement amount calculation. The frame f, the frame (f + k), P Y (f, i), and P Y (f + k, i) in the figure are the projection distribution in the frame 21, the frame 32, and the graph 31 in FIG. Corresponds to the projection distribution. By comparing the projection distributions P Y (f, i) and P Y (f + k, i) obtained from the temporally adjacent frames f and (f + k), respectively, the frame f to the frame (f + k) ) To calculate the horizontal movement amount Pan lr . Further, the vertical movement amount Pan ud is calculated by comparing P X (f, j) and P X (f + k, j). For the comparison in the horizontal direction, only the central part excluding from the both ends by the maximum amount of movement d lr that can be taken from the frame f is used, and the projection distribution of the frame (f + k) is shifted in the horizontal direction within the range of ± d lr pixels. Make comparisons. Similarly, for the comparison in the vertical direction, only the central portion excluding from the top and bottom by the maximum amount of movement d ud that can be taken from the frame f is used, and the projection distribution of the frame (f + k) is vertical within the range of ± d ud pixels. Make comparisons while shifting in the direction. The amount of shift when the correlation is the highest is the amount of movement in the vertical and horizontal directions, Pan ud and Pan lr . Here, the vertical and horizontal projection distances between the two frames are calculated as the following equations (3) and (4), respectively. The horizontal movement amount Pan lr and the vertical movement amount Pan ud are respectively It can define as Formula (5) and (6). Note that δ lr, (δ lr = -d lr, ··, 0, ·· d lr) and the [delta] ud is, (δ ud = -d ud, ··, 0, ·· d ud) Are used respectively. If the minimum distance is more appeared, corresponding [delta] lr, among [delta] ud, prior frame same sign of [delta] lr, the [delta] ud as priority, also the smallest [delta] lr absolute value, to select the [delta] ud. This is equivalent to prioritizing small movements.
Figure 2005348328

次に、上記のズーム処理におけるズーム量の推定処理(ズーム判定処理)について、数式を用いて説明する。図7は、ズーム量算出の概要を示す。図中のフレームfは、図3中のフレーム21に相当する。まず、式(2)で求めたフレームfの水平方向の投影分布Pについて、とり得るズーム量を仮定し、その仮定ズーム量の分だけ拡大、縮小された投影分布図を作成する。拡大・縮小された投影量を、下記の式(7)に示す。

Figure 2005348328
Next, zoom amount estimation processing (zoom determination processing) in the above zoom processing will be described using mathematical expressions. FIG. 7 shows an overview of zoom amount calculation. A frame f in the figure corresponds to the frame 21 in FIG. First, the horizontal projection distribution P X frame f determined in Equation (2), assuming the amount of zoom that can be taken, larger partial only that assumption zoom amount, creating a reduced projection distribution diagram. The enlarged / reduced projection amount is shown in the following formula (7).
Figure 2005348328

とり得る最大のズーム量をdとすると、上記の式(7)中のδは、(−d,・・,0,・・d)画素の範囲で、1画素単位で変化するので、2×d+1個の投影分布Pを作成する。dの値は、対応すべきズームの最大速度によって決定される。 If the maximum zoom amount that can be taken is d z , δ z in equation (7) above changes in units of one pixel within the range of (−d z ,..., 0,... D z ) pixels. Therefore, 2 × d z +1 projection distributions P z are created. The value of d z is determined by the maximum zoom speed to be accommodated.

このようにして求めた投影分布のそれぞれについて、近接するフレーム画像で求めた投影分布P(f+k,j)と比較することで、ズーム量を計算する。比較には、とり得る最大のズーム量d分だけ上下からそれぞれ除いた中央部のみを用い、最も相違度の低い投影分布を作成したときのズーム量を求める。このズーム量を求める式が下記の式(8)である。

Figure 2005348328
The zoom amount is calculated by comparing each of the thus obtained projection distributions with the projection distribution P X (f + k, j) obtained from the adjacent frame images. The comparison, only the maximum amount of zoom d z component that can take use of only a central portion except each from above and below, obtains the zoom amount when creating the most dissimilarity lower projection distribution. The following formula (8) is a formula for obtaining this zoom amount.
Figure 2005348328

上記と同様に、垂直方向のズーム率も得ることができるが、横より縦の画素数が少ない。このため、ズームによる拡大縮小の変化の特徴が投影量に出にくいことが予想され、検出精度が悪くなる可能性がある。また、ズーム量は水平方向からのみで十分算出されることを考えると、余計な計算は処理速度を落とすので、この実施形態では、垂直方向のズーム率を求めない。   Similar to the above, the zoom ratio in the vertical direction can be obtained, but the number of vertical pixels is smaller than the horizontal. For this reason, it is expected that the feature of the enlargement / reduction change due to the zoom is difficult to appear in the projection amount, and the detection accuracy may be deteriorated. In addition, considering that the zoom amount is sufficiently calculated only from the horizontal direction, the extra calculation slows down the processing speed, and in this embodiment, the zoom ratio in the vertical direction is not obtained.

ズームの倍率は、下記の式(9)で計算できる。

Figure 2005348328
The zoom magnification can be calculated by the following equation (9).
Figure 2005348328

しかし、拡大は1より大きい実数、縮小は0より大きく1より小さい実数として計算されるため、正負の値を持つパン量と同列に比較することができない。そこで、パン量と同列に扱うため、下記の式(10)を用いて変換する。式(10)では、パン量とのスケールの違いを合わせるため、h=600を用いている。

Figure 2005348328
However, since enlargement is calculated as a real number greater than 1, and reduction is calculated as a real number greater than 0 and less than 1, it cannot be compared with the pan amount having a positive or negative value. Therefore, in order to handle it in the same row as the pan amount, conversion is performed using the following equation (10). In equation (10), h d = 600 is used to match the difference in scale with the amount of bread.
Figure 2005348328

次に、上記の各フレームの明度算出について、数式を用いて説明する。各フレームの持つ明るさは、上記の(2)式に示される輝度投影量P(f,i)のi=1からi=wまでの総和で表すことができる。フレームfの明るさを、下記の式(11)に示す。

Figure 2005348328
Next, the brightness calculation for each frame will be described using mathematical expressions. The brightness of each frame can be expressed as the sum of luminance projection amounts P Y (f, i) shown in the above equation (2) from i = 1 to i = w. The brightness of the frame f is shown in the following formula (11).
Figure 2005348328

次に、図2のフローチャートにおける処理の説明に戻る。マイクロプロセッサ4は、支援プログラム2の命令に基づいて、S2に示されるカメラワーク解析処理で得られた解析結果より、ユーザのカメラワークに対して、注意を喚起するためのナビゲーションが必要か否かを判定する(S3)。このナビゲーションが必要と判定される場合は、例えば、カメラワーク解析処理の結果として得られたカメラワークに、激しい手ぶれに相当する部分が存在する場合、パン処理(カメラを回転させながら撮影を行う処理)時におけるカメラの回転操作の速度が速すぎる場合、ズーム処理の操作が速すぎる場合、パン処理時の動画像(パン画像)やズーム処理時の動画像(ズーム画像)の前後に1秒間以上のフィックス画像(固定された視点で撮影された動画像)が撮影されていない場合、パン画像やズーム画像の前後以外の位置に存在するフィックス画像が3秒間以上撮影されていない場合、及び明るすぎるショットや暗すぎるショットが存在する場合である。そして、マイクロプロセッサ4は、ナビゲーションが必要であると判定した場合は(S3でYES)、必要であると判定した理由に応じて、「映像のぶれが極端に激しい」、「カメラワークが速すぎる」、「十分な時間のフィックス画像が撮影されなかった」等のナビゲーション情報を液晶ファインダ11上に表示する(S4)。   Next, the description returns to the processing in the flowchart of FIG. Whether the microprocessor 4 needs navigation for alerting the user's camera work based on the analysis result obtained in the camera work analysis process shown in S2 based on the instruction of the support program 2 Is determined (S3). If it is determined that the navigation is necessary, for example, if the camera work obtained as a result of the camera work analysis process includes a portion corresponding to intense camera shake, pan processing (process that performs shooting while rotating the camera) ) If the camera rotation speed is too fast, or if the zoom process is too fast, the moving image (pan image) during pan processing or the moving image (zoom image) during zoom processing is 1 second or longer. Fixed images (moving images taken from a fixed viewpoint) are not taken, fixed images existing at positions other than before and after the pan image or zoom image have not been taken for more than 3 seconds, and too bright This is the case when there are shots or shots that are too dark. If the microprocessor 4 determines that navigation is necessary (YES in S3), depending on the reason for determining that navigation is necessary, “the blurring of the video is extremely severe”, “the camera work is too fast” , Navigation information such as “a fixed image was not taken for a sufficient time” is displayed on the liquid crystal finder 11 (S4).

マイクロプロセッサ4は、ユーザによる撮影が終了するまで(S5でNO)、上記のS1乃至S4の処理を繰り返す。そして、上記S2に示されるカメラワーク解析の結果に基づき、カメラワークの開始点や終了点を境界として、S1の処理で撮影された動画像をショットに分類する。そして、分類後の各ショットに対して、激しい映像のぶれがないフィックス画像のショット、正常な(速すぎない)パン処理時の動画像のショット、正常な(速すぎない)ズーム処理時の動画像のショット、速すぎるパン処理時の動画像のショット、速すぎるズーム処理時の動画像のショット、及び激しい映像のぶれにより利用できないフィックス画像のショットといったラベル付け(インデキシング)を行う(S6)。   The microprocessor 4 repeats the processes of S1 to S4 described above until shooting by the user is completed (NO in S5). Then, based on the result of the camera work analysis shown in S2, the moving images shot in the process of S1 are classified into shots with the start point and end point of the camera work as boundaries. Then, for each shot after classification, a shot of a fixed image that does not cause intense image blur, a shot of a moving image during normal (not too fast) pan processing, and a video during normal (not too fast) zoom processing Labeling (indexing) includes shots of images, shots of moving images during pan processing that is too fast, shots of moving images during zoom processing that is too fast, and shots of fixed images that cannot be used due to severe blurring of images (S6).

上記の各ショットに対するラベル付けが終了すると、マイクロプロセッサ4は、各ショットへのラベル付け結果のデータ(インデックス情報)に基づいて、S1で撮影された動画像の編集時に利用することが望ましい区間である推奨区間を検出する。具体的には、マイクロプロセッサ4は、上記のインデックス情報を読み込んで、このインデックス情報の中に、正常な(激しい映像のぶれがない)フィックス画像のショットの区間(以下、Fix区間という)が存在するか否かを、インデックス情報の先頭から順番に検索する。そして、Fix区間を検出すると(S7でYES)、検出されたFix区間の次のショットの区間が、正常な(激しい映像のぶれがない)フィックス画像のショットの区間(Fix区間)、正常な(速すぎない)パン処理時の動画像のショットの区間(Pan区間)、又は正常な(速すぎない)ズーム処理時の動画像のショットの区間(Zoom区間))であるか否かを判定する(S8)。この結果、正常である場合には(S8でYES)、マイクロプロセッサ4は、さらに次のショットの区間がFix区間であるか否かを判定する(S9)。そして、S9の判定の結果、Fix区間である場合には(S9でYES)、上記のS7で検出されたFix区間、及びS8、S9で判定対象となった区間を、推奨区間として検出する(S10)。具体的には、連続する3つのショットの区間が、Fix区間−Pan区間−Fix区間、Fix区間−Zoom区間−Fix区間、又はFix区間−Fix区間−Fix区間となったときに、これらの連続する3つのショットの区間を推奨区間として検出する。   When the labeling for each shot is completed, the microprocessor 4 is a section that is preferably used when editing the moving image captured in S1, based on the data (index information) of the labeling result for each shot. A certain recommended section is detected. Specifically, the microprocessor 4 reads the above index information, and there is a normal shot section (hereinafter referred to as a “Fix section”) of the fixed image in the index information. Whether or not to search is searched in order from the top of the index information. Then, when a Fix section is detected (YES in S7), the next shot section of the detected Fix section is a normal (no intense video blurring) shot section of the fixed image (Fix section) and normal ( It is determined whether or not it is a moving image shot section (Pan section) during pan processing or a normal (not too fast) moving image shot section (Zoom section) during pan processing. (S8). If the result is normal (YES in S8), the microprocessor 4 further determines whether or not the next shot section is a Fix section (S9). If the result of the determination in S9 is a Fix section (YES in S9), the Fix section detected in S7 and the section targeted for determination in S8 and S9 are detected as recommended sections ( S10). Specifically, when three consecutive shot sections become a Fix section-Pan section-Fix section, Fix section-Zoom section-Fix section, or Fix section-Fix section-Fix section, The three shot sections to be detected are detected as recommended sections.

上記のような推奨区間の決定方法を採用した理由は、以下の通りである。すなわち、フィックス画像のショットは、曖昧さを残さず見やすくわかりやすい映像、パン処理時やズーム処理時のショットは、曖昧さを多く残す映像となるため、パン処理やズーム処理を行う際には、この曖昧さを軽減するために、Pan区間やZoom区間の前後にFix区間があることが望ましいとされているからである。   The reason for adopting the recommended section determination method as described above is as follows. In other words, fixed image shots are easy to see and understand without leaving ambiguity, and shots during pan processing and zoom processing leave a lot of ambiguity, so when performing pan processing and zoom processing, This is because, in order to reduce ambiguity, it is desirable that there is a Fix section before and after the Pan section and the Zoom section.

なお、上記のように、単純に、連続する3つのショットの区間が、上記のいずれかの組み合わせになるか否かに基づいて、推奨区間を検出するのではなく、各ショットの区間の時間的な長さに注目して、推奨区間を検出することが望ましい。例えば、連続する3つの区間の組み合わせが、Fix区間−Fix区間−Fix区間であるときには、これらの区間の撮影時間が合計で3秒間以上であるときに、この区間を推奨区間とすることが望ましい。また、連続する3つの区間の組み合わせが、Fix区間−Pan区間−Fix区間、又はFix区間−Zoom区間−Fix区間であるときには、Pan区間又はZoom区間の前後のFix区間の撮影時間が、いずれも1秒以上であることが望ましい。   Note that, as described above, based on whether or not three consecutive shot sections are in any combination of the above, a recommended section is not detected, but the time interval of each shot section is determined. It is desirable to detect the recommended section by paying attention to the length. For example, when the combination of three consecutive sections is a Fix section-Fix section-Fix section, it is desirable to set this section as a recommended section when the total shooting time of these sections is 3 seconds or more. . In addition, when the combination of three consecutive sections is Fix section-Pan section-Fix section, or Fix section-Zoom section-Fix section, the shooting time of the Fix section before and after the Pan section or Zoom section is all It is desirable that it is 1 second or more.

マイクロプロセッサ4は、支援プログラム2の命令に基づいて、上記S7乃至S10の処理で検出された推奨区間の開始点と終了点に相当するフレーム画像及び撮影時間を、液晶ファインダ11に出力表示する(S11)。また、本実施形態では、これらの推奨区間のショットを液晶ファインダ11で再生したり、上記の推奨区間検出処理の結果を液晶ファインダ11上にグラフで視覚的に表示することも可能である。   Based on the instruction of the support program 2, the microprocessor 4 outputs and displays on the liquid crystal finder 11 frame images and shooting times corresponding to the start and end points of the recommended section detected in the processes of S7 to S10. S11). In the present embodiment, it is also possible to reproduce these recommended section shots on the liquid crystal finder 11 and visually display the result of the recommended section detection processing on the liquid crystal finder 11 as a graph.

マイクロプロセッサ4は、上記の推奨区間検出処理と共に、下記のスコアリング処理も行う。すなわち、マイクロプロセッサ4は、支援プログラム2の命令に基づいて、上記S6のインデキシング処理の結果として得られたインデックス情報を読み込んで、このインデックス情報中におけるFix区間の時間的な十分性(正常性)を判定する(S12)。ただし、フィックス画像に必要な時間の長さは、その映像の距離感で異なるので、各ショットの距離感を考慮した上で、Fix区間の時間的な十分性を判定する。   The microprocessor 4 performs the following scoring process together with the recommended section detection process. That is, the microprocessor 4 reads the index information obtained as a result of the indexing process of S6 based on the instruction of the support program 2, and the temporal sufficiency (normality) of the Fix section in the index information Is determined (S12). However, since the length of time required for the fixed image varies depending on the sense of distance of the video, the temporal sufficiency of the Fix section is determined in consideration of the sense of distance of each shot.

上記の点について詳細に説明する。映像文法において、映像の距離感は、ルーズショット(LS)、ミディアムショット(MS)、タイトショット(TS)の3種類に大別される。これらは相対的なショットの概念であり、あるショットより対象に近寄ったショットをタイトショット、あるショットより対象から離れたショットをルーズショット、その中間をミディアムショットという。一般に、より遠くから撮影した画像は、近くから撮影した画像に比べて、一画面内により多くの情報を持つ。従って、人がこれを認識するためには、より多くの時間が必要となる。認識するのに必要とされる時間は経験的に定められており、映像文法では、この分類に基づき、フィックス画像に必要な時間の長さが、LSは6秒、MSは4秒、TSは2.5秒と定義されている。これらは相対的な定義づけであるため、本実施形態では、個々のFix区間に対し、ある画像が別の画像の一部として存在していないかなどを調べることで、ショットの分類を行っている。そして、この分類結果に応じて、Fix区間の時間的な十分性を判定している。   The above point will be described in detail. In video grammar, the sense of distance of video is roughly divided into three types: loose shot (LS), medium shot (MS), and tight shot (TS). These are relative shot concepts. A shot closer to the target than a certain shot is called a tight shot, a shot farther from the target than a certain shot is called a loose shot, and a middle shot is called a medium shot. In general, an image taken from a greater distance has more information in one screen than an image taken from a distance. Therefore, more time is required for a person to recognize this. The time required for recognition is determined empirically. In the video grammar, based on this classification, the length of time required for a fixed image is 6 seconds for LS, 4 seconds for MS, and TS for TS. It is defined as 2.5 seconds. Since these are relative definitions, in this embodiment, shot classification is performed by checking whether an image exists as a part of another image for each Fix section. Yes. Then, the temporal sufficiency of the Fix section is determined according to the classification result.

次に、マイクロプロセッサ4は、支援プログラム2の命令に基づいて、上記S12に示されるFix区間の時間的な正常性の判定結果を踏まえつつ、上記S6の処理で得られたインデックス情報を統計的にまとめる処理を行う(S13)。そして、この統計処理の結果に基づいて、上記S1の撮影処理で得られた動画像に関するスコアを算出する(S14)。   Next, based on the instruction of the support program 2, the microprocessor 4 statistically calculates the index information obtained in the process of S6, based on the determination result of the temporal normality of the Fix section shown in S12. (S13). Then, based on the result of the statistical process, a score relating to the moving image obtained by the photographing process of S1 is calculated (S14).

次に、上記のスコア算出処理について、具体的に説明する。例えば、上記のインデックス情報の統計的処理の結果が、以下のようであったとする。
Fix: 6 インデックス情報における正常な(激しい映像のぶれがない)Fix区間の総数が6である
Pan: 9 正常なPan区間の総数が9である
Zoom: 3 正常なZoom区間の総数が3である
Can't use: 4 映像のぶれが激しく利用に適さないと判定された区間が4である
Too fast pan: 3 速すぎると判定されたPan区間が3である
Too fast zoom: 7 速すぎると判定されたZoom区間が7である
Bright: 0 明るすぎる区間が0である
Dark: 0 暗すぎる区間が0である
Next, the score calculation process will be specifically described. For example, assume that the result of the statistical processing of the index information is as follows.
Fix: 6 The total number of Fix sections in the index information is normal (no intense video blur).
Pan: 9 The total number of normal Pan sections is 9.
Zoom: 3 The total number of normal Zoom sections is 3.
Can't use: 4 There are 4 sections that are judged to be unsuitable for use due to severe blurring of the video
Too fast pan: 3 Pan section determined to be too fast
Too fast zoom: 7 The zoom section determined to be too fast is 7
Bright: 0 The area that is too bright is 0
Dark: 0 The section that is too dark is 0

マイクロプロセッサ4は、上記のインデックス情報の統計的処理の結果に基づいて、スコア算出の元となる中間値を求める。まず、フィックス画像のショットのうち、撮影時間が十分なショットの割合(Fix区間のうち撮影時間が十分な区間の割合)である時間正常率を求める。具体的には、上記S12に示されるFix区間の時間的な正常性の判定の結果、正常であると判定されたFix区間が4つであったとすると、この時間的に正常なFix区間の数と、上記のインデックス情報における正常な(激しい映像のぶれがない)Fix区間の総数とに基づいて、時間正常率は、4/6≒66%となる。   The microprocessor 4 obtains an intermediate value from which the score is calculated based on the result of the statistical processing of the index information. First, a time normal rate that is a ratio of shots with sufficient shooting time among fixed image shots (ratio of sections with sufficient shooting time among Fix sections) is obtained. Specifically, assuming that there are four Fix sections determined to be normal as a result of the determination of temporal normality of the Fix section shown in S12, the number of Fix sections that are temporally normal Based on the above and the total number of Fix sections in the above index information (there is no intense video blur), the time normality ratio is 4 / 6≈66%.

また、パン処理時の動画像(パン画像)のショットのうち、正常なパン画像のショットの割合(正常なPan区間と速すぎると判定されたPan区間の合計のうち、正常なPan区間の割合)であるパン正常率は、Pan/(Pan + Too fast pan)=9/(9+3)=75%となる。さらにまた、ズーム処理時の動画像(ズーム画像)のショットのうち、正常なズーム画像のショットの割合(正常なZoom区間と速すぎると判定されたZoom区間のうち、正常なZoom区間の割合)であるズーム正常率は、Zoom/(Zoom + Too fast zoom)=3/(3+7)=30%となる。また、フィックス画像のショットのうち、激しい映像のぶれがないフィックス画像のショットの割合(正常な(激しい映像のぶれがない)Fix区間と映像のぶれが激しく利用に適さないと判定された区間のうち、正常なFix区間の割合)である、ぶれ正常率は、Fix/(Fix + Can't use)=6/(6+4)=60%となる。   Also, the ratio of normal pan image shots among the shots of moving images (pan images) during pan processing (the ratio of normal Pan sections out of the total of Pan sections determined to be too fast and normal Pan sections) ) Pan normal rate is Pan / (Pan + Too fast pan) = 9 / (9 + 3) = 75%. Furthermore, the ratio of normal zoom image shots among the shots of the moving image (zoom image) during zoom processing (the ratio of the normal Zoom section to the normal Zoom section and the Zoom section determined to be too fast) The normal zoom ratio is Zoom / (Zoom + Too fast zoom) = 3 / (3 + 7) = 30%. In addition, of fixed image shots, the ratio of fixed image shots without intense video blur (normal (no intense video blur) Fix segment and segments determined to be unsuitable for use due to severe video blur The blur normal rate, which is the ratio of the normal Fix interval), is Fix / (Fix + Can't use) = 6 / (6 + 4) = 60%.

マイクロプロセッサ4は、上記の時間正常率とパン正常率とズーム正常率とぶれ正常率とに基づいて、S1で撮影した動画像についてのスコアを算出する。そして、上記のスコアと共に、スコアの向上に有用な撮影ガイド情報を液晶ファインダ11に出力する(S15)。液晶ファインダ11は、これらのスコアや撮影ガイド情報を表示する。上記の撮影ガイド情報は、例えば、上記の時間正常率、パン正常率、ズーム正常率又はぶれ正常率が、所定の閾値以下であると判定された場合や、所定の閾値以上であると判定された場合に、液晶ファインダ11上に表示される。上記の例の場合、ズーム正常率が余りよくないので、液晶ファインダ11上にユーザにズームに関する注意を促すためのガイド情報が表示される。   The microprocessor 4 calculates a score for the moving image captured in S1 based on the time normal rate, the pan normal rate, the zoom normal rate, and the blur normal rate. Then, together with the above score, shooting guide information useful for improving the score is output to the liquid crystal finder 11 (S15). The liquid crystal finder 11 displays these scores and shooting guide information. The shooting guide information is determined, for example, when the time normal rate, the pan normal rate, the zoom normal rate, or the blur normal rate is determined to be equal to or lower than a predetermined threshold, or to be equal to or higher than a predetermined threshold. Is displayed on the liquid crystal finder 11. In the case of the above example, since the zoom normal rate is not so good, guide information for prompting the user to pay attention to zoom is displayed on the liquid crystal finder 11.

次に、上記の支援プログラム2により、ユーザの撮影時のスコアが、どのように向上していくかについて、実験結果に基づいて説明する。この実験では、10人の被験者に、それぞれ2分程度、2〜3回の撮影を行ってもらった。1回目は、特に撮影法に関する指示を与えずに、任意に撮影をしてもらった。2回目は、1回目のスコアやガイドに従ってスコアの向上を目指してもらった。3回目は、1,2回目の結果をふまえて、さらに向上を目指してもらった。下記の実験において、カメラワーク検出は、秒間6回、すなわち1/6秒毎に行った。この実験では、上記図2中のS15に示される撮影ガイド情報として、以下のような情報を表示した。
(ア)フィックス画像が十分な長さ(3秒間以上)で撮影されている
(イ)フィックス画像の撮影時間が短いもの(3秒未満)が多い
(ウ)適切なスピードのパン操作(過去1秒間において幅や高さの15%以上の移動がないパン操作)で撮影できているものが多い
(エ)速すぎるパン操作(過去1秒間において幅や高さの15%以上の移動があるパン操作)で撮影されたものが多い
(オ)適切なスピードのズーム操作(過去1秒間において1%以上のズームがないズーム操作)で撮影されたものが多い
(カ)速すぎるズーム操作(過去1秒間において1%以上のズームがあるズーム操作)が多い
(キ)映像のぶれが激しいもの(カメラワークの安定性が低いもの。すなわち、過去1秒間におけるPan量(移動量)の最大値と最小値の差がフレーム画像の幅や高さの15%を超えるもの。具体例については後述する。)が多い
(ク)過去のスコアとの比較(2回目以降)
Next, how the user's shooting score is improved by the support program 2 will be described based on experimental results. In this experiment, 10 subjects took 2 to 3 shots each for about 2 minutes. The first time, I was asked to shoot arbitrarily without giving instructions regarding the shooting method. The second time was aimed at improving the score according to the first time score and guide. The third time was aimed at further improvement based on the results of the first and second times. In the following experiment, camera work detection was performed 6 times per second, that is, every 1/6 second. In this experiment, the following information was displayed as the photographing guide information shown in S15 of FIG.
(A) A fixed image is taken with a sufficient length (3 seconds or longer) (b) Many fixed images have a short shooting time (less than 3 seconds) (c) Pan operation at an appropriate speed (past 1 Many shots can be taken with a pan operation that does not move more than 15% of the width or height in a second) (d) A pan operation that is too fast (a pan that moves more than 15% of the width or height in the past 1 second) (E) Zooming at an appropriate speed (zooming without zooming at 1% or more in the past 1 second) (f) Zooming too fast (past 1) (Zoom operation with a zoom of 1% or more) in a second) (ki) Image blurring severely (camera work stability is low. That is, the maximum and minimum pan amount (movement amount) in the past 1 second) The difference in values That more than 15% of the width and height of beam image. Specific examples will be described later.) Often (h) compared with the past score (second and subsequent)

なお、上記(エ)における幅の15%とは、横幅320ピクセルのフレーム画像の場合、48ピクセルに相当する。また、上記(キ)に示される「過去1秒間におけるPan量(移動量)の最大値と最小値」は、例えば、過去1秒のカメラワークにおいて、横方向のPan量(移動量)が、右に1ピクセル、右に2ピクセル、右に1ピクセル,右に6ピクセル、右に6ピクセル、右に7ピクセルと検出された場合、7ピクセルと1ピクセルになる。従って、上記(キ)に示される「過去1秒間におけるPan量(移動量)の最大値と最小値の差」は、6ピクセルとなる。この例の場合、フレーム画像の横幅が320ピクセルであるとすれば、上記の差は、フレーム画像の横幅の15%以内に収まるので、映像のぶれは問題ないと判定される。   Note that 15% of the width in (D) corresponds to 48 pixels in the case of a frame image having a width of 320 pixels. Further, the “maximum value and minimum value of the pan amount (movement amount) in the past one second” shown in (ki) above is, for example, the horizontal pan amount (movement amount) in the camera work in the past one second. If 1 pixel on the right, 2 pixels on the right, 1 pixel on the right, 6 pixels on the right, 6 pixels on the right, and 7 pixels on the right, 7 pixels and 1 pixel are detected. Therefore, the “difference between the maximum value and the minimum value of the pan amount (movement amount) in the past one second” shown in (g) is 6 pixels. In this example, if the horizontal width of the frame image is 320 pixels, the difference is within 15% of the horizontal width of the frame image.

図8及び図9に示されるように、2回目の実験において、10人中9人のスコアの向上を確認することができた。3回目の実験においても、4人全員にスコアの向上が見られ、本システムの有効性を確認することができた。   As shown in FIG. 8 and FIG. 9, in the second experiment, it was confirmed that 9 out of 10 scores were improved. In the third experiment, all four people improved their scores, confirming the effectiveness of the system.

次に、この支援プログラム2を格納したディジタルビデオカメラ1に導入されているパターンガイドについて説明する。一般に、素人が映像を撮影する際、何を撮っていいか分からない、どのように撮っていいか分からない、撮り漏らしがある等の問題がある。従来は、これらの問題を解決するためには、ユーザが、撮影の教則本を読む、上手な人から習う等の方法しかなかった。この支援プログラム2は、ディジタルビデオカメラ1の液晶ファインダ11に、どのような映像を撮影すればよいかを表示することができるようにして、上記の問題を解消した。   Next, the pattern guide installed in the digital video camera 1 storing the support program 2 will be described. In general, when an image is taken by an amateur, there are problems such as not knowing what to take, not knowing how to take, and omission of shooting. Conventionally, in order to solve these problems, there are only methods in which a user reads a textbook for shooting and learns from a good person. The support program 2 can display what kind of video should be taken on the liquid crystal finder 11 of the digital video camera 1 to solve the above-mentioned problem.

具体的には、予めプロのカメラマンが撮影した映像のスナップショットを用意しておき、撮影すべき一連のシーンが液晶ファインダ11上にメニューで表示されるようにする。例えば、結婚式の撮影では、図10(a)に示される「新郎新婦の入場場面」や、図10(b)に示される「仲人の挨拶場面」等のシーンのサムネイル画像がメニューに表示される。ユーザが、メニュー上のいずれかのシーンのサムネイル画像を選択すると、選択されたサムネイル画像のフルスケール画像が液晶ファインダ11上に表示されて、撮影の構図が示される。ユーザは、この構図に従って、似たようなアングルで撮影を行った後、上記のメニューに戻って、次に撮影すべきシーンのサムネイル画像を選択する。これにより、プロのカメラマンでなくても、プロのカメラマンと似たようなカメラワークやカメラアングルで撮影することができ、見栄えのする映像を撮影することができる。このようなガイダンス用のスナップショットのデータを、「誕生日」、「運動会」、「結婚式」等の典型的な行事毎に用意して、ROM3内に格納しておく。   Specifically, a snapshot of a video shot by a professional photographer is prepared in advance, and a series of scenes to be shot is displayed on the liquid crystal finder 11 in a menu. For example, in the case of wedding photography, thumbnail images of scenes such as “Bride and Groom entrance scene” shown in FIG. 10A and “Matcha greeting scene” shown in FIG. 10B are displayed in the menu. The When the user selects a thumbnail image of one of the scenes on the menu, a full-scale image of the selected thumbnail image is displayed on the liquid crystal finder 11 and the composition of shooting is shown. In accordance with this composition, the user shoots at a similar angle, returns to the menu, and selects a thumbnail image of the scene to be shot next. Thereby, even if it is not a professional cameraman, it can image | photograph with the camera work and camera angle similar to a professional cameraman, and can image | photograph the image which looks good. Such guidance snapshot data is prepared for each typical event such as “birthday”, “athletic meet”, “wedding”, and stored in the ROM 3.

一方、行事ではなく、日常の撮影時には、支援プログラム2に含まれるパターンガイド用のプログラムは、一般的な撮影原則をユーザに提示する。例えば、撮影開始時には、「どこで(場面の遠景)」を見せるために、ロングショットで6秒間撮るように指示する。次に、「誰が」を見せるために、ミドルショットで4秒間撮るように指示する。さらに、「何を」を見せるために、タイトショットで3秒間撮るように指示する。そして、その後は、ミドルショットとタイトショットの組み合わせで撮影するように指示する。この場合、ミドルショットとかロングショットと言われても、素人には分からないので、液晶ファインダ11上に、図11に示されるようなマーク82〜84と時間85の入った画像81を表示する。この画像81上の各マーク82、83、84は、それぞれロングショット、ミドルショット、タイトショットに対応している。従って、画像81上のマーク82〜84と時間83は、まず、ロングショットを6秒間撮ってから、ミドルショットを4秒間撮り、その後、タイトショットを3秒間撮ることを意味している。   On the other hand, at the time of daily shooting, not an event, the pattern guide program included in the support program 2 presents general shooting principles to the user. For example, at the start of shooting, an instruction is given to take a long shot for 6 seconds in order to show “where (far view of the scene)”. Next, in order to show “who”, it is instructed to take a middle shot for 4 seconds. Further, in order to show “what”, the user is instructed to take a tight shot for 3 seconds. After that, it instructs to shoot with a combination of middle shot and tight shot. In this case, even if it is said to be a middle shot or a long shot, it is not known to an amateur, so an image 81 containing marks 82 to 84 and time 85 as shown in FIG. 11 is displayed on the liquid crystal finder 11. The marks 82, 83, and 84 on the image 81 correspond to a long shot, a middle shot, and a tight shot, respectively. Therefore, the marks 82 to 84 and the time 83 on the image 81 mean that a long shot is first taken for 6 seconds, then a middle shot is taken for 4 seconds, and then a tight shot is taken for 3 seconds.

上記のように、本実施形態による支援プログラム2を内蔵したディジタルビデオカメラ1によれば、リアルタイムにユーザのカメラワークを解析して、ユーザにそのカメラワークに関する注意を喚起するためのナビゲーションを行うことができる。これにより、ユーザが編集に適した動画像を多く含む撮影画像を得ることができる。また、撮影された動画像について、時間正常率とパン正常率とズーム正常率とぶれ正常率とに基づくスコアと、スコア向上のためのガイド情報とを出力することができる。これにより、ユーザによって撮影された動画像におけるカメラワークを客観的に評価、採点することができると共に、このカメラワークについての改善点を提示することができる。さらにまた、ユーザによる選択内容に対応した行事についてプロのカメラマンが予め撮影したショットのデータを、液晶ファインダ11に表示することができる。これにより、プロのカメラマンと同様なカメラワークやカメラアングルで撮影することができるので、見栄えのする動画像を得ることができる。また、動画像の編集時に利用することが望ましい推奨区間を検出することができるので、ユーザが、撮影した動画像中のどの部分が編集に適しているかを、客観的な基準に基づいて瞬時に把握することができる。   As described above, according to the digital video camera 1 incorporating the support program 2 according to the present embodiment, the user's camera work is analyzed in real time, and navigation is performed to alert the user about the camera work. Can do. As a result, it is possible to obtain a captured image including many moving images suitable for editing by the user. In addition, for a captured moving image, it is possible to output a score based on a normal time rate, a normal pan rate, a normal zoom rate, and a normal shake rate, and guide information for improving the score. Thereby, the camera work in the moving image photographed by the user can be objectively evaluated and scored, and the improvement points regarding the camera work can be presented. Furthermore, it is possible to display on the liquid crystal finder 11 shot data previously photographed by a professional photographer for an event corresponding to the content selected by the user. Thereby, since it can image | photograph with the camera work and camera angle similar to a professional cameraman, the moving image which looks good can be obtained. In addition, since it is possible to detect a recommended section that should be used when editing a moving image, the user can instantly determine which part of the captured moving image is suitable for editing based on objective criteria. I can grasp it.

なお、本発明は、上記実施形態に限られるものではなく、様々な変形が可能である。例えば、上記実施形態では、支援プログラム2をディジタルビデオカメラ1内のROM3に格納して、ディジタルビデオカメラ1内のマイクロプロセッサ4で実行した場合の例を示したが、ディジタルビデオカメラとパソコンとを接続して、支援プログラムをパソコン側で動作させるようにしてもよい。また、上記実施形態では、スコアを液晶ファインダ11に出力表示する際に、撮影ガイド情報のみをスコアと一緒に表示したが、時間正常率、パン正常率、ズーム正常率、ぶれ正常率の一部又は全部をスコアと共に液晶ファインダ11上に表示するようにしてもよい。また、これらの情報と共に、検出された推奨区間の数を表示するようにしてもよい。また、上記実施形態では、ユーザのカメラワークに対して注意を喚起するためのナビゲーション、スコア及び撮影ガイド情報を液晶ファインダ11上に表示したが、これらの情報をディジタルビデオカメラの液晶モニタ上に表示するようにしてもよいし、音声で出力するようにしてもよい。   In addition, this invention is not restricted to the said embodiment, Various deformation | transformation are possible. For example, in the above embodiment, the support program 2 is stored in the ROM 3 in the digital video camera 1 and executed by the microprocessor 4 in the digital video camera 1. However, the digital video camera and a personal computer are connected. The support program may be operated on the personal computer side by connecting. In the above embodiment, when the score is output and displayed on the liquid crystal finder 11, only the shooting guide information is displayed together with the score. However, the time normal rate, the pan normal rate, the zoom normal rate, and a part of the blur normal rate are included. Or you may make it display all on the liquid crystal finder 11 with a score. Further, the number of detected recommended sections may be displayed together with these pieces of information. In the above-described embodiment, navigation, a score, and shooting guide information for calling attention to the user's camera work are displayed on the liquid crystal finder 11, but these information are displayed on the liquid crystal monitor of the digital video camera. You may make it output, and you may make it output with an audio | voice.

本実施形態による撮影支援プログラム及び編集支援プログラムを内蔵したディジタルビデオカメラの構成図。The block diagram of the digital video camera which incorporated the imaging | photography assistance program and edit assistance program by this embodiment. 上記支援プログラムに基づくマイクロプロセッサの処理のフローチャート。The flowchart of the process of the microprocessor based on the said assistance program. 図2中のカメラワーク解析処理の概要の説明図。Explanatory drawing of the outline | summary of the camera work analysis process in FIG. 上記カメラワーク解析処理に含まれるパン処理による移動量の算出処理の概要の説明図。Explanatory drawing of the outline | summary of the calculation process of the movement amount by the pan process included in the said camera work analysis process. 上記カメラワーク解析処理における投影分布作成の概念を示す図。The figure which shows the concept of the projection distribution preparation in the said camera work analysis process. 上記カメラワーク解析処理における移動量算出の概要を示す図。The figure which shows the outline | summary of the movement amount calculation in the said camera work analysis process. 上記カメラワーク解析処理におけるズーム量算出の概要を示す図。The figure which shows the outline | summary of the zoom amount calculation in the said camera work analysis process. 上記支援プログラムによりユーザの撮影時のスコアがどのように向上したかを示す表。The table | surface which shows how the score at the time of a user's imaging | photography improved by the said assistance program. 上記支援プログラムによりユーザの撮影時のスコアがどのように向上したかを示すグラフ。The graph which shows how the score at the time of a user's imaging | photography improved by the said assistance program. (a)(b)は、それぞれ「新郎新婦の入場場面」のシーンの画像を示す図と、「仲人の挨拶場面」のシーンの画像を示す図。(A) and (b) are the figure which shows the image of the scene of "the entrance scene of the bride and groom", respectively, and the figure which shows the image of the scene of the "greeting scene of the matchmaker". 上記支援プログラムに含まれるパターンガイド用のプログラムが、日常の撮影時に、液晶ファインダ上に表示する画像の例を示す図。The figure which shows the example of the image which the program for pattern guides contained in the said assistance program displays on a liquid crystal finder at the time of daily imaging | photography.

符号の説明Explanation of symbols

1 ディジタルビデオカメラ
2 支援プログラム(撮影支援プログラム、編集支援プログラム、カメラワーク解析手段、判定手段、出力手段、ショット分類手段、インデキシング手段、正常率算出手段、スコア算出手段、正常率判定手段、読取手段、ショット出力手段、利用推奨区間検出手段)
4 マイクロプロセッサ(プロセッサ、カメラワーク解析手段、判定手段、出力手段、ショット分類手段、インデキシング手段、正常率算出手段、スコア算出手段、正常率判定手段、読取手段、ショット出力手段、利用推奨区間検出手段)
5 CCD(撮影手段)
11 液晶ファインダ(表示手段)
DESCRIPTION OF SYMBOLS 1 Digital video camera 2 Support program (Shooting support program, edit support program, camera work analysis means, determination means, output means, shot classification means, indexing means, normal rate calculation means, score calculation means, normal rate determination means, reading means , Shot output means, recommended use section detection means)
4 Microprocessor (processor, camera work analysis means, determination means, output means, shot classification means, indexing means, normal rate calculation means, score calculation means, normal rate determination means, reading means, shot output means, recommended use section detection means )
5 CCD (photographing means)
11 Liquid crystal finder (display means)

Claims (7)

ビデオカメラの撮影を支援するためにプロセッサを、
撮影手段により撮影された動画像を構成する各フレーム画像中の各画素の輝度を水平方向及び垂直方向に投影して、各フレーム画像間における水平方向及び垂直方向の輝度投影量を比較することにより、前記動画像を撮影した際のカメラワークをリアルタイムに解析するカメラワーク解析手段、
前記撮影手段により撮影された動画像を用いて映像を編集する場合に、編集者がその意図を視聴者に正確に伝えるのに必要とされる普遍的な規則である映像文法に基づいて、前記カメラワーク解析手段による解析結果として得られたカメラワークに対して、注意を喚起するためのナビゲーションが必要か否かを判定する判定手段、及び
前記判定手段によりナビゲーションが必要であると判定されたときに、ナビゲーション用の信号を出力する出力手段、
として機能させるためのビデオカメラの撮影支援プログラム。
A processor to assist with video camera shooting,
By projecting the luminance of each pixel in each frame image constituting the moving image photographed by the photographing means in the horizontal direction and the vertical direction, and comparing the luminance projection amounts in the horizontal direction and the vertical direction between the respective frame images. , Camera work analysis means for analyzing camera work in real time when shooting the moving image,
Based on video grammar, which is a universal rule required for an editor to accurately convey his intention to a viewer when editing a video using a moving image shot by the shooting means, When it is determined by the determination means that navigation is necessary for the camera work obtained as an analysis result by the camera work analysis means, and when the determination means determines that navigation is necessary Output means for outputting a navigation signal,
Video camera shooting support program to function as.
前記判定手段は、前記カメラワーク解析手段による解析結果として得られたカメラワークについて、少なくとも、激しい手ぶれに相当する部分が存在する場合、パン処理(カメラを回転させながら撮影を行う処理)時におけるカメラの回転操作の速度が速すぎる場合、ズーム処理の操作が速すぎる場合、パン処理時の動画像(パン画像)やズーム処理時の動画像(ズーム画像)の前後に1秒間以上のフィックス画像(固定された視点で撮影された動画像)が撮影されていない場合、パン画像やズーム画像の前後以外の位置に存在するフィックス画像が3秒間以上撮影されていない場合、及び明るすぎるショットや暗すぎるショットが存在する場合に、このカメラワークに対して、注意を喚起するためのナビゲーションが必要であると判定することを特徴とする請求項1に記載のビデオカメラの撮影支援プログラム。   When the camera work obtained as a result of analysis by the camera work analysis means has at least a portion corresponding to severe camera shake, the determination means is a camera at the time of pan processing (processing for taking a picture while rotating the camera). If the rotation operation speed is too fast, or if the zoom processing operation is too fast, a fixed image (one or more seconds) before or after the moving image (pan image) during pan processing or the moving image (zoom image) during zoom processing ( A moving image taken from a fixed viewpoint), a fixed image existing at a position other than before or after the pan image or zoom image has not been photographed for more than 3 seconds, and a shot that is too bright or too dark. When a shot exists, this camera work is determined to require navigation to call attention Videography support program according to claim 1, wherein the door. 前記プロセッサを、さらに、
前記カメラワーク解析手段による解析結果に基づき、カメラワークの開始点や終了点を境界として、前記撮影手段により撮影された動画像をショットに分類するショット分類手段、
前記ショット分類手段により分類されたショットに対して、激しい映像のぶれがないフィックス画像のショット、正常な(速すぎない)パン処理時の動画像のショット、正常な(速すぎない)ズーム処理時の動画像のショット、速すぎるパン処理時の動画像のショット、速すぎるズーム処理時の動画像のショット、及び激しい映像のぶれにより利用できないフィックス画像のショットといったラベル付けを行うインデキシング手段、
前記撮影手段による動画像の撮影の終了時に、前記インデキシング手段による各ショットへのラベル付け結果に基づいて、激しい映像のぶれがないフィックス画像のショットのうち、撮影時間が十分なショットの割合である時間正常率と、パン画像のショットのうち、正常なパン画像のショットの割合であるパン正常率と、ズーム画像のショットのうち、正常なズーム画像のショットの割合であるズーム正常率と、フィックス画像のショットのうち、激しい映像のぶれがないフィックス画像のショットの割合である、ぶれ正常率とを算出する正常率算出手段、
前記正常率算出手段により算出した時間正常率とパン正常率とズーム正常率とぶれ正常率とに基づいて、前記撮影手段により撮影された動画像についてのスコアを算出するスコア算出手段、及び
前記正常率算出手段により算出した時間正常率、パン正常率、ズーム正常率又はぶれ正常率が、所定の閾値以下であるか否かを判定する正常率判定手段
として機能させ、
前記出力手段が、前記スコア算出手段による算出結果を表す信号と、前記正常率判定手段により所定の閾値以下であると判定された項目についての注意を促すためのガイド情報を表す信号とを出力することを特徴とする請求項2に記載のビデオカメラの撮影支援プログラム。
The processor further,
Based on the analysis result by the camera work analysis means, a shot classification means for classifying the moving images photographed by the photographing means into shots with the start point and end point of the camera work as a boundary,
For shots classified by the shot classifying means, fixed image shots without intense video blur, moving image shots during normal (not too fast) pan processing, and normal (not too fast) zoom processing Indexing means for labeling, such as shots of moving images, shots of moving images during pan processing too fast, shots of moving images during zoom processing that is too fast, and shots of fixed images that cannot be used due to severe image blur,
Based on the labeling result of each shot by the indexing means at the end of moving image shooting by the shooting means, the ratio of the shots with sufficient shooting time among the shots of the fixed image without intense video blurring Fix normal time, pan normal rate that is the proportion of normal pan image shots among pan image shots, zoom normal rate that is the proportion of normal zoom image shots among zoom image shots, and fix A normal rate calculating means for calculating a normal rate of blur, which is a ratio of a shot of a fixed image without intense video blur among shots of an image,
Score calculating means for calculating a score for a moving image photographed by the photographing means based on a normal time ratio, a pan normal ratio, a zoom normal ratio, and a blur normal ratio calculated by the normal ratio calculating means; and the normal The time normal rate, pan normal rate, zoom normal rate or blur normal rate calculated by the rate calculating means function as normal rate determining means for determining whether or not a predetermined threshold value or less,
The output means outputs a signal representing a calculation result by the score calculating means and a signal representing guide information for calling attention to an item determined to be not more than a predetermined threshold by the normal rate determining means. The video camera shooting support program according to claim 2, wherein:
前記プロセッサを、さらに、
前記ビデオカメラ内の操作手段を用いて、ユーザにより、前記ビデオカメラによる撮影対象となる行事の種類が選択されたときに、この選択内容に対応した行事についてプロのカメラマンが予め撮影したショットのデータを、前記プロセッサ内の記憶装置から読み取る読取手段、及び
前記読取手段により読み取ったショットのデータに基づいて、このショットの表示用の信号を前記ビデオカメラ内の表示手段に出力するショット出力手段として機能させるようにしたことを特徴とする請求項3に記載のビデオカメラの撮影支援プログラム。
The processor further,
When the user selects a type of event to be photographed by the video camera using the operation means in the video camera, shot data previously photographed by a professional photographer for the event corresponding to the selected content As a shot output means for outputting a signal for displaying the shot to the display means in the video camera based on the shot data read by the reading means. The video camera shooting support program according to claim 3, wherein the video camera shooting support program is executed.
ビデオカメラで撮影された動画像の編集を支援するためにプロセッサを、
撮影手段により撮影された動画像を構成する各フレーム画像中の各画素の輝度を水平方向及び垂直方向に投影して、各フレーム画像間における水平方向及び垂直方向の輝度投影量を比較することにより、前記動画像を撮影した際のカメラワークをリアルタイムに解析するカメラワーク解析手段、
前記撮影手段により撮影された動画像を用いて映像を編集する場合に、編集者がその意図を視聴者に正確に伝えるのに必要とされる普遍的な規則である映像文法に基づいて、前記カメラワーク解析手段による解析結果として得られたカメラワークに対して、注意を喚起するためのナビゲーションが必要か否かを判定する判定手段、
前記カメラワーク解析手段による解析結果に基づき、カメラワークの開始点や終了点を境界として、前記撮影手段により撮影された動画像をショットに分類するショット分類手段、
前記ショット分類手段により分類されたショットに対して、激しい映像のぶれがないフィックス画像(固定された視点で撮影された動画像)のショット、正常な(速すぎない)パン処理時の動画像のショット、正常な(速すぎない)ズーム処理時の動画像のショット、速すぎるパン処理時の動画像のショット、速すぎるズーム処理時の動画像のショット、及び激しい映像のぶれにより利用できないフィックス画像のショットといったラベル付けを行うインデキシング手段、
前記インデキシング手段による各ショットへのラベル付け結果に基づいて、前記フィックス画像のショットの撮影時間が3秒間以上である区間か、前記正常なパン処理時の動画像のショットの前後のショットが、いずれも撮影時間1秒以上のフィックス画像のショットである区間か、前記正常なズーム処理時の動画像のショットの前後のショットが、いずれも撮影時間1秒以上のフィックス画像のショットである区間を、前記ビデオカメラで撮影された動画像の編集時に利用することが望ましい推奨区間として検出する利用推奨区間検出手段、及び
前記利用推奨区間検出手段により検出された推奨区間を前記ビデオカメラ内の表示手段に表示するための信号を出力すると共に、前記判定手段によりナビゲーションが必要であると判定されたときに、リアルタイムにナビゲーション用の信号を出力する出力手段として機能させるためのビデオカメラの編集支援プログラムであって、
前記判定手段は、前記カメラワーク解析手段による解析結果として得られたカメラワークについて、少なくとも、激しい手ぶれに相当する部分が存在する場合、パン処理時におけるカメラの回転操作の速度が速すぎる場合、ズーム処理の操作が速すぎる場合、パン処理時の動画像(パン画像)やズーム処理時の動画像(ズーム画像)の前後に1秒間以上のフィックス画像が撮影されていない場合、パン画像やズーム画像の前後以外の位置に存在するフィックス画像が3秒間以上撮影されていない場合、及び明るすぎるショットや暗すぎるショットが存在する場合に、このカメラワークに対して、注意を喚起するためのナビゲーションが必要であると判定することを特徴とするビデオカメラの編集支援プログラム。
A processor to assist in the editing of the video captured by the video camera,
By projecting the luminance of each pixel in each frame image constituting the moving image photographed by the photographing means in the horizontal direction and the vertical direction, and comparing the luminance projection amounts in the horizontal direction and the vertical direction between the respective frame images. , Camera work analysis means for analyzing camera work in real time when shooting the moving image,
Based on video grammar, which is a universal rule required for an editor to accurately convey his intention to a viewer when editing a video using a moving image shot by the shooting means, A determination means for determining whether or not navigation for calling attention is necessary for the camera work obtained as an analysis result by the camera work analysis means,
Based on the analysis result by the camera work analysis means, a shot classification means for classifying the moving images photographed by the photographing means into shots with the start point and end point of the camera work as a boundary,
For shots classified by the shot classification means, shots of fixed images (moving images taken from a fixed viewpoint) that do not have intense image blur, and moving images during normal (not too fast) pan processing Shots, shots of moving images during normal (not too fast) zoom processing, shots of moving images during pan processing that is too fast, shots of moving images during zoom processing that is too fast, and fixed images that cannot be used due to severe image blur Indexing means for labeling shots,
Based on the result of labeling each shot by the indexing means, either the section where the shooting time of the shot of the fixed image is 3 seconds or more, or the shot before and after the shot of the moving image during the normal pan processing, Is a section of a fixed image shot with a shooting time of 1 second or more, or a section where the shots before and after the shot of the moving image at the time of normal zoom processing are both shots of a fixed image with a shooting time of 1 second or more, Use recommended section detecting means for detecting a recommended section preferably used when editing a moving image shot by the video camera, and a recommended section detected by the recommended use section detecting means as display means in the video camera. A signal for display is output, and the determination means determines that navigation is necessary. A video camera editing support program for functioning as an output means for outputting a navigation signal in real time,
If the camera work obtained as a result of analysis by the camera work analysis means has at least a portion corresponding to severe camera shake, if the speed of the camera rotation operation during pan processing is too fast, If the processing operation is too fast, if a fixed image of one second or longer is not taken before or after the moving image (pan image) during pan processing or the moving image (zoom image) during zoom processing, the pan image or zoom image Navigation is required to call attention to this camera work when fixed images that exist in positions other than before and after have not been shot for more than 3 seconds, and when there are shots that are too bright or too dark An editing support program for a video camera, characterized in that it is determined that
前記プロセッサを、さらに、
前記撮影手段による動画像の撮影の終了時に、前記インデキシング手段による各ショットへのラベル付け結果に基づいて、激しい映像のぶれがないフィックス画像のショットのうち、撮影時間が十分なショットの割合である時間正常率と、パン処理時の動画像のショットのうち、正常なパン画像のショットの割合であるパン正常率と、ズーム処理時の動画像のショットのうち、正常なズーム画像のショットの割合であるズーム正常率と、フィックス画像のショットのうち、激しい映像のぶれがないフィックス画像のショットの割合である、ぶれ正常率とを算出する正常率算出手段、
前記正常率算出手段により算出した時間正常率とパン正常率とズーム正常率とぶれ正常率とに基づいて、前記撮影手段により撮影された動画像についてのスコアを算出するスコア算出手段、及び
前記正常率算出手段により算出した時間正常率、パン正常率、ズーム正常率又はぶれ正常率が、所定の閾値以下であるか否かを判定する正常率判定手段
として機能させ、
前記出力手段が、前記スコア算出手段による算出結果を表す信号と、前記正常率判定手段により所定の閾値以下であると判定された項目についての注意を促すためのガイド情報を表す信号とを出力するショット出力手段として機能させるようにしたことを特徴とする請求項5に記載のビデオカメラの編集支援プログラム。
The processor further,
At the end of moving image shooting by the shooting means, based on the result of labeling each shot by the indexing means, the ratio of shots with a sufficient shooting time among the shots of the fixed image with no intense video blurring Normal time ratio, pan normal ratio that is the ratio of normal pan image shots out of moving image shots during pan processing, and ratio of normal zoom image shots out of moving image shots during zoom processing A normal rate calculation means for calculating a zoom normal rate and a blur normal rate, which is a ratio of a fixed image shot without a sharp video blur among fixed image shots,
Score calculating means for calculating a score for a moving image photographed by the photographing means based on a normal time ratio, a pan normal ratio, a zoom normal ratio, and a blur normal ratio calculated by the normal ratio calculating means; and the normal The time normal rate, pan normal rate, zoom normal rate or blur normal rate calculated by the rate calculating means function as normal rate determining means for determining whether or not a predetermined threshold value or less,
The output means outputs a signal representing a calculation result by the score calculating means and a signal representing guide information for calling attention to an item determined to be not more than a predetermined threshold by the normal rate determining means. 6. The editing support program for a video camera according to claim 5, wherein the program is made to function as shot output means.
前記プロセッサを、さらに、
前記ビデオカメラ内の操作手段を用いて、ユーザにより、前記ビデオカメラによる撮影対象となる行事の種類が選択されたときに、この選択内容に対応した行事についてプロのカメラマンが予め撮影したショットのデータを、前記プロセッサ内の記憶装置から読み取る読取手段、及び
前記読取手段により読み取ったショットのデータに基づいて、このショットの表示用の信号を前記ビデオカメラ内の表示手段に出力するショット出力手段として機能させるようにしたことを特徴とする請求項6に記載のビデオカメラの編集支援プログラム。
The processor further,
When the user selects a type of event to be photographed by the video camera using the operation means in the video camera, shot data previously photographed by a professional photographer for the event corresponding to the selected content As a shot output means for outputting a signal for displaying the shot to the display means in the video camera based on the shot data read by the reading means. 7. The video camera editing support program according to claim 6, wherein the video camera editing support program is executed.
JP2004168626A 2004-06-07 2004-06-07 Video camera shooting support program and editing support program Expired - Fee Related JP4568797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004168626A JP4568797B2 (en) 2004-06-07 2004-06-07 Video camera shooting support program and editing support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004168626A JP4568797B2 (en) 2004-06-07 2004-06-07 Video camera shooting support program and editing support program

Publications (2)

Publication Number Publication Date
JP2005348328A true JP2005348328A (en) 2005-12-15
JP4568797B2 JP4568797B2 (en) 2010-10-27

Family

ID=35500245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004168626A Expired - Fee Related JP4568797B2 (en) 2004-06-07 2004-06-07 Video camera shooting support program and editing support program

Country Status (1)

Country Link
JP (1) JP4568797B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325065A (en) * 2006-06-02 2007-12-13 New Industry Research Organization Photography navigation program, and photography navigation system
JP2009272961A (en) * 2008-05-08 2009-11-19 Nippon Telegr & Teleph Corp <Ntt> Content evaluation method, device and program and computer-readable recording medium
JP2010062621A (en) * 2008-09-01 2010-03-18 Sony Corp Content data processing device, content data processing method, program and recording/playing device
JP2020504294A (en) * 2016-12-14 2020-02-06 ダン−エリック ニルソン How to determine the spatial light distribution in an environment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325065A (en) * 2006-06-02 2007-12-13 New Industry Research Organization Photography navigation program, and photography navigation system
JP2009272961A (en) * 2008-05-08 2009-11-19 Nippon Telegr & Teleph Corp <Ntt> Content evaluation method, device and program and computer-readable recording medium
JP2010062621A (en) * 2008-09-01 2010-03-18 Sony Corp Content data processing device, content data processing method, program and recording/playing device
JP4645707B2 (en) * 2008-09-01 2011-03-09 ソニー株式会社 Content data processing device
JP2020504294A (en) * 2016-12-14 2020-02-06 ダン−エリック ニルソン How to determine the spatial light distribution in an environment
US11067435B2 (en) 2016-12-14 2021-07-20 Dan-Eric NILSSON Method for determining a spatial light distribution in an environment

Also Published As

Publication number Publication date
JP4568797B2 (en) 2010-10-27

Similar Documents

Publication Publication Date Title
US8587658B2 (en) Imaging device, image display device, and program with intruding object detection
JP5589527B2 (en) Imaging apparatus and tracking subject detection method
JP4823179B2 (en) Imaging apparatus and imaging control method
JP5164327B2 (en) Imaging apparatus and program
JP4645685B2 (en) Camera, camera control program, and photographing method
US20100321470A1 (en) Imaging apparatus and control method therefor
JP2005277531A (en) Moving image processing apparatus
JP2008109336A (en) Image processor and imaging apparatus
JP2007274264A (en) Camera, photographing method of best-shot image and program
WO2005086478A1 (en) Moving image data processing
KR101046041B1 (en) Imaging device
CN102006485A (en) Image processing apparatus and image processing method
JP2004349750A (en) Digital camera and control method therefor
JP5142825B2 (en) Image display device and image display method
JP5131367B2 (en) Imaging apparatus and program
JP2008281385A (en) Image processing device
JP4639043B2 (en) Moving picture editing apparatus and moving picture editing method
WO2007129591A1 (en) Shielding-object video-image identifying device and method
JP4568797B2 (en) Video camera shooting support program and editing support program
JP2003032600A (en) Image processing unit, index preparing system, index preparing method, recording medium and program
JP2010263270A (en) Image pickup device
JP3858133B2 (en) Imaging method and imaging apparatus
JP4877186B2 (en) Image processing apparatus, image processing method, and program
JP7353821B2 (en) Image processing device, its control method, program
JP4636024B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100329

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4568797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees