JP2007074489A - Device and method for reproduction evaluation - Google Patents
Device and method for reproduction evaluation Download PDFInfo
- Publication number
- JP2007074489A JP2007074489A JP2005260441A JP2005260441A JP2007074489A JP 2007074489 A JP2007074489 A JP 2007074489A JP 2005260441 A JP2005260441 A JP 2005260441A JP 2005260441 A JP2005260441 A JP 2005260441A JP 2007074489 A JP2007074489 A JP 2007074489A
- Authority
- JP
- Japan
- Prior art keywords
- data
- information
- video
- reproduced
- reproduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000011156 evaluation Methods 0.000 title claims description 82
- 238000000034 method Methods 0.000 title claims description 78
- 238000012937 correction Methods 0.000 claims abstract description 4
- 238000004458 analytical method Methods 0.000 claims description 62
- 238000012790 confirmation Methods 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 48
- 238000012545 processing Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 22
- 238000007405 data analysis Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008929 regeneration Effects 0.000 description 3
- 238000011069 regeneration method Methods 0.000 description 3
- 230000001172 regenerating effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、被評価装置による動画の再生を評価する再生評価装置及び方法に関する。 The present invention relates to a reproduction evaluation apparatus and method for evaluating reproduction of a moving image by an evaluated apparatus.
近年の携帯電話は高機能化がめざましく、動画撮影、再生機能が搭載されたものもめずらしくない。一般に携帯電話に代表されるような組込み機器は、小型化、電源確保、コスト上の制約などの問題があるため、パーソナルコンピュータのような計算機に搭載された高性能のハードウエア(HW)を持たないことが多い。このため、十分でないHWリソースで動画再生、撮影機能を実現したり、マルチメディア機能を処理する専用のプロセッサを搭載し、そこで処理を行ったりすることが多い。 Mobile phones in recent years have been dramatically enhanced, and those equipped with video shooting and playback functions are not uncommon. In general, embedded devices such as mobile phones have high-performance hardware (HW) installed in computers such as personal computers because they have problems such as downsizing, securing power, and cost constraints. Often not. For this reason, it is often the case that video playback and shooting functions are realized with insufficient HW resources, or that a dedicated processor for processing multimedia functions is installed and processed there.
動画撮影、再生で取り扱う動画ファイルは映像、音声の2つのデータから構成され、中にはテキストデータを含むものも存在する。これらのデータにはそれぞれのデータフォーマット仕様があり、さらには再生されるべき時刻も考慮する必要があるため、評価のための処理は膨大な量となる。前述のように、マルチメディア機能を処理する専用のプロセッサを使用した場合、メインプロセッサとマルチメディア機能処理用プロセッサ間での制御が複雑になるため、評価試験にはさらにコストがかかることになる。 A moving image file handled in moving image shooting and reproduction is composed of two data, video and audio, and some include text data. These data have respective data format specifications, and further, it is necessary to consider the time to be reproduced, so that the processing for evaluation becomes enormous. As described above, when the dedicated processor for processing the multimedia function is used, the control between the main processor and the multimedia function processing processor becomes complicated, so that the evaluation test is further costly.
これらの膨大な量の評価を行うために、多くの人的リソースが必要であり、コストがかかる。また、プログラムの更新の度に同じ試験を繰り返す必要があり、さらにコストがかかっている。 In order to evaluate these enormous amounts, many human resources are required and costly. In addition, the same test needs to be repeated every time the program is updated, which further increases costs.
コストを削減するために、これらの評価の工程において、携帯電話の表示画面上の操作画面をカメラで撮影し、撮影した動画ファイルを自動で解析することができれば、評価期間を短縮することができる。特に動画の再生試験に関しては、動画を構成する映像データとして、何らかの解析用の情報を符号化した映像データを用いれば、再生の良否や、途中で停止したかなどの動画再生の状況を自動で認識することが可能になる。 In order to reduce costs, in these evaluation processes, if the operation screen on the display screen of the mobile phone can be shot with a camera and the shot video file can be automatically analyzed, the evaluation period can be shortened. . Especially for video playback tests, if video data that encodes some information for analysis is used as video data that composes the video, the status of video playback, such as whether the playback is good or not, is stopped automatically. It becomes possible to recognize.
動画の画面に情報を挿入する方法としては、特許文献1に示す方法が提案されている。この方法では、多くの情報を画面に入れるために、情報を分割して動画に挿入することとしている。ところが、画像の認識に関しては、多くのデータを取り扱うため、時間のかかる処理となる。
As a method for inserting information into a moving picture screen, a method shown in
また、少ないHWリソースでマルチメディア機能を実現する場合は、性能が問題となる可能性があり、その性能を定量的に評価する必要がある。 In addition, when realizing a multimedia function with a small number of HW resources, there is a possibility that performance may become a problem, and it is necessary to quantitatively evaluate the performance.
動画再生の定量的な分析および改善提案を行う方法としては特許文献2に示す方法が提案されている。しかし特許文献2に示す方法は、再生処理系が画面フリーズ検出などのさまざまな情報を検出する手段を有していることが前提となっているため、これらの手段を実装する必要があり、これらの実装にはコストがかかる。
As a method for quantitative analysis of moving image reproduction and improvement proposal, a method shown in
動画再生評価は時間とコストがかかる作業であり、専用のプロセッサを使用したシステムではさらに評価項目が増える可能性があり、評価作業に多くの時間が費やされる。 Video playback evaluation is time consuming and costly, and there is a possibility that the evaluation items may increase further in a system using a dedicated processor, and much time is spent on the evaluation work.
さらに、動画再生の定量的な評価方法としては、回路構成に変更を加えたり、さまざまな情報検出手段を搭載し、それらを総合して評価する方法があるが、この方法では多くのコストがかかる。 In addition, as a method for quantitative evaluation of moving image reproduction, there are methods of making changes to the circuit configuration and mounting various information detection means to evaluate them comprehensively, but this method requires a lot of cost. .
本発明は、
被評価装置により動画ファイルに基づいて再生された動画を撮像することにより得られた映像データを取得する映像データ取得手段と、
取得した映像データを解析する解析手段と
を有する再生評価装置であって、
前記被評価装置により再生されるべき動画を表す映像データを含む動画ファイルが、第1の画像データと、第2の画像データとを含み、
前記第1の画像データが、画面中の第1の特定の位置を表す第1のシンボル図形で構成された第1の情報画像を表し、
前記第2の画像データが、前記第1の情報画像と相前後して再生されるべき、画面中の互いに異なる複数の第2の特定の位置を表す第2のシンボル図形と、解析用の情報を符号化したデータ図形とを含む第2の情報画像とを表し、
前記解析手段が、
前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形に基づいて前記第1の特定の位置を確定し、
確定した前記第1の特定の位置を表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置を割り出し、割り出した位置付近で、再生された前記第2のシンボル図形を探索して前記第2のシンボル図形の位置を確定し、確定した前記第2の特定の位置の、前記割り出した位置からのずれに基づいて画面の歪みを補正して、前記データ図形により符号化されたデータを解読する
ことを特徴とする再生評価装置を提供する。
The present invention
Video data acquisition means for acquiring video data obtained by capturing a video reproduced based on a video file by the evaluated device;
A reproduction evaluation apparatus having analysis means for analyzing acquired video data,
A moving image file including video data representing a moving image to be reproduced by the device to be evaluated includes first image data and second image data;
The first image data represents a first information image composed of a first symbol graphic representing a first specific position in the screen;
Second symbol graphics representing a plurality of second specific positions different from each other in the screen, and information for analysis, in which the second image data is to be reproduced before and after the first information image And a second information image including a data graphic encoded with
The analysis means is
Determining the first specific position based on the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on the position information representing the determined first specific position, the device to be evaluated determines the position where the second symbol graphic is to be reproduced, and the second reproduced near the calculated position. The position of the second symbol figure is determined by searching for the second symbol figure, the distortion of the screen is corrected based on the deviation of the determined second specific position from the determined position, and the data Provided is a reproduction evaluation apparatus characterized by decoding data encoded by a figure.
この発明によれば、評価対象となる再生機の動画の再生画面を撮影することにより、指定された時刻どおりに映像、音声のデータが再生できているかを自動で正確に確認することができる。 According to the present invention, it is possible to automatically and accurately confirm whether video and audio data can be reproduced at a designated time by shooting a playback screen of a moving image of a playback device to be evaluated.
また、評価対象となる再生機の動画の再生画面を撮影することにより、表示のフレームレートを正確に測定することができる。 In addition, the frame rate of the display can be accurately measured by shooting a moving image playback screen of the playback device to be evaluated.
さらに、動画の映像データにより符号化された情報を速く、正確に読み取ることができるため、HWリソースが十分でない組込み機器を再生評価に利用することも可能である。 Furthermore, since the information encoded by the video data of the moving image can be read quickly and accurately, an embedded device having insufficient HW resources can be used for reproduction evaluation.
実施の形態1.
図1は実施の形態1の再生評価装置100を評価の対象となる(即ち被評価装置としての)再生装置90とともに示すシステム構成図である。
図示の再生評価装置100は、再生装置90の表示部93に表示される画像を解析するためのものである。再生装置90は、表示部93のほか、再生データ提供部91と再生信号処理部92とを有し、再生データ提供部91から提供される動画ファイルを再生信号処理部92で再生のための信号処理を行い、再生信号処理部92からの信号に基づき表示部93で表示を行う。再生データ提供部91は、例えば放送された動画ファイル、或いは通信網を介して送信される動画ファイルを受信するものでもよく、記録媒体に記録された動画ファイルを読み取るものでも良い。
FIG. 1 is a system configuration diagram showing a
The illustrated
再生評価装置100は、表示部93に表示される映像を撮像して、映像データを取得する入力手段としてのカメラ101と、取得した映像データの解析処理を行うCPU103と、CPU103の解析処理プログラムが動作するための一次記憶装置としてのメモリ104と、解析処理プログラムの保存や、演算結果や、ログファイルを保存するための二次記憶装置としてのハードディスクドライブ(HDD)105と、解析処理プログラムの操作画面や演算結果の出力部としてのモニタ102とを備える。
The
図2は、図1の再生装置90で再生データ提供部91から提供される、再生される動画を表す動画ファイルを示すものである。動画ファイルはファイルの先頭に位置する共通ヘッダ部211と、その後に続く同期認識データ部212から構成される。
FIG. 2 shows a moving image file representing a moving image to be reproduced, which is provided from the reproduction
共通ヘッダ部211は1秒間のブランク画像201と、それに続く1秒間の情報データ部213と、それに続く1秒間のブランク画像とにより構成される。このように1秒間の情報データ部213は、前後に位置する1秒間のブランク画像201及び205に挟まれている。1秒間の情報データ部213は300m秒の第1の情報画像202、それに続く300m秒の第2の情報画像203、それに続く400m秒のブランク画像205の順で構成される。
The common header section 211 is composed of a
同期確認データ部212は、1秒間のデータの組G(個々のデータの組を表すのに(i−1)、i、(i+1)などの添え字を付して、G(i−1)、Gi、G(i+1)などの符号を用いることがある)の繰り返しにより構成される。1秒間のデータの組Gは、共通ヘッダ部211の情報データ部213と同様に300m秒の第1の情報画像206、それに続く300m秒の第2の情報画像207、それに続く400m秒のブランク画像208の順で構成される。
The synchronization confirmation data unit 212 includes a data set G for one second (subscripts (i−1), i, (i + 1) are added to represent individual data sets, and G (i−1) , Gi, G (i + 1), etc. may be used). Similar to the
同期確認データ部212の第1の情報画像206は、共通ヘッダ部211の第1の情報画像202と同じ内容のものであり、同期確認データ部212の第2の情報画像207は、共通ヘッダ部211の第2の情報画像203と同様のものである(ただし、図形により符号化された情報の内容が全く同じとは限らない)。データの組Gの各々を情報データ部と呼ぶこともある。
The
再生装置90は、再生データ提供部91から提供される、上記のような動画ファイルに基づき、動画ファイルで表される映像を再生して、表示部93に表示させる。同期確認データ部212により表される映像は、ある単位時間(図示の例では1秒)ごとに第1および第2の情報画像が交互に現われる(再生される)ものである。
The
図3は第1の情報画像のパターンを示した図である。図示のように、第1の情報画像は、画面中央に表示される、画像の中心位置を示すシンボル図形(第1のシンボル図形)301を含む。点線は画面を区切る座標系を示したもので、実際の画面には表示されない。シンボル図形は、縦方向横方向それぞれ4ユニット分のサイズを持つ。ここで、「ユニット」は所定数の画素またはラインから成る。この図では、撮影した画像はある閾値で二値化したものとなっている。以降の全ての画像処理は撮像した画像データを二値化したデータに対して行う。 FIG. 3 is a diagram showing a pattern of the first information image. As illustrated, the first information image includes a symbol graphic (first symbol graphic) 301 displayed at the center of the screen and indicating the center position of the image. The dotted line shows the coordinate system that divides the screen and is not displayed on the actual screen. The symbol figure has a size of 4 units in each of the vertical and horizontal directions. Here, the “unit” includes a predetermined number of pixels or lines. In this figure, the photographed image is binarized with a certain threshold value. All subsequent image processing is performed on the binarized data of the captured image data.
図4は第2の情報画像のパターンを示した図で、図3と同様に画面を区切る座標系を点線で表示している。この線も実際の画面には表示されない。図4に示すように、第2の情報画像には、シンボル図形(第2のシンボル図形)401、402、403及び404と情報パターン図形405とが含まれる。シンボル図形401〜404は、後述のように撮影による画面の歪を補正するための、画面上の互いに異なる複数の特定の位置、例えば画面の四隅の位置を表すものである。シンボル図形401〜404の表示位置は、シンボル図形の中心位置が画面の中心から縦方向に7ユニット、横方向に10ユニットずれた位置となる。画面の左下の位置を示すシンボル図形403は、他の3つのシンボル図形とは異なり画像の中央が空白になっており、このシンボル図形403を検出することで、その位置が画面の左下であることがわかるようになっている。
FIG. 4 is a diagram showing a pattern of the second information image, and the coordinate system for dividing the screen is displayed by dotted lines as in FIG. This line is also not displayed on the actual screen. As shown in FIG. 4, the second information image includes symbol graphics (second symbol graphics) 401, 402, 403, and 404 and an information pattern graphic 405. The
情報パターン図形405は、図示の例では、画面の中央に表示されるものであり、動画ファイルIDや、再生時間などの情報が図形により符号化(図形符号化)された情報パターン図形(データ図形)である。情報パターン図形405は1ユニットで1bitの情報を表す。実施の形態1では、160bitの情報を表現することができる。 In the illustrated example, the information pattern graphic 405 is displayed at the center of the screen, and an information pattern graphic (data graphic) in which information such as a moving image file ID and a reproduction time is encoded (graphic encoding) with a graphic. ). An information pattern figure 405 represents 1-bit information per unit. In the first embodiment, 160-bit information can be expressed.
同期確認データ部212の各組(情報データ)Giの第2の情報画像207の情報パターン図形405には、次の組G(i+1)の第1の情報画像206の再生時刻(再生されるべき時刻)を表すデータを図形符号化した部分が含まれる。
In the information pattern figure 405 of the
再生評価装置100は、再生装置90の表示部93に表示される映像をカメラ101で撮像して取得し(取り込み)、CPU103で分析する。この分析には、以下に説明されるように、射影データの作成、シンボル図形の認識、画面の中央位置及びユニットサイズの決定、歪の補正(そのための、歪を考慮した座標系の生成)、歪みを考慮した座標系を用いた情報画像の解析、同期確認などの処理が含まれる。
なお、後述のようにカメラ101で撮像して取得した映像データを直ちに分析する場合のみならず、一旦映像データを保存した後、再生して分析を行うこととしてもよく、また撮像により得られた映像データを他の装置から受け取り、受け取った映像データに対して分析を行うこととしても良い。
The
As will be described later, not only the video data captured and captured by the
図5は第1の情報画像から画像の中心位置を示すシンボル図形301を検出するために使用する射影データを示したものである。図5を使用して、画面の中央位置およびユニットサイズを決定するためのシンボル図形の認識方法について説明する。縦方向の位置を求めるためには、画像データを横方向に累積した射影データ501を求め、射影データがまとまった(連続した)データとして存在する領域をシンボル図形の縦方向の位置として認識する(確定する)。同様に横方向の位置を求めるためには、画像データを縦方向に累積した射影データ502を求め、データがまとまって(連続して)存在する領域をシンボル図形の横方向の位置として認識する(確定する)。
FIG. 5 shows projection data used for detecting the symbol graphic 301 indicating the center position of the image from the first information image. A symbol graphic recognition method for determining the center position and unit size of the screen will be described with reference to FIG. In order to obtain the position in the vertical direction, the
このようにして、第1の情報画像のシンボル図形301の位置とサイズが決定される。実施の形態1では、シンボル図形301の位置から映像の中心位置を、シンボル図形301のサイズから画面を区切る座標系のユニットのサイズを推測する。ただし、正確な座標系は後述のとおり、第2の情報画像中に含まれる四隅のシンボル図形401〜404の位置から求める。ここで推測した座標系のユニットサイズは、第2の情報画像中に含まれる四隅のシンボル図形401〜404の位置を検出するための領域を決定するのに使用される。前述のとおり、第2の情報画像パターン中の四隅のシンボル図形401〜404は、画面中のどこに位置するかが決まっているため、映像の中心位置と座標系のユニットサイズから、第2の情報画像パターン中に含まれる四隅の位置を示すシンボル図形401〜404が表示されるべき位置を割り出すことができる。そして、後述のように、割り出された位置付近で、表示されたシンボル図形401〜404を探索して、シンボル図形401〜404の実際の表示位置を検出する。
In this way, the position and size of the
図6は第2の情報画像パターンの四隅の位置を検出するために使用する射影データを示したものである。図6を使用して、画面の四隅の位置を決定するためのシンボル図形401〜404の認識方法について説明する。領域601、602、603および604は、シンボル図形の検出領域である。検出領域601のように、検出領域601の中にシンボル図形401が完全に中に入っている場合、縦方向、横方向ともに検出領域601の始点、終点(ここで「始点」、「終点」は、ライン或いは画素の走査の順に見たときに、検出領域601の外部から内部に切り替わる検出領域の端点、及び検出領域601の内部から外部に切り替わる検出領域の端点を意味する)では射影データ605、606の値は0であるためシンボル図形401が検出領域601に完全に入っていると判断できる。このような結果が得られた場合、シンボル図形401の位置が検出できたこととする。検出領域602の場合、シンボル図形402の横方向の位置を決定するための縦方向の射影データは、検出領域602の始点で有効な値(0以外の値)を持つため、検出領域602の境界線とシンボル図形402の境界線が交差していることがわかる。このような場合は検出領域602をずらして再度シンボル図形402の検出を行い、シンボル図形402が完全に検出領域602内に入った状態で、シンボル図形402の位置を決定(確定)する。
FIG. 6 shows projection data used for detecting the positions of the four corners of the second information image pattern. The recognition method of the symbol figures 401-404 for determining the position of the four corners of a screen is demonstrated using FIG.
第2の情報画像に含まれる、情報パターン図形405を正確に読み取るため、四隅のシンボル図形401〜404の位置から、撮影時の歪み補正する必要があり、そのために撮影時の歪を考慮した新しい座標系を求めるが、これには射影変換を用いる。図7は射影変換の概念を示した図である。射影変換とは一つの平面701上の点を別の平面703上の点に変換するに当たり、投影中心と、上記一つの平面701上の点Q(x,y)を結ぶ直線と、上記別の平面との交点P(u,v)を上記一つの平面701上の点Q(x,y)に対応付ける変換であり、次式(1)で表させる。
u=(a1x+a2y+a3)/(a7x+a8y+1)
v=(a4x+a5y+a6)/(a7x+a8y+1)
…(1)
In order to accurately read the information pattern graphic 405 included in the second information image, it is necessary to correct distortion at the time of shooting from the positions of the
u = (a1x + a2y + a3) / (a7x + a8y + 1)
v = (a4x + a5y + a6) / (a7x + a8y + 1)
... (1)
図8(a)及び(b)は、4つの点(例えば、シンボル図形401〜404の位置に対応するものであり、四辺形の頂点として図示されている)を射影する場合の射影変換前と変換後の座標値の一例を示したものである。これらの座標値を上記式(1)に当てはめると以下の式(2)のとおりとなる。このモデルでは、4つの点のうちの一つ(Q0,P0)は、変換前後で変わらず(0,0)であるため、a3およびa6の項は0となり、計算式を省略している。
a=(a1*0+a2*h)/(a7*0+a8*h+1)
b=(a4*0+a5*h)/(a7*0+a8*h+1)
c=(a1*g+a2*h)/(a7*g+a8*h+1)
d=(a4*g+a5*h)/(a7*g+a8*h+1)
e=(a1*g+a2*0)/(a7*g+a8*0+1)
f=(a4*g+a5*0)/(a7*g+a8*0+1)
…(2)
これより以下の式(3)の関係が成り立つ。
a1=−(bce−ade)/(−bc+ad+be−de−af+cf)g
a2=(ade−acf)/(bc−ad−be+de+af−cf)h
a4=(−bcf+adf)/(−bc+ad+be−de−af+cf)g
a5=−(−bde−bcf)/(bc−ad−be+de+af−cf)h
a7=−(−be+de+af−cf)/(bc−ad−be+de+af−cf)g
a8=−(bc−ad−be+af)/(bc−ad−be+de+af−cf)h
…(3)
FIGS. 8A and 8B show the pre-projection conversion when projecting four points (for example, corresponding to the positions of the symbol figures 401 to 404 and illustrated as vertices of a quadrilateral). An example of the coordinate value after conversion is shown. When these coordinate values are applied to the above equation (1), the following equation (2) is obtained. In this model, one of the four points (Q0, P0) remains unchanged (0, 0) before and after conversion, so the terms a3 and a6 are 0, and the calculation formula is omitted.
a = (a1 * 0 + a2 * h) / (a7 * 0 + a8 * h + 1)
b = (a4 * 0 + a5 * h) / (a7 * 0 + a8 * h + 1)
c = (a1 * g + a2 * h) / (a7 * g + a8 * h + 1)
d = (a4 * g + a5 * h) / (a7 * g + a8 * h + 1)
e = (a1 * g + a2 * 0) / (a7 * g + a8 * 0 + 1)
f = (a4 * g + a5 * 0) / (a7 * g + a8 * 0 + 1)
... (2)
From this, the relationship of the following formula | equation (3) is formed.
a1 =-(bce-ade) / (-bc + ad + be-de-af + cf) g
a2 = (ade−acf) / (bc−ad−be + de + af−cf) h
a4 = (− bcf + adf) / (− bc + ad + be−de−af + cf) g
a5 = − (− bde−bcf) / (bc−ad−be + de + af−cf) h
a7 = − (− be + de + af−cf) / (bc−ad−be + de + af−cf) g
a8 = − (bc−ad−be + af) / (bc−ad−be + de + af−cf) h
... (3)
つまり、変換前のシンボル図形401〜404(図8(a)の点Q1〜Q4に対応する)間の距離と、射影変換後の4点(図8(b)の点P0〜P3)の位置が求められれば射影変換の係数(a1〜a8)を求めることができる。ここで4点である理由は、シンボル図形401〜404の位置は画像中心からの距離で求めるため、原点位置を決定するために4点が必要となるためである。 That is, the distance between the symbol figures 401 to 404 before conversion (corresponding to the points Q1 to Q4 in FIG. 8A) and the positions of the four points after projective conversion (points P0 to P3 in FIG. 8B). Is obtained, the projective transformation coefficients (a1 to a8) can be obtained. The reason why there are four points is that the positions of the symbol figures 401 to 404 are obtained from the distance from the center of the image, so that four points are required to determine the origin position.
図9は歪んだ状態で撮影した第2の情報画像パターン(カメラ101で取得した画像のパターン)を表した図で、右上のシンボル図形402Aが右上に伸長されている。四隅のシンボル図形401A〜404Aの位置が射影変換されたものであるとして座標系を求めると、点線のような座標系が決定される。この新たな座標系に従い、情報パターン図形405Aの情報を読み取る。このようにして、第2の情報画像の解析では、求めたシンボル図形の位置から射影変換を使用して新たな座標系を構築し、符号化された情報を含む情報パターン図形の内容を正確に読み取ることができる。
FIG. 9 is a diagram showing a second information image pattern (a pattern of an image acquired by the camera 101) photographed in a distorted state, and an upper right symbol graphic 402A is extended to the upper right. When the coordinate system is determined on the assumption that the positions of the
次にフローチャートを使って、CPU103による処理の流れを説明する。図10は処理の全体を示したものある。まず、共通ヘッダ211に含まれる情報を取得する処理S11が行われ、次に、情報データ解析処理S12が行われる。実施の形態1において情報データ解析処理とは、同期確認データ部212の解析処理である。
Next, the flow of processing by the
図11は、図10の共通ヘッダ情報取得処理S11の詳細を示すフローチャートである。共通ヘッダ情報取得処理が開始される(S100)と、まず、第1の情報画像の検出処理S101が行われる。この検出処理においては、第1の情報画像中のシンボル図形の有無のみならず、その位置及びサイズ(大きさ)も検出される。ステップS101以降の処理は撮影動画のフレーム単位で行われる。デジタルビデオカメラのNTSC撮影では、29.97fpsのフレームレートであるため、約33.37m秒毎に1フレームの画像データを処理することになる。処理した画像データにつき、中央のパターン図形301を検出したかどうかの判定を行い(S102)、検出していなければ(S102でNo)、次のフレームに対しても第1の情報画像検出処理(S101)を行う。検出の手順は、前述のとおりである。以降の第1の情報画像検出処理は全て、前述のとおりの方法で行われる。 FIG. 11 is a flowchart showing details of the common header information acquisition process S11 of FIG. When the common header information acquisition process is started (S100), first, a first information image detection process S101 is performed. In this detection process, not only the presence / absence of a symbol graphic in the first information image but also its position and size (size) are detected. The processing after step S101 is performed for each frame of the captured moving image. In NTSC photography with a digital video camera, since the frame rate is 29.97 fps, one frame of image data is processed about every 33.37 milliseconds. For the processed image data, it is determined whether or not the central pattern figure 301 has been detected (S102). If not detected (No in S102), the first information image detection process (No. S101) is performed. The detection procedure is as described above. All subsequent first information image detection processes are performed by the method as described above.
中央のパターン図形301を検出していれば(S102でYes)、次のフレームからは第2の情報画像検出処理S103を行う。 If the center pattern figure 301 is detected (Yes in S102), the second information image detection process S103 is performed from the next frame.
第2の情報画像検出処理S103は前述したとおりで、ステップS101で、第1の情報画像中のシンボル図形301から得られた、画面の中心位置およびユニットサイズから、四隅のシンボル図形401〜404を検索する範囲(四隅のシンボル図形が表示されるべき位置とその近傍の位置を含む範囲)を決定し、その範囲で四隅のシンボル図形401〜404を検索する。(この検索処理には、図6に示すように、シンボル図形402が検出領域602からはみ出している場合に、検出領域602をずらして検出領域602に入った状態でシンボル図形402の位置を決定する処理が含まれる。)以降の第2の情報画像検出処理においても全てこの方法で行われる。
The second information image detection processing S103 is as described above. In step S101, the
四隅のシンボル図形401〜404が検出されなければ(S104でNo)、次のフレームに対しても同様の処理を行う。四隅のシンボル図形401〜404が検出されれば(S104でYes)、射影変換を用い情報パターン図形405を読み取る座標系を決定し(S105)、情報パターン図形405で表される(図形符号化されている)コンテンツのIDや試験番号などの情報データを読み取る(S106)。
これにより、ヘッダ情報取得が完了する(S107)。
If the
Thereby, the header information acquisition is completed (S107).
共通ヘッダ情報211の取得が完了すると、情報データ解析処理を行う。情報データ解析処理の手順を図12に示す。解析は撮影された動画のフレーム単位で行われる。情報データの解析が開始される(S200)と,最初に、撮影したフレームがまだあるかどうかの判定が行われる。動画の撮影が終了し解析するデータなくなれば(S201でNo)、情報データ解析処理の解析を終了し(S211)、全ての処理が完了する。 When the acquisition of the common header information 211 is completed, an information data analysis process is performed. The procedure of the information data analysis process is shown in FIG. The analysis is performed in units of frames of the captured video. When the analysis of the information data is started (S200), it is first determined whether or not there is a photographed frame. If the shooting of the moving image is completed and there is no data to be analyzed (No in S201), the analysis of the information data analysis process is terminated (S211), and all the processes are completed.
解析すべきフレームが存在すると(S201でYes)、第1の情報画像検出処理S202が行われる。この画像検出処理において、画面中央のシンボル図形301を検出したら次の処理に進むが、検出できなかった場合は(S203でNo)、次のフレームに対し同様の処理を繰り返す。 If there is a frame to be analyzed (Yes in S201), the first information image detection process S202 is performed. In this image detection process, if the symbol graphic 301 at the center of the screen is detected, the process proceeds to the next process. If it cannot be detected (No in S203), the same process is repeated for the next frame.
シンボル図形301を検出した場合(S203でYes)、そのときの検出時刻を保存する。検出時刻は、評価装置100内の図示しないクロックで計時することにより得られるものであり、例えばクロックの計時動作に従って発生される、カメラ101による撮像のための垂直同期信号を計数することにより得られる再生経過時間、例えば動画ファイルの先頭からの経過時間を表す秒数である。
そして、このようにして得られた検出時刻と、1つ前の情報パターン図形405に含まれていた再生時刻情報(当該シンボル図形301を含む第1の情報画像206が含まれるデータの組Giの一つ前のデータの組G(i−1)の第2の情報画像207で表される再生時刻情報)と一致しているか判定し(S204)、時間がずれていると、表示タイミングがずれていると判断し、エラーとして記録する(S205)。なお、情報データ解析処理を開始して一回目に検出したときは(最初のデータの組の第1の情報画像206に含まれるシンボル図形301を検出したときは)、一つ前のデータ組が存在せず、1つ前の情報パターン図形405を読み取っていないため、特に何もしない。
When the symbol figure 301 is detected (Yes in S203), the detection time at that time is stored. The detection time is obtained by counting with a clock (not shown) in the
The detection time obtained in this way and the reproduction time information included in the previous information pattern graphic 405 (of the data set Gi including the
次に第2の情報画像中の情報データを読み取ることになるが、図2に示されるように300m秒間表示される第2の情報画像203の読み取りに失敗し続けた場合、その後1秒間は第2の情報画像203は表示されないため、ここで第2の情報画像の検出を中止し、次に出現する第1の情報画像202を検出する処理に戻る必要がある(S206)。実施の形態1では、第1の情報画像の表示期間が300m秒、第2の情報画像の表示期間が300m秒であるので、タイムアウト値を600m秒に定めている。このため、第1の情報画像202の表示期間の最後にシンボル図形301を検出し、その後第2の情報画像203のシンボル図形401〜404の検出に失敗し続け、タイムアウトが発生した段階では、動画表示はブランク画像を表示しており、次の第1の情報画像202のシンボル図形301の検出を、第1の情報画像202の表示期間の始めから行うことができる。
Next, the information data in the second information image is read. As shown in FIG. 2, when the reading of the
タイムアウトが発生していなければ(S206でNo)、ステップ1202で、第1の情報画像中のシンボル図形301から得られた画面の中心位置及びユニットサイズから、第2の情報画像203の四隅のシンボル図形401〜404の検出を行う(S207)。ステップS207における四隅のシンボル図形401〜404の検出も、ステップS103と同様、第1の情報画像中のシンボル図形301から得られた、画面の中心位置およびユニットサイズから、四隅のシンボル図形401〜404を検索する範囲を決定し、その範囲で四隅のシンボル図形401〜404を検索することにより行われる。
If no timeout has occurred (No in S206), symbols in the four corners of the
第1の情報画像202のシンボル図形301に基づいて割り出された(予想された)領域内にシンボル図形401〜404が見当たらない場合(S208でNo)、ステップS206に戻り、タイムアウトでなければ(S206でNo)次のフレームに対し、同様に第2の情報画像のシンボル図形401〜404の位置を求める。
If the
第2の情報画像203から、四隅のシンボル図形401〜404を検出した場合、射影変換を用い、新しい座標系を決定する(S209)。決定された座標系に従い、第2の情報画像203に含まれる符号化された情報(情報データ)を読み取り、情報に含まれる次の第1の情報画像の出現時刻を求める(S210)。
その後、ステップS201に戻り、再び、第1の情報画像の検出処理を行い、同様の処理を繰り返す。
このようにして、実施の形態1で説明した画像読み取り装置では、第1の情報画像202から読み取ったシンボル図形301の位置とサイズから、第2の情報画像203に含まれるシンボル図形401〜404の検索位置を推測し、その範囲でシンボル図形401〜404の検索を行うため、比較的簡単なアルゴリズムで正確にシンボル図形401〜404の位置を決定し、情報を正確に読み取ることができる。その結果、動画ファイルの映像データが時刻どおりに表示されていることを自動的に監視することができる。
When the
Thereafter, the process returns to step S201, the first information image detection process is performed again, and the same process is repeated.
In this manner, in the image reading apparatus described in the first embodiment, the
実施の形態1においては、第1の情報画像202中の画面の特定位置を表すシンボル図形301が画面の中央に位置していたが、これは画面中のある場所を特定できれば、任意の場所でよい。また、第2の情報画像中の撮影による画面の歪みを補正するために必要な数の特定の位置を表すシンボル図形が、画面の四隅に4つ位置していたが、これも採用する歪み補正に必要な数が任意の場所に位置していればよい。
In the first embodiment, the symbol graphic 301 representing the specific position of the screen in the
また、上記の例では、動画を取得する手段がカメラを備え、カメラから入力された映像データを解析したが、予め再生された映像をカメラで撮影しておき、撮影の結果得られる動画ファイルからの読み込みを行うこととしても良い。この点は、以下に述べる実施の形態2〜4についても同様である。 Further, in the above example, the means for acquiring the moving image includes a camera and analyzes the video data input from the camera. However, from the moving image file obtained as a result of shooting by shooting the video played in advance with the camera. It is also possible to read This also applies to Embodiments 2 to 4 described below.
実施の形態2.
図13は実施の形態2の再生評価装置を評価対象となる再生装置90とともに表すシステム構成図である。
図13に示す再生装置90は、表示部93のほか、再生データ提供部91と再生信号処理部92とを有し、再生データ提供部91から提供される動画ファイルを再生信号処理部92で再生し、表示部93に表示する。再生装置100の再生データ提供部91が提供する動画ファイルは、後述のように音声データをも含むものであり、再生信号処理部92は、動画ファイル中の音声データに対し再生のための信号処理を行い、スピーカ94から出力する。再生評価装置100は、再生装置90の表示部93に表示される画像及びスピーカ94から出力される音声を解析するためのものである。
FIG. 13 is a system configuration diagram illustrating the reproduction evaluation apparatus according to the second embodiment together with the
13 includes a reproduction
図13に示される再生評価装置は、図1に示される再生評価装置と概して同じであり、同じ符号は同様の部材を示す。図13の再生評価装置は、スピーカ94からの音声を収音して音声データを取得する入力手段としてのマイク106を備えている点で図1の再生評価装置とは異なる。CPU103は、カメラ101で取得した映像データのほか、マイク106で取得した音声データを解析する。
The reproduction evaluation apparatus shown in FIG. 13 is generally the same as the reproduction evaluation apparatus shown in FIG. 1, and the same reference numerals denote the same members. The playback evaluation apparatus of FIG. 13 is different from the playback evaluation apparatus of FIG. 1 in that it includes a
図14は実施の形態2で評価の対象とされる再生装置90で再生される動画を表す動画ファイルのデータの構成を示した図である。図示のように、同期確認データ部212内に、ある単位時間、例えば1秒間隔で、データの組Gに同期して、特定の音声データ1401、1402、1403、1404が挿入されている。
FIG. 14 is a diagram showing a data structure of a moving image file representing a moving image to be played back by the
特定の音声データとは例えば、DTMF(dual tone multi―frequency)音であり、音を構成する周波数の組合せにより、ある数値を表現している。周波数の組合せと表現する数値の関係を図15に示した。実施の形態2では、0から9までの数値を巡回的に使用し、再生経過秒数(例えば動画ファイルの再生開始からの経過時間を表す秒数)の1の位の数字を表現したDTMF音が挿入される。つまり同期確認データ部の中の一つの音声データ領域1401(一つのデータの組Gに対応する)に「0」を表現したDTMF音が入っていれば、次の音声データ領域1402(次のデータの組Gに対応する)には「1」、その次の音声データ領域1403(さらにその次のデータの組Gに対応する)には「2」、さらにその次の音声データ領域1404(さらにその次のデータの組Gに対応する)には「3」を表現したDTMF音がそれぞれ挿入される。以下同様にして、「4、「5」、「6」、「7」、「8」、「9」の数値を表現するDTMF音のデータが挿入され、「9」の次には、再び「0」に戻り、以下同様に0〜9の数値を表現するDTMF音が順番に繰り返し挿入されている。 The specific sound data is, for example, DTMF (dual tone multi-frequency) sound, and a certain numerical value is expressed by a combination of frequencies constituting the sound. FIG. 15 shows the relationship between frequency combinations and numerical values to be expressed. In the second embodiment, a numerical value from 0 to 9 is used cyclically, and a DTMF sound that expresses a number of 1's of elapsed playback seconds (for example, seconds indicating the elapsed time from the start of playback of a video file). Is inserted. That is, if a DTMF sound expressing “0” is included in one audio data area 1401 (corresponding to one data set G) in the synchronization confirmation data portion, the next audio data area 1402 (next data "1" for the next set G), "2" for the next voice data area 1403 (further corresponding to the next set G of data), and the next voice data area 1404 (further, The DTMF sound expressing “3” is inserted into the corresponding data set G). In the same manner, DTMF sound data representing numerical values of “4,“ 5 ”,“ 6 ”,“ 7 ”,“ 8 ”,“ 9 ”is inserted, and“ 9 ”is followed by“ Returning to “0”, DTMF sounds representing numerical values of 0 to 9 are repeatedly inserted in the same manner.
図14はまた、映像データと音声データとの時間的な関係を示している。即ち、音声データ1401、1402、1403、1404などは、それぞれ対応するデータの組Gの先頭、即ち第1の情報画像206の表示の開始と同時に再生が開始されるべき特定の音声を表すものである。従って、再生装置90が正しく再生動作を行っている場合には、音声データのDTMF音の開始時刻と、第1の情報画像206画像の再生開始時刻は同じである。実施の形態2では、これらの時刻の一致を判定することにより、音声と映像の同期再生の確認を行う。
なお、図14で音声データADTは、映像データVDTと別のファイルとして存在するのではなく、映像データVDTと同じファイル内にその一部として挿入されている。
FIG. 14 also shows the temporal relationship between video data and audio data. That is, the
In FIG. 14, the audio data ADT does not exist as a separate file from the video data VDT, but is inserted as a part of the same file as the video data VDT.
図16は、音声データの解析のタイミングを示した図である。ここでの音声データはPCMデータである。一回の解析には256サンプルのデータを取り扱う。実施の形態2では音声データのサンプリング周波数は8kHzとしているため、256/8000=0.032秒(32m秒)分のデータを取り扱うことになる。サンプリング幅が16bitで、ステレオデータの場合、サイズとしては
256(sample)×2(byte)×2(ch)=1024(byte)
のデータを取り扱うことになる。解析は10m秒毎に行うこととしているため、サンプルデータ1501の解析を行った次は、10m秒後にあたるサンプルデータ1502の解析を行う。以降同様にサンプルデータ1503、1504、1505のように順次解析を行う。
FIG. 16 is a diagram showing the timing of analysis of audio data. The audio data here is PCM data. Data for 256 samples is handled for one analysis. In the second embodiment, since the sampling frequency of audio data is 8 kHz, data for 256/8000 = 0.032 seconds (32 milliseconds) is handled. In the case of stereo data with a sampling width of 16 bits, the size is 256 (sample) × 2 (bytes) × 2 (ch) = 1024 (bytes).
Will be handled. Since the analysis is performed every 10 milliseconds, the analysis of the
次に、音声データ解析動作の説明を行う。前述したように使用するDTMF音は0から9までの値であるため、10秒を1サイクルとして10秒分の経過秒数記憶領域104aをメモリ104内に確保し、経過秒数(評価装置100内の図示しないクロックで計時することにより得られるもので、例えば動画ファイルの先頭からの経過時間を表す秒数)を記録する。1秒間隔で挿入されているDTMF音が検出されたときの結果を記録するので、10秒間で10回経過秒数が記録される。DTMF音の検出は、10m秒単位で行うため、記録される時刻は10m秒の解像度となる。DTMF音として記録されている経過秒数の1の位が0秒になれば結果を出力し、これまでに記録した結果をクリアし次のサイクル(0から9までのサイクル)の記録を開始する。
Next, the audio data analysis operation will be described. Since the DTMF sound to be used has a value from 0 to 9 as described above, an elapsed
図17に解析処理の手順を示すフローチャートを示す。解析が開始される(S300)と、メモリ104内の取得経過秒数記憶領域104aを初期化する(S301)。次にデータ解析処理を行うPCMデータがあるか判定が行われる(S302)。音声のデータがなければ(S302でNo)、処理を終了する(S312)。音声データがあれば(S302でYes)、前回の解析分から10m秒分ずらした256サンプル分のデータを取り出す(S303)。解析の結果、DTMF音を検出しなかったら(S304でNo)、ステップS302に戻り、始めから処理を繰り返す。
FIG. 17 is a flowchart showing the procedure of the analysis process. When the analysis is started (S300), the acquired elapsed number of
DTMF音を検出した場合(S304でYes)その値の確認を行う(S305)。0であれば、過去10秒分の検出結果(経過秒数記憶領域104aに保存された、DTMF音が検出された時刻を示すデータ)をログ出力し(即ちHDD105内のログファイル105aに記録し)、経過秒数記憶領域104aをクリアする(S306)。ステップS305で、0以外であれば(S305でNo)前回検出した値(経過秒数記憶領域104aに記録されている)と比較し(S307)、今回のDTMF音で表される数値が、前回のDTMF音で表される数値よりも1だけ多い値であるかどうかの判定を行い(S307),「1だけ多い数値」でなければ、解析誤りであるか、前回DTMF音の鳴動がされなかったということになるため、エラーとして記録する(S308)。ステップS307でYesのとき、或いはステップS306又はS308の処理を行った後にステップS309に進む。
When a DTMF sound is detected (Yes in S304), the value is confirmed (S305). If 0, the detection result for the past 10 seconds (data indicating the time when the DTMF sound was detected, stored in the elapsed
ステップS309では、DTMF音が検出された時刻(HDD105内のログファイル105aに記録されている、DTMF音が検出された時刻を示すデータ)を音声検出時刻としてプログラムで管理する。音声データの検出と映像データの検出は別のプロセスで動作し、映像データの検出動作の手順は実施の形態1と同様の方法で行われる。図14で示したように、DTMF音がスピーカ94から出力された時刻の時刻と、第1の情報画像の表示時刻は本来同じであるべきで、測定対象となる再生処理系(図13の再生信号処理部92、表示部93、スピーカ94を含む)で処理誤りがなければ、これらはほぼ同時刻に検出されるはずである。映像データが検出できれば(S310)、そのときの時刻と、音声検出時刻を比較し、この差分が映像と音声の同期再生のずれとしてHDD105に記録される(S311)。
In step S309, the time at which the DTMF sound is detected (data indicating the time at which the DTMF sound is detected, recorded in the
このようにして、実施の形態2で説明した再生評価装置では、評価の対象となる再生装置90が音声の情報と映像の情報を含む動画ファイルに基づく再生を行う。より具体的には、該動画ファイルが、単位時間(例えば1秒)毎に特定の音声データ(DTMF音データ)と、その単位時間に合わせて第1および第2の情報画像(206、207)を含むデータの組Gが繰り返される映像データで構成される動画を表すものである。そして、再生評価装置100では、第1の情報画像(206)の検出時刻と、特定の音声データの検出時刻が一致するか否かを検出することで、映像と音声の再生時刻のずれを自動で検出することができる。
In this way, in the playback evaluation device described in the second embodiment, the
実施の形態3.
図18は実施の形態3の再生評価装置を評価対象となる再生装置90とともに表すシステム構成図である。
図18に示す再生評価装置100は、図1に示す再生評価装置100と同様に、再生装置90の表示部93に表示される画像を解析するためのものである。この再生評価装置100は、図1に示すものと同様であるが、メモリ104が、取得フレーム番号記憶領域104dを有する。
FIG. 18 is a system configuration diagram illustrating the reproduction evaluation apparatus according to the third embodiment together with the
The
図19は実施の形態3で評価の対象とされる再生装置90で再生される動画を表す動画ファイルを示した図である。共通ヘッダ部211の構成は、実施の形態1及び実施の形態2と同様である。実施の形態3では、図2の同期確認データ部212の代わりに、フレームレート確認データ部222が設けられている。フレームレート確認データ部222は、それぞれ1秒間ずつの情報画像227の繰り返しにより構成される。それぞれ1秒間ずつの情報画像227を構成する複数のフレームには、その1秒間中のフレーム番号が1から順に情報として含まれる。たとえば図19に示すように、10fpsの動画ファイルであれば、ある1秒間内の最初のフレームE1に「1」が入力され、次のフレームE2では「2」、その次のフレームE3では「3」というように1ずつ増加され、1秒間の最終のフレームE10では「10」が入力される。次の1秒の最初のフレームE1には再びフレーム番号「1」が入力され、フレーム番号は同様に1ずつ増加される。
FIG. 19 is a diagram showing a moving image file representing a moving image to be played back by the
フレーム番号を表現する情報画像411としては、図20に示すように、実施の形態1および実施の形態2でも使用した第2の情報画像と同様のものを使用する。即ち、情報画像411には、4つのブロック図形401〜404と、フレーム番号を表す情報パターン図形412とが含まれる。したがって画像の認識の手順は実施の形態1および実施の形態2と同様の手順で行う。実施の形態3における読み取り装置のシステム構成は、実施の形態1と同じであり、読み取り方法についても、図10で示したフローチャートの通りに行われ、その手順は実施の形態1と同様である。このため、実施の形態1と異なる情報データ解析部分(フレームレート確認データ部222の処理)についてのみ、図21のフローチャートを用いて説明を行う。
As the
共通ヘッダ情報211を読み取った後、情報データの解析動作に入るが、実施の形態3で取り扱う動画ファイルを構成する映像データの情報データ部(フレームレート確認データ部222)には第1の情報画像(実施の形態1の符号206で示すもの)が含まれない。このため、画面の中央位置および座標系のユニットサイズについては、共通ヘッダ情報211を読み取った際に検出したものをそのまま使用する。
After reading the common header information 211, the information data analysis operation is started, but the first information image is included in the information data portion (frame rate confirmation data portion 222) of the video data constituting the moving image file handled in the third embodiment. (Indicated by
解析は1秒を1サイクルとして実施される。解析が開始される(S400)と、最初に、1秒分の解析データを確保する領域(取得フレーム番号記憶領域)104dをクリアする(S401)。次に撮影された画像データがあれば(S402でYes)、共通ヘッダ情報211を読み取った際に使用した、画面の中央位置と座標系のユニットサイズを使用して、第2の情報画像の検出処理を行う(S403)。 The analysis is performed with 1 second as one cycle. When analysis is started (S400), first, an area (acquired frame number storage area) 104d for securing analysis data for one second is cleared (S401). If there is next photographed image data (Yes in S402), the second information image is detected using the center position of the screen and the unit size of the coordinate system used when the common header information 211 is read. Processing is performed (S403).
第2の情報画像の4箇所のシンボル図形が検出できなければ(S404でNo)、ステップS402に戻り、次の画像に対して同様の処理を行う。4箇所のシンボル図形401〜408が検出できれば(S404でYes)、その位置情報をもとに射影変換を用い、新しい座標系を決定する(S405)。決定された座標系に従い、第2の情報画像に含まれる符号化された情報を読み取り、フレーム番号を取得する(S406)。 If four symbol figures in the second information image cannot be detected (No in S404), the process returns to step S402, and the same process is performed on the next image. If four symbol figures 401 to 408 can be detected (Yes in S404), a new coordinate system is determined using projective transformation based on the position information (S405). According to the determined coordinate system, the encoded information included in the second information image is read, and the frame number is acquired (S406).
取得されたフレーム番号が1であれば(S407でYes)、解析サイクルが一巡したと判断し、それまでの検出結果(取得フレーム番号記憶領域104dに記憶されたフレーム番号)を出力してログファイル105aに記録した後、取得フレーム番号記憶領域104dをクリアする(S408)。そして今回取得したフレーム番号である「1」を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻って、次のフレームの処理を行う。
If the acquired frame number is 1 (Yes in S407), it is determined that the analysis cycle has been completed, and the detection result up to that point (the frame number stored in the acquired frame
取得されたフレーム番号が1でない場合(S407でNo)、前回取得したフレーム番号(取得フレーム番号記憶領域104dに記憶されている)との比較を行う。前回取得したフレーム番号は取得フレーム番号記憶領域104d中の有効なデータの中でもっとも番号が大きいものである。今回取得されたフレーム番号が前回取得したフレーム番号よりも1だけ大きければ(S410でYes)、正常に再生されていると判断し、今回取得したフレーム番号を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻り、次のフレームの処理を行う。
If the acquired frame number is not 1 (No in S407), a comparison is made with the previously acquired frame number (stored in the acquired frame
今回取得されたフレーム番号が前回取得したフレーム番号よりも1だけ大きくはなかった場合(S410でNo)、今回取得されたフレーム番号と前回取得したフレーム番号との大小関係を比較し(S411)、今回取得されたフレーム番号が前回取得したフレーム番号よりも小さければ(S411でYes)、解析サイクルが一巡したと判断し、結果を出力した後、取得フレーム番号記憶領域104dをクリアする(S408)。そして今回取得したフレーム番号を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻って、次のフレームの処理を行う。
今回取得されたフレーム番号が前回取得したフレーム番号よりも小さくなければ(S411でNo)、解析サイクルは一巡していないと判断し、今回取得したフレーム番号を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻り、次のフレームの処理を行う。
If the frame number acquired this time is not 1 larger than the frame number acquired last time (No in S410), the magnitude relationship between the frame number acquired this time and the frame number acquired last time is compared (S411), If the currently acquired frame number is smaller than the previously acquired frame number (Yes in S411), it is determined that the analysis cycle has been completed, and after outputting the result, the acquired frame
If the currently acquired frame number is not smaller than the previously acquired frame number (No in S411), it is determined that the analysis cycle has not been completed, and the currently acquired frame number is stored in the acquired frame
撮影が終了し、解析する画像データがなくなれば(S402でNo)、解析処理は終了する(S412)。 When the photographing is finished and there is no image data to be analyzed (No in S402), the analysis process is finished (S412).
ログファイル105aに記録された検出結果は、単位時間当たりのフレーム数の確認に用いられる。具体的には、フレーム番号が検出できなかったフレームは表示されなかったものであると判断し、単位時間当たりの表示されたフレーム数、即ちレートの測定乃至確認に用いられる。
The detection result recorded in the
このようにして、実施の形態3で説明した画像読み取り装置では、データ図形に含まれる映像フレームの番号を正確に読み取ることができるため、再生のフレームレートを正確に測定することができる。 In this manner, the image reading apparatus described in the third embodiment can accurately read the number of the video frame included in the data graphic, and therefore can accurately measure the playback frame rate.
実施の形態4.
図22は実施の形態4の再生評価装置を評価対象となる再生装置90とともに表すシステム構成図である。
図22に示す再生評価装置100は、図1に示す再生評価装置100と同様に、再生装置90の表示部93に表示される画像を解析するためのものである。この再生評価装置100は、図1に示すものと同様であるが、メモリ104が、実施の形態3と同様の取得フレーム番号記憶領域(今回の取得フレーム番号記憶領域)104dのほか、前回の取得フレーム番号記憶領域104eを有する。
FIG. 22 is a system configuration diagram illustrating the reproduction evaluation apparatus according to the fourth embodiment together with the
The
図23は実施の形態4で評価の対象とされる再生装置90で再生される動画を表す動画ファイルを示した図である。共通ヘッダ部211の構成は、実施の形態1、実施の形態2および実施の形態3と同様である。実施の形態4では、実施の形態3と同様に、図2の同期確認データ212の代わりに、フレームレート確認データ部222が設けられている。フレームレート確認データ部222は、それぞれ1秒間ずつの情報画像237の繰り返しにより構成される。それぞれ1秒間ずつの情報画像237を構成する複数のフレームには、その1秒間間内のフレーム番号が1から順に情報として含まれる点も、実施の形態3と同様である。実施の形態3では、フレーム番号情報として、4つのシンボル図形を含む情報画像411を使用したが、実施の形態4では、フレーム番号を表すブロック図形によりフレーム番号が表現される。
FIG. 23 is a diagram showing a moving image file representing a moving image to be played back by the
図23に示す例では、各情報画像237は30フレーム(第1乃至第30のフレームF1〜F30)からなり、図23の1番目、2番目、3番目、7番目、20番目、30番目のフレームF1,F2,F3,F7,F20,F30のブロック図形B1、B2,B3,B7,B20,B30が図24に示されている。
In the example shown in FIG. 23, each
図24に示される例から理解されるように、情報画像237のブロック図形は、30個の互いに異なる位置の矩形の領域のうちの一つが刻印として、黒色に塗りつぶされたもので、フレーム番号によって、異なる位置の(即ち、互いに重ならない)矩形の領域が塗りつぶされている。矩形の領域は、5行6列のマトリクス状に配置されており、1番目のフレームF1のブロック図形B1は、左上(第1行第1列)の矩形の領域が塗りつぶされており、2番目のフレームF2のブロック図形B2は第1行第2列の矩形の領域、3番目のフレームF3のブロック図形B3は第1行第3列の矩形の領域、…のように最も上の行から下の行へ、各行においては左端から右の方へという順に塗りつぶされた領域の位置が移る。このように、互いに異なるフレームに対応する刻印(塗りつぶされた領域)は、画面中の互いに重ならない位置に設けられている。
As can be understood from the example shown in FIG. 24, the block graphic of the
図24には、1番目のフレームF1のブロック図形B1についてのみ点線で画面を区切る座標系を示している。図示のように、ブロック図形の位置は第1の情報画像および第2の情報画像を構成するのに使用した座標系と同じ座標系を使用しており、第1の情報画像の解析により得られる画面の中央位置と座標系のユニットサイズから、その位置を特定することができる。 FIG. 24 shows a coordinate system that divides the screen with a dotted line only for the block graphic B1 of the first frame F1. As shown in the figure, the position of the block graphic uses the same coordinate system as that used to construct the first information image and the second information image, and is obtained by analyzing the first information image. The position can be specified from the center position of the screen and the unit size of the coordinate system.
実施の形態4で取り扱う動画ファイルはブロック図形の位置がフレーム番号を表現するため、カメラ撮影時のフレームレートが低い場合は、再生画像であるブロック図形が複数重なって撮影される。具体的には図25で示すように、撮影された映像データに複数のブロック図形(図25では8番目のフレームF8のブロック図形B8と、9番目のフレームF9のブロック図形B9)が撮像されることがあり、このため、カメラのフレームレートが低いときでも再生系の表示情報を漏らさず捕らえることが可能である。 In the moving image file handled in the fourth embodiment, the position of the block graphic expresses the frame number, and therefore, when the frame rate at the time of camera shooting is low, a plurality of block graphics that are reproduced images are captured and overlapped. Specifically, as shown in FIG. 25, a plurality of block graphics (in FIG. 25, a block graphic B8 of the eighth frame F8 and a block graphic B9 of the ninth frame F9 in FIG. 25) are captured. For this reason, even when the frame rate of the camera is low, it is possible to capture the display information of the reproduction system without leaking.
実施の形態4における読み取り装置のシステム構成は、実施の形態1と同じであり、読み取り方法についても、図10で示したフローチャートの通りに行われ、その手順は実施の形態1と同様である。このため、実施の形態1と異なる情報データ部の解析処理(フレームレート確認データ部222の処理)についてのみ、図26のフローチャートを用いて説明を行う。 The system configuration of the reading apparatus according to the fourth embodiment is the same as that of the first embodiment, and the reading method is also performed according to the flowchart shown in FIG. 10, and the procedure is the same as that of the first embodiment. For this reason, only the analysis processing of the information data portion (processing of the frame rate confirmation data portion 222) different from the first embodiment will be described using the flowchart of FIG.
共通ヘッダ情報211を読み取った後、情報データ部の解析動作に入るが、実施の形態4で取り扱う動画ファイルを構成する映像データの情報データ部(フレームレート確認データ部222)には第1の情報画像(実施の形態1の符号206で示すもの)が含まれない。このため、画面の中央位置および座標系のユニットサイズについては、共通ヘッダ情報を読み取った際に検出したものをそのまま使用する点は、実施の形態3と同様である。
After the common header information 211 is read, the analysis operation of the information data portion is started, but the first information is included in the information data portion (frame rate confirmation data portion 222) of the video data constituting the moving image file handled in the fourth embodiment. An image (shown by
実施の形態4においても解析は1秒を1サイクルとして実施される。解析が開始される(S500)と、最初に、1秒分の解析データを確保する領域である、今回の取得フレーム番号記憶領域104dと前回の取得フレーム番号記憶領域104eをクリアする(S501)。次に撮影された画像データがあれば(S502でYes)、共通ヘッダ情報211を読み取った際に使用した、画面の中央位置と座標系のユニットサイズを使用して、フレーム番号を意味するブロック図形の検出を行い、フレーム番号を取得する(S503)。実施の形態4では、処理速度を優先させるため、撮影された情報画像に対する歪補正を目的とした射影変換は行わず、第1の情報画面中に含まれるシンボル図形301から特定した画面の中央位置と座標系のユニットサイズから、フレーム番号を表現するブロック図形(B1〜B30)の位置を推測し、その位置でのブロック図形の有無の判定及びフレーム番号の検出を行う。ここで、図25のような場合には、2つのフレーム番号が検出される。
Also in the fourth embodiment, the analysis is performed with 1 second as one cycle. When the analysis is started (S500), first, the current acquisition frame
ブロック図形の検出ができなければ(S504でNo)、ステップS502に戻り、次の映像データに対して、同様の処理を行う。 If the block graphic cannot be detected (No in S504), the process returns to step S502, and the same processing is performed on the next video data.
フレーム番号が検出できれば(S504でYes)、そのフレーム番号(1つ又は2つ以上のフレーム番号)が前回取得したフレーム番号(前回の取得フレーム番号記憶領域104eに記憶されているものであり、後述のステップS514の処理により、前回複数のフレーム番号が検出された場合には、その中の最も値の大きいものが、「前回の取得したフレーム番号」として記録されている)から30(1秒間のフレーム数、従ってフレーム番号の最大値)までの範囲にあるかどうかの判定を行う(S505)。ステップS505で該当するフレーム番号が検出されれば(S506でYes)、上記のようにステップS503で複数のフレーム番号が検出された場合には、検出されたフレーム番号の各々について、前回取得したフレーム番号から30(フレーム番号の最大値)までの範囲にあるかどうかの判定を行う。この判定の結果、上記の範囲にあると判定されたフレーム番号をすべて取得フレーム番号記憶領域104dに保存する(S507)。
If the frame number can be detected (Yes in S504), the frame number (one or more frame numbers) is stored in the previously acquired frame number (previously acquired frame
次に、ステップS503で検出された(1又は2以上の)フレーム番号の中に、前回取得したフレーム番号より小さなものの検索を行う(S508)。該当するものが見つからなければ(S509でNo)、解析サイクルは一巡していないと判断し、今回取得したフレーム番号の中で最大のものを「前回取得したフレーム番号」として記憶領域104eに保存する(S510)。
該当するものが見つかれば(S509でYes)、解析サイクルが一巡したと判断し1秒分のデータである取得フレーム番号記憶領域104dに記憶されている取得フレーム番号を出力し、ログファイル105aに記録する(S511)。そして、取得フレーム番号記憶領域104dをクリアし(S512)、今回該当したフレーム番号を取得フレーム番号記憶領域104dに保存し(S513)、今回該当したフレーム番号の最大のものを、前回取得したフレーム番号として記憶領域104eに保存する(S514)。その後、ステップS502に戻ることにより、さらに次の画像データについてもの同様の処理を行い、画像データがなくなれば(S502でNo)、解析を終了する(S515)。
Next, a search is made for a frame number (one or two or more) detected in step S503 that is smaller than the previously acquired frame number (S508). If no corresponding one is found (No in S509), it is determined that the analysis cycle has not been completed, and the largest one of the frame numbers acquired this time is stored in the
If a corresponding one is found (Yes in S509), it is determined that the analysis cycle has been completed, and the acquisition frame number stored in the acquisition frame
ログファイル105aに記録された取得フレーム番号は、単位時間あたりに表示されたフレーム数、即ちフレームレートの算出に用いられる。
The acquired frame number recorded in the
このようにして、実施の形態4で説明した画像読み取り装置では、複数の情報画像が撮像された画像データをまとめて解析処理を行うことができるため、撮影のフレームレートが低いカメラを用いても、正確に再生のフレームレートを測定することができる。
In this manner, the image reading apparatus described in
本発明に係る再生評価における解析手段は典型的には汎用のパーソナルコンピュータで実現されるが、上記した再生評価用のデータ構造を用いた場合、解析が軽い処理となるので、HWリソースが十分でない組込み機器で解析を行うこともできる。 The analysis means in the reproduction evaluation according to the present invention is typically realized by a general-purpose personal computer. However, when the above-described data structure for reproduction evaluation is used, the analysis becomes a light process, so the HW resource is not sufficient. Analysis can also be performed with embedded devices.
90 再生装置、 91 動画提供部、 92 再生信号処理部、 93 表示部、 94 スピーカ、 100 再生評価装置、 101 カメラ、 102 モニタ、 103 CPU、 104 メモリ、 105 HDD、 106 マイク、 201、204、205、208 ブランク画像、 202、206 第1の情報画像、 203、207、411 第2の情報画像、 301 第1の情報画像のシンボル図形、 401、402、403、404 第2の情報画像のシンボル図形、 405 第2の情報画像のデータ図形、 501、502、605、606、607、608 画像データの累積データ、 601、602、603、604 シンボル図形の検出領域、 701、703 平面、 702 投影中心、 1401、1402、1403、1404 音声データ中のDTMF音、 1501、1502、1503、1504、1505 256サンプル分の音声データ。
90 playback device, 91 moving image providing unit, 92 playback signal processing unit, 93 display unit, 94 speaker, 100 playback evaluation device, 101 camera, 102 monitor, 103 CPU, 104 memory, 105 HDD, 106 microphone, 201, 204, 205 , 208 Blank image, 202, 206 First information image, 203, 207, 411 Second information image, 301 Symbol graphic of the first information image, 401, 402, 403, 404 Symbol graphic of the
Claims (20)
取得した映像データを解析する解析手段と
を有する再生評価装置であって、
前記被評価装置により再生されるべき動画を表す映像データを含む動画ファイルが、第1の画像データと、第2の画像データとを含み、
前記第1の画像データが、画面中の第1の特定の位置を表す第1のシンボル図形で構成された第1の情報画像を表し、
前記第2の画像データが、前記第1の情報画像と相前後して再生されるべき、画面中の互いに異なる複数の第2の特定の位置を表す第2のシンボル図形と、解析用の情報を図形により符号化したデータ図形とを含む第2の情報画像とを表し、
前記解析手段が、
前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形に基づいて前記第1の特定の位置を確定し、
確定した前記第1の特定の位置を表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置を割り出し、割り出した位置付近で、再生された前記第2のシンボル図形を探索して前記第2のシンボル図形の位置を確定し、確定した前記第2の特定の位置の、前記割り出した位置からのずれに基づいて画面の歪みを補正して、前記データ図形により符号化されたデータを解読する
ことを特徴とする再生評価装置。 Video data acquisition means for acquiring video data obtained by capturing a video reproduced based on a video file by the evaluated device;
A reproduction evaluation apparatus having analysis means for analyzing acquired video data,
A moving image file including video data representing a moving image to be reproduced by the device to be evaluated includes first image data and second image data;
The first image data represents a first information image composed of a first symbol graphic representing a first specific position in the screen;
Second symbol graphics representing a plurality of second specific positions different from each other in the screen, and information for analysis, in which the second image data is to be reproduced before and after the first information image A second information image including a data graphic encoded with a graphic,
The analysis means is
Determining the first specific position based on the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on the position information representing the determined first specific position, the device to be evaluated determines the position where the second symbol graphic is to be reproduced, and the second reproduced near the calculated position. The position of the second symbol figure is determined by searching for the second symbol figure, the distortion of the screen is corrected based on the deviation of the determined second specific position from the determined position, and the data A reproduction evaluation apparatus characterized in that it decodes data encoded by a figure.
前記第1の特定の位置を表す位置情報のみならず、前記第1のシンボル図形のサイズを表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置の割り出しを行うことを特徴とする請求項1に記載の再生評価装置。 The analyzing means detects a size of the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on not only the position information indicating the first specific position but also the position information indicating the size of the first symbol graphic, the evaluation target device determines the position where the second symbol graphic is to be reproduced. 2. The reproduction evaluation apparatus according to claim 1, wherein indexing is performed.
前記第2の情報画像中のデータ図形により符号化されるデータには当該第2の情報画像の再生の後最初に再生される前記第1の情報画像が再生されるべき時刻を表す再生時刻情報が含まれており、
前記解析手段が、
前記被評価装置で再生された前記第2の情報画像中のデータ図形を解読することで得られる再生時刻情報と、
当該第2の情報画像の再生の後最初に前記被評価装置で前記第1の情報画像が再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項1に記載の再生評価装置。 The video data of the video file represents video in which the first and second information images are alternately repeated,
Reproduction time information indicating the time at which the first information image reproduced first after the reproduction of the second information image is to be reproduced is included in the data encoded by the data graphic in the second information image. Is included,
The analysis means is
Reproduction time information obtained by decoding a data graphic in the second information image reproduced by the device under evaluation;
2. The reproduction according to claim 1, wherein it is detected whether or not a time when the first information image is reproduced by the device to be evaluated first after the reproduction of the second information image. 3. Evaluation device.
前記音声データに基づいて再生された音声を収音することにより得られた音声データを取得する音声データ取得手段をさらに有し、
前記解析手段が、
前記第1の情報画像が前記被評価装置で再生された時刻と、前記音声が前記被評価装置で再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項1に記載の再生評価装置。 The moving image file represents a video in which the first and second information images are alternately and repeatedly reproduced, and the moving image file contains audio to be reproduced in synchronization with the reproduction of the first information image. Voice data to represent,
Audio data acquisition means for acquiring audio data obtained by collecting audio reproduced based on the audio data;
The analysis means is
The time at which the first information image is reproduced by the device under evaluation and the time at which the sound is reproduced by the device under evaluation are detected. Reproduction evaluation device.
映像を構成する複数のフレームのそれぞれの番号を表す図形を含む動画を表すものであり、
前記解析手段が、前記被評価装置で再生された映像を解読することで得られるフレーム番号に基づいて、
単位時間あたりに表示されたフレーム数を確認する
ことを特徴とする請求項1に記載の再生評価装置。 The video file is
Represents a video that contains graphics representing the numbers of each of the frames that make up the video,
Based on a frame number obtained by decoding the video reproduced by the device under evaluation, the analysis means,
The playback evaluation apparatus according to claim 1, wherein the number of frames displayed per unit time is confirmed.
ことを特徴とする請求項5に記載の再生評価装置。 The reproduction evaluation apparatus according to claim 5, wherein the frame number is cyclically changed at a predetermined period.
前記解析手段が、前記刻印を含む映像を撮像することにより得られた映像データに基づいて、単位時間当たりに表示されたフレーム数を確認する
ことを特徴とする請求項5に記載の再生評価装置。 The video data of the video file represents video including an inscription representing a frame number displayed at a position that does not overlap each other on the screen,
6. The reproduction evaluation apparatus according to claim 5, wherein the analysis unit confirms the number of frames displayed per unit time based on video data obtained by capturing a video including the inscription. .
前記第1の情報画像中の、前記第1のシンボル図形から前記前記刻印を含む映像の位置を推測して前記刻印を含む映像を読み取ることにより得られた映像データに基づき、前記フレーム数の確認を行うことを特徴とする請求項7に記載の再生評価装置。 The analysis means is
Confirmation of the number of frames based on video data obtained by estimating the position of the video including the stamp from the first symbol graphic in the first information image and reading the video including the stamp The reproduction evaluation apparatus according to claim 7, wherein:
前記四隅のうちの一つの位置を表す前記第2のシンボル図形が、他の隅の位置を表す前記第2のシンボル図形とは異なるものであることを特徴とする請求項1に記載の再生評価装置。 The plurality of second specific positions are positions of the four corners of the screen;
2. The reproduction evaluation according to claim 1, wherein the second symbol graphic representing the position of one of the four corners is different from the second symbol graphic representing the position of the other corner. apparatus.
取得した映像データを解析する解析ステップと
を有する再生評価方法であって、
前記被評価装置により再生されるべき動画を表す映像データを含む動画ファイルが、第1の画像データと、第2の画像データとを含み、
前記第1の画像データが、画面中の第1の特定の位置を表す第1のシンボル図形で構成された第1の情報画像を表し、
前記第2の画像データが、前記第1の情報画像と相前後して再生されるべき、画面中の互いに異なる複数の第2の特定の位置を表す第2のシンボル図形と、解析用の情報を符号化したデータ図形とを含む第2の情報画像とを表し、
前記解析ステップが、
前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形に基づいて前記第1の特定の位置を確定し、
確定した前記第1の特定の位置を表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置を割り出し、割り出した位置付近で、再生された前記第2のシンボル図形を探索して前記第2のシンボル図形の位置を確定し、確定した前記第2の特定の位置の、前記割り出した位置からのずれに基づいて画面の歪みを補正して、前記データ図形により符号化されたデータを解読する
ことを特徴とする再生評価方法。 A video data acquisition step of acquiring video data obtained by imaging a video reproduced based on a video file by the evaluated device;
A playback evaluation method comprising: an analysis step for analyzing the acquired video data,
A moving image file including video data representing a moving image to be reproduced by the device to be evaluated includes first image data and second image data;
The first image data represents a first information image composed of a first symbol graphic representing a first specific position in the screen;
Second symbol graphics representing a plurality of second specific positions different from each other in the screen, and information for analysis, in which the second image data is to be reproduced before and after the first information image And a second information image including a data graphic encoded with
The analyzing step comprises:
Determining the first specific position based on the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on the position information representing the determined first specific position, the device to be evaluated determines the position where the second symbol graphic is to be reproduced, and the second reproduced near the calculated position. The position of the second symbol figure is determined by searching for the second symbol figure, the distortion of the screen is corrected based on the deviation of the determined second specific position from the determined position, and the data A reproduction evaluation method characterized by decoding data encoded by a figure.
前記第1の特定の位置を表す位置情報のみならず、前記第1のシンボル図形のサイズを表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置の割り出しを行うことを特徴とする請求項11に記載の再生評価方法。 The analyzing step detects a size of the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on not only the position information indicating the first specific position but also the position information indicating the size of the first symbol graphic, the evaluation target device determines the position where the second symbol graphic is to be reproduced. 12. The reproduction evaluation method according to claim 11, wherein indexing is performed.
前記第2の情報画像中のデータ図形により符号化されるデータには当該第2の情報画像の再生の後最初に再生される前記第1の情報画像が再生されるべき時刻を表す再生時刻情報が含まれており、
前記解析ステップが、
前記被評価装置で再生された前記第2の情報画像中のデータ図形を解読することで得られる再生時刻情報と、
当該第2の情報画像の再生の後最初に前記被評価装置で前記第1の情報画像が再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項11に記載の再生評価方法。 The video data of the video file represents video in which the first and second information images are alternately repeated,
Reproduction time information indicating the time at which the first information image reproduced first after the reproduction of the second information image is to be reproduced is included in the data encoded by the data graphic in the second information image. Is included,
The analyzing step comprises:
Reproduction time information obtained by decoding a data graphic in the second information image reproduced by the device under evaluation;
12. The reproduction according to claim 11, wherein it is detected whether or not the time when the first information image is reproduced by the device under evaluation first coincides with the reproduction of the second information image. Evaluation methods.
前記音声データに基づいて再生された音声を収音することにより得られた音声データを取得する音声データ取得ステップをさらに有し、
前記解析ステップが、
前記第1の情報画像が前記被評価装置で再生された時刻と、前記音声が前記被評価装置で再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項11に記載の再生評価方法。 The moving image file represents a video in which the first and second information images are alternately and repeatedly reproduced, and the moving image file contains audio to be reproduced in synchronization with the reproduction of the first information image. Voice data to represent,
An audio data acquisition step of acquiring audio data obtained by collecting audio reproduced based on the audio data;
The analyzing step comprises:
The time at which the first information image is reproduced by the device under evaluation and the time at which the sound is reproduced by the device under evaluation are detected. Reproduction evaluation method.
映像を構成する複数のフレームのそれぞれの番号を表す図形を含む動画を表すものであり、
前記解析ステップが、前記被評価装置で再生された映像を解読することで得られるフレーム番号に基づいて、
単位時間あたりに表示されたフレーム数を確認する
ことを特徴とする請求項11に記載の再生評価方法。 The video file is
Represents a video that contains graphics representing the numbers of each of the frames that make up the video,
The analysis step is based on a frame number obtained by decoding the video reproduced by the device to be evaluated.
The playback evaluation method according to claim 11, wherein the number of frames displayed per unit time is confirmed.
ことを特徴とする請求項15に記載の再生評価方法。 The reproduction evaluation method according to claim 15, wherein the frame number changes cyclically at a predetermined period.
前記解析ステップが、前記刻印を含む映像を撮像することにより得られた映像データに基づいて、単位時間当たりに表示されたフレーム数を確認する
ことを特徴とする請求項15に記載の再生評価方法。 The video data of the video file represents video including an inscription representing a frame number displayed at a position that does not overlap each other on the screen,
16. The reproduction evaluation method according to claim 15, wherein the analysis step confirms the number of frames displayed per unit time based on video data obtained by capturing a video including the inscription. .
前記第1の情報画像中の、前記第1のシンボル図形から前記前記刻印を含む映像の位置を推測して前記刻印を含む映像を読み取ることにより得られた映像データに基づき、前記フレーム数の確認を行うことを特徴とする請求項17に記載の再生評価方法。 The analyzing step comprises:
Confirmation of the number of frames based on video data obtained by estimating the position of the video including the stamp from the first symbol graphic in the first information image and reading the video including the stamp The reproduction evaluation method according to claim 17, wherein:
前記四隅のうちの一つの位置を表す前記第2のシンボル図形が、他の隅の位置を表す前記第2のシンボル図形とは異なるものであることを特徴とする請求項11に記載の再生評価方法。 The plurality of second specific positions are positions of the four corners of the screen;
12. The reproduction evaluation according to claim 11, wherein the second symbol graphic representing the position of one of the four corners is different from the second symbol graphic representing the position of the other corner. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005260441A JP2007074489A (en) | 2005-09-08 | 2005-09-08 | Device and method for reproduction evaluation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005260441A JP2007074489A (en) | 2005-09-08 | 2005-09-08 | Device and method for reproduction evaluation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007074489A true JP2007074489A (en) | 2007-03-22 |
Family
ID=37935534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005260441A Withdrawn JP2007074489A (en) | 2005-09-08 | 2005-09-08 | Device and method for reproduction evaluation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007074489A (en) |
-
2005
- 2005-09-08 JP JP2005260441A patent/JP2007074489A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4379409B2 (en) | Imaging apparatus, information processing method, and computer program | |
KR102650850B1 (en) | Video sound processing device, video sound processing method , and computer readable recording medium storing program | |
CN1972414B (en) | Information processing apparatus, imaging device, information processing method | |
US7856145B2 (en) | Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program | |
EP2161928B1 (en) | Image processing device, image processing method, and program | |
JP5751630B2 (en) | Inspection auxiliary device and method | |
JP2009017598A (en) | Imaging apparatus, information treatment method, and computer program | |
JP2017050649A (en) | Video audio reproducing apparatus, video audio reproducing method, and program | |
JP5349488B2 (en) | Imaging device, output device, program, and imaging method of imaging device | |
JP6295442B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
JP2007074489A (en) | Device and method for reproduction evaluation | |
JP2010200079A (en) | Photography control device | |
JP6314321B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
JP2006041586A (en) | Video reproducing and displaying apparatus | |
JP2010062726A (en) | Apparatus and method for supporting imaging position determination, and computer program | |
JP5012644B2 (en) | Presentation recording apparatus, presentation playback apparatus, and program | |
JP2020129763A (en) | Video reproduction device, video reproduction method, and program | |
JP5089459B2 (en) | Video system with past video reference function, video information processing method, program, and recording medium | |
JP6295443B2 (en) | Image generating apparatus, photographing apparatus, image generating method, and program | |
JP6070559B2 (en) | Image display apparatus and method, and program | |
JP2009284411A (en) | Imaging apparatus | |
JP5665380B2 (en) | Image processing apparatus, image processing apparatus control method, program, and recording medium | |
JP4361818B2 (en) | Screen display area detection device, screen display area detection method, and screen display area detection program | |
JP6662223B2 (en) | Video recording and playback device | |
JP2022052361A (en) | Highlight moving image creation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081202 |