JP2007074489A - Device and method for reproduction evaluation - Google Patents

Device and method for reproduction evaluation Download PDF

Info

Publication number
JP2007074489A
JP2007074489A JP2005260441A JP2005260441A JP2007074489A JP 2007074489 A JP2007074489 A JP 2007074489A JP 2005260441 A JP2005260441 A JP 2005260441A JP 2005260441 A JP2005260441 A JP 2005260441A JP 2007074489 A JP2007074489 A JP 2007074489A
Authority
JP
Japan
Prior art keywords
data
information
video
reproduced
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005260441A
Other languages
Japanese (ja)
Inventor
Kenji Minami
賢司 南
Shigeo Ando
重男 安藤
Yasuo Maeda
泰雄 前田
Mitsunobu Yoshinaga
光伸 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005260441A priority Critical patent/JP2007074489A/en
Publication of JP2007074489A publication Critical patent/JP2007074489A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To quickly and exactly read information encoded as image data included in video data of a moving image. <P>SOLUTION: Positions of symbol graphics 401-404 are quickly and exactly determined by calculating positions and size of the symbol graphics 401-404 for distortion correction in a second information image 207 from the position and size of a symbol graphic 301 in a first photographed information image 206 and by detecting the symbol graphics 401-404 near the determined positions. Since a data graphic 405 included in the second information image 207 is read after correcting distortion, the data are exactly read. As information included in the data graphic 405, there are time of reproduction and a frame number and reproduction of the moving image is quantitatively evaluated from these pieces of information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、被評価装置による動画の再生を評価する再生評価装置及び方法に関する。   The present invention relates to a reproduction evaluation apparatus and method for evaluating reproduction of a moving image by an evaluated apparatus.

近年の携帯電話は高機能化がめざましく、動画撮影、再生機能が搭載されたものもめずらしくない。一般に携帯電話に代表されるような組込み機器は、小型化、電源確保、コスト上の制約などの問題があるため、パーソナルコンピュータのような計算機に搭載された高性能のハードウエア(HW)を持たないことが多い。このため、十分でないHWリソースで動画再生、撮影機能を実現したり、マルチメディア機能を処理する専用のプロセッサを搭載し、そこで処理を行ったりすることが多い。   Mobile phones in recent years have been dramatically enhanced, and those equipped with video shooting and playback functions are not uncommon. In general, embedded devices such as mobile phones have high-performance hardware (HW) installed in computers such as personal computers because they have problems such as downsizing, securing power, and cost constraints. Often not. For this reason, it is often the case that video playback and shooting functions are realized with insufficient HW resources, or that a dedicated processor for processing multimedia functions is installed and processed there.

動画撮影、再生で取り扱う動画ファイルは映像、音声の2つのデータから構成され、中にはテキストデータを含むものも存在する。これらのデータにはそれぞれのデータフォーマット仕様があり、さらには再生されるべき時刻も考慮する必要があるため、評価のための処理は膨大な量となる。前述のように、マルチメディア機能を処理する専用のプロセッサを使用した場合、メインプロセッサとマルチメディア機能処理用プロセッサ間での制御が複雑になるため、評価試験にはさらにコストがかかることになる。   A moving image file handled in moving image shooting and reproduction is composed of two data, video and audio, and some include text data. These data have respective data format specifications, and further, it is necessary to consider the time to be reproduced, so that the processing for evaluation becomes enormous. As described above, when the dedicated processor for processing the multimedia function is used, the control between the main processor and the multimedia function processing processor becomes complicated, so that the evaluation test is further costly.

これらの膨大な量の評価を行うために、多くの人的リソースが必要であり、コストがかかる。また、プログラムの更新の度に同じ試験を繰り返す必要があり、さらにコストがかかっている。   In order to evaluate these enormous amounts, many human resources are required and costly. In addition, the same test needs to be repeated every time the program is updated, which further increases costs.

コストを削減するために、これらの評価の工程において、携帯電話の表示画面上の操作画面をカメラで撮影し、撮影した動画ファイルを自動で解析することができれば、評価期間を短縮することができる。特に動画の再生試験に関しては、動画を構成する映像データとして、何らかの解析用の情報を符号化した映像データを用いれば、再生の良否や、途中で停止したかなどの動画再生の状況を自動で認識することが可能になる。   In order to reduce costs, in these evaluation processes, if the operation screen on the display screen of the mobile phone can be shot with a camera and the shot video file can be automatically analyzed, the evaluation period can be shortened. . Especially for video playback tests, if video data that encodes some information for analysis is used as video data that composes the video, the status of video playback, such as whether the playback is good or not, is stopped automatically. It becomes possible to recognize.

動画の画面に情報を挿入する方法としては、特許文献1に示す方法が提案されている。この方法では、多くの情報を画面に入れるために、情報を分割して動画に挿入することとしている。ところが、画像の認識に関しては、多くのデータを取り扱うため、時間のかかる処理となる。   As a method for inserting information into a moving picture screen, a method shown in Patent Document 1 has been proposed. In this method, in order to put a lot of information on the screen, the information is divided and inserted into the moving image. However, image recognition is time-consuming because it handles a lot of data.

また、少ないHWリソースでマルチメディア機能を実現する場合は、性能が問題となる可能性があり、その性能を定量的に評価する必要がある。   In addition, when realizing a multimedia function with a small number of HW resources, there is a possibility that performance may become a problem, and it is necessary to quantitatively evaluate the performance.

動画再生の定量的な分析および改善提案を行う方法としては特許文献2に示す方法が提案されている。しかし特許文献2に示す方法は、再生処理系が画面フリーズ検出などのさまざまな情報を検出する手段を有していることが前提となっているため、これらの手段を実装する必要があり、これらの実装にはコストがかかる。   As a method for quantitative analysis of moving image reproduction and improvement proposal, a method shown in Patent Document 2 is proposed. However, since the method shown in Patent Document 2 is based on the premise that the reproduction processing system has means for detecting various information such as screen freeze detection, it is necessary to implement these means. Implementation is costly.

特開2004−78351号公報JP 2004-78351 A 特開2000−115766号公報JP 2000-115766 A

動画再生評価は時間とコストがかかる作業であり、専用のプロセッサを使用したシステムではさらに評価項目が増える可能性があり、評価作業に多くの時間が費やされる。   Video playback evaluation is time consuming and costly, and there is a possibility that the evaluation items may increase further in a system using a dedicated processor, and much time is spent on the evaluation work.

さらに、動画再生の定量的な評価方法としては、回路構成に変更を加えたり、さまざまな情報検出手段を搭載し、それらを総合して評価する方法があるが、この方法では多くのコストがかかる。   In addition, as a method for quantitative evaluation of moving image reproduction, there are methods of making changes to the circuit configuration and mounting various information detection means to evaluate them comprehensively, but this method requires a lot of cost. .

本発明は、
被評価装置により動画ファイルに基づいて再生された動画を撮像することにより得られた映像データを取得する映像データ取得手段と、
取得した映像データを解析する解析手段と
を有する再生評価装置であって、
前記被評価装置により再生されるべき動画を表す映像データを含む動画ファイルが、第1の画像データと、第2の画像データとを含み、
前記第1の画像データが、画面中の第1の特定の位置を表す第1のシンボル図形で構成された第1の情報画像を表し、
前記第2の画像データが、前記第1の情報画像と相前後して再生されるべき、画面中の互いに異なる複数の第2の特定の位置を表す第2のシンボル図形と、解析用の情報を符号化したデータ図形とを含む第2の情報画像とを表し、
前記解析手段が、
前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形に基づいて前記第1の特定の位置を確定し、
確定した前記第1の特定の位置を表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置を割り出し、割り出した位置付近で、再生された前記第2のシンボル図形を探索して前記第2のシンボル図形の位置を確定し、確定した前記第2の特定の位置の、前記割り出した位置からのずれに基づいて画面の歪みを補正して、前記データ図形により符号化されたデータを解読する
ことを特徴とする再生評価装置を提供する。
The present invention
Video data acquisition means for acquiring video data obtained by capturing a video reproduced based on a video file by the evaluated device;
A reproduction evaluation apparatus having analysis means for analyzing acquired video data,
A moving image file including video data representing a moving image to be reproduced by the device to be evaluated includes first image data and second image data;
The first image data represents a first information image composed of a first symbol graphic representing a first specific position in the screen;
Second symbol graphics representing a plurality of second specific positions different from each other in the screen, and information for analysis, in which the second image data is to be reproduced before and after the first information image And a second information image including a data graphic encoded with
The analysis means is
Determining the first specific position based on the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on the position information representing the determined first specific position, the device to be evaluated determines the position where the second symbol graphic is to be reproduced, and the second reproduced near the calculated position. The position of the second symbol figure is determined by searching for the second symbol figure, the distortion of the screen is corrected based on the deviation of the determined second specific position from the determined position, and the data Provided is a reproduction evaluation apparatus characterized by decoding data encoded by a figure.

この発明によれば、評価対象となる再生機の動画の再生画面を撮影することにより、指定された時刻どおりに映像、音声のデータが再生できているかを自動で正確に確認することができる。   According to the present invention, it is possible to automatically and accurately confirm whether video and audio data can be reproduced at a designated time by shooting a playback screen of a moving image of a playback device to be evaluated.

また、評価対象となる再生機の動画の再生画面を撮影することにより、表示のフレームレートを正確に測定することができる。   In addition, the frame rate of the display can be accurately measured by shooting a moving image playback screen of the playback device to be evaluated.

さらに、動画の映像データにより符号化された情報を速く、正確に読み取ることができるため、HWリソースが十分でない組込み機器を再生評価に利用することも可能である。   Furthermore, since the information encoded by the video data of the moving image can be read quickly and accurately, an embedded device having insufficient HW resources can be used for reproduction evaluation.

実施の形態1.
図1は実施の形態1の再生評価装置100を評価の対象となる(即ち被評価装置としての)再生装置90とともに示すシステム構成図である。
図示の再生評価装置100は、再生装置90の表示部93に表示される画像を解析するためのものである。再生装置90は、表示部93のほか、再生データ提供部91と再生信号処理部92とを有し、再生データ提供部91から提供される動画ファイルを再生信号処理部92で再生のための信号処理を行い、再生信号処理部92からの信号に基づき表示部93で表示を行う。再生データ提供部91は、例えば放送された動画ファイル、或いは通信網を介して送信される動画ファイルを受信するものでもよく、記録媒体に記録された動画ファイルを読み取るものでも良い。
Embodiment 1 FIG.
FIG. 1 is a system configuration diagram showing a reproduction evaluation apparatus 100 according to Embodiment 1 together with a reproduction apparatus 90 to be evaluated (that is, as an evaluation target apparatus).
The illustrated reproduction evaluation apparatus 100 is for analyzing an image displayed on the display unit 93 of the reproduction apparatus 90. In addition to the display unit 93, the playback device 90 includes a playback data providing unit 91 and a playback signal processing unit 92, and a playback signal processing unit 92 generates a signal for playback of a moving image file provided from the playback data providing unit 91. Processing is performed, and display is performed on the display unit 93 based on the signal from the reproduction signal processing unit 92. The reproduction data providing unit 91 may receive, for example, a broadcast moving image file or a moving image file transmitted via a communication network, or may read a moving image file recorded on a recording medium.

再生評価装置100は、表示部93に表示される映像を撮像して、映像データを取得する入力手段としてのカメラ101と、取得した映像データの解析処理を行うCPU103と、CPU103の解析処理プログラムが動作するための一次記憶装置としてのメモリ104と、解析処理プログラムの保存や、演算結果や、ログファイルを保存するための二次記憶装置としてのハードディスクドライブ(HDD)105と、解析処理プログラムの操作画面や演算結果の出力部としてのモニタ102とを備える。   The reproduction evaluation device 100 captures a video displayed on the display unit 93 and acquires a camera 101 as an input unit that acquires video data, a CPU 103 that performs analysis processing of the acquired video data, and an analysis processing program of the CPU 103. Operation of a memory 104 as a primary storage device for operation, a hard disk drive (HDD) 105 as a secondary storage device for storing analysis processing programs, calculation results, and log files, and an analysis processing program And a monitor 102 as an output unit for a screen and calculation results.

図2は、図1の再生装置90で再生データ提供部91から提供される、再生される動画を表す動画ファイルを示すものである。動画ファイルはファイルの先頭に位置する共通ヘッダ部211と、その後に続く同期認識データ部212から構成される。   FIG. 2 shows a moving image file representing a moving image to be reproduced, which is provided from the reproduction data providing unit 91 in the reproducing device 90 of FIG. The moving image file includes a common header portion 211 located at the head of the file, and a synchronization recognition data portion 212 that follows the common header portion 211.

共通ヘッダ部211は1秒間のブランク画像201と、それに続く1秒間の情報データ部213と、それに続く1秒間のブランク画像とにより構成される。このように1秒間の情報データ部213は、前後に位置する1秒間のブランク画像201及び205に挟まれている。1秒間の情報データ部213は300m秒の第1の情報画像202、それに続く300m秒の第2の情報画像203、それに続く400m秒のブランク画像205の順で構成される。   The common header section 211 is composed of a blank image 201 for 1 second, an information data section 213 for 1 second, followed by a blank image for 1 second. As described above, the 1-second information data portion 213 is sandwiched between the 1-second blank images 201 and 205 located at the front and back. The 1-second information data portion 213 is composed of a 300 msec first information image 202, a 300 msec second information image 203 followed by a 400 msec blank image 205 in that order.

同期確認データ部212は、1秒間のデータの組G(個々のデータの組を表すのに(i−1)、i、(i+1)などの添え字を付して、G(i−1)、Gi、G(i+1)などの符号を用いることがある)の繰り返しにより構成される。1秒間のデータの組Gは、共通ヘッダ部211の情報データ部213と同様に300m秒の第1の情報画像206、それに続く300m秒の第2の情報画像207、それに続く400m秒のブランク画像208の順で構成される。   The synchronization confirmation data unit 212 includes a data set G for one second (subscripts (i−1), i, (i + 1) are added to represent individual data sets, and G (i−1) , Gi, G (i + 1), etc. may be used). Similar to the information data portion 213 of the common header portion 211, the 1-second data set G includes a first information image 206 of 300 msec, a second information image 207 of 300 msec, followed by a blank image of 400 msec. The order is 208.

同期確認データ部212の第1の情報画像206は、共通ヘッダ部211の第1の情報画像202と同じ内容のものであり、同期確認データ部212の第2の情報画像207は、共通ヘッダ部211の第2の情報画像203と同様のものである(ただし、図形により符号化された情報の内容が全く同じとは限らない)。データの組Gの各々を情報データ部と呼ぶこともある。   The first information image 206 of the synchronization confirmation data part 212 has the same content as the first information image 202 of the common header part 211, and the second information image 207 of the synchronization confirmation data part 212 has a common header part. 211 is the same as the second information image 203 (however, the content of the information encoded by the graphic is not always the same). Each data set G may be referred to as an information data portion.

再生装置90は、再生データ提供部91から提供される、上記のような動画ファイルに基づき、動画ファイルで表される映像を再生して、表示部93に表示させる。同期確認データ部212により表される映像は、ある単位時間(図示の例では1秒)ごとに第1および第2の情報画像が交互に現われる(再生される)ものである。   The playback device 90 plays back the video represented by the video file based on the video file provided from the playback data providing unit 91 and causes the display unit 93 to display the video. In the video represented by the synchronization confirmation data section 212, the first and second information images appear alternately (reproduced) every certain unit time (1 second in the illustrated example).

図3は第1の情報画像のパターンを示した図である。図示のように、第1の情報画像は、画面中央に表示される、画像の中心位置を示すシンボル図形(第1のシンボル図形)301を含む。点線は画面を区切る座標系を示したもので、実際の画面には表示されない。シンボル図形は、縦方向横方向それぞれ4ユニット分のサイズを持つ。ここで、「ユニット」は所定数の画素またはラインから成る。この図では、撮影した画像はある閾値で二値化したものとなっている。以降の全ての画像処理は撮像した画像データを二値化したデータに対して行う。   FIG. 3 is a diagram showing a pattern of the first information image. As illustrated, the first information image includes a symbol graphic (first symbol graphic) 301 displayed at the center of the screen and indicating the center position of the image. The dotted line shows the coordinate system that divides the screen and is not displayed on the actual screen. The symbol figure has a size of 4 units in each of the vertical and horizontal directions. Here, the “unit” includes a predetermined number of pixels or lines. In this figure, the photographed image is binarized with a certain threshold value. All subsequent image processing is performed on the binarized data of the captured image data.

図4は第2の情報画像のパターンを示した図で、図3と同様に画面を区切る座標系を点線で表示している。この線も実際の画面には表示されない。図4に示すように、第2の情報画像には、シンボル図形(第2のシンボル図形)401、402、403及び404と情報パターン図形405とが含まれる。シンボル図形401〜404は、後述のように撮影による画面の歪を補正するための、画面上の互いに異なる複数の特定の位置、例えば画面の四隅の位置を表すものである。シンボル図形401〜404の表示位置は、シンボル図形の中心位置が画面の中心から縦方向に7ユニット、横方向に10ユニットずれた位置となる。画面の左下の位置を示すシンボル図形403は、他の3つのシンボル図形とは異なり画像の中央が空白になっており、このシンボル図形403を検出することで、その位置が画面の左下であることがわかるようになっている。   FIG. 4 is a diagram showing a pattern of the second information image, and the coordinate system for dividing the screen is displayed by dotted lines as in FIG. This line is also not displayed on the actual screen. As shown in FIG. 4, the second information image includes symbol graphics (second symbol graphics) 401, 402, 403, and 404 and an information pattern graphic 405. The symbol graphics 401 to 404 represent a plurality of different specific positions on the screen, for example, the positions of the four corners of the screen, for correcting the distortion of the screen due to photographing as described later. The display positions of the symbol figures 401 to 404 are positions where the center position of the symbol figure is shifted by 7 units in the vertical direction and 10 units in the horizontal direction from the center of the screen. Unlike the other three symbol figures, the symbol figure 403 indicating the lower left position of the screen is blank at the center of the image. By detecting this symbol figure 403, the position is at the lower left side of the screen. Can be understood.

情報パターン図形405は、図示の例では、画面の中央に表示されるものであり、動画ファイルIDや、再生時間などの情報が図形により符号化(図形符号化)された情報パターン図形(データ図形)である。情報パターン図形405は1ユニットで1bitの情報を表す。実施の形態1では、160bitの情報を表現することができる。   In the illustrated example, the information pattern graphic 405 is displayed at the center of the screen, and an information pattern graphic (data graphic) in which information such as a moving image file ID and a reproduction time is encoded (graphic encoding) with a graphic. ). An information pattern figure 405 represents 1-bit information per unit. In the first embodiment, 160-bit information can be expressed.

同期確認データ部212の各組(情報データ)Giの第2の情報画像207の情報パターン図形405には、次の組G(i+1)の第1の情報画像206の再生時刻(再生されるべき時刻)を表すデータを図形符号化した部分が含まれる。   In the information pattern figure 405 of the second information image 207 of each group (information data) Gi of the synchronization confirmation data section 212, the reproduction time (to be reproduced) of the first information image 206 of the next group G (i + 1) A portion obtained by graphic-coding data representing (time).

再生評価装置100は、再生装置90の表示部93に表示される映像をカメラ101で撮像して取得し(取り込み)、CPU103で分析する。この分析には、以下に説明されるように、射影データの作成、シンボル図形の認識、画面の中央位置及びユニットサイズの決定、歪の補正(そのための、歪を考慮した座標系の生成)、歪みを考慮した座標系を用いた情報画像の解析、同期確認などの処理が含まれる。
なお、後述のようにカメラ101で撮像して取得した映像データを直ちに分析する場合のみならず、一旦映像データを保存した後、再生して分析を行うこととしてもよく、また撮像により得られた映像データを他の装置から受け取り、受け取った映像データに対して分析を行うこととしても良い。
The playback evaluation apparatus 100 captures and acquires (captures) the video displayed on the display unit 93 of the playback apparatus 90 by the camera 101 and analyzes it with the CPU 103. This analysis includes projection data creation, symbol graphic recognition, determination of the screen center position and unit size, distortion correction (for this purpose, generation of a coordinate system in consideration of distortion), as described below. This includes processing such as information image analysis and synchronization confirmation using a coordinate system that takes distortion into account.
As will be described later, not only the video data captured and captured by the camera 101 is analyzed immediately, but also after the video data is stored once, it may be reproduced and analyzed. The video data may be received from another device, and the received video data may be analyzed.

図5は第1の情報画像から画像の中心位置を示すシンボル図形301を検出するために使用する射影データを示したものである。図5を使用して、画面の中央位置およびユニットサイズを決定するためのシンボル図形の認識方法について説明する。縦方向の位置を求めるためには、画像データを横方向に累積した射影データ501を求め、射影データがまとまった(連続した)データとして存在する領域をシンボル図形の縦方向の位置として認識する(確定する)。同様に横方向の位置を求めるためには、画像データを縦方向に累積した射影データ502を求め、データがまとまって(連続して)存在する領域をシンボル図形の横方向の位置として認識する(確定する)。   FIG. 5 shows projection data used for detecting the symbol graphic 301 indicating the center position of the image from the first information image. A symbol graphic recognition method for determining the center position and unit size of the screen will be described with reference to FIG. In order to obtain the position in the vertical direction, the projection data 501 obtained by accumulating the image data in the horizontal direction is obtained, and an area where the projection data is collected (continuous) is recognized as the vertical position of the symbol figure ( Determine). Similarly, in order to obtain the horizontal position, projection data 502 obtained by accumulating image data in the vertical direction is obtained, and an area where the data is collected (continuously) is recognized as the horizontal position of the symbol figure ( Determine).

このようにして、第1の情報画像のシンボル図形301の位置とサイズが決定される。実施の形態1では、シンボル図形301の位置から映像の中心位置を、シンボル図形301のサイズから画面を区切る座標系のユニットのサイズを推測する。ただし、正確な座標系は後述のとおり、第2の情報画像中に含まれる四隅のシンボル図形401〜404の位置から求める。ここで推測した座標系のユニットサイズは、第2の情報画像中に含まれる四隅のシンボル図形401〜404の位置を検出するための領域を決定するのに使用される。前述のとおり、第2の情報画像パターン中の四隅のシンボル図形401〜404は、画面中のどこに位置するかが決まっているため、映像の中心位置と座標系のユニットサイズから、第2の情報画像パターン中に含まれる四隅の位置を示すシンボル図形401〜404が表示されるべき位置を割り出すことができる。そして、後述のように、割り出された位置付近で、表示されたシンボル図形401〜404を探索して、シンボル図形401〜404の実際の表示位置を検出する。   In this way, the position and size of the symbol graphic 301 of the first information image are determined. In the first embodiment, the center position of the video is estimated from the position of the symbol graphic 301, and the size of the coordinate system unit that divides the screen from the size of the symbol graphic 301 is estimated. However, an accurate coordinate system is obtained from the positions of the symbol graphics 401 to 404 at the four corners included in the second information image, as will be described later. The unit size of the coordinate system estimated here is used to determine a region for detecting the positions of the symbol graphics 401 to 404 at the four corners included in the second information image. As described above, since the symbol figures 401 to 404 at the four corners in the second information image pattern are determined in the screen, the second information is determined from the center position of the video and the unit size of the coordinate system. The positions where the symbol figures 401 to 404 indicating the positions of the four corners included in the image pattern should be displayed can be determined. Then, as will be described later, the displayed symbol graphics 401 to 404 are searched in the vicinity of the determined position, and the actual display positions of the symbol graphics 401 to 404 are detected.

図6は第2の情報画像パターンの四隅の位置を検出するために使用する射影データを示したものである。図6を使用して、画面の四隅の位置を決定するためのシンボル図形401〜404の認識方法について説明する。領域601、602、603および604は、シンボル図形の検出領域である。検出領域601のように、検出領域601の中にシンボル図形401が完全に中に入っている場合、縦方向、横方向ともに検出領域601の始点、終点(ここで「始点」、「終点」は、ライン或いは画素の走査の順に見たときに、検出領域601の外部から内部に切り替わる検出領域の端点、及び検出領域601の内部から外部に切り替わる検出領域の端点を意味する)では射影データ605、606の値は0であるためシンボル図形401が検出領域601に完全に入っていると判断できる。このような結果が得られた場合、シンボル図形401の位置が検出できたこととする。検出領域602の場合、シンボル図形402の横方向の位置を決定するための縦方向の射影データは、検出領域602の始点で有効な値(0以外の値)を持つため、検出領域602の境界線とシンボル図形402の境界線が交差していることがわかる。このような場合は検出領域602をずらして再度シンボル図形402の検出を行い、シンボル図形402が完全に検出領域602内に入った状態で、シンボル図形402の位置を決定(確定)する。   FIG. 6 shows projection data used for detecting the positions of the four corners of the second information image pattern. The recognition method of the symbol figures 401-404 for determining the position of the four corners of a screen is demonstrated using FIG. Regions 601, 602, 603, and 604 are symbol graphic detection regions. When the symbol graphic 401 is completely inside the detection area 601 as in the detection area 601, the start point and end point of the detection area 601 in both the vertical and horizontal directions (here, “start point” and “end point” are Projection data 605 means an end point of a detection region that switches from the outside to the inside of the detection region 601 and an end point of the detection region that switches from the inside to the outside of the detection region 601 when viewed in the order of scanning of lines or pixels). Since the value of 606 is 0, it can be determined that the symbol graphic 401 is completely within the detection area 601. When such a result is obtained, it is assumed that the position of the symbol figure 401 has been detected. In the case of the detection area 602, the projection data in the vertical direction for determining the horizontal position of the symbol graphic 402 has a valid value (a value other than 0) at the start point of the detection area 602, so the boundary of the detection area 602 It can be seen that the line and the boundary of the symbol graphic 402 intersect. In such a case, the symbol figure 402 is detected again by shifting the detection area 602, and the position of the symbol figure 402 is determined (determined) in a state where the symbol figure 402 is completely within the detection area 602.

第2の情報画像に含まれる、情報パターン図形405を正確に読み取るため、四隅のシンボル図形401〜404の位置から、撮影時の歪み補正する必要があり、そのために撮影時の歪を考慮した新しい座標系を求めるが、これには射影変換を用いる。図7は射影変換の概念を示した図である。射影変換とは一つの平面701上の点を別の平面703上の点に変換するに当たり、投影中心と、上記一つの平面701上の点Q(x,y)を結ぶ直線と、上記別の平面との交点P(u,v)を上記一つの平面701上の点Q(x,y)に対応付ける変換であり、次式(1)で表させる。
u=(a1x+a2y+a3)/(a7x+a8y+1)
v=(a4x+a5y+a6)/(a7x+a8y+1)
…(1)
In order to accurately read the information pattern graphic 405 included in the second information image, it is necessary to correct distortion at the time of shooting from the positions of the symbol graphics 401 to 404 at the four corners. A coordinate system is obtained by using projective transformation. FIG. 7 is a diagram showing the concept of projective transformation. In projective transformation, when a point on one plane 701 is converted to a point on another plane 703, a straight line connecting the projection center and the point Q (x, y) on the one plane 701, and the other This is a transformation that associates the intersection point P (u, v) with the plane with the point Q (x, y) on the one plane 701 and is expressed by the following equation (1).
u = (a1x + a2y + a3) / (a7x + a8y + 1)
v = (a4x + a5y + a6) / (a7x + a8y + 1)
... (1)

図8(a)及び(b)は、4つの点(例えば、シンボル図形401〜404の位置に対応するものであり、四辺形の頂点として図示されている)を射影する場合の射影変換前と変換後の座標値の一例を示したものである。これらの座標値を上記式(1)に当てはめると以下の式(2)のとおりとなる。このモデルでは、4つの点のうちの一つ(Q0,P0)は、変換前後で変わらず(0,0)であるため、a3およびa6の項は0となり、計算式を省略している。
a=(a1*0+a2*h)/(a7*0+a8*h+1)
b=(a4*0+a5*h)/(a7*0+a8*h+1)
c=(a1*g+a2*h)/(a7*g+a8*h+1)
d=(a4*g+a5*h)/(a7*g+a8*h+1)
e=(a1*g+a2*0)/(a7*g+a8*0+1)
f=(a4*g+a5*0)/(a7*g+a8*0+1)
…(2)
これより以下の式(3)の関係が成り立つ。
a1=−(bce−ade)/(−bc+ad+be−de−af+cf)g
a2=(ade−acf)/(bc−ad−be+de+af−cf)h
a4=(−bcf+adf)/(−bc+ad+be−de−af+cf)g
a5=−(−bde−bcf)/(bc−ad−be+de+af−cf)h
a7=−(−be+de+af−cf)/(bc−ad−be+de+af−cf)g
a8=−(bc−ad−be+af)/(bc−ad−be+de+af−cf)h
…(3)
FIGS. 8A and 8B show the pre-projection conversion when projecting four points (for example, corresponding to the positions of the symbol figures 401 to 404 and illustrated as vertices of a quadrilateral). An example of the coordinate value after conversion is shown. When these coordinate values are applied to the above equation (1), the following equation (2) is obtained. In this model, one of the four points (Q0, P0) remains unchanged (0, 0) before and after conversion, so the terms a3 and a6 are 0, and the calculation formula is omitted.
a = (a1 * 0 + a2 * h) / (a7 * 0 + a8 * h + 1)
b = (a4 * 0 + a5 * h) / (a7 * 0 + a8 * h + 1)
c = (a1 * g + a2 * h) / (a7 * g + a8 * h + 1)
d = (a4 * g + a5 * h) / (a7 * g + a8 * h + 1)
e = (a1 * g + a2 * 0) / (a7 * g + a8 * 0 + 1)
f = (a4 * g + a5 * 0) / (a7 * g + a8 * 0 + 1)
... (2)
From this, the relationship of the following formula | equation (3) is formed.
a1 =-(bce-ade) / (-bc + ad + be-de-af + cf) g
a2 = (ade−acf) / (bc−ad−be + de + af−cf) h
a4 = (− bcf + adf) / (− bc + ad + be−de−af + cf) g
a5 = − (− bde−bcf) / (bc−ad−be + de + af−cf) h
a7 = − (− be + de + af−cf) / (bc−ad−be + de + af−cf) g
a8 = − (bc−ad−be + af) / (bc−ad−be + de + af−cf) h
... (3)

つまり、変換前のシンボル図形401〜404(図8(a)の点Q1〜Q4に対応する)間の距離と、射影変換後の4点(図8(b)の点P0〜P3)の位置が求められれば射影変換の係数(a1〜a8)を求めることができる。ここで4点である理由は、シンボル図形401〜404の位置は画像中心からの距離で求めるため、原点位置を決定するために4点が必要となるためである。   That is, the distance between the symbol figures 401 to 404 before conversion (corresponding to the points Q1 to Q4 in FIG. 8A) and the positions of the four points after projective conversion (points P0 to P3 in FIG. 8B). Is obtained, the projective transformation coefficients (a1 to a8) can be obtained. The reason why there are four points is that the positions of the symbol figures 401 to 404 are obtained from the distance from the center of the image, so that four points are required to determine the origin position.

図9は歪んだ状態で撮影した第2の情報画像パターン(カメラ101で取得した画像のパターン)を表した図で、右上のシンボル図形402Aが右上に伸長されている。四隅のシンボル図形401A〜404Aの位置が射影変換されたものであるとして座標系を求めると、点線のような座標系が決定される。この新たな座標系に従い、情報パターン図形405Aの情報を読み取る。このようにして、第2の情報画像の解析では、求めたシンボル図形の位置から射影変換を使用して新たな座標系を構築し、符号化された情報を含む情報パターン図形の内容を正確に読み取ることができる。   FIG. 9 is a diagram showing a second information image pattern (a pattern of an image acquired by the camera 101) photographed in a distorted state, and an upper right symbol graphic 402A is extended to the upper right. When the coordinate system is determined on the assumption that the positions of the symbol graphics 401A to 404A at the four corners are projection-transformed, a coordinate system such as a dotted line is determined. Information of the information pattern figure 405A is read in accordance with this new coordinate system. In this way, in the analysis of the second information image, a new coordinate system is constructed using the projective transformation from the obtained position of the symbol graphic, and the content of the information pattern graphic including the encoded information is accurately determined. Can be read.

次にフローチャートを使って、CPU103による処理の流れを説明する。図10は処理の全体を示したものある。まず、共通ヘッダ211に含まれる情報を取得する処理S11が行われ、次に、情報データ解析処理S12が行われる。実施の形態1において情報データ解析処理とは、同期確認データ部212の解析処理である。   Next, the flow of processing by the CPU 103 will be described using a flowchart. FIG. 10 shows the entire process. First, a process S11 for acquiring information included in the common header 211 is performed, and then an information data analysis process S12 is performed. In the first embodiment, the information data analysis process is an analysis process of the synchronization confirmation data unit 212.

図11は、図10の共通ヘッダ情報取得処理S11の詳細を示すフローチャートである。共通ヘッダ情報取得処理が開始される(S100)と、まず、第1の情報画像の検出処理S101が行われる。この検出処理においては、第1の情報画像中のシンボル図形の有無のみならず、その位置及びサイズ(大きさ)も検出される。ステップS101以降の処理は撮影動画のフレーム単位で行われる。デジタルビデオカメラのNTSC撮影では、29.97fpsのフレームレートであるため、約33.37m秒毎に1フレームの画像データを処理することになる。処理した画像データにつき、中央のパターン図形301を検出したかどうかの判定を行い(S102)、検出していなければ(S102でNo)、次のフレームに対しても第1の情報画像検出処理(S101)を行う。検出の手順は、前述のとおりである。以降の第1の情報画像検出処理は全て、前述のとおりの方法で行われる。   FIG. 11 is a flowchart showing details of the common header information acquisition process S11 of FIG. When the common header information acquisition process is started (S100), first, a first information image detection process S101 is performed. In this detection process, not only the presence / absence of a symbol graphic in the first information image but also its position and size (size) are detected. The processing after step S101 is performed for each frame of the captured moving image. In NTSC photography with a digital video camera, since the frame rate is 29.97 fps, one frame of image data is processed about every 33.37 milliseconds. For the processed image data, it is determined whether or not the central pattern figure 301 has been detected (S102). If not detected (No in S102), the first information image detection process (No. S101) is performed. The detection procedure is as described above. All subsequent first information image detection processes are performed by the method as described above.

中央のパターン図形301を検出していれば(S102でYes)、次のフレームからは第2の情報画像検出処理S103を行う。   If the center pattern figure 301 is detected (Yes in S102), the second information image detection process S103 is performed from the next frame.

第2の情報画像検出処理S103は前述したとおりで、ステップS101で、第1の情報画像中のシンボル図形301から得られた、画面の中心位置およびユニットサイズから、四隅のシンボル図形401〜404を検索する範囲(四隅のシンボル図形が表示されるべき位置とその近傍の位置を含む範囲)を決定し、その範囲で四隅のシンボル図形401〜404を検索する。(この検索処理には、図6に示すように、シンボル図形402が検出領域602からはみ出している場合に、検出領域602をずらして検出領域602に入った状態でシンボル図形402の位置を決定する処理が含まれる。)以降の第2の情報画像検出処理においても全てこの方法で行われる。   The second information image detection processing S103 is as described above. In step S101, the symbol graphics 401 to 404 at the four corners are obtained from the center position and unit size of the screen obtained from the symbol graphics 301 in the first information image. The range to be searched (the range including the positions where the symbol graphics at the four corners should be displayed and the positions in the vicinity thereof) is determined, and the symbol graphics 401 to 404 at the four corners are searched within the range. (In this search process, as shown in FIG. 6, when the symbol graphic 402 protrudes from the detection area 602, the position of the symbol graphic 402 is determined while the detection area 602 is shifted and enters the detection area 602. Processing is also included.) All of the subsequent second information image detection processing is performed by this method.

四隅のシンボル図形401〜404が検出されなければ(S104でNo)、次のフレームに対しても同様の処理を行う。四隅のシンボル図形401〜404が検出されれば(S104でYes)、射影変換を用い情報パターン図形405を読み取る座標系を決定し(S105)、情報パターン図形405で表される(図形符号化されている)コンテンツのIDや試験番号などの情報データを読み取る(S106)。
これにより、ヘッダ情報取得が完了する(S107)。
If the symbol graphics 401 to 404 at the four corners are not detected (No in S104), the same processing is performed for the next frame. When the symbol graphics 401 to 404 at the four corners are detected (Yes in S104), a coordinate system for reading the information pattern graphic 405 is determined by using projective transformation (S105), and is represented by the information pattern graphic 405 (graphic encoded). Information data such as content ID and test number is read (S106).
Thereby, the header information acquisition is completed (S107).

共通ヘッダ情報211の取得が完了すると、情報データ解析処理を行う。情報データ解析処理の手順を図12に示す。解析は撮影された動画のフレーム単位で行われる。情報データの解析が開始される(S200)と,最初に、撮影したフレームがまだあるかどうかの判定が行われる。動画の撮影が終了し解析するデータなくなれば(S201でNo)、情報データ解析処理の解析を終了し(S211)、全ての処理が完了する。   When the acquisition of the common header information 211 is completed, an information data analysis process is performed. The procedure of the information data analysis process is shown in FIG. The analysis is performed in units of frames of the captured video. When the analysis of the information data is started (S200), it is first determined whether or not there is a photographed frame. If the shooting of the moving image is completed and there is no data to be analyzed (No in S201), the analysis of the information data analysis process is terminated (S211), and all the processes are completed.

解析すべきフレームが存在すると(S201でYes)、第1の情報画像検出処理S202が行われる。この画像検出処理において、画面中央のシンボル図形301を検出したら次の処理に進むが、検出できなかった場合は(S203でNo)、次のフレームに対し同様の処理を繰り返す。   If there is a frame to be analyzed (Yes in S201), the first information image detection process S202 is performed. In this image detection process, if the symbol graphic 301 at the center of the screen is detected, the process proceeds to the next process. If it cannot be detected (No in S203), the same process is repeated for the next frame.

シンボル図形301を検出した場合(S203でYes)、そのときの検出時刻を保存する。検出時刻は、評価装置100内の図示しないクロックで計時することにより得られるものであり、例えばクロックの計時動作に従って発生される、カメラ101による撮像のための垂直同期信号を計数することにより得られる再生経過時間、例えば動画ファイルの先頭からの経過時間を表す秒数である。
そして、このようにして得られた検出時刻と、1つ前の情報パターン図形405に含まれていた再生時刻情報(当該シンボル図形301を含む第1の情報画像206が含まれるデータの組Giの一つ前のデータの組G(i−1)の第2の情報画像207で表される再生時刻情報)と一致しているか判定し(S204)、時間がずれていると、表示タイミングがずれていると判断し、エラーとして記録する(S205)。なお、情報データ解析処理を開始して一回目に検出したときは(最初のデータの組の第1の情報画像206に含まれるシンボル図形301を検出したときは)、一つ前のデータ組が存在せず、1つ前の情報パターン図形405を読み取っていないため、特に何もしない。
When the symbol figure 301 is detected (Yes in S203), the detection time at that time is stored. The detection time is obtained by counting with a clock (not shown) in the evaluation apparatus 100. For example, the detection time is obtained by counting a vertical synchronization signal for imaging by the camera 101, which is generated according to the clocking operation of the clock. The playback elapsed time, for example, the number of seconds representing the elapsed time from the beginning of the moving image file.
The detection time obtained in this way and the reproduction time information included in the previous information pattern graphic 405 (of the data set Gi including the first information image 206 including the symbol graphic 301 are included. It is determined whether or not it matches the reproduction time information (represented by the second information image 207 of the previous data set G (i-1)) (S204). If the time is shifted, the display timing is shifted. Is recorded as an error (S205). When the information data analysis process is started and detected for the first time (when the symbol graphic 301 included in the first information image 206 of the first data set is detected), the previous data set is It does not exist, and the information pattern figure 405 immediately before is not read, so nothing is done.

次に第2の情報画像中の情報データを読み取ることになるが、図2に示されるように300m秒間表示される第2の情報画像203の読み取りに失敗し続けた場合、その後1秒間は第2の情報画像203は表示されないため、ここで第2の情報画像の検出を中止し、次に出現する第1の情報画像202を検出する処理に戻る必要がある(S206)。実施の形態1では、第1の情報画像の表示期間が300m秒、第2の情報画像の表示期間が300m秒であるので、タイムアウト値を600m秒に定めている。このため、第1の情報画像202の表示期間の最後にシンボル図形301を検出し、その後第2の情報画像203のシンボル図形401〜404の検出に失敗し続け、タイムアウトが発生した段階では、動画表示はブランク画像を表示しており、次の第1の情報画像202のシンボル図形301の検出を、第1の情報画像202の表示期間の始めから行うことができる。   Next, the information data in the second information image is read. As shown in FIG. 2, when the reading of the second information image 203 displayed for 300 msec continues to fail, the first information image is displayed for one second thereafter. Since the second information image 203 is not displayed, it is necessary to stop the detection of the second information image and return to the process of detecting the first information image 202 that appears next (S206). In Embodiment 1, since the display period of the first information image is 300 msec and the display period of the second information image is 300 msec, the timeout value is set to 600 msec. For this reason, the symbol graphic 301 is detected at the end of the display period of the first information image 202, and then the detection of the symbol graphics 401 to 404 of the second information image 203 continues to fail, and at the stage where a timeout occurs, The display is displaying a blank image, and the symbol graphic 301 of the next first information image 202 can be detected from the beginning of the display period of the first information image 202.

タイムアウトが発生していなければ(S206でNo)、ステップ1202で、第1の情報画像中のシンボル図形301から得られた画面の中心位置及びユニットサイズから、第2の情報画像203の四隅のシンボル図形401〜404の検出を行う(S207)。ステップS207における四隅のシンボル図形401〜404の検出も、ステップS103と同様、第1の情報画像中のシンボル図形301から得られた、画面の中心位置およびユニットサイズから、四隅のシンボル図形401〜404を検索する範囲を決定し、その範囲で四隅のシンボル図形401〜404を検索することにより行われる。   If no timeout has occurred (No in S206), symbols in the four corners of the second information image 203 are obtained from the center position and unit size of the screen obtained from the symbol graphic 301 in the first information image in step 1202. The figures 401 to 404 are detected (S207). The detection of the four corner symbol graphics 401 to 404 in step S207 is also performed in the same manner as in step S103, based on the screen center position and unit size obtained from the symbol graphics 301 in the first information image. This is done by determining a range for searching for and searching for symbol graphics 401 to 404 at the four corners within that range.

第1の情報画像202のシンボル図形301に基づいて割り出された(予想された)領域内にシンボル図形401〜404が見当たらない場合(S208でNo)、ステップS206に戻り、タイムアウトでなければ(S206でNo)次のフレームに対し、同様に第2の情報画像のシンボル図形401〜404の位置を求める。   If the symbol graphics 401 to 404 are not found in the (predicted) area calculated based on the symbol graphics 301 of the first information image 202 (No in S208), the process returns to step S206 and is not timed out ( In step S206, the positions of the symbol figures 401 to 404 of the second information image are similarly obtained for the next frame.

第2の情報画像203から、四隅のシンボル図形401〜404を検出した場合、射影変換を用い、新しい座標系を決定する(S209)。決定された座標系に従い、第2の情報画像203に含まれる符号化された情報(情報データ)を読み取り、情報に含まれる次の第1の情報画像の出現時刻を求める(S210)。
その後、ステップS201に戻り、再び、第1の情報画像の検出処理を行い、同様の処理を繰り返す。
このようにして、実施の形態1で説明した画像読み取り装置では、第1の情報画像202から読み取ったシンボル図形301の位置とサイズから、第2の情報画像203に含まれるシンボル図形401〜404の検索位置を推測し、その範囲でシンボル図形401〜404の検索を行うため、比較的簡単なアルゴリズムで正確にシンボル図形401〜404の位置を決定し、情報を正確に読み取ることができる。その結果、動画ファイルの映像データが時刻どおりに表示されていることを自動的に監視することができる。
When the symbol graphics 401 to 404 at the four corners are detected from the second information image 203, a new coordinate system is determined using projective transformation (S209). According to the determined coordinate system, the encoded information (information data) included in the second information image 203 is read, and the appearance time of the next first information image included in the information is obtained (S210).
Thereafter, the process returns to step S201, the first information image detection process is performed again, and the same process is repeated.
In this manner, in the image reading apparatus described in the first embodiment, the symbol graphics 401 to 404 included in the second information image 203 are determined from the position and size of the symbol graphics 301 read from the first information image 202. Since the search positions are estimated and the symbol figures 401 to 404 are searched within the range, the positions of the symbol figures 401 to 404 can be accurately determined by a relatively simple algorithm, and the information can be read accurately. As a result, it is possible to automatically monitor that the video data of the moving image file is displayed according to the time.

実施の形態1においては、第1の情報画像202中の画面の特定位置を表すシンボル図形301が画面の中央に位置していたが、これは画面中のある場所を特定できれば、任意の場所でよい。また、第2の情報画像中の撮影による画面の歪みを補正するために必要な数の特定の位置を表すシンボル図形が、画面の四隅に4つ位置していたが、これも採用する歪み補正に必要な数が任意の場所に位置していればよい。   In the first embodiment, the symbol graphic 301 representing the specific position of the screen in the first information image 202 is located at the center of the screen. However, this can be performed at any place as long as a certain place on the screen can be specified. Good. In addition, four symbol figures representing the specific positions necessary for correcting the distortion of the screen due to shooting in the second information image are located at the four corners of the screen. It is sufficient that the necessary number is located at an arbitrary place.

また、上記の例では、動画を取得する手段がカメラを備え、カメラから入力された映像データを解析したが、予め再生された映像をカメラで撮影しておき、撮影の結果得られる動画ファイルからの読み込みを行うこととしても良い。この点は、以下に述べる実施の形態2〜4についても同様である。   Further, in the above example, the means for acquiring the moving image includes a camera and analyzes the video data input from the camera. However, from the moving image file obtained as a result of shooting by shooting the video played in advance with the camera. It is also possible to read This also applies to Embodiments 2 to 4 described below.

実施の形態2.
図13は実施の形態2の再生評価装置を評価対象となる再生装置90とともに表すシステム構成図である。
図13に示す再生装置90は、表示部93のほか、再生データ提供部91と再生信号処理部92とを有し、再生データ提供部91から提供される動画ファイルを再生信号処理部92で再生し、表示部93に表示する。再生装置100の再生データ提供部91が提供する動画ファイルは、後述のように音声データをも含むものであり、再生信号処理部92は、動画ファイル中の音声データに対し再生のための信号処理を行い、スピーカ94から出力する。再生評価装置100は、再生装置90の表示部93に表示される画像及びスピーカ94から出力される音声を解析するためのものである。
Embodiment 2. FIG.
FIG. 13 is a system configuration diagram illustrating the reproduction evaluation apparatus according to the second embodiment together with the reproduction apparatus 90 to be evaluated.
13 includes a reproduction data providing unit 91 and a reproduction signal processing unit 92 in addition to the display unit 93. The reproduction signal processing unit 92 reproduces a moving image file provided from the reproduction data providing unit 91. And displayed on the display unit 93. The moving image file provided by the reproduction data providing unit 91 of the reproducing apparatus 100 includes audio data as will be described later, and the reproduction signal processing unit 92 performs signal processing for reproducing the audio data in the moving image file. And output from the speaker 94. The reproduction evaluation apparatus 100 is for analyzing the image displayed on the display unit 93 of the reproduction apparatus 90 and the sound output from the speaker 94.

図13に示される再生評価装置は、図1に示される再生評価装置と概して同じであり、同じ符号は同様の部材を示す。図13の再生評価装置は、スピーカ94からの音声を収音して音声データを取得する入力手段としてのマイク106を備えている点で図1の再生評価装置とは異なる。CPU103は、カメラ101で取得した映像データのほか、マイク106で取得した音声データを解析する。   The reproduction evaluation apparatus shown in FIG. 13 is generally the same as the reproduction evaluation apparatus shown in FIG. 1, and the same reference numerals denote the same members. The playback evaluation apparatus of FIG. 13 is different from the playback evaluation apparatus of FIG. 1 in that it includes a microphone 106 as input means for picking up sound from a speaker 94 and acquiring voice data. The CPU 103 analyzes the audio data acquired by the microphone 106 in addition to the video data acquired by the camera 101.

図14は実施の形態2で評価の対象とされる再生装置90で再生される動画を表す動画ファイルのデータの構成を示した図である。図示のように、同期確認データ部212内に、ある単位時間、例えば1秒間隔で、データの組Gに同期して、特定の音声データ1401、1402、1403、1404が挿入されている。   FIG. 14 is a diagram showing a data structure of a moving image file representing a moving image to be played back by the playback device 90 to be evaluated in the second embodiment. As illustrated, specific audio data 1401, 1402, 1403, and 1404 are inserted in the synchronization confirmation data unit 212 in synchronization with the data set G at a certain unit time, for example, at intervals of 1 second.

特定の音声データとは例えば、DTMF(dual tone multi―frequency)音であり、音を構成する周波数の組合せにより、ある数値を表現している。周波数の組合せと表現する数値の関係を図15に示した。実施の形態2では、0から9までの数値を巡回的に使用し、再生経過秒数(例えば動画ファイルの再生開始からの経過時間を表す秒数)の1の位の数字を表現したDTMF音が挿入される。つまり同期確認データ部の中の一つの音声データ領域1401(一つのデータの組Gに対応する)に「0」を表現したDTMF音が入っていれば、次の音声データ領域1402(次のデータの組Gに対応する)には「1」、その次の音声データ領域1403(さらにその次のデータの組Gに対応する)には「2」、さらにその次の音声データ領域1404(さらにその次のデータの組Gに対応する)には「3」を表現したDTMF音がそれぞれ挿入される。以下同様にして、「4、「5」、「6」、「7」、「8」、「9」の数値を表現するDTMF音のデータが挿入され、「9」の次には、再び「0」に戻り、以下同様に0〜9の数値を表現するDTMF音が順番に繰り返し挿入されている。   The specific sound data is, for example, DTMF (dual tone multi-frequency) sound, and a certain numerical value is expressed by a combination of frequencies constituting the sound. FIG. 15 shows the relationship between frequency combinations and numerical values to be expressed. In the second embodiment, a numerical value from 0 to 9 is used cyclically, and a DTMF sound that expresses a number of 1's of elapsed playback seconds (for example, seconds indicating the elapsed time from the start of playback of a video file). Is inserted. That is, if a DTMF sound expressing “0” is included in one audio data area 1401 (corresponding to one data set G) in the synchronization confirmation data portion, the next audio data area 1402 (next data "1" for the next set G), "2" for the next voice data area 1403 (further corresponding to the next set G of data), and the next voice data area 1404 (further, The DTMF sound expressing “3” is inserted into the corresponding data set G). In the same manner, DTMF sound data representing numerical values of “4,“ 5 ”,“ 6 ”,“ 7 ”,“ 8 ”,“ 9 ”is inserted, and“ 9 ”is followed by“ Returning to “0”, DTMF sounds representing numerical values of 0 to 9 are repeatedly inserted in the same manner.

図14はまた、映像データと音声データとの時間的な関係を示している。即ち、音声データ1401、1402、1403、1404などは、それぞれ対応するデータの組Gの先頭、即ち第1の情報画像206の表示の開始と同時に再生が開始されるべき特定の音声を表すものである。従って、再生装置90が正しく再生動作を行っている場合には、音声データのDTMF音の開始時刻と、第1の情報画像206画像の再生開始時刻は同じである。実施の形態2では、これらの時刻の一致を判定することにより、音声と映像の同期再生の確認を行う。
なお、図14で音声データADTは、映像データVDTと別のファイルとして存在するのではなく、映像データVDTと同じファイル内にその一部として挿入されている。
FIG. 14 also shows the temporal relationship between video data and audio data. That is, the audio data 1401, 1402, 1403, and 1404 represent the specific audio that should be played back at the start of the display of the first information image 206, that is, the head of the corresponding data set G, respectively. is there. Therefore, when the playback device 90 is performing a playback operation correctly, the start time of the DTMF sound of the audio data is the same as the playback start time of the first information image 206 image. In the second embodiment, the synchronized reproduction of audio and video is confirmed by determining the coincidence of these times.
In FIG. 14, the audio data ADT does not exist as a separate file from the video data VDT, but is inserted as a part of the same file as the video data VDT.

図16は、音声データの解析のタイミングを示した図である。ここでの音声データはPCMデータである。一回の解析には256サンプルのデータを取り扱う。実施の形態2では音声データのサンプリング周波数は8kHzとしているため、256/8000=0.032秒(32m秒)分のデータを取り扱うことになる。サンプリング幅が16bitで、ステレオデータの場合、サイズとしては
256(sample)×2(byte)×2(ch)=1024(byte)
のデータを取り扱うことになる。解析は10m秒毎に行うこととしているため、サンプルデータ1501の解析を行った次は、10m秒後にあたるサンプルデータ1502の解析を行う。以降同様にサンプルデータ1503、1504、1505のように順次解析を行う。
FIG. 16 is a diagram showing the timing of analysis of audio data. The audio data here is PCM data. Data for 256 samples is handled for one analysis. In the second embodiment, since the sampling frequency of audio data is 8 kHz, data for 256/8000 = 0.032 seconds (32 milliseconds) is handled. In the case of stereo data with a sampling width of 16 bits, the size is 256 (sample) × 2 (bytes) × 2 (ch) = 1024 (bytes).
Will be handled. Since the analysis is performed every 10 milliseconds, the analysis of the sample data 1502 after 10 milliseconds is performed after the analysis of the sample data 1501 is performed. Thereafter, analysis is sequentially performed in the same manner as sample data 1503, 1504, and 1505.

次に、音声データ解析動作の説明を行う。前述したように使用するDTMF音は0から9までの値であるため、10秒を1サイクルとして10秒分の経過秒数記憶領域104aをメモリ104内に確保し、経過秒数(評価装置100内の図示しないクロックで計時することにより得られるもので、例えば動画ファイルの先頭からの経過時間を表す秒数)を記録する。1秒間隔で挿入されているDTMF音が検出されたときの結果を記録するので、10秒間で10回経過秒数が記録される。DTMF音の検出は、10m秒単位で行うため、記録される時刻は10m秒の解像度となる。DTMF音として記録されている経過秒数の1の位が0秒になれば結果を出力し、これまでに記録した結果をクリアし次のサイクル(0から9までのサイクル)の記録を開始する。   Next, the audio data analysis operation will be described. Since the DTMF sound to be used has a value from 0 to 9 as described above, an elapsed seconds storage area 104a for 10 seconds is secured in the memory 104 with 10 seconds as one cycle, and the elapsed seconds (evaluation apparatus 100). For example, the number of seconds representing the elapsed time from the beginning of the moving image file) is recorded. Since the result when the DTMF sound inserted at intervals of 1 second is detected is recorded, the number of seconds elapsed 10 times in 10 seconds is recorded. Since the DTMF sound is detected in units of 10 milliseconds, the recorded time has a resolution of 10 milliseconds. When the number of elapsed seconds recorded as DTMF sound becomes 0 seconds, the result is output, the recorded result is cleared, and the recording of the next cycle (cycle from 0 to 9) is started. .

図17に解析処理の手順を示すフローチャートを示す。解析が開始される(S300)と、メモリ104内の取得経過秒数記憶領域104aを初期化する(S301)。次にデータ解析処理を行うPCMデータがあるか判定が行われる(S302)。音声のデータがなければ(S302でNo)、処理を終了する(S312)。音声データがあれば(S302でYes)、前回の解析分から10m秒分ずらした256サンプル分のデータを取り出す(S303)。解析の結果、DTMF音を検出しなかったら(S304でNo)、ステップS302に戻り、始めから処理を繰り返す。   FIG. 17 is a flowchart showing the procedure of the analysis process. When the analysis is started (S300), the acquired elapsed number of seconds storage area 104a in the memory 104 is initialized (S301). Next, it is determined whether there is PCM data to be subjected to data analysis processing (S302). If there is no audio data (No in S302), the process ends (S312). If there is audio data (Yes in S302), data for 256 samples shifted by 10 milliseconds from the previous analysis is extracted (S303). If no DTMF sound is detected as a result of the analysis (No in S304), the process returns to step S302, and the process is repeated from the beginning.

DTMF音を検出した場合(S304でYes)その値の確認を行う(S305)。0であれば、過去10秒分の検出結果(経過秒数記憶領域104aに保存された、DTMF音が検出された時刻を示すデータ)をログ出力し(即ちHDD105内のログファイル105aに記録し)、経過秒数記憶領域104aをクリアする(S306)。ステップS305で、0以外であれば(S305でNo)前回検出した値(経過秒数記憶領域104aに記録されている)と比較し(S307)、今回のDTMF音で表される数値が、前回のDTMF音で表される数値よりも1だけ多い値であるかどうかの判定を行い(S307),「1だけ多い数値」でなければ、解析誤りであるか、前回DTMF音の鳴動がされなかったということになるため、エラーとして記録する(S308)。ステップS307でYesのとき、或いはステップS306又はS308の処理を行った後にステップS309に進む。   When a DTMF sound is detected (Yes in S304), the value is confirmed (S305). If 0, the detection result for the past 10 seconds (data indicating the time when the DTMF sound was detected, stored in the elapsed seconds storage area 104a) is output to a log (that is, recorded in the log file 105a in the HDD 105). ), The elapsed seconds storage area 104a is cleared (S306). If it is other than 0 in Step S305 (No in S305), it is compared with the previously detected value (recorded in the elapsed seconds storage area 104a) (S307), and the numerical value represented by the current DTMF sound is It is determined whether or not the value is one more than the numerical value represented by the DTMF sound (S307). If it is not “a numerical value that is larger by one”, it is an analysis error or the previous DTMF sound is not sounded. Therefore, it is recorded as an error (S308). If YES in step S307, or after performing the process of step S306 or S308, the process proceeds to step S309.

ステップS309では、DTMF音が検出された時刻(HDD105内のログファイル105aに記録されている、DTMF音が検出された時刻を示すデータ)を音声検出時刻としてプログラムで管理する。音声データの検出と映像データの検出は別のプロセスで動作し、映像データの検出動作の手順は実施の形態1と同様の方法で行われる。図14で示したように、DTMF音がスピーカ94から出力された時刻の時刻と、第1の情報画像の表示時刻は本来同じであるべきで、測定対象となる再生処理系(図13の再生信号処理部92、表示部93、スピーカ94を含む)で処理誤りがなければ、これらはほぼ同時刻に検出されるはずである。映像データが検出できれば(S310)、そのときの時刻と、音声検出時刻を比較し、この差分が映像と音声の同期再生のずれとしてHDD105に記録される(S311)。   In step S309, the time at which the DTMF sound is detected (data indicating the time at which the DTMF sound is detected, recorded in the log file 105a in the HDD 105) is managed as a sound detection time by the program. The detection of audio data and the detection of video data are performed by different processes, and the procedure of the video data detection operation is performed in the same manner as in the first embodiment. As shown in FIG. 14, the time at which the DTMF sound is output from the speaker 94 and the display time of the first information image should be essentially the same, and the playback processing system to be measured (the playback in FIG. 13). If there is no processing error in the signal processing unit 92, the display unit 93, and the speaker 94), these should be detected at substantially the same time. If the video data can be detected (S310), the time at that time is compared with the audio detection time, and this difference is recorded in the HDD 105 as a deviation of the synchronous reproduction of the video and audio (S311).

このようにして、実施の形態2で説明した再生評価装置では、評価の対象となる再生装置90が音声の情報と映像の情報を含む動画ファイルに基づく再生を行う。より具体的には、該動画ファイルが、単位時間(例えば1秒)毎に特定の音声データ(DTMF音データ)と、その単位時間に合わせて第1および第2の情報画像(206、207)を含むデータの組Gが繰り返される映像データで構成される動画を表すものである。そして、再生評価装置100では、第1の情報画像(206)の検出時刻と、特定の音声データの検出時刻が一致するか否かを検出することで、映像と音声の再生時刻のずれを自動で検出することができる。   In this way, in the playback evaluation device described in the second embodiment, the playback device 90 to be evaluated performs playback based on a moving image file including audio information and video information. More specifically, the moving image file includes specific audio data (DTMF sound data) every unit time (for example, 1 second), and first and second information images (206, 207) according to the unit time. Represents a moving image composed of video data in which a data set G including “A” is repeated. Then, the reproduction evaluation apparatus 100 automatically detects the difference between the reproduction time of the video and the audio by detecting whether or not the detection time of the first information image (206) matches the detection time of the specific audio data. Can be detected.

実施の形態3.
図18は実施の形態3の再生評価装置を評価対象となる再生装置90とともに表すシステム構成図である。
図18に示す再生評価装置100は、図1に示す再生評価装置100と同様に、再生装置90の表示部93に表示される画像を解析するためのものである。この再生評価装置100は、図1に示すものと同様であるが、メモリ104が、取得フレーム番号記憶領域104dを有する。
Embodiment 3 FIG.
FIG. 18 is a system configuration diagram illustrating the reproduction evaluation apparatus according to the third embodiment together with the reproduction apparatus 90 to be evaluated.
The reproduction evaluation apparatus 100 shown in FIG. 18 is for analyzing an image displayed on the display unit 93 of the reproduction apparatus 90, similarly to the reproduction evaluation apparatus 100 shown in FIG. The reproduction evaluation apparatus 100 is the same as that shown in FIG. 1, but the memory 104 has an acquired frame number storage area 104d.

図19は実施の形態3で評価の対象とされる再生装置90で再生される動画を表す動画ファイルを示した図である。共通ヘッダ部211の構成は、実施の形態1及び実施の形態2と同様である。実施の形態3では、図2の同期確認データ部212の代わりに、フレームレート確認データ部222が設けられている。フレームレート確認データ部222は、それぞれ1秒間ずつの情報画像227の繰り返しにより構成される。それぞれ1秒間ずつの情報画像227を構成する複数のフレームには、その1秒間中のフレーム番号が1から順に情報として含まれる。たとえば図19に示すように、10fpsの動画ファイルであれば、ある1秒間内の最初のフレームE1に「1」が入力され、次のフレームE2では「2」、その次のフレームE3では「3」というように1ずつ増加され、1秒間の最終のフレームE10では「10」が入力される。次の1秒の最初のフレームE1には再びフレーム番号「1」が入力され、フレーム番号は同様に1ずつ増加される。   FIG. 19 is a diagram showing a moving image file representing a moving image to be played back by the playback device 90 to be evaluated in the third embodiment. The configuration of the common header unit 211 is the same as that in the first and second embodiments. In the third embodiment, a frame rate confirmation data unit 222 is provided instead of the synchronization confirmation data unit 212 of FIG. The frame rate confirmation data section 222 is configured by repeating the information image 227 for each one second. Each of a plurality of frames constituting the information image 227 for one second each includes the frame number in the second as information in order from 1. For example, as shown in FIG. 19, in the case of a 10 fps moving image file, “1” is input to the first frame E1 within one second, “2” in the next frame E2, and “3” in the next frame E3. "10", and "10" is input in the last frame E10 of 1 second. The frame number “1” is input again to the first frame E1 of the next one second, and the frame number is similarly incremented by one.

フレーム番号を表現する情報画像411としては、図20に示すように、実施の形態1および実施の形態2でも使用した第2の情報画像と同様のものを使用する。即ち、情報画像411には、4つのブロック図形401〜404と、フレーム番号を表す情報パターン図形412とが含まれる。したがって画像の認識の手順は実施の形態1および実施の形態2と同様の手順で行う。実施の形態3における読み取り装置のシステム構成は、実施の形態1と同じであり、読み取り方法についても、図10で示したフローチャートの通りに行われ、その手順は実施の形態1と同様である。このため、実施の形態1と異なる情報データ解析部分(フレームレート確認データ部222の処理)についてのみ、図21のフローチャートを用いて説明を行う。   As the information image 411 expressing the frame number, as shown in FIG. 20, the same information image as the second information image used in the first and second embodiments is used. That is, the information image 411 includes four block graphics 401 to 404 and an information pattern graphic 412 representing a frame number. Therefore, the image recognition procedure is performed in the same manner as in the first and second embodiments. The system configuration of the reading apparatus according to the third embodiment is the same as that of the first embodiment, and the reading method is also performed according to the flowchart shown in FIG. 10, and the procedure is the same as that of the first embodiment. For this reason, only the information data analysis part (processing of the frame rate confirmation data part 222) different from that of the first embodiment will be described with reference to the flowchart of FIG.

共通ヘッダ情報211を読み取った後、情報データの解析動作に入るが、実施の形態3で取り扱う動画ファイルを構成する映像データの情報データ部(フレームレート確認データ部222)には第1の情報画像(実施の形態1の符号206で示すもの)が含まれない。このため、画面の中央位置および座標系のユニットサイズについては、共通ヘッダ情報211を読み取った際に検出したものをそのまま使用する。   After reading the common header information 211, the information data analysis operation is started, but the first information image is included in the information data portion (frame rate confirmation data portion 222) of the video data constituting the moving image file handled in the third embodiment. (Indicated by reference numeral 206 in the first embodiment) is not included. For this reason, as the center position of the screen and the unit size of the coordinate system, those detected when the common header information 211 is read are used as they are.

解析は1秒を1サイクルとして実施される。解析が開始される(S400)と、最初に、1秒分の解析データを確保する領域(取得フレーム番号記憶領域)104dをクリアする(S401)。次に撮影された画像データがあれば(S402でYes)、共通ヘッダ情報211を読み取った際に使用した、画面の中央位置と座標系のユニットサイズを使用して、第2の情報画像の検出処理を行う(S403)。   The analysis is performed with 1 second as one cycle. When analysis is started (S400), first, an area (acquired frame number storage area) 104d for securing analysis data for one second is cleared (S401). If there is next photographed image data (Yes in S402), the second information image is detected using the center position of the screen and the unit size of the coordinate system used when the common header information 211 is read. Processing is performed (S403).

第2の情報画像の4箇所のシンボル図形が検出できなければ(S404でNo)、ステップS402に戻り、次の画像に対して同様の処理を行う。4箇所のシンボル図形401〜408が検出できれば(S404でYes)、その位置情報をもとに射影変換を用い、新しい座標系を決定する(S405)。決定された座標系に従い、第2の情報画像に含まれる符号化された情報を読み取り、フレーム番号を取得する(S406)。   If four symbol figures in the second information image cannot be detected (No in S404), the process returns to step S402, and the same process is performed on the next image. If four symbol figures 401 to 408 can be detected (Yes in S404), a new coordinate system is determined using projective transformation based on the position information (S405). According to the determined coordinate system, the encoded information included in the second information image is read, and the frame number is acquired (S406).

取得されたフレーム番号が1であれば(S407でYes)、解析サイクルが一巡したと判断し、それまでの検出結果(取得フレーム番号記憶領域104dに記憶されたフレーム番号)を出力してログファイル105aに記録した後、取得フレーム番号記憶領域104dをクリアする(S408)。そして今回取得したフレーム番号である「1」を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻って、次のフレームの処理を行う。   If the acquired frame number is 1 (Yes in S407), it is determined that the analysis cycle has been completed, and the detection result up to that point (the frame number stored in the acquired frame number storage area 104d) is output to the log file. After recording in 105a, the acquisition frame number storage area 104d is cleared (S408). Then, “1”, which is the frame number acquired this time, is stored in the acquired frame number storage area 104d (S409), and the process returns to step S402 to process the next frame.

取得されたフレーム番号が1でない場合(S407でNo)、前回取得したフレーム番号(取得フレーム番号記憶領域104dに記憶されている)との比較を行う。前回取得したフレーム番号は取得フレーム番号記憶領域104d中の有効なデータの中でもっとも番号が大きいものである。今回取得されたフレーム番号が前回取得したフレーム番号よりも1だけ大きければ(S410でYes)、正常に再生されていると判断し、今回取得したフレーム番号を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻り、次のフレームの処理を行う。   If the acquired frame number is not 1 (No in S407), a comparison is made with the previously acquired frame number (stored in the acquired frame number storage area 104d). The previously acquired frame number is the largest number of valid data in the acquired frame number storage area 104d. If the currently acquired frame number is one larger than the previously acquired frame number (Yes in S410), it is determined that the frame is being played back normally, and the currently acquired frame number is stored in the acquired frame number storage area 104d ( In step S409, the process returns to step S402 to process the next frame.

今回取得されたフレーム番号が前回取得したフレーム番号よりも1だけ大きくはなかった場合(S410でNo)、今回取得されたフレーム番号と前回取得したフレーム番号との大小関係を比較し(S411)、今回取得されたフレーム番号が前回取得したフレーム番号よりも小さければ(S411でYes)、解析サイクルが一巡したと判断し、結果を出力した後、取得フレーム番号記憶領域104dをクリアする(S408)。そして今回取得したフレーム番号を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻って、次のフレームの処理を行う。
今回取得されたフレーム番号が前回取得したフレーム番号よりも小さくなければ(S411でNo)、解析サイクルは一巡していないと判断し、今回取得したフレーム番号を取得フレーム番号記憶領域104dに保存し(S409)、ステップS402に戻り、次のフレームの処理を行う。
If the frame number acquired this time is not 1 larger than the frame number acquired last time (No in S410), the magnitude relationship between the frame number acquired this time and the frame number acquired last time is compared (S411), If the currently acquired frame number is smaller than the previously acquired frame number (Yes in S411), it is determined that the analysis cycle has been completed, and after outputting the result, the acquired frame number storage area 104d is cleared (S408). The frame number acquired this time is stored in the acquired frame number storage area 104d (S409), and the process returns to step S402 to process the next frame.
If the currently acquired frame number is not smaller than the previously acquired frame number (No in S411), it is determined that the analysis cycle has not been completed, and the currently acquired frame number is stored in the acquired frame number storage area 104d ( In step S409, the process returns to step S402 to process the next frame.

撮影が終了し、解析する画像データがなくなれば(S402でNo)、解析処理は終了する(S412)。   When the photographing is finished and there is no image data to be analyzed (No in S402), the analysis process is finished (S412).

ログファイル105aに記録された検出結果は、単位時間当たりのフレーム数の確認に用いられる。具体的には、フレーム番号が検出できなかったフレームは表示されなかったものであると判断し、単位時間当たりの表示されたフレーム数、即ちレートの測定乃至確認に用いられる。   The detection result recorded in the log file 105a is used for confirming the number of frames per unit time. Specifically, it is determined that the frame whose frame number could not be detected is not displayed, and is used to measure or confirm the number of frames displayed per unit time, that is, the rate.

このようにして、実施の形態3で説明した画像読み取り装置では、データ図形に含まれる映像フレームの番号を正確に読み取ることができるため、再生のフレームレートを正確に測定することができる。   In this manner, the image reading apparatus described in the third embodiment can accurately read the number of the video frame included in the data graphic, and therefore can accurately measure the playback frame rate.

実施の形態4.
図22は実施の形態4の再生評価装置を評価対象となる再生装置90とともに表すシステム構成図である。
図22に示す再生評価装置100は、図1に示す再生評価装置100と同様に、再生装置90の表示部93に表示される画像を解析するためのものである。この再生評価装置100は、図1に示すものと同様であるが、メモリ104が、実施の形態3と同様の取得フレーム番号記憶領域(今回の取得フレーム番号記憶領域)104dのほか、前回の取得フレーム番号記憶領域104eを有する。
Embodiment 4 FIG.
FIG. 22 is a system configuration diagram illustrating the reproduction evaluation apparatus according to the fourth embodiment together with the reproduction apparatus 90 to be evaluated.
The reproduction evaluation apparatus 100 shown in FIG. 22 is for analyzing an image displayed on the display unit 93 of the reproduction apparatus 90, similarly to the reproduction evaluation apparatus 100 shown in FIG. This playback evaluation apparatus 100 is the same as that shown in FIG. 1, except that the memory 104 has an acquisition frame number storage area (current acquisition frame number storage area) 104d similar to that of the third embodiment and the previous acquisition. It has a frame number storage area 104e.

図23は実施の形態4で評価の対象とされる再生装置90で再生される動画を表す動画ファイルを示した図である。共通ヘッダ部211の構成は、実施の形態1、実施の形態2および実施の形態3と同様である。実施の形態4では、実施の形態3と同様に、図2の同期確認データ212の代わりに、フレームレート確認データ部222が設けられている。フレームレート確認データ部222は、それぞれ1秒間ずつの情報画像237の繰り返しにより構成される。それぞれ1秒間ずつの情報画像237を構成する複数のフレームには、その1秒間間内のフレーム番号が1から順に情報として含まれる点も、実施の形態3と同様である。実施の形態3では、フレーム番号情報として、4つのシンボル図形を含む情報画像411を使用したが、実施の形態4では、フレーム番号を表すブロック図形によりフレーム番号が表現される。   FIG. 23 is a diagram showing a moving image file representing a moving image to be played back by the playback device 90 to be evaluated in the fourth embodiment. The configuration of the common header section 211 is the same as that in the first embodiment, the second embodiment, and the third embodiment. In the fourth embodiment, as in the third embodiment, a frame rate confirmation data unit 222 is provided instead of the synchronization confirmation data 212 of FIG. The frame rate confirmation data section 222 is configured by repeating the information image 237 for each one second. Similarly to the third embodiment, the plurality of frames constituting the information image 237 for each one second include the frame numbers within the one second as information in order from 1. In the third embodiment, the information image 411 including four symbol graphics is used as the frame number information. However, in the fourth embodiment, the frame number is expressed by a block graphic representing the frame number.

図23に示す例では、各情報画像237は30フレーム(第1乃至第30のフレームF1〜F30)からなり、図23の1番目、2番目、3番目、7番目、20番目、30番目のフレームF1,F2,F3,F7,F20,F30のブロック図形B1、B2,B3,B7,B20,B30が図24に示されている。   In the example shown in FIG. 23, each information image 237 is composed of 30 frames (first to 30th frames F1 to F30), and the first, second, third, seventh, twentieth, thirtyth, and so on in FIG. FIG. 24 shows block diagrams B1, B2, B3, B7, B20, and B30 of the frames F1, F2, F3, F7, F20, and F30.

図24に示される例から理解されるように、情報画像237のブロック図形は、30個の互いに異なる位置の矩形の領域のうちの一つが刻印として、黒色に塗りつぶされたもので、フレーム番号によって、異なる位置の(即ち、互いに重ならない)矩形の領域が塗りつぶされている。矩形の領域は、5行6列のマトリクス状に配置されており、1番目のフレームF1のブロック図形B1は、左上(第1行第1列)の矩形の領域が塗りつぶされており、2番目のフレームF2のブロック図形B2は第1行第2列の矩形の領域、3番目のフレームF3のブロック図形B3は第1行第3列の矩形の領域、…のように最も上の行から下の行へ、各行においては左端から右の方へという順に塗りつぶされた領域の位置が移る。このように、互いに異なるフレームに対応する刻印(塗りつぶされた領域)は、画面中の互いに重ならない位置に設けられている。   As can be understood from the example shown in FIG. 24, the block graphic of the information image 237 is one in which 30 rectangular areas at different positions are filled in black as an inscription, depending on the frame number. , Rectangular regions at different positions (ie, not overlapping each other) are filled. The rectangular areas are arranged in a matrix of 5 rows and 6 columns, and the block figure B1 of the first frame F1 is filled with the rectangular area in the upper left (first row and first column). The block figure B2 of the first frame F2 is a rectangular area in the first row and the second column, the block figure B3 of the third frame F3 is a rectangular area in the first row and the third column, and so on. In each row, the position of the filled area is shifted in order from the left end to the right in each row. In this way, the markings (filled areas) corresponding to different frames are provided at positions that do not overlap each other in the screen.

図24には、1番目のフレームF1のブロック図形B1についてのみ点線で画面を区切る座標系を示している。図示のように、ブロック図形の位置は第1の情報画像および第2の情報画像を構成するのに使用した座標系と同じ座標系を使用しており、第1の情報画像の解析により得られる画面の中央位置と座標系のユニットサイズから、その位置を特定することができる。   FIG. 24 shows a coordinate system that divides the screen with a dotted line only for the block graphic B1 of the first frame F1. As shown in the figure, the position of the block graphic uses the same coordinate system as that used to construct the first information image and the second information image, and is obtained by analyzing the first information image. The position can be specified from the center position of the screen and the unit size of the coordinate system.

実施の形態4で取り扱う動画ファイルはブロック図形の位置がフレーム番号を表現するため、カメラ撮影時のフレームレートが低い場合は、再生画像であるブロック図形が複数重なって撮影される。具体的には図25で示すように、撮影された映像データに複数のブロック図形(図25では8番目のフレームF8のブロック図形B8と、9番目のフレームF9のブロック図形B9)が撮像されることがあり、このため、カメラのフレームレートが低いときでも再生系の表示情報を漏らさず捕らえることが可能である。   In the moving image file handled in the fourth embodiment, the position of the block graphic expresses the frame number, and therefore, when the frame rate at the time of camera shooting is low, a plurality of block graphics that are reproduced images are captured and overlapped. Specifically, as shown in FIG. 25, a plurality of block graphics (in FIG. 25, a block graphic B8 of the eighth frame F8 and a block graphic B9 of the ninth frame F9 in FIG. 25) are captured. For this reason, even when the frame rate of the camera is low, it is possible to capture the display information of the reproduction system without leaking.

実施の形態4における読み取り装置のシステム構成は、実施の形態1と同じであり、読み取り方法についても、図10で示したフローチャートの通りに行われ、その手順は実施の形態1と同様である。このため、実施の形態1と異なる情報データ部の解析処理(フレームレート確認データ部222の処理)についてのみ、図26のフローチャートを用いて説明を行う。   The system configuration of the reading apparatus according to the fourth embodiment is the same as that of the first embodiment, and the reading method is also performed according to the flowchart shown in FIG. 10, and the procedure is the same as that of the first embodiment. For this reason, only the analysis processing of the information data portion (processing of the frame rate confirmation data portion 222) different from the first embodiment will be described using the flowchart of FIG.

共通ヘッダ情報211を読み取った後、情報データ部の解析動作に入るが、実施の形態4で取り扱う動画ファイルを構成する映像データの情報データ部(フレームレート確認データ部222)には第1の情報画像(実施の形態1の符号206で示すもの)が含まれない。このため、画面の中央位置および座標系のユニットサイズについては、共通ヘッダ情報を読み取った際に検出したものをそのまま使用する点は、実施の形態3と同様である。   After the common header information 211 is read, the analysis operation of the information data portion is started, but the first information is included in the information data portion (frame rate confirmation data portion 222) of the video data constituting the moving image file handled in the fourth embodiment. An image (shown by reference numeral 206 in the first embodiment) is not included. For this reason, as for the center position of the screen and the unit size of the coordinate system, what is detected when the common header information is read is used as it is, as in the third embodiment.

実施の形態4においても解析は1秒を1サイクルとして実施される。解析が開始される(S500)と、最初に、1秒分の解析データを確保する領域である、今回の取得フレーム番号記憶領域104dと前回の取得フレーム番号記憶領域104eをクリアする(S501)。次に撮影された画像データがあれば(S502でYes)、共通ヘッダ情報211を読み取った際に使用した、画面の中央位置と座標系のユニットサイズを使用して、フレーム番号を意味するブロック図形の検出を行い、フレーム番号を取得する(S503)。実施の形態4では、処理速度を優先させるため、撮影された情報画像に対する歪補正を目的とした射影変換は行わず、第1の情報画面中に含まれるシンボル図形301から特定した画面の中央位置と座標系のユニットサイズから、フレーム番号を表現するブロック図形(B1〜B30)の位置を推測し、その位置でのブロック図形の有無の判定及びフレーム番号の検出を行う。ここで、図25のような場合には、2つのフレーム番号が検出される。   Also in the fourth embodiment, the analysis is performed with 1 second as one cycle. When the analysis is started (S500), first, the current acquisition frame number storage area 104d and the previous acquisition frame number storage area 104e, which are areas for securing analysis data for one second, are cleared (S501). If there is next photographed image data (Yes in S502), a block figure that means a frame number using the center position of the screen and the unit size of the coordinate system used when reading the common header information 211 Is detected, and the frame number is acquired (S503). In the fourth embodiment, in order to prioritize the processing speed, the projective transformation for the purpose of distortion correction is not performed on the captured information image, and the center position of the screen specified from the symbol graphic 301 included in the first information screen is performed. The position of the block graphic (B1 to B30) representing the frame number is estimated from the unit size of the coordinate system, and the presence or absence of the block graphic at that position is detected and the frame number is detected. Here, in the case of FIG. 25, two frame numbers are detected.

ブロック図形の検出ができなければ(S504でNo)、ステップS502に戻り、次の映像データに対して、同様の処理を行う。   If the block graphic cannot be detected (No in S504), the process returns to step S502, and the same processing is performed on the next video data.

フレーム番号が検出できれば(S504でYes)、そのフレーム番号(1つ又は2つ以上のフレーム番号)が前回取得したフレーム番号(前回の取得フレーム番号記憶領域104eに記憶されているものであり、後述のステップS514の処理により、前回複数のフレーム番号が検出された場合には、その中の最も値の大きいものが、「前回の取得したフレーム番号」として記録されている)から30(1秒間のフレーム数、従ってフレーム番号の最大値)までの範囲にあるかどうかの判定を行う(S505)。ステップS505で該当するフレーム番号が検出されれば(S506でYes)、上記のようにステップS503で複数のフレーム番号が検出された場合には、検出されたフレーム番号の各々について、前回取得したフレーム番号から30(フレーム番号の最大値)までの範囲にあるかどうかの判定を行う。この判定の結果、上記の範囲にあると判定されたフレーム番号をすべて取得フレーム番号記憶領域104dに保存する(S507)。   If the frame number can be detected (Yes in S504), the frame number (one or more frame numbers) is stored in the previously acquired frame number (previously acquired frame number storage area 104e, which will be described later. If a plurality of previous frame numbers are detected by the process of step S514, the largest value among them is recorded as “last acquired frame number” to 30 (for 1 second) It is determined whether or not it is within the range up to the number of frames, and therefore the maximum frame number (S505). If the corresponding frame number is detected in step S505 (Yes in S506), if a plurality of frame numbers are detected in step S503 as described above, the previously acquired frame number is detected for each detected frame number. It is determined whether it is in the range from the number to 30 (the maximum value of the frame number). As a result of this determination, all frame numbers determined to be in the above range are stored in the acquired frame number storage area 104d (S507).

次に、ステップS503で検出された(1又は2以上の)フレーム番号の中に、前回取得したフレーム番号より小さなものの検索を行う(S508)。該当するものが見つからなければ(S509でNo)、解析サイクルは一巡していないと判断し、今回取得したフレーム番号の中で最大のものを「前回取得したフレーム番号」として記憶領域104eに保存する(S510)。
該当するものが見つかれば(S509でYes)、解析サイクルが一巡したと判断し1秒分のデータである取得フレーム番号記憶領域104dに記憶されている取得フレーム番号を出力し、ログファイル105aに記録する(S511)。そして、取得フレーム番号記憶領域104dをクリアし(S512)、今回該当したフレーム番号を取得フレーム番号記憶領域104dに保存し(S513)、今回該当したフレーム番号の最大のものを、前回取得したフレーム番号として記憶領域104eに保存する(S514)。その後、ステップS502に戻ることにより、さらに次の画像データについてもの同様の処理を行い、画像データがなくなれば(S502でNo)、解析を終了する(S515)。
Next, a search is made for a frame number (one or two or more) detected in step S503 that is smaller than the previously acquired frame number (S508). If no corresponding one is found (No in S509), it is determined that the analysis cycle has not been completed, and the largest one of the frame numbers acquired this time is stored in the storage area 104e as the “frame number acquired last time”. (S510).
If a corresponding one is found (Yes in S509), it is determined that the analysis cycle has been completed, and the acquisition frame number stored in the acquisition frame number storage area 104d, which is data for one second, is output and recorded in the log file 105a. (S511). Then, the acquired frame number storage area 104d is cleared (S512), the current frame number corresponding to the current frame number is stored in the acquired frame number storage area 104d (S513), and the largest frame number corresponding to the current time is determined as the previously acquired frame number. Is stored in the storage area 104e (S514). Thereafter, by returning to step S502, the same processing is performed for the next image data. If there is no more image data (No in S502), the analysis is terminated (S515).

ログファイル105aに記録された取得フレーム番号は、単位時間あたりに表示されたフレーム数、即ちフレームレートの算出に用いられる。   The acquired frame number recorded in the log file 105a is used to calculate the number of frames displayed per unit time, that is, the frame rate.

このようにして、実施の形態4で説明した画像読み取り装置では、複数の情報画像が撮像された画像データをまとめて解析処理を行うことができるため、撮影のフレームレートが低いカメラを用いても、正確に再生のフレームレートを測定することができる。   In this manner, the image reading apparatus described in Embodiment 4 can perform analysis processing on image data obtained by capturing a plurality of information images, so even if a camera with a low shooting frame rate is used. The frame rate of playback can be measured accurately.

本発明に係る再生評価における解析手段は典型的には汎用のパーソナルコンピュータで実現されるが、上記した再生評価用のデータ構造を用いた場合、解析が軽い処理となるので、HWリソースが十分でない組込み機器で解析を行うこともできる。   The analysis means in the reproduction evaluation according to the present invention is typically realized by a general-purpose personal computer. However, when the above-described data structure for reproduction evaluation is used, the analysis becomes a light process, so the HW resource is not sufficient. Analysis can also be performed with embedded devices.

この発明の実施の形態1の再生評価装置を評価対象となる再生装置90とともに示すシステム構成図である。It is a system block diagram which shows the reproduction | regeneration evaluation apparatus of Embodiment 1 of this invention with the reproducing | regenerating apparatus 90 used as evaluation object. 図1の再生装置で再生される動画を表す動画ファイルを構成する映像データを示す図である。It is a figure which shows the video data which comprises the moving image file showing the moving image reproduced | regenerated with the reproducing | regenerating apparatus of FIG. 第1の情報画像のパターンを示した図である。It is the figure which showed the pattern of the 1st information image. 第2の情報画像のパターンを示した図である。It is the figure which showed the pattern of the 2nd information image. 第1の情報画像から画像の中心位置を示すシンボル図形を検出するために使用される射影データを示した図である。It is the figure which showed the projection data used in order to detect the symbol figure which shows the center position of an image from the 1st information image. 第2の情報画像パターンの四隅の位置を検出するために使用される射影データを示した図である。It is the figure which showed the projection data used in order to detect the position of the four corners of a 2nd information image pattern. 射影変換の概念図である。It is a conceptual diagram of projective transformation. (a)及び(b)は、射影変換前と変換後の座標関係を示した図である。(A) And (b) is the figure which showed the coordinate relationship before and after projective transformation. 歪んだ状態で撮影した第2の情報画像のパターンの一例を示す図である。It is a figure which shows an example of the pattern of the 2nd information image image | photographed in the distorted state. 実施の形態1、2、3および4の処理全体を示すフローチャートである。5 is a flowchart showing the entire processing of the first, second, third, and fourth embodiments. 図10の共通ヘッダ情報取得処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the common header information acquisition process of FIG. 実施の形態1および2の映像データ中の情報データ部の解析処理を示したフローチャートである。5 is a flowchart showing analysis processing of an information data portion in video data according to the first and second embodiments. 実施の形態2の再生評価装置を評価対象となる再生装置とともに示すシステム構成図である。It is a system block diagram which shows the reproduction | regeneration evaluation apparatus of Embodiment 2 with the reproduction | regeneration apparatus used as evaluation object. 実施の形態2で評価の対象とされる再生装置で再生される動画を表す動画ファイルのデータの構成を示した図である。6 is a diagram illustrating a data structure of a moving image file representing a moving image to be played back by a playback device to be evaluated in Embodiment 2. FIG. DTMF音を構成する周波数の組合せとそれが表す数値の関係を示した表である。It is the table | surface which showed the relationship between the combination of the frequency which comprises a DTMF sound, and the numerical value which it represents. 音声データの解析のタイミングを示した図である。It is the figure which showed the timing of the analysis of audio | voice data. 実施の形態2の音声データの解析処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of audio data analysis processing according to the second embodiment. 実施の形態3の再生評価装置を評価対象となる再生装置とともに示すシステム構成図である。FIG. 10 is a system configuration diagram illustrating a reproduction evaluation apparatus according to a third embodiment together with a reproduction apparatus to be evaluated. 実施の形態3で評価の対象とされる再生装置で再生される動画を表す動画ファイルを示した図である。FIG. 10 is a diagram illustrating a moving image file representing a moving image that is played back by a playback device that is an evaluation target in the third embodiment. 実施の形態3で用いられる、フレーム番号を表現する情報画像の一例を示す図である。10 is a diagram illustrating an example of an information image expressing a frame number used in Embodiment 3. FIG. 実施の形態3の映像データ中の情報データ部の解析処理を示したフローチャートである。12 is a flowchart illustrating an analysis process of an information data portion in video data according to the third embodiment. 実施の形態4の再生評価装置を評価対象となる再生装置とともに示すシステム構成図である。FIG. 10 is a system configuration diagram showing a playback evaluation apparatus according to Embodiment 4 together with a playback apparatus to be evaluated. 実施の形態4で評価の対象とされる再生装置90で再生される動画を表す動画ファイルを示した図である。FIG. 10 is a diagram illustrating a moving image file representing a moving image that is played back by the playback device 90 that is an evaluation target in the fourth embodiment. 実施の形態4で使用される映像データ内のそれぞれのフレームのブロック図形を示した図である。It is the figure which showed the block figure of each frame in the video data used in Embodiment 4. FIG. カメラ撮影時のフレームレートが低い場合に、再生画像であるブロック図形が複数重なって撮影された例を示す図である。It is a figure which shows the example which was image | photographed in multiple block figures which are reproduction images, when the frame rate at the time of camera imaging | photography is low. 実施の形態4の映像データ中の情報データ部の解析処理を示したフローチャートである。10 is a flowchart illustrating an analysis process of an information data portion in video data according to a fourth embodiment.

符号の説明Explanation of symbols

90 再生装置、 91 動画提供部、 92 再生信号処理部、 93 表示部、 94 スピーカ、 100 再生評価装置、 101 カメラ、 102 モニタ、 103 CPU、 104 メモリ、 105 HDD、 106 マイク、 201、204、205、208 ブランク画像、 202、206 第1の情報画像、 203、207、411 第2の情報画像、 301 第1の情報画像のシンボル図形、 401、402、403、404 第2の情報画像のシンボル図形、 405 第2の情報画像のデータ図形、 501、502、605、606、607、608 画像データの累積データ、 601、602、603、604 シンボル図形の検出領域、 701、703 平面、 702 投影中心、 1401、1402、1403、1404 音声データ中のDTMF音、 1501、1502、1503、1504、1505 256サンプル分の音声データ。
90 playback device, 91 moving image providing unit, 92 playback signal processing unit, 93 display unit, 94 speaker, 100 playback evaluation device, 101 camera, 102 monitor, 103 CPU, 104 memory, 105 HDD, 106 microphone, 201, 204, 205 , 208 Blank image, 202, 206 First information image, 203, 207, 411 Second information image, 301 Symbol graphic of the first information image, 401, 402, 403, 404 Symbol graphic of the second information image 405 Data graphic of second information image 501, 502, 605, 606, 607, 608 Cumulative data of image data 601, 602, 603, 604 Symbol graphic detection area 701, 703 plane, 702 Projection center, 1401, 1402, 1403, 1404 D in audio data MF sound, 1501,1502,1503,1504,1505 256 samples of voice data.

Claims (20)

被評価装置により動画ファイルに基づいて再生された動画を撮像することにより得られた映像データを取得する映像データ取得手段と、
取得した映像データを解析する解析手段と
を有する再生評価装置であって、
前記被評価装置により再生されるべき動画を表す映像データを含む動画ファイルが、第1の画像データと、第2の画像データとを含み、
前記第1の画像データが、画面中の第1の特定の位置を表す第1のシンボル図形で構成された第1の情報画像を表し、
前記第2の画像データが、前記第1の情報画像と相前後して再生されるべき、画面中の互いに異なる複数の第2の特定の位置を表す第2のシンボル図形と、解析用の情報を図形により符号化したデータ図形とを含む第2の情報画像とを表し、
前記解析手段が、
前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形に基づいて前記第1の特定の位置を確定し、
確定した前記第1の特定の位置を表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置を割り出し、割り出した位置付近で、再生された前記第2のシンボル図形を探索して前記第2のシンボル図形の位置を確定し、確定した前記第2の特定の位置の、前記割り出した位置からのずれに基づいて画面の歪みを補正して、前記データ図形により符号化されたデータを解読する
ことを特徴とする再生評価装置。
Video data acquisition means for acquiring video data obtained by capturing a video reproduced based on a video file by the evaluated device;
A reproduction evaluation apparatus having analysis means for analyzing acquired video data,
A moving image file including video data representing a moving image to be reproduced by the device to be evaluated includes first image data and second image data;
The first image data represents a first information image composed of a first symbol graphic representing a first specific position in the screen;
Second symbol graphics representing a plurality of second specific positions different from each other in the screen, and information for analysis, in which the second image data is to be reproduced before and after the first information image A second information image including a data graphic encoded with a graphic,
The analysis means is
Determining the first specific position based on the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on the position information representing the determined first specific position, the device to be evaluated determines the position where the second symbol graphic is to be reproduced, and the second reproduced near the calculated position. The position of the second symbol figure is determined by searching for the second symbol figure, the distortion of the screen is corrected based on the deviation of the determined second specific position from the determined position, and the data A reproduction evaluation apparatus characterized in that it decodes data encoded by a figure.
前記解析手段が、前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形のサイズを検出し、
前記第1の特定の位置を表す位置情報のみならず、前記第1のシンボル図形のサイズを表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置の割り出しを行うことを特徴とする請求項1に記載の再生評価装置。
The analyzing means detects a size of the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on not only the position information indicating the first specific position but also the position information indicating the size of the first symbol graphic, the evaluation target device determines the position where the second symbol graphic is to be reproduced. 2. The reproduction evaluation apparatus according to claim 1, wherein indexing is performed.
前記動画ファイルの映像データが、前記第1および前記第2の情報画像が交互に繰り返される映像を表すものであり、
前記第2の情報画像中のデータ図形により符号化されるデータには当該第2の情報画像の再生の後最初に再生される前記第1の情報画像が再生されるべき時刻を表す再生時刻情報が含まれており、
前記解析手段が、
前記被評価装置で再生された前記第2の情報画像中のデータ図形を解読することで得られる再生時刻情報と、
当該第2の情報画像の再生の後最初に前記被評価装置で前記第1の情報画像が再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項1に記載の再生評価装置。
The video data of the video file represents video in which the first and second information images are alternately repeated,
Reproduction time information indicating the time at which the first information image reproduced first after the reproduction of the second information image is to be reproduced is included in the data encoded by the data graphic in the second information image. Is included,
The analysis means is
Reproduction time information obtained by decoding a data graphic in the second information image reproduced by the device under evaluation;
2. The reproduction according to claim 1, wherein it is detected whether or not a time when the first information image is reproduced by the device to be evaluated first after the reproduction of the second information image. 3. Evaluation device.
前記動画ファイルは、前記第1および前記第2の情報画像が交互に繰り返し再生される映像を表し、前記動画ファイルには、前記第1の情報画像の再生に同期して再生されるべき音声を表す音声データが付加されており、
前記音声データに基づいて再生された音声を収音することにより得られた音声データを取得する音声データ取得手段をさらに有し、
前記解析手段が、
前記第1の情報画像が前記被評価装置で再生された時刻と、前記音声が前記被評価装置で再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項1に記載の再生評価装置。
The moving image file represents a video in which the first and second information images are alternately and repeatedly reproduced, and the moving image file contains audio to be reproduced in synchronization with the reproduction of the first information image. Voice data to represent,
Audio data acquisition means for acquiring audio data obtained by collecting audio reproduced based on the audio data;
The analysis means is
The time at which the first information image is reproduced by the device under evaluation and the time at which the sound is reproduced by the device under evaluation are detected. Reproduction evaluation device.
前記動画ファイルが、
映像を構成する複数のフレームのそれぞれの番号を表す図形を含む動画を表すものであり、
前記解析手段が、前記被評価装置で再生された映像を解読することで得られるフレーム番号に基づいて、
単位時間あたりに表示されたフレーム数を確認する
ことを特徴とする請求項1に記載の再生評価装置。
The video file is
Represents a video that contains graphics representing the numbers of each of the frames that make up the video,
Based on a frame number obtained by decoding the video reproduced by the device under evaluation, the analysis means,
The playback evaluation apparatus according to claim 1, wherein the number of frames displayed per unit time is confirmed.
前記フレームの番号が、所定の周期で、巡回的に変化するものである
ことを特徴とする請求項5に記載の再生評価装置。
The reproduction evaluation apparatus according to claim 5, wherein the frame number is cyclically changed at a predetermined period.
前記動画ファイルの映像データが、画面中の互いに重ならない位置に表示されるフレーム番号を表す刻印を含む映像を表すものであり、
前記解析手段が、前記刻印を含む映像を撮像することにより得られた映像データに基づいて、単位時間当たりに表示されたフレーム数を確認する
ことを特徴とする請求項5に記載の再生評価装置。
The video data of the video file represents video including an inscription representing a frame number displayed at a position that does not overlap each other on the screen,
6. The reproduction evaluation apparatus according to claim 5, wherein the analysis unit confirms the number of frames displayed per unit time based on video data obtained by capturing a video including the inscription. .
前記解析手段が、
前記第1の情報画像中の、前記第1のシンボル図形から前記前記刻印を含む映像の位置を推測して前記刻印を含む映像を読み取ることにより得られた映像データに基づき、前記フレーム数の確認を行うことを特徴とする請求項7に記載の再生評価装置。
The analysis means is
Confirmation of the number of frames based on video data obtained by estimating the position of the video including the stamp from the first symbol graphic in the first information image and reading the video including the stamp The reproduction evaluation apparatus according to claim 7, wherein:
前記複数の第2の特定の位置が、画面の四隅のそれぞれの位置であり、
前記四隅のうちの一つの位置を表す前記第2のシンボル図形が、他の隅の位置を表す前記第2のシンボル図形とは異なるものであることを特徴とする請求項1に記載の再生評価装置。
The plurality of second specific positions are positions of the four corners of the screen;
2. The reproduction evaluation according to claim 1, wherein the second symbol graphic representing the position of one of the four corners is different from the second symbol graphic representing the position of the other corner. apparatus.
前記解析手段が、前記画面の歪の補正を射影変換により行うことを特徴とする請求項1に記載の再生評価装置。   The reproduction evaluation apparatus according to claim 1, wherein the analysis unit corrects distortion of the screen by projective transformation. 被評価装置により動画ファイルに基づいて再生された動画を撮像することにより得られた映像データを取得する映像データ取得ステップと、
取得した映像データを解析する解析ステップと
を有する再生評価方法であって、
前記被評価装置により再生されるべき動画を表す映像データを含む動画ファイルが、第1の画像データと、第2の画像データとを含み、
前記第1の画像データが、画面中の第1の特定の位置を表す第1のシンボル図形で構成された第1の情報画像を表し、
前記第2の画像データが、前記第1の情報画像と相前後して再生されるべき、画面中の互いに異なる複数の第2の特定の位置を表す第2のシンボル図形と、解析用の情報を符号化したデータ図形とを含む第2の情報画像とを表し、
前記解析ステップが、
前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形に基づいて前記第1の特定の位置を確定し、
確定した前記第1の特定の位置を表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置を割り出し、割り出した位置付近で、再生された前記第2のシンボル図形を探索して前記第2のシンボル図形の位置を確定し、確定した前記第2の特定の位置の、前記割り出した位置からのずれに基づいて画面の歪みを補正して、前記データ図形により符号化されたデータを解読する
ことを特徴とする再生評価方法。
A video data acquisition step of acquiring video data obtained by imaging a video reproduced based on a video file by the evaluated device;
A playback evaluation method comprising: an analysis step for analyzing the acquired video data,
A moving image file including video data representing a moving image to be reproduced by the device to be evaluated includes first image data and second image data;
The first image data represents a first information image composed of a first symbol graphic representing a first specific position in the screen;
Second symbol graphics representing a plurality of second specific positions different from each other in the screen, and information for analysis, in which the second image data is to be reproduced before and after the first information image And a second information image including a data graphic encoded with
The analyzing step comprises:
Determining the first specific position based on the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on the position information representing the determined first specific position, the device to be evaluated determines the position where the second symbol graphic is to be reproduced, and the second reproduced near the calculated position. The position of the second symbol figure is determined by searching for the second symbol figure, the distortion of the screen is corrected based on the deviation of the determined second specific position from the determined position, and the data A reproduction evaluation method characterized by decoding data encoded by a figure.
前記解析ステップが、前記被評価装置により再生された、前記第1の情報画像中の前記第1のシンボル図形のサイズを検出し、
前記第1の特定の位置を表す位置情報のみならず、前記第1のシンボル図形のサイズを表す位置情報を元に、前記被評価装置により、前記第2のシンボル図形が再生されるべき位置の割り出しを行うことを特徴とする請求項11に記載の再生評価方法。
The analyzing step detects a size of the first symbol graphic in the first information image reproduced by the device under evaluation;
Based on not only the position information indicating the first specific position but also the position information indicating the size of the first symbol graphic, the evaluation target device determines the position where the second symbol graphic is to be reproduced. 12. The reproduction evaluation method according to claim 11, wherein indexing is performed.
前記動画ファイルの映像データが、前記第1および前記第2の情報画像が交互に繰り返される映像を表すものであり、
前記第2の情報画像中のデータ図形により符号化されるデータには当該第2の情報画像の再生の後最初に再生される前記第1の情報画像が再生されるべき時刻を表す再生時刻情報が含まれており、
前記解析ステップが、
前記被評価装置で再生された前記第2の情報画像中のデータ図形を解読することで得られる再生時刻情報と、
当該第2の情報画像の再生の後最初に前記被評価装置で前記第1の情報画像が再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項11に記載の再生評価方法。
The video data of the video file represents video in which the first and second information images are alternately repeated,
Reproduction time information indicating the time at which the first information image reproduced first after the reproduction of the second information image is to be reproduced is included in the data encoded by the data graphic in the second information image. Is included,
The analyzing step comprises:
Reproduction time information obtained by decoding a data graphic in the second information image reproduced by the device under evaluation;
12. The reproduction according to claim 11, wherein it is detected whether or not the time when the first information image is reproduced by the device under evaluation first coincides with the reproduction of the second information image. Evaluation methods.
前記動画ファイルは、前記第1および前記第2の情報画像が交互に繰り返し再生される映像を表し、前記動画ファイルには、前記第1の情報画像の再生に同期して再生されるべき音声を表す音声データが付加されており、
前記音声データに基づいて再生された音声を収音することにより得られた音声データを取得する音声データ取得ステップをさらに有し、
前記解析ステップが、
前記第1の情報画像が前記被評価装置で再生された時刻と、前記音声が前記被評価装置で再生された時刻とが一致するか否かを検出する
ことを特徴とする請求項11に記載の再生評価方法。
The moving image file represents a video in which the first and second information images are alternately and repeatedly reproduced, and the moving image file contains audio to be reproduced in synchronization with the reproduction of the first information image. Voice data to represent,
An audio data acquisition step of acquiring audio data obtained by collecting audio reproduced based on the audio data;
The analyzing step comprises:
The time at which the first information image is reproduced by the device under evaluation and the time at which the sound is reproduced by the device under evaluation are detected. Reproduction evaluation method.
前記動画ファイルが、
映像を構成する複数のフレームのそれぞれの番号を表す図形を含む動画を表すものであり、
前記解析ステップが、前記被評価装置で再生された映像を解読することで得られるフレーム番号に基づいて、
単位時間あたりに表示されたフレーム数を確認する
ことを特徴とする請求項11に記載の再生評価方法。
The video file is
Represents a video that contains graphics representing the numbers of each of the frames that make up the video,
The analysis step is based on a frame number obtained by decoding the video reproduced by the device to be evaluated.
The playback evaluation method according to claim 11, wherein the number of frames displayed per unit time is confirmed.
前記フレームの番号が、所定の周期で、巡回的に変化するものである
ことを特徴とする請求項15に記載の再生評価方法。
The reproduction evaluation method according to claim 15, wherein the frame number changes cyclically at a predetermined period.
前記動画ファイルの映像データが、画面中の互いに重ならない位置に表示されるフレーム番号を表す刻印を含む映像を表すものであり、
前記解析ステップが、前記刻印を含む映像を撮像することにより得られた映像データに基づいて、単位時間当たりに表示されたフレーム数を確認する
ことを特徴とする請求項15に記載の再生評価方法。
The video data of the video file represents video including an inscription representing a frame number displayed at a position that does not overlap each other on the screen,
16. The reproduction evaluation method according to claim 15, wherein the analysis step confirms the number of frames displayed per unit time based on video data obtained by capturing a video including the inscription. .
前記解析ステップが、
前記第1の情報画像中の、前記第1のシンボル図形から前記前記刻印を含む映像の位置を推測して前記刻印を含む映像を読み取ることにより得られた映像データに基づき、前記フレーム数の確認を行うことを特徴とする請求項17に記載の再生評価方法。
The analyzing step comprises:
Confirmation of the number of frames based on video data obtained by estimating the position of the video including the stamp from the first symbol graphic in the first information image and reading the video including the stamp The reproduction evaluation method according to claim 17, wherein:
前記複数の第2の特定の位置が、画面の四隅のそれぞれの位置であり、
前記四隅のうちの一つの位置を表す前記第2のシンボル図形が、他の隅の位置を表す前記第2のシンボル図形とは異なるものであることを特徴とする請求項11に記載の再生評価方法。
The plurality of second specific positions are positions of the four corners of the screen;
12. The reproduction evaluation according to claim 11, wherein the second symbol graphic representing the position of one of the four corners is different from the second symbol graphic representing the position of the other corner. Method.
前記解析ステップが、前記画面の歪の補正を射影変換により行うことを特徴とする請求項11に記載の再生評価方法。   The reproduction evaluation method according to claim 11, wherein the analysis step performs correction of distortion of the screen by projective transformation.
JP2005260441A 2005-09-08 2005-09-08 Device and method for reproduction evaluation Withdrawn JP2007074489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005260441A JP2007074489A (en) 2005-09-08 2005-09-08 Device and method for reproduction evaluation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005260441A JP2007074489A (en) 2005-09-08 2005-09-08 Device and method for reproduction evaluation

Publications (1)

Publication Number Publication Date
JP2007074489A true JP2007074489A (en) 2007-03-22

Family

ID=37935534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005260441A Withdrawn JP2007074489A (en) 2005-09-08 2005-09-08 Device and method for reproduction evaluation

Country Status (1)

Country Link
JP (1) JP2007074489A (en)

Similar Documents

Publication Publication Date Title
JP4379409B2 (en) Imaging apparatus, information processing method, and computer program
KR102650850B1 (en) Video sound processing device, video sound processing method , and computer readable recording medium storing program
CN1972414B (en) Information processing apparatus, imaging device, information processing method
US7856145B2 (en) Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program
EP2161928B1 (en) Image processing device, image processing method, and program
JP5751630B2 (en) Inspection auxiliary device and method
JP2009017598A (en) Imaging apparatus, information treatment method, and computer program
JP2017050649A (en) Video audio reproducing apparatus, video audio reproducing method, and program
JP5349488B2 (en) Imaging device, output device, program, and imaging method of imaging device
JP6295442B2 (en) Image generating apparatus, photographing apparatus, image generating method, and program
JP2007074489A (en) Device and method for reproduction evaluation
JP2010200079A (en) Photography control device
JP6314321B2 (en) Image generating apparatus, photographing apparatus, image generating method, and program
JP2006041586A (en) Video reproducing and displaying apparatus
JP2010062726A (en) Apparatus and method for supporting imaging position determination, and computer program
JP5012644B2 (en) Presentation recording apparatus, presentation playback apparatus, and program
JP2020129763A (en) Video reproduction device, video reproduction method, and program
JP5089459B2 (en) Video system with past video reference function, video information processing method, program, and recording medium
JP6295443B2 (en) Image generating apparatus, photographing apparatus, image generating method, and program
JP6070559B2 (en) Image display apparatus and method, and program
JP2009284411A (en) Imaging apparatus
JP5665380B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium
JP4361818B2 (en) Screen display area detection device, screen display area detection method, and screen display area detection program
JP6662223B2 (en) Video recording and playback device
JP2022052361A (en) Highlight moving image creation device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081202