JP2012099975A - Video tracking apparatus, video tracking method and video tracking program - Google Patents

Video tracking apparatus, video tracking method and video tracking program Download PDF

Info

Publication number
JP2012099975A
JP2012099975A JP2010244704A JP2010244704A JP2012099975A JP 2012099975 A JP2012099975 A JP 2012099975A JP 2010244704 A JP2010244704 A JP 2010244704A JP 2010244704 A JP2010244704 A JP 2010244704A JP 2012099975 A JP2012099975 A JP 2012099975A
Authority
JP
Japan
Prior art keywords
tracking
image
frames
displayed
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010244704A
Other languages
Japanese (ja)
Other versions
JP5613016B2 (en
Inventor
Woobum Kang
宇範 康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2010244704A priority Critical patent/JP5613016B2/en
Publication of JP2012099975A publication Critical patent/JP2012099975A/en
Application granted granted Critical
Publication of JP5613016B2 publication Critical patent/JP5613016B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video tracking apparatus, a video tracking method and a video tracking program that can efficiently produce an accurate tracking result in tracking an object in video.SOLUTION: In an image processing system 100, one of a plurality of frame images stored in a storage section 40 is displayed as an initial image on a display section 20. When an operation section 4 is used to set a tracking condition in the initial image and command a start of tracking, a tracking operation is executed in the initial image and subsequent frame images. When the operation section 4 is used after a stop or end of the tracking operation to instruct any one of the plurality of frame images to be displayed as a new initial image, the new initial image is displayed on the display section 20. When the operation section 4 is further used to set a tracking condition again in the new initial image and command a start of tracking, a tracking operation is executed in the new initial image and subsequent frame images.

Description

本発明は、動画中の追尾対象を追尾するための動画追尾装置、動画追尾方法および動画追尾プログラムに関する。   The present invention relates to a moving image tracking device, a moving image tracking method, and a moving image tracking program for tracking a tracking target in a moving image.

動画中の追尾対象を追尾することにより動画中で移動する追尾対象の軌跡を表示する種々の方法が提案されている。   Various methods have been proposed for displaying a track of a tracking target that moves in a moving image by tracking the tracking target in the moving image.

例えば、特許文献1に記載された動画データ解析プログラムによれば、作業者がモニタに表示された画像の任意の箇所を指定すると、軌跡表示手段が指定された箇所の軌跡をモニタに表示することができる。   For example, according to the moving image data analysis program described in Patent Document 1, when an operator designates an arbitrary portion of an image displayed on a monitor, the locus display means displays the locus of the designated portion on the monitor. Can do.

特開2010−71687号公報JP 2010-71687 A

動画は、複数フレームの画像により構成される。動画中の追尾対象の追尾では、動画を構成する複数フレームの画像の各々において追尾対象の位置が識別される。各フレームの画像において追尾対象の位置の識別が成功する確率は比較的高い。しかしながら、動画を構成する複数フレームの画像のすべてにおいて追尾対象の位置の識別が成功する確率は、指数的に低下する。   A moving image is composed of a plurality of frames of images. In tracking of a tracking target in a moving image, the position of the tracking target is identified in each of a plurality of frames constituting the moving image. The probability of successful identification of the tracking target position in each frame image is relatively high. However, the probability that the tracking target position is successfully identified in all the images of a plurality of frames constituting the moving image decreases exponentially.

したがって、追尾対象の正確な追尾結果として正確な軌跡を得るためには、動画中の全フレームの画像について追尾対象の追尾が成功するまで、追尾対象の追尾を繰り返し実行する必要がある。それにより、正確な追尾結果を得るために多大な時間を要するため、作業の効率が低下する。   Therefore, in order to obtain an accurate trajectory as an accurate tracking result of the tracking target, it is necessary to repeatedly perform tracking of the tracking target until the tracking target is successfully tracked for all the frames of the moving image. As a result, it takes a lot of time to obtain an accurate tracking result, so that the work efficiency is lowered.

本発明の目的は、動画中の追尾対象の追尾において効率よく正確な追尾結果を得ることが可能な動画追尾装置、動画追尾方法および動画追尾プログラムを提供することである。   An object of the present invention is to provide a moving image tracking apparatus, a moving image tracking method, and a moving image tracking program capable of obtaining an efficient and accurate tracking result in tracking of a tracking target in a moving image.

(1)第1の発明に係る動画追尾装置は、複数フレームの画像により構成される動画中の追尾対象を追尾する動画追尾装置であって、複数フレームの画像を表示するための複数フレームの画像データを記憶する記憶部と、記憶部に記憶される各フレームの画像データに基づいて画像を表示する表示部と、表示部に表示される画像内での追尾対象の追尾条件の設定および追尾対象の追尾に関する指示を行なうためにユーザにより操作される操作部と、表示部に複数フレームの画像を順に表示させ、表示される各画像において操作部により設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる追尾動作を実行する制御部とを備え、制御部は、複数フレームの画像のうち一の画像を初期画像として表示部に表示させ、操作部により初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合に、初期画像以降のフレームの画像について追尾動作を実行し、追尾動作の停止または終了後に、操作部により複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合に、新たな初期画像を表示部に表示させ、操作部により新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、新たな初期画像以降のフレームの画像について追尾動作を実行するものである。   (1) A moving image tracking apparatus according to a first aspect is a moving image tracking apparatus that tracks a tracking target in a moving image composed of a plurality of frames of images, and a plurality of frames of images for displaying a plurality of frames of images. A storage unit for storing data, a display unit for displaying an image based on the image data of each frame stored in the storage unit, setting of tracking conditions for the tracking target in the image displayed on the display unit, and a tracking target The operation unit operated by the user in order to instruct the tracking of the image and the display unit display images of a plurality of frames in order, and in each displayed image, the position of the tracking target is identified by the tracking condition set by the operation unit And a control unit that executes a tracking operation for displaying a symbol at the identified position, and the control unit displays one of the images of the plurality of frames as an initial image. When the tracking condition is set in the initial image by the operation unit and the start of tracking is instructed, the tracking operation is performed on the image of the frame after the initial image, and after the tracking operation is stopped or ended, the operation unit When an instruction to display any one of the images of a plurality of frames as a new initial image is displayed on the display unit, the tracking condition is set in the new initial image by the operation unit. When the resetting is instructed and the start of tracking is instructed, the tracking operation is executed for images of frames after the new initial image.

この動画追尾装置においては、記憶部に記憶された画像データに基づいて複数フレームの画像のうち一の画像が初期画像として表示部に表示される。操作部により初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合、初期画像以降のフレームの画像について追尾動作が実行される。   In this moving image tracking apparatus, one image of a plurality of frames is displayed on the display unit as an initial image based on the image data stored in the storage unit. When the tracking condition is set in the initial image by the operation unit and the start of tracking is instructed, the tracking operation is executed for the images of the frames after the initial image.

追尾動作においては、表示部に複数フレームの画像が順に表示される。表示される各画像において、操作部により設定された追尾条件で追尾対象の位置が識別されるとともに識別された位置にシンボルが表示される。複数フレームの画像について表示された複数のシンボルが動画中で移動する追尾対象の軌跡を示す。   In the tracking operation, images of a plurality of frames are sequentially displayed on the display unit. In each displayed image, the position of the tracking target is identified under the tracking condition set by the operation unit, and a symbol is displayed at the identified position. A plurality of symbols displayed for a plurality of frames of images indicate a tracking target trajectory that moves in a moving image.

追尾動作の停止または終了後に、操作部により複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合、新たな初期画像が表示部に表示される。また、操作部により新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合、新たな初期画像以降のフレームの画像について追尾動作が実行される。   When the operation unit instructs to display any one of the images of a plurality of frames as a new initial image after the tracking operation is stopped or ended, the new initial image is displayed on the display unit. Further, when the tracking condition is reset in the new initial image and the start of tracking is instructed by the operation unit, the tracking operation is executed for the images of the frames after the new initial image.

これにより、追尾動作の実行中に追尾対象の追尾が失敗した場合、任意のフレームの初期画像から追尾動作を再開することができる。そのため、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像を新たな初期画像とすることにより、追尾が成功した画像の追尾結果を保持しつつ、追尾が失敗した画像について追尾動作を再開することができる。   Thereby, when the tracking of the tracking target fails during the execution of the tracking operation, the tracking operation can be restarted from the initial image of an arbitrary frame. Therefore, the image of the first frame in which tracking has failed or the image of the frame immediately before the tracking has failed is set as a new initial image, so that the tracking result of the image that has been successfully tracked is maintained and the image in which tracking has failed. The tracking operation can be resumed.

また、新たな初期画像において追尾条件を再設定することができるので、再開された追尾動作において各画像についての追尾が成功する確率が高くなる。したがって、追尾動作の全体の実行時間が短縮される。その結果、効率よく正確な追尾結果を得ることが可能になる。   Further, since the tracking condition can be reset in the new initial image, the probability that the tracking for each image is successful in the resumed tracking operation is increased. Therefore, the entire execution time of the tracking operation is shortened. As a result, an accurate and accurate tracking result can be obtained.

(2)制御部は、表示部に現在表示される画像において識別された追尾対象の位置と、表示部に現在表示される画像よりも以前のフレームの画像において識別された追尾対象の位置とにシンボルをそれぞれ表示させ、新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、表示部に現在表示される画像において識別された追尾対象の位置と、新たな初期画像よりも以後でかつ表示部に現在表示される画像よりも以前のフレームの画像において識別された追尾対象の位置と、新たな初期画像よりも以前のフレームの画像において識別された追尾対象の位置とにシンボルをそれぞれ表示させてもよい。   (2) The control unit sets the tracking target position identified in the image currently displayed on the display unit and the tracking target position identified in the image of the frame before the image currently displayed on the display unit. Each symbol is displayed, and when the tracking condition is reset in the new initial image and the start of tracking is instructed, the position of the tracking target identified in the image currently displayed on the display unit and the new initial image The position of the tracking target identified in the image of the frame after the image and before the image currently displayed on the display unit, and the position of the tracking target identified in the image of the frame before the new initial image The symbols may be displayed respectively.

この場合、表示部に現在表示される画像において識別された追尾対象の位置と、表示部に現在表示される画像よりも以前のフレームの画像において識別された追尾対象の位置とにシンボルがそれぞれ表示される。これにより、ユーザは動画中の追尾対象の軌跡を容易に観察することができる。   In this case, symbols are respectively displayed at the position of the tracking target identified in the image currently displayed on the display unit and the position of the tracking target identified in the image of the frame before the image currently displayed on the display unit. Is done. Thereby, the user can easily observe the track of the tracking target in the moving image.

また、追尾動作が再開された場合、表示部に現在表示される画像において識別された追尾対象の位置と、新たな初期画像よりも以後でかつ表示部に現在表示される画像よりも以前のフレームの画像において識別された追尾対象の位置と、新たな初期画像よりも以前のフレームの画像において識別された追尾対象の位置とにシンボルがそれぞれ表示される。これにより、追尾動作が再開された場合でも、ユーザは動画中の追尾対象の軌跡を容易に観察することができる。   Further, when the tracking operation is resumed, the position of the tracking target identified in the image currently displayed on the display unit and the frame after the new initial image and before the image currently displayed on the display unit Symbols are respectively displayed at the position of the tracking target identified in the previous image and the position of the tracking target identified in the image of the frame before the new initial image. Thereby, even when the tracking operation is resumed, the user can easily observe the track of the tracking target in the moving image.

(3)追尾条件は、初期画像内での追尾対象の画像部分の範囲および各フレームの画像内で追尾対象を探索する範囲のうち少なくとも一方を含んでもよい。   (3) The tracking condition may include at least one of a range of the image portion to be tracked in the initial image and a range for searching for the tracking target in the image of each frame.

この場合、ユーザは、初期画像内での追尾対象の画像部分の範囲および各フレームの画像内で追尾対象を探索する範囲のうち少なくとも一方を再設定することにより、適切な条件で追尾動作を再開することができる。これにより、追尾が失敗した場合でも、再開時の追尾動作においては以前の追尾動作における追尾の失敗を繰り返すことを防止することができる。   In this case, the user restarts the tracking operation under an appropriate condition by resetting at least one of the range of the image portion to be tracked in the initial image and the range to search for the tracking target in the image of each frame. can do. Thereby, even when tracking fails, it is possible to prevent the tracking failure in the previous tracking operation from being repeated in the tracking operation at the time of resumption.

(4)制御部は、複数フレームの画像を追尾動作時とは逆の時間順で表示部に表示させる逆再生の機能を有し、操作部は、追尾動作の停止または終了後に、逆再生を指示することにより新たな初期画像の表示を指示可能であってもよい。   (4) The control unit has a reverse playback function for displaying images of a plurality of frames on the display unit in a time sequence opposite to that in the tracking operation, and the operation unit performs reverse playback after the tracking operation is stopped or ended. It may be possible to instruct the display of a new initial image by instructing.

この場合、ユーザは、追尾動作の停止または終了後に、逆再生を指示することにより所望のフレームの画像を新たな初期画像として表示させることができる。これにより、ユーザは、各フレームの画像およびシンボルを見ながら、追尾が最初に失敗したフレームの画像を容易に見つけることができる。したがって、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像から追尾動作を容易に再開することができる。   In this case, the user can display an image of a desired frame as a new initial image by instructing reverse reproduction after the tracking operation is stopped or ended. As a result, the user can easily find the image of the frame in which tracking has failed first while viewing the image and symbol of each frame. Therefore, the tracking operation can be easily restarted from the image of the first frame in which the tracking has failed or the image of the frame immediately before the tracking has failed.

(5)制御部は、表示部に表示させる画像を選択するための選択部を表示部に表示させ、操作部は、表示部に表示された選択部を操作することにより新たな初期画像の表示を指示可能であってもよい。   (5) The control unit displays a selection unit for selecting an image to be displayed on the display unit on the display unit, and the operation unit displays a new initial image by operating the selection unit displayed on the display unit. May be instructed.

この場合、ユーザは、追尾動作の停止または終了後に、選択部を操作することにより所望のフレームの画像を新たな初期画像として表示させることができる。したがって、ユーザは、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像を迅速に初期画像として表示させることができる。これにより、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像から追尾動作を迅速に再開することができる。   In this case, the user can display an image of a desired frame as a new initial image by operating the selection unit after the tracking operation is stopped or ended. Therefore, the user can quickly display the image of the first frame in which tracking has failed or the image of the frame immediately before the tracking has failed as an initial image. Accordingly, the tracking operation can be quickly restarted from the image of the first frame in which tracking has failed or the image of the frame immediately before the tracking has failed.

(6)制御部は、追尾動作の実行中に各画像について追尾対象の位置の識別結果の正確度を算出し、正確度が予め定められたしきい値以下になったときに追尾動作を停止してもよい。   (6) The control unit calculates the accuracy of the identification result of the tracking target position for each image during the tracking operation, and stops the tracking operation when the accuracy falls below a predetermined threshold value. May be.

この場合、追尾が失敗した時点で正確度がしきい値以下になることにより追尾動作が自動的に停止する。これにより、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像から追尾動作を容易に再開することができる。   In this case, the tracking operation is automatically stopped when the accuracy falls below the threshold when the tracking fails. Thereby, the tracking operation can be easily restarted from the image of the first frame in which the tracking has failed or the image of the frame immediately before the tracking has failed.

(7)第2の発明に係る動画追尾方法は、複数フレームの画像により構成される動画中の追尾対象を追尾する動画追尾方法であって、複数フレームの画像を表示するための複数フレームの画像データを記憶するステップと、記憶された複数フレームの画像データに基づいて複数フレームの画像のうち一の画像を初期画像として表示部に表示させるステップと、初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合に、記憶された複数フレームの画像データに基づいて初期画像以降のフレームの画像を表示部に順に表示させ、表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第1の追尾動作を実行するステップと、第1の追尾動作の停止または終了後に、複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合に、記憶された複数フレームの画像データに基づいて新たな初期画像を表示部に表示させるステップと、新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、記憶された複数フレームの画像データに基づいて新たな初期画像以降のフレームの画像を表示部に順に表示させ、表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第2の追尾動作を実行するステップとを含むものである。   (7) A moving image tracking method according to the second invention is a moving image tracking method for tracking a tracking target in a moving image composed of a plurality of frames of images, and a plurality of frames of images for displaying a plurality of frames of images. A step of storing data, a step of displaying one of the images of the plurality of frames on the display unit as an initial image based on the stored image data of the plurality of frames, a tracking condition is set in the initial image and the tracking is performed When the start of the image is instructed, the images of the frames after the initial image are sequentially displayed on the display unit based on the stored image data of the plurality of frames, and the tracking target is set under the tracking condition set in each displayed image. Performing a first tracking operation for identifying a position and displaying a symbol at the identified position; and after stopping or ending the first tracking operation, A step of causing the display unit to display a new initial image based on the stored image data of a plurality of frames when an instruction is given to display any one of several frames of images as a new initial image; When the tracking condition is reset in the new initial image and the start of tracking is instructed, the images of the frames after the new initial image are displayed in order on the display unit based on the stored multiple frames of image data. And a step of performing a second tracking operation for identifying the position of the tracking target under the tracking condition set in each displayed image and displaying a symbol at the identified position.

この動画追尾方法においては、複数フレームの画像を表示するための複数フレームの画像データが記憶される。また、記憶された複数フレームの画像データに基づいて複数フレームの画像のうち一の画像が初期画像として表示部に表示される。ここで、初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合、第1の追尾動作として、記憶された複数フレームの画像データに基づいて初期画像以降のフレームの画像が表示部に順に表示され、表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルが表示される。複数フレームの画像について表示された複数のシンボルが動画中で移動する追尾対象の軌跡を示す。   In this moving image tracking method, a plurality of frames of image data for displaying a plurality of frames of images are stored. Further, one of the images of the plurality of frames is displayed on the display unit as an initial image based on the stored image data of the plurality of frames. Here, when the tracking condition is set in the initial image and the start of tracking is instructed, as the first tracking operation, the image of the frame after the initial image is displayed on the display unit based on the stored plural frames of image data. The position of the tracking target is identified by the tracking condition set in each displayed image, and a symbol is displayed at the identified position. A plurality of symbols displayed for a plurality of frames of images indicate a tracking target trajectory that moves in a moving image.

第1の追尾動作の停止または終了後、複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合、記憶された複数フレームの画像データに基づいて新たな初期画像が表示部に表示される。また、新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合、第2の追尾動作として、記憶された複数フレームの画像データに基づいて新たな初期画像以降のフレームの画像が表示部に順に表示され、表示される各画像において設定された追尾条件で追尾対象の位置が識別されるとともに識別された位置にシンボルが表示される。   When it is instructed to display any one of the images of a plurality of frames as a new initial image after the stop or end of the first tracking operation, a new initial is generated based on the stored image data of the plurality of frames. An image is displayed on the display unit. Further, when the tracking condition is reset in the new initial image and the start of tracking is instructed, as a second tracking operation, the frames of the frames after the new initial image are based on the stored plural frames of image data. Images are displayed in order on the display unit, and the position of the tracking target is identified under the tracking condition set in each displayed image, and a symbol is displayed at the identified position.

これにより、第1の追尾動作の実行中に追尾対象の追尾が失敗した場合、任意のフレームの初期画像から第2の追尾動作を実行することができる。そのため、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像を新たな初期画像とすることにより、追尾が成功した画像の追尾結果を保持しつつ、追尾が失敗した画像について第2の追尾動作を実行することができる。   Thereby, when the tracking of the tracking target fails during the execution of the first tracking operation, the second tracking operation can be executed from the initial image of an arbitrary frame. Therefore, the image of the first frame in which tracking has failed or the image of the frame immediately before the tracking has failed is set as a new initial image, so that the tracking result of the image that has been successfully tracked is maintained and the image in which tracking has failed. A second tracking operation can be performed.

また、新たな初期画像において追尾条件を再設定することができるので、第2の追尾動作において各画像についての追尾が成功する確率が高くなる。したがって、第1および第2の追尾動作の全体の実行時間が短縮される。その結果、効率よく正確な追尾結果を得ることが可能になる。   Further, since the tracking condition can be reset in the new initial image, the probability that the tracking for each image is successful in the second tracking operation is high. Therefore, the overall execution time of the first and second tracking operations is shortened. As a result, an accurate and accurate tracking result can be obtained.

(8)第3の発明に係る動画追尾プログラムは、複数フレームの画像により構成される動画中の追尾対象を追尾する追尾処理を処理装置に実行させる動画追尾プログラムあって、複数フレームの画像を表示するための複数フレームの画像データを記憶する処理と、記憶された複数フレームの画像データに基づいて複数フレームの画像のうち一の画像を初期画像として表示部に表示させる処理と、初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合に、記憶された複数フレームの画像データに基づいて初期画像以降のフレームの画像を表示部に順に表示させ、表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第1の追尾動作を実行する処理と、第1の追尾動作の停止または終了後に、複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合に、記憶された複数フレームの画像データに基づいて新たな初期画像を表示部に表示させる処理と、新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、記憶された複数フレームの画像データに基づいて新たな初期画像以降のフレームの画像を表示部に順に表示させ、表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第2の追尾動作を実行する処理とを、処理装置に実行させるものである。   (8) A moving image tracking program according to a third aspect of the present invention is a moving image tracking program for causing a processing device to execute a tracking process for tracking a tracking target in a moving image composed of a plurality of frames of images, and displays a plurality of frames of images. A process of storing image data of a plurality of frames for performing, a process of displaying one of the images of the plurality of frames on the display unit as an initial image based on the stored image data of the plurality of frames, When the tracking condition is set and the start of tracking is instructed, the images of the frames after the initial image are sequentially displayed on the display unit based on the stored image data of the plurality of frames, and set in each displayed image. The first tracking operation for identifying the position of the tracking target under the tracking condition and displaying the symbol at the identified position; When it is instructed to display one of the images of multiple frames as a new initial image after the operation stops or ends, a new initial image is displayed based on the stored multiple frames of image data. When the tracking condition is reset in the new initial image and the start of tracking is instructed, the images of the frames after the new initial image based on the stored multiple frames of image data Are sequentially displayed on the display unit, and the second tracking operation for identifying the position of the tracking target under the tracking condition set in each displayed image and displaying the symbol at the identified position is performed. It is what is executed by the device.

この動画追尾プログラムにおいては、複数フレームの画像を表示するための複数フレームの画像データが記憶される。また、記憶された複数フレームの画像データに基づいて複数フレームの画像のうち一の画像が初期画像として表示部に表示される。ここで、初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合、第1の追尾動作として、記憶された複数フレームの画像データに基づいて初期画像以降のフレームの画像が表示部に順に表示され、表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルが表示される。複数フレームの画像について表示された複数のシンボルが動画中で移動する追尾対象の軌跡を示す。   In this moving image tracking program, a plurality of frames of image data for displaying a plurality of frames of images are stored. Further, one of the images of the plurality of frames is displayed on the display unit as an initial image based on the stored image data of the plurality of frames. Here, when the tracking condition is set in the initial image and the start of tracking is instructed, as the first tracking operation, the image of the frame after the initial image is displayed on the display unit based on the stored plural frames of image data. The position of the tracking target is identified by the tracking condition set in each displayed image, and a symbol is displayed at the identified position. A plurality of symbols displayed for a plurality of frames of images indicate a tracking target trajectory that moves in a moving image.

第1の追尾動作の停止または終了後、複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合、記憶された複数フレームの画像データに基づいて新たな初期画像が表示部に表示される。また、新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合、第2の追尾動作として、記憶された複数フレームの画像データに基づいて新たな初期画像以降のフレームの画像が表示部に順に表示され、表示される各画像において設定された追尾条件で追尾対象の位置が識別されるとともに識別された位置にシンボルが表示される。   When it is instructed to display any one of the images of a plurality of frames as a new initial image after the stop or end of the first tracking operation, a new initial is generated based on the stored image data of the plurality of frames. An image is displayed on the display unit. Further, when the tracking condition is reset in the new initial image and the start of tracking is instructed, as a second tracking operation, the frames of the frames after the new initial image are based on the stored plural frames of image data. Images are displayed in order on the display unit, and the position of the tracking target is identified under the tracking condition set in each displayed image, and a symbol is displayed at the identified position.

これにより、第1の追尾動作の実行中に追尾対象の追尾が失敗した場合、任意のフレームの初期画像から第2の追尾動作を実行することができる。そのため、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像を新たな初期画像とすることにより、追尾が成功した画像の追尾結果を保持しつつ、追尾が失敗した画像について第2の追尾動作を実行することができる。   Thereby, when the tracking of the tracking target fails during the execution of the first tracking operation, the second tracking operation can be executed from the initial image of an arbitrary frame. Therefore, the image of the first frame in which tracking has failed or the image of the frame immediately before the tracking has failed is set as a new initial image, so that the tracking result of the image that has been successfully tracked is maintained and the image in which tracking has failed. A second tracking operation can be performed.

また、新たな初期画像において追尾条件を再設定することができるので、第2の追尾動作において各画像についての追尾が成功する確率が高くなる。したがって、第1および第2の追尾動作の全体の実行時間が短縮される。その結果、効率よく正確な追尾結果を得ることが可能になる。   Further, since the tracking condition can be reset in the new initial image, the probability that the tracking for each image is successful in the second tracking operation is high. Therefore, the overall execution time of the first and second tracking operations is shortened. As a result, an accurate and accurate tracking result can be obtained.

本発明によれば、動画中の追尾対象の追尾において効率よく正確な追尾結果を得ることが可能となる。   According to the present invention, it is possible to obtain an accurate and accurate tracking result in tracking of a tracking target in a moving image.

本発明の一実施の形態に係る動画追尾装置を備える画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image processing system provided with the moving image tracking apparatus which concerns on one embodiment of this invention. 撮影条件の設定時における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of setting of imaging conditions. 録画処理中の図1の録画部の記憶状態を示す模式図である。It is a schematic diagram which shows the memory | storage state of the video recording part of FIG. 1 during video recording processing. 録画処理中の図1の録画部の記憶状態の他の例を示す模式図である。It is a schematic diagram which shows the other example of the memory | storage state of the video recording part of FIG. 1 during video recording processing. 録画処理中の表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part during a video recording process. 録画処理終了時の表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of completion | finish of a video recording process. ファイル記憶処理により記憶部に記憶される動画ファイルの模式図である。It is a schematic diagram of the moving image file memorize | stored in a memory | storage part by file memory | storage process. 再生処理時の表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of a reproduction | regeneration process. 追尾処理の実行開始時における表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part at the time of the execution start of a tracking process. 画像表示領域に表示される動画の一例を示す図である。It is a figure which shows an example of the moving image displayed on an image display area. 追尾対象の追尾動作時における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of tracking operation | movement of tracking object. 追尾対象の追尾動作時の画像表示領域に表示される動画の一例を示す図である。It is a figure which shows an example of the moving image displayed on the image display area at the time of tracking operation | movement of tracking object. 追尾対象の追尾動作終了時における表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part at the time of tracking operation | movement completion | finish of a tracking object being completed. 追尾対象の追尾が失敗したときの画像表示領域に表示される動画の一例を示す図である。It is a figure which shows an example of the moving image displayed on the image display area when the tracking of tracking object fails. 動画追尾装置における動画中の追尾対象の追尾処理を示すフローチャートである。It is a flowchart which shows the tracking process of the tracking target in the moving image in a moving image tracking device. 動画追尾装置における動画中の追尾対象の追尾処理を示すフローチャートである。It is a flowchart which shows the tracking process of the tracking target in the moving image in a moving image tracking device. 動画追尾装置における動画中の追尾対象の追尾処理を示すフローチャートである。It is a flowchart which shows the tracking process of the tracking target in the moving image in a moving image tracking device. 追尾対象の追尾処理の実行中に画像表示領域に表示される画像の遷移を示す図である。It is a figure which shows the transition of the image displayed on an image display area during execution of the tracking process of a tracking object. 追尾対象の追尾処理の実行中に画像表示領域に表示される画像の遷移を示す図である。It is a figure which shows the transition of the image displayed on an image display area during execution of the tracking process of a tracking object. 追尾対象の追尾処理の実行中に画像表示領域に表示される画像の遷移を示す図である。It is a figure which shows the transition of the image displayed on an image display area during execution of the tracking process of a tracking object. 追尾処理実行中に制御部のRAMに記憶されるデータを示す図である。It is a figure which shows the data memorize | stored in RAM of a control part during tracking process execution. 他の実施の形態に係る動画追尾装置における動画中の追尾対象の追尾処理を示すフローチャートである。It is a flowchart which shows the tracking process of the tracking object in the moving image in the moving image tracking apparatus which concerns on other embodiment.

以下、本発明の一実施の形態に係る動画追尾装置、動画追尾方法および動画追尾プログラムについて図面を参照しつつ説明する。後述するように、本実施の形態に係る動画追尾装置を備える画像処理システムは表示部を有する。表示部には複数フレームの画像が連続的に表示されることにより動画が表示される。   Hereinafter, a moving image tracking apparatus, a moving image tracking method, and a moving image tracking program according to an embodiment of the present invention will be described with reference to the drawings. As will be described later, the image processing system including the moving image tracking apparatus according to the present embodiment includes a display unit. A moving image is displayed by continuously displaying images of a plurality of frames on the display unit.

(1)画像処理システムの基本構成
図1は、本発明の一実施の形態に係る動画追尾装置を備える画像処理システム100の構成を示すブロック図である。図1に示すように、画像処理システム100は、本体部1、カメラ2、照明装置3および操作部4を備える。本体部1は、制御部10、表示部20、録画部30、記憶部40、ビデオメモリ50、波形収集部60、バスBSおよび複数のインターフェース(図示せず)を含む。制御部10、表示部20、録画部30、記憶部40、ビデオメモリ50および波形収集部60は、バスBSに接続される。カメラ2、照明装置3および操作部4は、それぞれインターフェースを介してバスBSに接続される。
(1) Basic Configuration of Image Processing System FIG. 1 is a block diagram showing a configuration of an image processing system 100 including a moving image tracking apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing system 100 includes a main body unit 1, a camera 2, a lighting device 3, and an operation unit 4. The main unit 1 includes a control unit 10, a display unit 20, a recording unit 30, a storage unit 40, a video memory 50, a waveform collection unit 60, a bus BS, and a plurality of interfaces (not shown). The control unit 10, the display unit 20, the recording unit 30, the storage unit 40, the video memory 50, and the waveform collection unit 60 are connected to the bus BS. The camera 2, the lighting device 3, and the operation unit 4 are each connected to the bus BS via an interface.

本体部1には、PLC(プログラマブルロジックコントローラ)5、センサ6および波形収集装置7を接続することができる。波形収集装置7には、センサ8を接続することができる。詳細は後述する。   A PLC (programmable logic controller) 5, a sensor 6 and a waveform collection device 7 can be connected to the main body 1. A sensor 8 can be connected to the waveform collection device 7. Details will be described later.

カメラ2は、CCD(電荷結合素子)イメージセンサまたはCMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子を備える。撮像素子の露光時間(シャッタースピード)および撮影フレームレート等は、ユーザにより操作部4を用いて設定可能である。撮影フレームレートとは、単位時間当たりに取得される画像のフレーム数である。なお、本実施の形態のカメラ2は、15fps(frame per second)以上32000fps以下の撮影フレームレートで被写体Wを撮影することができる。   The camera 2 includes an image sensor such as a CCD (charge coupled device) image sensor or a CMOS (complementary metal oxide semiconductor) image sensor. The exposure time (shutter speed), the shooting frame rate, and the like of the image sensor can be set by the user using the operation unit 4. The shooting frame rate is the number of frames of an image acquired per unit time. Note that the camera 2 of the present embodiment can shoot the subject W at a shooting frame rate of 15 fps (frame per second) or more and 32000 fps or less.

カメラ2により被写体Wが撮影されると、設定された撮影フレームレートで撮像素子により被写体Wの画像が取得され、取得された画像が画像データとして出力される。それにより、複数フレームの画像に対応する複数フレームの画像データがカメラ2から本体部1に与えられる。複数フレームの画像により動画が構成される。以下、複数フレームの画像データを動画データと称する。   When the subject W is photographed by the camera 2, an image of the subject W is acquired by the imaging device at the set shooting frame rate, and the acquired image is output as image data. As a result, a plurality of frames of image data corresponding to a plurality of frames of images are provided from the camera 2 to the main body 1. A moving image is constituted by images of a plurality of frames. Hereinafter, image data of a plurality of frames is referred to as moving image data.

カメラ2は、照明装置3とともに三脚台等の図示しない支持台に取り付けられる。照明装置3は、メタルハライドランプまたはハイパワーLED(発光ダイオード)等の光源を含む。照明装置3は、被写体Wに光を照射するために用いられる。被写体Wが十分に明るい場合には、照明装置3はなくてもよい。   The camera 2 is attached to a support base (not shown) such as a tripod stand together with the illumination device 3. The illumination device 3 includes a light source such as a metal halide lamp or a high power LED (light emitting diode). The illumination device 3 is used for irradiating the subject W with light. When the subject W is sufficiently bright, the lighting device 3 may not be provided.

ビデオメモリ50はRAM(ランダムアクセスメモリ)等のメモリからなる。ビデオメモリ50には、カメラ2、録画部30または記憶部40から複数フレームの画像データが順次与えられる。与えられた複数フレームの画像データは順次ビデオメモリ50に記憶される。   The video memory 50 includes a memory such as a RAM (Random Access Memory). A plurality of frames of image data are sequentially supplied from the camera 2, the recording unit 30, or the storage unit 40 to the video memory 50. The given image data of a plurality of frames is sequentially stored in the video memory 50.

表示部20は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。表示部20には、ビデオメモリ50に順次記憶される複数フレームの画像データに基づいて複数フレームの画像が連続的に表示される。それにより、動画が表示部20に表示される。   The display unit 20 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel. A plurality of frames of images are continuously displayed on the display unit 20 based on the plurality of frames of image data sequentially stored in the video memory 50. Thereby, the moving image is displayed on the display unit 20.

操作部4は、例えばマウスまたはトラックボール等のポインティングデバイスにより構成される。なお、操作部4は、ポインティングデバイスとともにまたはポインティングデバイスに代えてキーボードにより構成されてもよいし、リモートコントローラまたはタッチパネルにより構成されてもよい。操作部4は、本体部1と一体的に構成されてもよい。   The operation unit 4 is configured by a pointing device such as a mouse or a trackball. The operation unit 4 may be configured with a keyboard together with or instead of the pointing device, or may be configured with a remote controller or a touch panel. The operation unit 4 may be configured integrally with the main body unit 1.

録画部30は、例えばRAM等のメモリからなる。録画部30は、複数の画像データからなる動画データを記憶するための動画データ記憶領域および複数の評価値からなる波形データを記憶するための波形データ記憶領域を含む。複数の評価値からなる波形データの詳細は後述する。   The recording unit 30 includes a memory such as a RAM. The recording unit 30 includes a moving image data storage area for storing moving image data composed of a plurality of image data and a waveform data storage area for storing waveform data composed of a plurality of evaluation values. Details of the waveform data composed of a plurality of evaluation values will be described later.

カメラ2から与えられる複数フレームの画像データ(動画データ)を録画部30の動画データ記憶領域に記憶させることを録画と呼ぶ。ユーザにより操作部4が操作されることにより、カメラ2で撮影される被写体Wの動画が録画される。本実施の形態では、録画処理時に、波形収集部60から与えられる複数の評価値(波形データ)が録画部30の波形データ記憶領域に同時に記憶される。   Recording multiple frames of image data (moving image data) from the camera 2 in the moving image data storage area of the recording unit 30 is called recording. When the user operates the operation unit 4, a moving image of the subject W photographed by the camera 2 is recorded. In the present embodiment, a plurality of evaluation values (waveform data) given from the waveform collection unit 60 are simultaneously stored in the waveform data storage area of the recording unit 30 during the recording process.

記憶部40は、ハードディスク等の大容量記憶装置からなる。ユーザにより操作部4が操作されることにより、録画部30に記憶された動画データおよび波形データを含む動画ファイルが生成され、生成された動画ファイルが記憶部40に記憶される。また、記憶部40には、本実施の形態に係る動画追尾プログラムが記憶される。動画追尾プログラムの詳細は後述する。   The storage unit 40 is composed of a mass storage device such as a hard disk. When the user operates the operation unit 4, a moving image file including moving image data and waveform data stored in the recording unit 30 is generated, and the generated moving image file is stored in the storage unit 40. The storage unit 40 stores a moving image tracking program according to the present embodiment. Details of the moving image tracking program will be described later.

波形収集部60は、複数の評価値からなる波形データを収集し、収集した波形データを録画部30に与える。評価値は、例えばカメラ2により撮影される被写体Wの各フレームの画像の平均輝度値(各フレームの画像を構成する複数画素の輝度の平均値)である。この場合、波形収集部60は、カメラ2から録画部30に順次与えられる各フレームの画像データに基づいて各フレームの画像の平均輝度値を評価値として順次算出する。順次算出された複数の平均輝度値は、録画部30の波形データ記憶領域に波形データとして記憶される。この場合、複数の評価値は、複数フレームの画像データに同期して得られる。したがって、単位時間当たりの複数の評価値の数は単位時間当たりの複数フレームの画像データの数に等しい。評価値は、各フレームの画像の輝度値の総和であってもよく、各フレームの画像の輝度値の総和と後続するフレームの画像の輝度値の総和との差分であってもよく、各フレーム内の輝度値の分散であってもよい。   The waveform collection unit 60 collects waveform data composed of a plurality of evaluation values, and gives the collected waveform data to the recording unit 30. The evaluation value is, for example, an average luminance value of each frame image of the subject W photographed by the camera 2 (an average value of luminances of a plurality of pixels constituting each frame image). In this case, the waveform collection unit 60 sequentially calculates the average luminance value of the image of each frame as the evaluation value based on the image data of each frame sequentially given from the camera 2 to the recording unit 30. The plurality of average brightness values calculated sequentially are stored as waveform data in the waveform data storage area of the recording unit 30. In this case, a plurality of evaluation values are obtained in synchronization with a plurality of frames of image data. Accordingly, the number of evaluation values per unit time is equal to the number of image data of a plurality of frames per unit time. The evaluation value may be the sum of the luminance values of the images of each frame, or may be the difference between the sum of the luminance values of the images of each frame and the sum of the luminance values of the images of the subsequent frames. It may be a variance of luminance values.

波形収集部60は、複数フレームの画像データの取得中におけるセンサ6の出力信号の値を評価値として取得してもよい。この場合、複数の評価値は、複数フレームの画像データと同じ周期または異なる周期で得られる。したがって、単位時間当たりの複数の評価値の数は、単位時間当たりの複数フレームの画像データの数と必ずしも一致しない。複数の評価値が複数フレームの画像データよりも短い周期で得られる場合には、各フレームの画像データに複数の評価値が対応している。複数の評価値が複数フレームの画像データよりも長い周期で得られる場合には、各評価値が複数フレームの画像データに対応している。   The waveform collection unit 60 may acquire the value of the output signal of the sensor 6 during the acquisition of the image data of a plurality of frames as the evaluation value. In this case, the plurality of evaluation values are obtained at the same period or different periods from the image data of a plurality of frames. Therefore, the number of evaluation values per unit time does not necessarily match the number of image data of a plurality of frames per unit time. When a plurality of evaluation values are obtained with a shorter cycle than image data of a plurality of frames, a plurality of evaluation values correspond to the image data of each frame. When a plurality of evaluation values are obtained with a period longer than that of a plurality of frames of image data, each evaluation value corresponds to a plurality of frames of image data.

センサ6が温度センサ、距離センサ、圧力センサ、加速度センサ、または変位センサ等である場合には、測定対象物の温度、距離、圧力、加速度、または変位等の測定値が評価値として波形収集部60により順次取得され、取得された複数の評価値が録画部30の波形データ記憶領域に波形データとして記憶される。   When the sensor 6 is a temperature sensor, a distance sensor, a pressure sensor, an acceleration sensor, a displacement sensor, or the like, a measured value of the measurement object such as temperature, distance, pressure, acceleration, or displacement is used as an evaluation value as a waveform collection unit. The plurality of acquired evaluation values are sequentially acquired by 60, and stored in the waveform data storage area of the recording unit 30 as waveform data.

さらに、センサ6に代えてマイクが用いられる場合には、音声信号が評価値として波形収集部60により順次取得され、取得された複数の音声信号が録画部30の波形データ記憶領域に波形データとして記憶される。   Further, when a microphone is used in place of the sensor 6, audio signals are sequentially acquired as evaluation values by the waveform collection unit 60, and the acquired plurality of audio signals are stored as waveform data in the waveform data storage area of the recording unit 30. Remembered.

このように、波形データを構成する複数の評価値は、複数フレームの画像データの取得中に得られる値である。   Thus, the plurality of evaluation values constituting the waveform data are values obtained during the acquisition of the image data of a plurality of frames.

なお、図1において、本体部1に接続される波形収集装置7は、波形収集部60と同じ構成を有する。そのため、本体部1に波形収集装置7が接続される場合には、センサ8の出力信号の値が評価値として波形収集装置7により順次取得され、取得された複数の評価値が録画部30の波形データ記憶領域に波形データとして記憶される。   In FIG. 1, the waveform collection device 7 connected to the main body 1 has the same configuration as the waveform collection unit 60. Therefore, when the waveform collection device 7 is connected to the main body unit 1, the value of the output signal of the sensor 8 is sequentially acquired as an evaluation value by the waveform collection device 7, and the plurality of acquired evaluation values are stored in the recording unit 30. It is stored as waveform data in the waveform data storage area.

制御部10は、例えばCPU(中央演算処理装置)、ROM(リードオンリーメモリ)およびRAMから構成される。制御部10のCPUは、ユーザによる操作部4の操作に基づいてカメラ2、照明装置3および本体部1における他の構成要素の動作を制御する。また、制御部10のCPUは、記憶部40に記憶された動画追尾プログラムをRAM上で実行する。ROMにはシステムプログラムが記憶される。   The control unit 10 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM. The CPU of the control unit 10 controls the operation of other components in the camera 2, the lighting device 3, and the main body unit 1 based on the operation of the operation unit 4 by the user. In addition, the CPU of the control unit 10 executes the moving image tracking program stored in the storage unit 40 on the RAM. A system program is stored in the ROM.

(2)画像処理システムの基本動作
図1の画像処理システム100の基本動作について説明する。
(2) Basic Operation of Image Processing System The basic operation of the image processing system 100 in FIG. 1 will be described.

(2−1)撮影条件の設定
ユーザが操作部4を操作することにより、カメラ2の撮影条件が設定される。図2は、撮影条件の設定時における表示部20の表示例を示す図である。図2に示すように、撮影条件の設定時には、表示部20の画面上に画像表示領域Sa、波形表示領域Sb、条件設定領域Scおよび録画ボタンSeが表示される。
(2-1) Setting of shooting conditions The shooting conditions of the camera 2 are set when the user operates the operation unit 4. FIG. 2 is a diagram illustrating a display example of the display unit 20 when setting photographing conditions. As shown in FIG. 2, when setting the shooting conditions, an image display area Sa, a waveform display area Sb, a condition setting area Sc, and a recording button Se are displayed on the screen of the display unit 20.

画像表示領域Saには、ビデオメモリ50に記憶される画像データに基づく画像が表示される。波形表示領域Sbには、波形収集部60により収集される波形データに基づく波形のグラフが表示される。波形のグラフの横軸は、時間を示し、縦軸は評価値を示す。例えば、評価値が画像表示領域Saに表示される画像の平均輝度値である場合、波形表示領域Sbには、画像の平均輝度値を縦軸とし、時間を横軸とする波形のグラフが表示される。   In the image display area Sa, an image based on the image data stored in the video memory 50 is displayed. A waveform graph based on the waveform data collected by the waveform collection unit 60 is displayed in the waveform display area Sb. The horizontal axis of the waveform graph represents time, and the vertical axis represents the evaluation value. For example, when the evaluation value is the average luminance value of the image displayed in the image display area Sa, a waveform graph is displayed in the waveform display area Sb with the average luminance value of the image as the vertical axis and the time as the horizontal axis. Is done.

条件設定領域Scには、カメラ2の基本的な撮影条件が表示される。撮影条件として、例えばシャッタースピード、撮影フレームレートおよび解像度をそれぞれ設定するための複数の入力枠Sc1,Sc2,Sc3が表示される。ユーザにより操作部4を用いて入力枠Sc1,Sc2,Sc3にシャッタースピード、撮影フレームレートおよび解像度の値がそれぞれ入力される。入力枠Sc1,Sc2,Sc3にそれぞれ入力された値に基づいて、制御部10によりカメラ2のシャッタースピード、撮影フレームレートおよび解像度が設定される。   In the condition setting area Sc, basic shooting conditions of the camera 2 are displayed. As shooting conditions, for example, a plurality of input frames Sc1, Sc2, and Sc3 for setting a shutter speed, a shooting frame rate, and a resolution are displayed. The user inputs the shutter speed, shooting frame rate, and resolution values into the input frames Sc1, Sc2, and Sc3 using the operation unit 4, respectively. Based on the values input to the input frames Sc1, Sc2, and Sc3, the shutter speed, shooting frame rate, and resolution of the camera 2 are set by the control unit 10.

また、本実施の形態では、例えばユーザが操作部4を操作することにより制御部10に後述の録画処理の終了タイミングの基準となるトリガ信号が与えられる。条件設定領域Scには、トリガ信号に基づく制御部10のトリガ設定のための入力枠Sc4,Sc5がさらに表示される。   In the present embodiment, for example, when the user operates the operation unit 4, a trigger signal serving as a reference for the end timing of a recording process described later is given to the control unit 10. In the condition setting area Sc, input frames Sc4 and Sc5 for trigger setting of the control unit 10 based on the trigger signal are further displayed.

ユーザにより操作部4を用いて入力枠Sc4,Sc5に後述する総録画時間および録画終了時間の値がそれぞれ入力される。入力枠Sc4,Sc5にそれぞれ入力された値に基づいて、制御部10によりトリガ設定が行われる。トリガ設定の詳細を説明する。   The user inputs values of a total recording time and a recording end time, which will be described later, into the input frames Sc4 and Sc5 using the operation unit 4, respectively. Based on the values respectively input to the input frames Sc4 and Sc5, the trigger setting is performed by the control unit 10. Details of the trigger setting will be described.

本実施の形態において、トリガ設定は、1回の録画処理により録画部30に記憶される画像データの記憶時間(以下、総録画時間と呼ぶ。)を定めるとともに、制御部10にトリガ信号が与えられた時点から録画処理が終了するまでの時間(以下、録画終了時間と呼ぶ。)を定める。   In the present embodiment, the trigger setting determines a storage time (hereinafter referred to as total recording time) of image data stored in the recording unit 30 by one recording process, and a trigger signal is given to the control unit 10. A time (hereinafter referred to as “recording end time”) from the point in time until the end of the recording process is determined.

例えば、総録画時間を30秒とし、録画終了時間を0秒としてトリガ設定が行なわれた場合には、録画が開始された後、制御部10にトリガ信号が与えられた時点で録画処理が終了する。これにより、制御部10にトリガ信号が与えられた時点の30秒前からトリガ信号が与えられた時点までの間に取得された動画データおよび波形データが録画部30に記憶される。   For example, when the trigger is set with the total recording time set to 30 seconds and the recording end time set to 0 seconds, the recording process ends when a trigger signal is given to the control unit 10 after the recording is started. To do. Thereby, the moving image data and waveform data acquired from 30 seconds before the time when the trigger signal is given to the control unit 10 until the time when the trigger signal is given are stored in the recording unit 30.

一方、総録画時間を30秒とし、録画終了時間を30秒としてトリガ設定が行なわれた場合には、録画が開始された後、制御部10にトリガ信号が与えられた時点から30秒経過した時点で録画処理が終了する。これにより、録画部30には、制御部10にトリガ信号が与えられた時点から30秒経過するまでの間に取得された動画データおよび波形データが録画部30に記憶される。   On the other hand, when the trigger setting is performed with the total recording time being 30 seconds and the recording end time being 30 seconds, 30 seconds have elapsed since the trigger signal was given to the control unit 10 after the recording was started. At this point, the recording process ends. Thereby, the video recording unit 30 stores the moving image data and waveform data acquired until 30 seconds have elapsed since the trigger signal was given to the control unit 10.

また、総録画時間を30秒とし、録画終了時間を15秒としてトリガ設定が行なわれた場合には、録画が開始された後、制御部10にトリガ信号が与えられた時点から15秒経過した時点で録画処理が終了する。これにより、録画部30には、制御部10にトリガ信号が与えられた時点の15秒前から30秒経過するまでの間に取得された動画データおよび波形データが録画部30に記憶される。   In addition, when the trigger setting is performed with the total recording time set to 30 seconds and the recording end time set to 15 seconds, 15 seconds have passed since the trigger signal was given to the control unit 10 after the recording was started. At this point, the recording process ends. As a result, the video recording unit 30 stores the moving image data and waveform data acquired from 15 seconds before the time when the trigger signal is given to the control unit 10 until 30 seconds have passed.

なお、トリガ設定として上記の総録画時間が設定される代わりに、録画処理により録画部30に記憶される画像データの総フレーム数が設定されてもよい。また、トリガ設定として上記の録画終了時間が設定される代わりに、トリガ信号が与えられた時点から録画部30に記憶される画像データのフレーム数が設定されてもよい。   Instead of setting the total recording time as the trigger setting, the total number of frames of image data stored in the recording unit 30 by the recording process may be set. Further, instead of setting the recording end time as the trigger setting, the number of frames of image data stored in the recording unit 30 from the time when the trigger signal is given may be set.

PLC5から制御部10にトリガ信号が与えられてもよい。この場合、例えばPLC5に予め設定された周期で、またはPLC5に接続される外部機器の特定の動作タイミングに応答して、トリガ信号を制御部10に与えることができる。また、種々のセンサの出力信号がトリガ信号として制御部10に与えられてもよい。   A trigger signal may be given from the PLC 5 to the control unit 10. In this case, for example, a trigger signal can be given to the control unit 10 in a cycle preset in the PLC 5 or in response to a specific operation timing of an external device connected to the PLC 5. Further, output signals of various sensors may be given to the control unit 10 as trigger signals.

録画ボタンSeは後述する録画処理の開始のためにユーザにより操作部4を用いて操作される。   The recording button Se is operated by the user using the operation unit 4 to start a recording process described later.

(2−2)録画処理
図3は、録画処理中の図1の録画部30の記憶状態を示す模式図である。上述のように、録画部30には、動画データ(複数フレームの画像データ)を記憶するための動画データ記憶領域30Aおよび波形データ(複数の評価値)を記憶するための波形データ記憶領域30Bが設定されている。
(2-2) Recording Process FIG. 3 is a schematic diagram showing a storage state of the recording unit 30 in FIG. 1 during the recording process. As described above, the recording unit 30 includes the moving image data storage area 30A for storing moving image data (image data of a plurality of frames) and the waveform data storage area 30B for storing waveform data (a plurality of evaluation values). Is set.

本体部1においては、図3(a)に示すように、図2の録画ボタンSeが操作されることにより、制御部10により録画処理が開始される。録画処理では、カメラ2から与えられる第1フレームの画像に対応する画像データv1が録画部30の動画データ記憶領域30Aに記憶される。また、波形収集部60から与えられる第1番目の評価値i1が録画部30の波形データ記憶領域30Bに記憶される。   In the main body 1, as shown in FIG. 3A, the recording process is started by the control unit 10 when the recording button Se in FIG. 2 is operated. In the recording process, the image data v1 corresponding to the first frame image given from the camera 2 is stored in the moving image data storage area 30A of the recording unit 30. In addition, the first evaluation value i1 given from the waveform collecting unit 60 is stored in the waveform data storage area 30B of the recording unit 30.

続いて、図3(b)に示すように、カメラ2から与えられる第2、第3および第4フレームの画像に対応する画像データv2,v3,v4が録画部30の動画データ記憶領域30Aに順次記憶されるとともに、画像データv1,v2,v3,v4が動画データ記憶領域30A内で順次シフトする。同時に、波形収集部60から与えられる第2番目、第3番目および第4番目の評価値i2,i3,i4が録画部30の波形データ記憶領域30Bに順次記憶されるとともに、評価値i1,i2,i3,i4が波形データ記憶領域30B内で順次シフトする。   Subsequently, as shown in FIG. 3B, image data v2, v3, and v4 corresponding to the second, third, and fourth frame images given from the camera 2 are stored in the moving image data storage area 30A of the recording unit 30. The image data v1, v2, v3, and v4 are sequentially shifted in the moving image data storage area 30A while being sequentially stored. At the same time, the second, third, and fourth evaluation values i2, i3, i4 given from the waveform collection unit 60 are sequentially stored in the waveform data storage area 30B of the recording unit 30, and the evaluation values i1, i2 , I3, i4 are sequentially shifted in the waveform data storage area 30B.

録画処理時に動画データ記憶領域30Aに記憶される画像データの量が動画データ記憶領域30Aの記憶容量を超える場合には、動画データ記憶領域30Aに最新のフレーム(現在のフレーム)の画像データが新たに記憶されるごとに動画データ記憶領域30Aに記憶されている最も過去のフレームの画像データが削除される。   If the amount of image data stored in the moving image data storage area 30A during the recording process exceeds the storage capacity of the moving image data storage area 30A, the image data of the latest frame (current frame) is newly added to the moving image data storage area 30A. The image data of the oldest frame stored in the moving image data storage area 30A is deleted every time.

同様に、録画処理時に波形データ記憶領域30Bに記憶される評価値の量が波形データ記憶領域30Bの記憶容量を超える場合には、波形データ記憶領域30Bに最新の評価値が新たに記憶されるごとに波形データ記憶領域30Bに記憶されている最も過去の評価値が削除される。   Similarly, when the amount of evaluation value stored in the waveform data storage area 30B during the recording process exceeds the storage capacity of the waveform data storage area 30B, the latest evaluation value is newly stored in the waveform data storage area 30B. Every time, the past evaluation value stored in the waveform data storage area 30B is deleted.

図3(c)の例では、動画データ記憶領域30Aに12個の画像データv1〜v12が記憶されている状態で、さらに2個の画像データv13,v14が順次記憶されることにより、最も過去の画像データv1,v2が順次削除される。また、波形データ記憶領域30Bに12個の評価値i1〜i12が記憶されている状態で、さらに2個の画像の評価値i13,i14が順次記憶されることにより、最も過去の評価値i1,i2が順次削除される。それにより、動画データ記憶領域30Aに画像データv3〜v14が記憶され、波形データ記憶領域30Bに評価値i3〜i14が記憶されている。   In the example of FIG. 3C, in a state where 12 pieces of image data v1 to v12 are stored in the moving image data storage area 30A, two pieces of image data v13 and v14 are sequentially stored. Are sequentially deleted. Further, in the state where 12 evaluation values i1 to i12 are stored in the waveform data storage area 30B, the evaluation values i13 and i14 of two images are sequentially stored, so that the past evaluation values i1 and i1 are stored. i2 is deleted sequentially. Thereby, the image data v3 to v14 are stored in the moving image data storage area 30A, and the evaluation values i3 to i14 are stored in the waveform data storage area 30B.

このように、録画処理中の動画データ記憶領域30Aおよび波形データ記憶領域30Bにおいては、いわゆるリングバッファの形式で動画データおよび波形データが順次記憶される。   As described above, in the moving image data storage area 30A and the waveform data storage area 30B during the recording process, the moving image data and the waveform data are sequentially stored in a so-called ring buffer format.

図3(c)の例では、波形データ記憶領域30Bに記憶される評価値i3〜i14は動画データ記憶領域30Aに記憶される画像データv3〜v14と一対一に対応している。上記のように、複数の評価値が複数フレームの画像データと異なる周期で得られる場合には、波形データ記憶領域30Bに記憶される評価値は動画データ記憶領域30Aに記憶される画像データと一対一に対応していない。   In the example of FIG. 3C, the evaluation values i3 to i14 stored in the waveform data storage area 30B have a one-to-one correspondence with the image data v3 to v14 stored in the moving image data storage area 30A. As described above, when a plurality of evaluation values are obtained at a different period from the image data of a plurality of frames, the evaluation value stored in the waveform data storage area 30B is paired with the image data stored in the moving picture data storage area 30A. It does not correspond to one.

図4は、録画処理中の図1の録画部30の記憶状態の他の例を示す模式図である。図4の例では、複数の評価値が複数フレームの画像データよりも短い周期で得られる。そのため、波形データ記憶領域30Bに記憶される評価値i7〜i42は動画データ記憶領域30Aに記憶される画像データv3〜v14と一対一に対応していない。連続する3つの評価値が1フレームの画像データに対応する。例えば、評価値i7,i8,i9が画像データv3に対応し、評価値i10,i11,i12が画像データv4に対応する。   FIG. 4 is a schematic diagram showing another example of the storage state of the recording unit 30 of FIG. 1 during the recording process. In the example of FIG. 4, a plurality of evaluation values are obtained with a shorter cycle than the image data of a plurality of frames. Therefore, the evaluation values i7 to i42 stored in the waveform data storage area 30B do not correspond one-to-one with the image data v3 to v14 stored in the moving image data storage area 30A. Three consecutive evaluation values correspond to one frame of image data. For example, the evaluation values i7, i8, i9 correspond to the image data v3, and the evaluation values i10, i11, i12 correspond to the image data v4.

複数の評価値が複数フレームの画像データよりも長い周期で得られる場合には、各評価値が複数フレームの画像データに対応する。   When a plurality of evaluation values are obtained with a longer cycle than that of image data of a plurality of frames, each evaluation value corresponds to image data of a plurality of frames.

図5は、録画処理中の表示部20の表示例を示す図である。図5に示すように、録画処理時には図2の録画ボタンSeに代えて、表示部20にトリガボタンSfが表示される。   FIG. 5 is a diagram illustrating a display example of the display unit 20 during the recording process. As shown in FIG. 5, a trigger button Sf is displayed on the display unit 20 instead of the recording button Se of FIG.

ユーザにより操作部4を用いてトリガボタンSfが操作されると、制御部10にトリガ信号が与えられる。それにより、上述のように、トリガ設定に基づくタイミングで録画処理が終了する。   When the trigger button Sf is operated by the user using the operation unit 4, a trigger signal is given to the control unit 10. Thereby, as described above, the recording process ends at the timing based on the trigger setting.

(2−3)ファイル記憶処理
図6は、録画処理終了時の表示部20の表示例を示す図である。図6に示すように、録画終了時には図5のトリガボタンSfに代えて、表示部20にファイルボタンSjおよび再生ボタンSgが表示される。
(2-3) File Storage Process FIG. 6 is a diagram showing a display example of the display unit 20 at the end of the recording process. As shown in FIG. 6, at the end of recording, a file button Sj and a playback button Sg are displayed on the display unit 20 instead of the trigger button Sf of FIG.

ユーザにより操作部4を用いてファイルボタンSjが操作されることにより、制御部10によりファイル記憶処理が行なわれる。ファイル記憶処理では、録画部30に記憶されている動画データおよび波形データを含む動画ファイルが生成され、生成された動画ファイルが図1の記憶部40に記憶される。   When the user operates the file button Sj using the operation unit 4, the control unit 10 performs file storage processing. In the file storage process, a moving image file including moving image data and waveform data stored in the recording unit 30 is generated, and the generated moving image file is stored in the storage unit 40 of FIG.

図7は、ファイル記憶処理により記憶部40に記憶される動画ファイルの模式図である。   FIG. 7 is a schematic diagram of a moving image file stored in the storage unit 40 by the file storage process.

例えば図3の録画部30の動画データ記憶領域30Aに画像データv1〜v12が記憶され、波形データ記憶領域30Bに評価値i1〜i12が記憶されている状態でファイル記憶処理が行われる。この場合、図7に示すように、画像データv1〜v12および評価値i1〜i12、ならびにファイル情報fiを含む動画ファイルFAが生成され、生成された動画ファイルFAが記憶部40に記憶される。   For example, the file storage process is performed in a state where the image data v1 to v12 are stored in the moving image data storage area 30A of the recording unit 30 in FIG. 3 and the evaluation values i1 to i12 are stored in the waveform data storage area 30B. In this case, as shown in FIG. 7, a moving image file FA including the image data v1 to v12, the evaluation values i1 to i12, and the file information fi is generated, and the generated moving image file FA is stored in the storage unit 40.

なお、ファイル情報fiには、例えばファイル名およびデータの保存形式を示す情報等が含まれる。上記の録画処理およびファイル記憶処理が繰り返されることにより、図1の記憶部40内に複数の動画ファイルFA,FB,FC,FDが記憶される。   The file information fi includes, for example, information indicating a file name and a data storage format. By repeating the above recording process and file storage process, a plurality of moving image files FA, FB, FC, and FD are stored in the storage unit 40 of FIG.

(2−4)再生処理
次に、再生処理について説明する。再生処理とは、カメラ2から順次与えられる複数フレームの画像データ、録画部30に記憶される複数フレームの画像データまたは記憶部40に記憶される動画ファイル中の複数フレームの画像データのうち任意の連続する複数フレームの画像データに基づいて表示部20に動画を表示することをいう。
(2-4) Reproduction Process Next, the reproduction process will be described. The reproduction process is any of a plurality of frames of image data sequentially given from the camera 2, a plurality of frames of image data stored in the recording unit 30, or a plurality of frames of image data in a moving image file stored in the storage unit 40 It refers to displaying a moving image on the display unit 20 based on continuous image data of a plurality of frames.

まず、記憶部40に記憶された動画ファイル中の画像データに基づく画像の再生処理について説明する。   First, image reproduction processing based on image data in a moving image file stored in the storage unit 40 will be described.

記憶部40に記憶された複数の動画ファイルにそれぞれ対応するアイコンが図1の表示部20に表示される。この場合、ユーザは、操作部4を用いて表示部20に表示される複数のアイコンのいずれかを選択することにより、記憶部40に記憶された複数の動画ファイルのうち選択された動画ファイルの動画データを再生対象として選択することができる。   Icons corresponding to the plurality of moving image files stored in the storage unit 40 are displayed on the display unit 20 of FIG. In this case, the user selects one of the plurality of icons displayed on the display unit 20 using the operation unit 4, thereby selecting the selected movie file from the plurality of movie files stored in the storage unit 40. Movie data can be selected as a playback target.

図8は、再生処理時の表示部20の表示例を示す図である。図7に示すように、例えばユーザにより操作部4を用いて1つの動画ファイルが選択されると、図1の表示部20には、図6の表示例と同様に、画像表示領域Sa、波形表示領域Sb、条件設定領域Scおよび再生ボタンSgが表示されるとともに、図6のファイルボタンSjに代えて追尾ボタンSyが表示される。   FIG. 8 is a diagram illustrating a display example of the display unit 20 during the reproduction process. As shown in FIG. 7, for example, when one moving image file is selected by the user using the operation unit 4, the display unit 20 in FIG. A display area Sb, a condition setting area Sc, and a playback button Sg are displayed, and a tracking button Sy is displayed instead of the file button Sj in FIG.

ユーザにより操作部4を用いて再生ボタンSgが操作されると、制御部10により再生処理が開始される。再生処理では、制御部10は、記憶部40内の選択された動画ファイル中の複数フレームの画像データをビデオメモリ50に順次記憶させる。それにより、ビデオメモリ50に順次記憶される画像データに基づく画像が画像表示領域Saに表示される。このようにして、選択された動画ファイルに基づいて動画が再生される。また、制御部10は、記憶部40内の選択された動画ファイル中の波形データをビデオメモリ50に記憶させる。それにより、波形データに基づく波形のグラフが波形表示領域Sbに表示される。   When the user operates the playback button Sg using the operation unit 4, the control unit 10 starts the playback process. In the reproduction process, the control unit 10 causes the video memory 50 to sequentially store a plurality of frames of image data in the selected moving image file in the storage unit 40. Thereby, an image based on the image data sequentially stored in the video memory 50 is displayed in the image display area Sa. In this way, a moving image is reproduced based on the selected moving image file. Further, the control unit 10 stores the waveform data in the selected moving image file in the storage unit 40 in the video memory 50. Thereby, a waveform graph based on the waveform data is displayed in the waveform display area Sb.

この場合、制御部10は、波形表示領域Sbの波形のグラフ上で、画像表示領域Saに現在表示される画像のフレームに対応する評価値(以下、対応評価値と呼ぶ。)の位置に現在表示位置バーLを表示させる。画像表示領域Saに表示される画像のフレームが変化することにより対応評価値が変化すると、制御部10は、現在表示位置バーLを時間軸上で左右に移動させる。   In this case, the control unit 10 currently has an evaluation value corresponding to the frame of the image currently displayed in the image display area Sa (hereinafter referred to as a corresponding evaluation value) on the waveform graph of the waveform display area Sb. The display position bar L is displayed. When the correspondence evaluation value changes due to a change in the frame of the image displayed in the image display area Sa, the control unit 10 moves the current display position bar L to the left and right on the time axis.

次に、録画処理の前の再生処理について説明する。録画処理の前には、制御部10は、カメラ2から与えられる複数フレームの画像データをビデオメモリ50に順次記憶させる。それにより、複数フレームの画像データに基づく画像が図2の画像表示領域Saに表示される。このようにして、カメラ2により撮影される被写体の動画が再生される。また、制御部10は、波形収集部60から与えられる波形データをビデオメモリ50に記憶させる。それにより、波形データに基づく波形のグラフが波形表示領域Sbに表示される。   Next, the reproduction process before the recording process will be described. Prior to the recording process, the control unit 10 sequentially stores image data of a plurality of frames provided from the camera 2 in the video memory 50. Thereby, an image based on the image data of a plurality of frames is displayed in the image display area Sa of FIG. In this way, the moving image of the subject photographed by the camera 2 is reproduced. Further, the control unit 10 causes the video memory 50 to store the waveform data given from the waveform collection unit 60. Thereby, a waveform graph based on the waveform data is displayed in the waveform display area Sb.

さらに、録画処理終了時に録画部30に記憶される画像データに基づく画像の再生処理について説明する。録画処理後に、ユーザにより操作部4を用いて図6の再生ボタンSgが操作されると、制御部10は、録画部30内の複数フレームの画像データをビデオメモリ50に順次記憶させる。それにより、ビデオメモリ50に順次記憶される画像データに基づく画像が画像表示領域Saに表示される。このようにして、録画部30に記憶される動画データに基づいて動画が再生される。また、制御部10は、録画部30に記憶される波形データをビデオメモリ50に記憶させる。それにより、波形データに基づく波形のグラフが波形表示領域Sbに表示される。   Further, an image reproduction process based on image data stored in the recording unit 30 at the end of the recording process will be described. After the recording process, when the user operates the playback button Sg of FIG. 6 using the operation unit 4, the control unit 10 sequentially stores the image data of a plurality of frames in the recording unit 30 in the video memory 50. Thereby, an image based on the image data sequentially stored in the video memory 50 is displayed in the image display area Sa. In this manner, a moving image is reproduced based on the moving image data stored in the recording unit 30. Further, the control unit 10 stores the waveform data stored in the recording unit 30 in the video memory 50. Thereby, a waveform graph based on the waveform data is displayed in the waveform display area Sb.

(3)動画追尾装置
動画追尾装置は、図1の操作部4、制御部10、表示部20、記憶部40およびビデオメモリ50により構成される。動画追尾装置は、表示部20に表示される動画中の指定された追尾対象を追尾し、追尾結果を表示部20に表示する追尾処理を行う。記憶部40には、追尾処理を行うための動画追尾プログラムが記憶される。
(3) Video Tracking Device The video tracking device includes the operation unit 4, the control unit 10, the display unit 20, the storage unit 40, and the video memory 50 shown in FIG. The moving image tracking device tracks a designated tracking target in the moving image displayed on the display unit 20, and performs a tracking process for displaying the tracking result on the display unit 20. The storage unit 40 stores a moving image tracking program for performing tracking processing.

ユーザにより操作部4を用いて図8の追尾ボタンSyが操作されることにより、追尾処理を実行するための追尾モードが起動される。   When the user operates the tracking button Sy of FIG. 8 using the operation unit 4, a tracking mode for executing the tracking process is activated.

図9は、追尾処理の実行開始時における表示部20の表示例を示す図である。図9に示すように、追尾処理の実行開始時には、表示部20の画面上に主に画像表示領域Ta、再生ボタンTc、一時停止ボタンTd、逆再生ボタンTe、シークバーTfおよび追尾開始ボタンThが表示される。   FIG. 9 is a diagram illustrating a display example of the display unit 20 at the start of execution of the tracking process. As shown in FIG. 9, when the execution of the tracking process is started, an image display area Ta, a playback button Tc, a pause button Td, a reverse playback button Te, a seek bar Tf, and a tracking start button Th are mainly displayed on the screen of the display unit 20. Is displayed.

画像表示領域Taには、ユーザにより操作部4を用いて選択された動画ファイルに基づく動画が表示される。   In the image display area Ta, a moving image based on a moving image file selected by the user using the operation unit 4 is displayed.

シークバーTfには、さらに始点表示カーソルTlおよび終点表示カーソルTmが表示される。始点表示カーソルTlおよび終点表示カーソルTmは、動画を構成する複数フレームの画像のうち表示領域Taに表示可能な画像の範囲を指定するために用いられる。始点表示カーソルTlおよび終点表示カーソルTmの位置は、動画ファイル中のフレームにそれぞれ対応する。画像表示領域Taには、始点表示カーソルTlの位置に対応するフレームの画像から終点表示カーソルTmの位置に対応するフレームの画像を動画として表示することができる。   Further, a start point display cursor Tl and an end point display cursor Tm are displayed on the seek bar Tf. The start point display cursor Tl and the end point display cursor Tm are used for designating a range of images that can be displayed in the display area Ta among the images of a plurality of frames constituting the moving image. The positions of the start point display cursor Tl and the end point display cursor Tm correspond to the frames in the moving image file. In the image display area Ta, an image of a frame corresponding to the position of the end point display cursor Tm can be displayed as a moving image from an image of the frame corresponding to the position of the start point display cursor Tl.

図10は、画像表示領域Taに表示される動画の一例を示す図である。ここで、ユーザにより選択された動画ファイルは、複数フレームの画像データv1〜v20を含むものとする。図10においては、時間軸は各段の左から右へ延び、各段の右端から下段の左端へつながる。後述する図12および図14の時間軸も図10と同様である。   FIG. 10 is a diagram illustrating an example of a moving image displayed in the image display area Ta. Here, the moving image file selected by the user includes a plurality of frames of image data v1 to v20. In FIG. 10, the time axis extends from the left to the right of each stage and is connected from the right end of each stage to the left end of the lower stage. The time axis of FIG. 12 and FIG. 14 to be described later is the same as that of FIG.

まず、図10の1段目の左から右へ順に示されるように、複数フレームの画像データv1〜v5に基づく複数の画像V1〜V5が画像表示領域Taに順に表示される。次に、図10の2段目の左から右へ順に示されるように、複数フレームの画像データv6〜v10に基づく複数の画像V6〜V10が画像表示領域Taに順に表示される。次に、図10の3段目の左から右へ順に示されるように、複数フレームの画像データv11〜v15に基づく複数の画像V11〜V15が画像表示領域Taに順に表示される。さらに、図10の4段目の左から右へ順に示されるように、複数フレームの画像データv16〜v20に基づく複数の画像V16〜V20が画像表示領域Taに順に表示される。   First, as shown in order from left to right in the first row of FIG. 10, a plurality of images V1 to V5 based on a plurality of frames of image data v1 to v5 are sequentially displayed in the image display area Ta. Next, as shown in order from left to right in the second row of FIG. 10, a plurality of images V6 to V10 based on a plurality of frames of image data v6 to v10 are sequentially displayed in the image display area Ta. Next, as shown in order from left to right in the third row in FIG. 10, a plurality of images V11 to V15 based on the image data v11 to v15 of a plurality of frames are sequentially displayed in the image display area Ta. Furthermore, as shown in order from left to right in the fourth row of FIG. 10, a plurality of images V16 to V20 based on a plurality of frames of image data v16 to v20 are displayed in order in the image display area Ta.

図10の画像V1〜V20は、図1のカメラ2により撮影された回転する円柱状の物体Mを示す。カメラ2により撮影される物体Mの一面側には、2つの突起M1,M2が形成されている。   Images V <b> 1 to V <b> 20 in FIG. 10 show a rotating cylindrical object M photographed by the camera 2 in FIG. 1. Two protrusions M1 and M2 are formed on one surface side of the object M photographed by the camera 2.

ユーザが図1の操作部4を用いて図9の再生ボタンTcを操作することにより、図10のように複数フレームの画像V1〜V20が画像表示領域Taに表示される。このようにして動画が再生される。   When the user operates the playback button Tc of FIG. 9 using the operation unit 4 of FIG. 1, a plurality of frames of images V1 to V20 are displayed in the image display area Ta as shown in FIG. In this way, the moving image is reproduced.

また、ユーザが図9の逆再生ボタンTeを操作することにより、現時点で表示されている画像から時間軸上で再生時と逆方向に複数フレームの画像が画像表示領域Taに順次表示(以下、逆再生と呼ぶ。)される。   In addition, when the user operates the reverse playback button Te in FIG. 9, images of a plurality of frames are sequentially displayed in the image display area Ta in the reverse direction to the playback on the time axis from the currently displayed image (hereinafter, Called reverse playback).

動画の再生中または逆再生中にユーザが一時停止ボタンTdを操作することにより、画像表示領域Taに画像が表示された状態で、動画の再生または逆再生が一時停止する。また、ユーザが再生ボタンTcを操作し続けることにより、操作が解除されるまで動画が高速で再生される。ユーザが逆再生ボタンTeを操作し続けることにより、操作が解除されるまで動画が高速で逆再生される。   When the user operates the pause button Td during the reproduction or reverse reproduction of the moving image, the reproduction or reverse reproduction of the moving image is paused while the image is displayed in the image display area Ta. In addition, when the user continues to operate the playback button Tc, the moving image is played back at high speed until the operation is released. By continuing to operate the reverse playback button Te by the user, the moving image is reversely played back at high speed until the operation is released.

シークバーTfは、水平方向に移動可能なスライダTgを有する。スライダTgは、動画において現時点で画像表示領域Taに表示されている画像の時間軸上の位置を示す。動画の再生が進むにつれて、スライダTgがシークバーTf上で一方向(本例では、表示部20の画面の左から右)に移動する。同様に、動画の逆再生が進むにつれて、スライダTgがシークバーTf上で他方向(本例では、表示部20の画面の右から左)に移動する。ユーザは、操作部4を用いてシークバーTfのスライダTgを移動させることにより、画像表示領域Taに動画中の所望のフレームの画像を表示させることができる。それにより、所望の画像V1〜V20から動画の再生または逆再生を行うことができる。   The seek bar Tf has a slider Tg that can move in the horizontal direction. The slider Tg indicates the position on the time axis of the image currently displayed in the image display area Ta in the moving image. As the playback of the moving image proceeds, the slider Tg moves in one direction on the seek bar Tf (in this example, from the left to the right of the screen of the display unit 20). Similarly, the slider Tg moves in the other direction (in this example, from the right to the left of the screen of the display unit 20) on the seek bar Tf as the reverse playback of the moving image proceeds. The user can display an image of a desired frame in the moving image in the image display area Ta by moving the slider Tg of the seek bar Tf using the operation unit 4. Thereby, a moving image can be reproduced or reversely reproduced from desired images V1 to V20.

ユーザが後述する操作により画像表示領域Taに表示される画像中の追尾対象を指定し、追尾開始ボタンThを操作することにより、追尾対象の追尾動作が開始される。図11は、追尾対象の追尾動作時における表示部20の表示例を示す図である。図11に示すように、表示部20の画面上には、図9の追尾開始ボタンThに代えて追尾停止ボタンTiが表示される。   When the user designates a tracking target in the image displayed in the image display area Ta by an operation described later and operates the tracking start button Th, the tracking operation of the tracking target is started. FIG. 11 is a diagram illustrating a display example of the display unit 20 during the tracking operation of the tracking target. As shown in FIG. 11, a tracking stop button Ti is displayed on the screen of the display unit 20 instead of the tracking start button Th of FIG.

図12は、追尾対象の追尾動作時の画像表示領域Taに表示される動画の一例を示す図である。画像表示領域Taには、画像V1〜V20が順次表示される。図12の例では、物体Mの一方の突起M1が追尾対象として指定されている。図12に示すように、画像表示領域Taに表示される各画像上に、現フレームの画像における追尾結果を示すシンボルSおよび以前のフレームの画像における追尾結果を示すシンボルSが表示される。本例では、追尾結果を示すシンボルSは三角形状を有する。   FIG. 12 is a diagram illustrating an example of a moving image displayed in the image display area Ta during the tracking operation of the tracking target. Images V1 to V20 are sequentially displayed in the image display area Ta. In the example of FIG. 12, one protrusion M1 of the object M is designated as a tracking target. As shown in FIG. 12, a symbol S indicating the tracking result in the current frame image and a symbol S indicating the tracking result in the previous frame image are displayed on each image displayed in the image display area Ta. In this example, the symbol S indicating the tracking result has a triangular shape.

なお、図11の画像表示領域Taには、第3フレームの画像V3が示されている。この状態ではユーザが追尾停止ボタンTiを操作すると、追尾動作実行中の画像(図11の例では第3フレームの画像V3)および以前のフレームの画像(図11の例では第1および第2フレームの画像V1,V2)の追尾結果を示すシンボルSが表示された状態で、追尾対象の追尾動作が一時停止する。   Note that an image V3 of the third frame is shown in the image display area Ta of FIG. In this state, when the user operates the tracking stop button Ti, an image during execution of the tracking operation (the image V3 of the third frame in the example of FIG. 11) and an image of the previous frame (the first and second frames in the example of FIG. 11). In the state where the symbol S indicating the tracking result of the images V1, V2) is displayed, the tracking operation of the tracking target is temporarily stopped.

図13は、追尾対象の追尾動作終了時における表示部20の表示例を示す図である。動画ファイルの最終フレームの画像V20における追尾対象の追尾動作が終了すると、図13に示すように、表示部20の画面上には、図9の追尾開始ボタンThに代えて追尾再開ボタンTjが表示されるとともに、主に終了ボタンTkがさらに表示される。画像表示領域Taには、最終フレームの画像V20が表示されるとともに、画像V20上にすべてのフレームの画像V1〜V20における追尾結果を示す複数のシンボルSが表示される。複数のシンボルSが動画中で移動する追尾対象の軌跡を示す。   FIG. 13 is a diagram illustrating a display example of the display unit 20 at the end of the tracking operation of the tracking target. When the tracking operation of the tracking target in the image V20 of the final frame of the moving image file is completed, a tracking restart button Tj is displayed on the screen of the display unit 20 instead of the tracking start button Th of FIG. 9, as shown in FIG. In addition, an end button Tk is mainly displayed. In the image display area Ta, the image V20 of the last frame is displayed, and a plurality of symbols S indicating the tracking results in the images V1 to V20 of all frames are displayed on the image V20. A trajectory of a tracking target in which a plurality of symbols S move in a moving image is shown.

この状態で、ユーザは、逆再生ボタンTeおよび追尾再開ボタンTjを操作することにより、動画ファイルの所望のフレームの画像から順に追尾対象の追尾動作を再度実行させることができる。   In this state, the user can again execute the tracking operation of the tracking target in order from the image of the desired frame of the moving image file by operating the reverse playback button Te and the tracking restart button Tj.

また、追尾動作実行中にユーザが図11の追尾停止ボタンTiを操作した場合にも、図13の追尾動作終了時と同様に、表示部20に追尾再開ボタンTjが表示されるとともに、主に終了ボタンTkがさらに表示される。この場合、ユーザは、追尾再開ボタンTjを操作することにより、追尾対象の追尾動作を続行することができる。   Further, when the user operates the tracking stop button Ti in FIG. 11 while the tracking operation is being executed, the tracking restart button Tj is displayed on the display unit 20 as in the case of the end of the tracking operation in FIG. An end button Tk is further displayed. In this case, the user can continue the tracking operation of the tracking target by operating the tracking restart button Tj.

ユーザが終了ボタンTkを操作した場合、図1の制御部10は、図13の画像表示領域Taに表示されている複数のシンボルSの位置を示す位置データを追尾結果として図1の記憶部40に記憶させ、追尾処理を終了する。   When the user operates the end button Tk, the control unit 10 in FIG. 1 uses the position data indicating the positions of the plurality of symbols S displayed in the image display area Ta in FIG. 13 as tracking results, and the storage unit 40 in FIG. And the tracking process is terminated.

図14は、追尾対象の追尾が失敗したときの画像表示領域Taに表示される動画の一例を示す図である。画像表示領域Taには、画像V1〜V20が順次表示される。   FIG. 14 is a diagram illustrating an example of a moving image displayed in the image display area Ta when tracking of a tracking target fails. Images V1 to V20 are sequentially displayed in the image display area Ta.

図14の例では、第1〜第3フレームの画像V1〜V3においては、追尾対象である突起M1が正確に追尾されている。それにより、追尾結果を示すシンボルSが突起M1上に表示されている。第4フレームの画像V4において、追尾対象である突起M1とは異なる部分が追尾されている。それにより、画像V4上において、追尾結果を示すシンボルSが追尾対象である突起M1とは異なる位置に表示されている。その結果、以降の第5フレームから最終フレームの画像V5〜V20において、追尾対象である突起M1とは異なる部分が追尾され、追尾結果を示すシンボルSが追尾対象である突起M1とは異なる位置に表示されている。   In the example of FIG. 14, in the images V1 to V3 of the first to third frames, the protrusion M1 that is the tracking target is accurately tracked. Thereby, the symbol S indicating the tracking result is displayed on the protrusion M1. In the image V4 of the fourth frame, a portion different from the protrusion M1 to be tracked is tracked. Thereby, on the image V4, the symbol S indicating the tracking result is displayed at a position different from the protrusion M1 to be tracked. As a result, in the subsequent images V5 to V20 from the fifth frame to the last frame, a portion different from the tracking target protrusion M1 is tracked, and the symbol S indicating the tracking result is at a position different from the tracking target protrusion M1. It is displayed.

このような場合、ユーザは、後述するように、動画を逆再生し、追尾対象の追尾に失敗したフレームの画像V4から追尾動作を再開させることができる。   In such a case, as will be described later, the user can reversely play back the moving image, and can resume the tracking operation from the image V4 of the frame in which tracking of the tracking target has failed.

(4)追尾対象の追尾処理
図15、図16および図17は、動画追尾装置における動画中の追尾対象の追尾処理を示すフローチャートである。図18、図19および図20は、追尾対象の追尾処理の実行中に画像表示領域Taに表示される画像の遷移を示す図である。図21は、追尾処理実行中に制御部10のRAM10aに記憶されるデータを示す図である。制御部10のCPUは、記憶部40に記憶される追尾処理プログラムに従って追尾処理を実行する。以下、図15〜図21を用いて制御部10のCPU(以下、制御部10と略記する。)による追尾対象の追尾処理を説明する。
(4) Tracking Target Tracking Processing FIGS. 15, 16, and 17 are flowcharts showing tracking target tracking processing in a moving image in the moving image tracking apparatus. 18, 19, and 20 are diagrams illustrating transition of an image displayed in the image display area Ta during execution of the tracking process of the tracking target. FIG. 21 is a diagram illustrating data stored in the RAM 10a of the control unit 10 during execution of the tracking process. The CPU of the control unit 10 executes the tracking process according to the tracking process program stored in the storage unit 40. Hereinafter, tracking processing of a tracking target by the CPU of the control unit 10 (hereinafter, abbreviated as the control unit 10) will be described with reference to FIGS.

図9の表示の状態で、ユーザが操作部4を用いて図1の記憶部40に記憶された複数の動画ファイルのうちいずれかを選択する。それにより、制御部10は、選択された動画ファイル中の複数フレームの画像データを読み出す(ステップS1)。この場合、読み出された複数フレームの画像データは図21のRAM10aに記憶される。   In the display state of FIG. 9, the user uses the operation unit 4 to select one of a plurality of moving image files stored in the storage unit 40 of FIG. 1. Thereby, the control part 10 reads the image data of the several frames in the selected moving image file (step S1). In this case, the read image data of a plurality of frames is stored in the RAM 10a of FIG.

ユーザは、操作部4を用いて始点表示カーソルTlおよび終点表示カーソルTmを移動させることにより、動画ファイル中の複数フレームの画像データに基づく画像のうち任意の画像の範囲を指定することができる。   The user can designate a range of an arbitrary image among images based on image data of a plurality of frames in the moving image file by moving the start point display cursor Tl and the end point display cursor Tm using the operation unit 4.

動画を構成する複数フレームの画像のうち途中の画像から追尾対象が出現し、または途中の画像で追尾対象が消滅する場合がある。このような場合、ユーザは、始点表示カーソルTlを追尾対象が出現する画像が表示される位置に設定し、終点表示カーソルTmを追尾対象が消滅する画像が表示される位置に設定することができる。それにより、追尾対象が存在する画像のみにおいて追尾を行うことができる。本例では、全ての画像V1〜V20に追尾対象が出現しているので、図9に点線の矢印で示すように、始点表示カーソルTlは第1フレームの画像V1に対応する位置に設定され、終点表示カーソルTmは最終フレームの画像V20に対応する位置に設定される。したがって、第1フレームから最終フレームの画像データv1〜v20が読み出される。   A tracking target may appear from an intermediate image among a plurality of frames constituting a moving image, or the tracking target may disappear from the intermediate image. In such a case, the user can set the start point display cursor Tl to a position where an image where the tracking target appears is displayed and set the end point display cursor Tm to a position where the image where the tracking target disappears is displayed. . As a result, it is possible to perform tracking only on an image having a tracking target. In this example, since the tracking target appears in all the images V1 to V20, the start point display cursor Tl is set at a position corresponding to the image V1 of the first frame, as indicated by a dotted arrow in FIG. The end point display cursor Tm is set at a position corresponding to the image V20 of the last frame. Therefore, the image data v1 to v20 of the last frame are read from the first frame.

次に、制御部10は、RAM10aに記憶された画像データv1〜v20に基づく画像V1〜V20のうちユーザにより指定された画像(以下、初期画像と呼ぶ。)を、図1のビデオメモリ50を介して画像表示領域Taに表示する(ステップS2)。   Next, the control unit 10 uses the video memory 50 of FIG. 1 for an image designated by the user (hereinafter referred to as an initial image) among the images V1 to V20 based on the image data v1 to v20 stored in the RAM 10a. Through the image display area Ta (step S2).

初期状態では、RAM10aに記憶された第1フレームの画像データv1に基づく画像V1が初期画像として画像表示領域Taに表示される。ユーザは、シークバーTf上でスライダTgを移動させることにより、または再生ボタンTcを操作することにより、初期画像を指定することができる。また、後述するように、追尾処理を再開させる場合には、ユーザにより指定された画像が初期画像として画像表示領域Taに表示される。   In the initial state, the image V1 based on the image data v1 of the first frame stored in the RAM 10a is displayed in the image display area Ta as an initial image. The user can designate the initial image by moving the slider Tg on the seek bar Tf or by operating the playback button Tc. As will be described later, when the tracking process is resumed, an image designated by the user is displayed as an initial image in the image display area Ta.

本例では、図18(a)に示すように、第1フレームの画像データv1に基づく画像V1が初期画像として表示される。   In this example, as shown in FIG. 18A, an image V1 based on the image data v1 of the first frame is displayed as an initial image.

次に、制御部10は、ユーザにより操作部4を用いて画像表示領域Ta内の任意の位置が指定されたか否かを判定する(ステップS3)。ユーザにより画像表示領域Ta内の位置が指定されていない場合、制御部10は、ステップS2の処理に戻る。図18(b)に示すように、ユーザにより矢印のポインタで画像表示領域Ta内の位置が指定された場合、制御部10は、指定された位置に基づいて画像上でのシンボルS、テンプレートTおよび探索範囲Rの位置を決定する(ステップS4)。   Next, the control unit 10 determines whether an arbitrary position in the image display area Ta is designated by the user using the operation unit 4 (step S3). When the position in the image display area Ta is not designated by the user, the control unit 10 returns to the process of step S2. As shown in FIG. 18B, when the position in the image display area Ta is designated by the user with an arrow pointer, the control unit 10 displays the symbol S and the template T on the image based on the designated position. And the position of the search range R is determined (step S4).

本例において、図18(c)に示すように、シンボルSは三角形状を有し、テンプレートTおよび探索範囲Rは、矩形状を有する。探索範囲Rのサイズは、テンプレートTのサイズよりも大きい。シンボルSの位置はユーザにより指定された位置に一致する。テンプレートTおよび探索範囲Rの中心は、シンボルSの位置に一致する。探索範囲RはテンプレートTを取り囲むように位置する。後述するように、テンプレートT内の画像が追尾対象画像として設定される。探索範囲Rは、次フレームの画像において追尾対象を探索する範囲を示す。シンボルSは、追尾対象が存在する位置を示す。   In this example, as shown in FIG. 18C, the symbol S has a triangular shape, and the template T and the search range R have a rectangular shape. The size of the search range R is larger than the size of the template T. The position of the symbol S matches the position specified by the user. The centers of the template T and the search range R coincide with the position of the symbol S. The search range R is located so as to surround the template T. As will be described later, an image in the template T is set as a tracking target image. The search range R indicates a range in which a tracking target is searched for in the next frame image. Symbol S indicates the position where the tracking target exists.

続いて、制御部10は、決定されたシンボルSの位置を示す位置データs1、テンプレートTの位置を示す位置データtdおよび探索範囲Rの位置を示す位置データrdを図21に示すRAM10aに保存する(ステップS5)。また、制御部10は、RAM10aに記憶された位置データs1,td,rdに基づいて、画像表示領域TaにテンプレートT、シンボルSおよび探索範囲Rを表示する(ステップS6)。本例においては、図18(d)に示すように、追尾対象である物体Mの一方の突起M1上にシンボルSが表示される。また、シンボルSを取り囲むようにテンプレートTが表示され、テンプレートTを取り囲むように探索範囲Rが表示される。   Subsequently, the control unit 10 stores the position data s1 indicating the position of the determined symbol S, the position data td indicating the position of the template T, and the position data rd indicating the position of the search range R in the RAM 10a shown in FIG. (Step S5). Further, the control unit 10 displays the template T, the symbol S, and the search range R in the image display area Ta based on the position data s1, td, and rd stored in the RAM 10a (step S6). In this example, as shown in FIG. 18D, the symbol S is displayed on one protrusion M1 of the object M that is the tracking target. Further, the template T is displayed so as to surround the symbol S, and the search range R is displayed so as to surround the template T.

なお、シンボルSの形状、テンプレートTのサイズおよび探索範囲Rのサイズは、ユーザにより操作部4を用いて予め設定される。   Note that the shape of the symbol S, the size of the template T, and the size of the search range R are preset by the user using the operation unit 4.

制御部10は、ユーザによる操作部4の操作に基づいて、画像表示領域Ta内でシンボルSを移動させることができる。この場合、シンボルSの移動に伴って、テンプレートTおよび探索範囲Rも移動する。また、制御部10は、ユーザによる操作部4の操作に基づいて、テンプレートTまたは探索範囲Rのサイズを変更することができる。ユーザは、シンボルSの位置ならびにテンプレートTおよび探索範囲Rのサイズを調整することにより、追尾対象の画像の範囲および次フレームの画像において追尾対象を探索する範囲を適切に設定することができる。   The control unit 10 can move the symbol S within the image display area Ta based on the operation of the operation unit 4 by the user. In this case, as the symbol S moves, the template T and the search range R also move. Moreover, the control part 10 can change the size of the template T or the search range R based on operation of the operation part 4 by a user. By adjusting the position of the symbol S and the size of the template T and the search range R, the user can appropriately set the range of the tracking target image and the range of searching for the tracking target in the image of the next frame.

さらに、制御部10は、ユーザによる操作部4の操作に基づいて、同様の処理により、画像表示領域Taの任意の位置に上記のシンボルS、テンプレートTおよび探索範囲Rとは異なる別のシンボル、テンプレートおよび探索範囲を表示することができる。これにより、ユーザは、初期画像中に複数の追尾対象を設定することができる。   Furthermore, the control unit 10 performs a similar process based on the operation of the operation unit 4 by the user, and performs another symbol different from the symbol S, the template T, and the search range R at any position in the image display region Ta Templates and search ranges can be displayed. Thereby, the user can set a plurality of tracking targets in the initial image.

次に、制御部10は、追尾動作の実行が指示されたか否かを判定する(ステップS7)。ここで、制御部10は、ユーザが操作部4を用いて図9の追尾開始ボタンThまたは図13の追尾再開ボタンTjを操作したことを検出した場合、追尾動作の実行が指示されたと判定する。制御部10は、追尾動作の実行が指示されない場合にはステップS2の処理に戻る。   Next, the control unit 10 determines whether or not the execution of the tracking operation is instructed (step S7). Here, if the control unit 10 detects that the user has operated the tracking start button Th in FIG. 9 or the tracking restart button Tj in FIG. 13 using the operation unit 4, the control unit 10 determines that the execution of the tracking operation has been instructed. . When the execution of the tracking operation is not instructed, the control unit 10 returns to the process of step S2.

制御部10は、追尾動作の実行が指示された場合、テンプレートT内の画像を基準画像データReとしてRAM10aに記憶させる(ステップS8)。本例では、この時点で、制御部10は、画像表示領域TaからテンプレートTおよび探索範囲Rの表示を消去する。   When the execution of the tracking operation is instructed, the control unit 10 stores the image in the template T in the RAM 10a as the reference image data Re (step S8). In this example, at this point, the control unit 10 erases the display of the template T and the search range R from the image display area Ta.

続いて、制御部10は、画像表示領域Taに次フレームの画像と以前のフレームの画像に対応するシンボルSとを表示する(ステップS9)。本例では、図18(e)に示すように、制御部10は、第2フレームの画像V2上に第1フレームの画像V1に対応するシンボルSが表示される。   Subsequently, the control unit 10 displays the image of the next frame and the symbol S corresponding to the image of the previous frame in the image display area Ta (step S9). In this example, as illustrated in FIG. 18E, the control unit 10 displays the symbol S corresponding to the image V1 of the first frame on the image V2 of the second frame.

ここで、制御部10は、RAM10aに記憶された基準画像データReに基づいて、現フレームの画像の探索範囲R内の追尾対象の位置を識別する(ステップS10)。本例では、図18(e)に示された第2フレームの画像V2の突起M1が探索範囲R内で探索される。この場合、画像データv2のうち探索範囲Rに対応する部分のデータと基準画像データReとのパターンマッチングにより突起M1の位置が識別される。   Here, the control unit 10 identifies the position of the tracking target within the search range R of the image of the current frame based on the reference image data Re stored in the RAM 10a (step S10). In this example, the protrusion M1 of the image V2 of the second frame shown in FIG. In this case, the position of the protrusion M1 is identified by pattern matching between the data corresponding to the search range R in the image data v2 and the reference image data Re.

続いて、制御部10は、識別された追尾対象の位置を新たなシンボルSの位置として決定する(ステップS11)。また、制御部10は、新たなシンボルSの位置を示す位置データs2をRAM10aに記憶させる(ステップS12)。   Subsequently, the control unit 10 determines the position of the identified tracking target as the position of the new symbol S (step S11). Further, the control unit 10 stores the position data s2 indicating the position of the new symbol S in the RAM 10a (step S12).

次いで、制御部10は、決定された新たなシンボルSの位置に基づいて探索範囲Rの位置を再決定する(ステップS13)。この場合、探索範囲Rの中心が新たなシンボルSの位置に一致するように、探索範囲Rの位置が再決定される。制御部10は、再決定された探索範囲Rの位置に基づいてRAM10aに記憶される位置データrdを更新する(ステップS14)。本例では、図18(f)に示すように、第2フレームの画像V2上で新たなシンボルSを中心として探索範囲Rが移動する。   Next, the control unit 10 re-determines the position of the search range R based on the determined position of the new symbol S (step S13). In this case, the position of the search range R is redetermined so that the center of the search range R matches the position of the new symbol S. The control unit 10 updates the position data rd stored in the RAM 10a based on the re-determined position of the search range R (step S14). In this example, as shown in FIG. 18 (f), the search range R moves around the new symbol S on the image V2 of the second frame.

次に、制御部10は、RAM10aに記憶された新たな位置データs2に基づいて画像表示領域Taに新たなシンボルSを表示する(ステップS15)。本例では、図19(a)に示すように、第2フレームの画像V2上に第1フレームの画像V1に対応するシンボルSおよび第2フレームの画像V2に対応するシンボルSが表示される。   Next, the control unit 10 displays a new symbol S in the image display area Ta based on the new position data s2 stored in the RAM 10a (step S15). In this example, as shown in FIG. 19A, the symbol S corresponding to the image V1 of the first frame and the symbol S corresponding to the image V2 of the second frame are displayed on the image V2 of the second frame.

次に、制御部10は、画像表示領域Taに指定された複数フレームの画像V1〜V20のうち最終フレームの画像V20が表示されているか否かを判定する(ステップS16)。   Next, the control unit 10 determines whether or not the last frame image V20 is displayed among the plurality of frames of images V1 to V20 designated in the image display area Ta (step S16).

画像表示領域Taに最終フレームの画像V20が表示されていない場合、制御部10は、一時停止が指示されたか否かを判定する(ステップS17)。例えば、ユーザは、追尾動作の実行中に追尾が失敗したことに気付いた場合、操作部4を用いて図10の追尾停止ボタンTiを操作する。追尾停止ボタンTiが操作されたことを検出した場合、制御部10は、一時停止が指示されたと判定する。   When the image V20 of the last frame is not displayed in the image display area Ta, the control unit 10 determines whether or not a pause is instructed (step S17). For example, when the user notices that the tracking has failed during the execution of the tracking operation, the user operates the tracking stop button Ti in FIG. When it is detected that the tracking stop button Ti has been operated, the control unit 10 determines that a temporary stop has been instructed.

一時停止が指示されていない場合には、制御部10は、ステップS9に戻り、ステップS9〜S16の処理を繰り返し実行する。本例では、図19(b)に示すように、画像表示領域Taに第3フレームの画像V3が表示されるとともに、画像V3上に第1および第2フレームに対応するシンボルSが表示される。第3フレームの画像V3において探索範囲R内で追尾対象の位置が識別される。それにより、図19(c)に示すように、識別された追尾対象の位置が新たなシンボルSの位置として決定され、新たなシンボルSの位置を示す位置データs3がRAM10aに記憶される。また、新たなシンボルSの位置に基づいて探索範囲Rの位置が再決定され、再決定された探索範囲Rの位置に基づいてRAM10aに記憶される位置データrdが更新される。次いで、図19(d)に示すように、RAM10aに記憶される位置データs3に基づいて第3フレームの画像V3上に新たなシンボルSが表示される。   When the pause is not instructed, the control unit 10 returns to step S9 and repeatedly executes the processes of steps S9 to S16. In this example, as shown in FIG. 19B, the image V3 of the third frame is displayed in the image display area Ta, and the symbols S corresponding to the first and second frames are displayed on the image V3. . The position of the tracking target is identified within the search range R in the image V3 of the third frame. Thereby, as shown in FIG. 19C, the identified position of the tracking target is determined as the position of the new symbol S, and the position data s3 indicating the position of the new symbol S is stored in the RAM 10a. Further, the position of the search range R is redetermined based on the position of the new symbol S, and the position data rd stored in the RAM 10a is updated based on the redetermined position of the search range R. Next, as shown in FIG. 19D, a new symbol S is displayed on the image V3 of the third frame based on the position data s3 stored in the RAM 10a.

ステップS16において画像表示領域Taに最終フレームの画像V20が表示されている場合またはステップS17において一時停止が指示された場合には、制御部10は、追尾動作の終了が指示されたか否かを判定する(ステップS18)。例えば、図19(e)に示すように、ユーザは、画像表示領域Taに表示される最終フレームの画像V20まで正確な追尾が行われたと判断した場合、操作部4を用いて図13の終了ボタンTkを操作する。制御部10は、終了ボタンTkが操作されたことを検出した場合、追尾動作の終了が指示されたと判定する。この場合、制御部10は、RAM10aに記憶されるシンボルSの位置データs1〜s20を追尾結果として図1の記憶部40に記憶させ(ステップS19)、追尾処理を終了する。   When the image V20 of the last frame is displayed in the image display area Ta in step S16 or when a pause is instructed in step S17, the control unit 10 determines whether or not the end of the tracking operation is instructed. (Step S18). For example, as shown in FIG. 19E, when the user determines that accurate tracking has been performed up to the image V20 of the final frame displayed in the image display area Ta, the operation unit 4 is used to end FIG. The button Tk is operated. When detecting that the end button Tk has been operated, the control unit 10 determines that the end of the tracking operation has been instructed. In this case, the control unit 10 stores the position data s1 to s20 of the symbol S stored in the RAM 10a as the tracking result in the storage unit 40 of FIG. 1 (step S19), and ends the tracking process.

一方、ステップS18において追尾動作の終了が指示されていない場合には、制御部10は、ステップS2の処理に戻る。例えば、図20(a)に示すように、全ての画像V1〜V20における追尾動作の実行後、または、図20(b)に示すように、追尾動作の実行中に、追尾が失敗したことに気付いた場合、ユーザは図13の終了ボタンTkを操作しない。   On the other hand, when the end of the tracking operation is not instructed in step S18, the control unit 10 returns to the process of step S2. For example, as shown in FIG. 20A, after the tracking operation is performed on all the images V1 to V20, or as shown in FIG. 20B, the tracking has failed. When noticing, the user does not operate the end button Tk in FIG.

本例においては、図20(c)に示すように、第4フレームの画像V4で追尾対象の追尾が失敗している。この場合、図20(d)に示すように、ユーザは、操作部4を用いて図13の逆再生ボタンTeまたはシークバーTfのスライダTgを操作することにより、画像表示領域Taに追尾が失敗する前のフレームの画像V3を初期画像として指定することができる。   In this example, as shown in FIG. 20C, tracking of the tracking target has failed in the image V4 of the fourth frame. In this case, as shown in FIG. 20D, when the user operates the reverse playback button Te or the slider Tg of the seek bar Tf in FIG. The image V3 of the previous frame can be designated as the initial image.

制御部10は、ユーザによる操作部4の操作に基づいて、第3フレームの画像データv3に基づく画像V3を初期画像として画像表示領域Taに表示する(ステップS2)。ユーザは、第3フレームの画像V3の位置を指定する。これにより、制御部10は、ステップS2〜S18の処理を繰り返す。第3フレームの画像V3から後続するフレームの画像において再度追尾対象の追尾動作が実行される。   Based on the operation of the operation unit 4 by the user, the control unit 10 displays the image V3 based on the third frame image data v3 as an initial image in the image display area Ta (step S2). The user designates the position of the image V3 of the third frame. Thereby, the control part 10 repeats the process of step S2-S18. The tracking operation of the tracking target is performed again on the image of the frame subsequent to the image V3 of the third frame.

その結果、図20(e)および図20(f)に示すように、第4フレームから最終フレームの画像V4〜V20において追尾対象である物体Mの突起M1上に追尾結果を示すシンボルSが表示される。追尾結果を示す複数のシンボルSにより、動画中の追尾対象の軌跡が表示される。   As a result, as shown in FIGS. 20E and 20F, the symbol S indicating the tracking result is displayed on the protrusion M1 of the object M to be tracked in the images V4 to V20 from the fourth frame to the last frame. Is done. The track of the tracking target in the moving image is displayed by a plurality of symbols S indicating the tracking result.

(5)効果
本実施の形態に係る動画追尾装置においては、記憶部40に記憶された複数フレームの画像のうち一の画像が初期画像として表示部20に表示される。操作部4により初期画像内でテンプレートTおよび探索範囲Rが設定されかつ再生ボタンTcが操作された場合、初期画像以降のフレームの画像について追尾動作が実行される。
(5) Effect In the moving image tracking apparatus according to the present embodiment, one image among the images of a plurality of frames stored in the storage unit 40 is displayed on the display unit 20 as an initial image. When the template T and the search range R are set in the initial image by the operation unit 4 and the playback button Tc is operated, the tracking operation is performed on the images of the frames after the initial image.

追尾動作においては、表示部20に複数フレームの画像が順に表示される。表示される各画像において操作部4により設定された探索範囲R内で追尾対象の位置が識別されるとともに識別された位置にシンボルSが表示される。   In the tracking operation, images of a plurality of frames are displayed in order on the display unit 20. In each displayed image, the position of the tracking target is identified within the search range R set by the operation unit 4, and the symbol S is displayed at the identified position.

追尾動作の停止または終了後に、操作部4により複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合、新たな初期画像が表示部20に表示される。また、操作部4により新たな初期画像内でテンプレートTまたは探索範囲Rが再設定されかつ追尾再開ボタンTjが操作された場合、新たな初期画像以降のフレームの画像について追尾動作が実行される。   When the operation unit 4 instructs the display unit 20 to display any one of a plurality of frames as a new initial image after the tracking operation is stopped or ended, the new initial image is displayed on the display unit 20. Further, when the template T or the search range R is reset in the new initial image by the operation unit 4 and the tracking resumption button Tj is operated, the tracking operation is executed for the images of the frames after the new initial image.

追尾動作の実行中に追尾対象の追尾が失敗した場合、追尾動作の停止または終了後に、逆再生ボタンTeまたはシークバーTfを操作することにより、所望のフレームの画像を新たな初期画像として表示することができる。   When tracking of a tracking target fails during execution of the tracking operation, an image of a desired frame is displayed as a new initial image by operating the reverse playback button Te or seek bar Tf after the tracking operation is stopped or ended. Can do.

逆再生ボタンTeを操作する場合には、ユーザは、各フレームの画像およびシンボルSを見ながら、追尾が最初に失敗したフレームの画像を容易に見つけることができる。これにより、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像から追尾動作を容易に再開することができる。   When operating the reverse playback button Te, the user can easily find the image of the frame in which the tracking has failed first while viewing the image and the symbol S of each frame. Thereby, the tracking operation can be easily restarted from the image of the first frame in which the tracking has failed or the image of the frame immediately before the tracking has failed.

また、シークバーTfを操作する場合には、ユーザは、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像を迅速に初期画像として表示させることができる。これにより、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像から追尾動作を迅速に再開することができる。   Further, when operating the seek bar Tf, the user can quickly display an image of the first frame in which tracking has failed or an image of the frame immediately before the tracking has failed as an initial image. Accordingly, the tracking operation can be quickly restarted from the image of the first frame in which tracking has failed or the image of the frame immediately before the tracking has failed.

その結果、追尾が成功した画像の追尾結果を保持しつつ、追尾が失敗した画像について追尾動作を再開することができる。   As a result, it is possible to resume the tracking operation for an image that has failed to be tracked while maintaining the tracking result of the image that has been successfully tracked.

また、新たな初期画像においてテンプレートTまたは探索範囲Rを再設定することができるので、再開時の追尾動作においては以前の追尾動作における追尾の失敗を繰り返すことを防止することができる。それにより、再開された追尾動作において各画像についての追尾が成功する確率が高くなる。したがって、追尾動作の全体の実行時間が短縮される。その結果、効率よく正確な追尾結果を得ることが可能になる。   Further, since the template T or the search range R can be reset in the new initial image, it is possible to prevent the tracking failure in the previous tracking operation from being repeated in the tracking operation at the time of restart. Thereby, the probability that the tracking for each image is successful in the resumed tracking operation is increased. Therefore, the entire execution time of the tracking operation is shortened. As a result, an accurate and accurate tracking result can be obtained.

(6)他の実施の形態
(6−1)図22は、他の実施の形態に係る動画追尾装置における動画中の追尾対象の追尾処理を示すフローチャートである。本実施の形態では、図22に示すように、追尾対象の追尾処理において、図16のステップS10の後に、識別された追尾対象の位置の正確度を算出する(ステップS10a)。正確度は、例えば、識別された位置での画像データと基準画像データとの一致度である。
(6) Other Embodiments (6-1) FIG. 22 is a flowchart showing tracking processing of a tracking target in a moving image in a moving image tracking apparatus according to another embodiment. In the present embodiment, as shown in FIG. 22, in the tracking process of the tracking target, the accuracy of the identified tracking target position is calculated after step S10 of FIG. 16 (step S10a). The accuracy is, for example, the degree of coincidence between the image data at the identified position and the reference image data.

一致度は、例えば、識別された位置での画像部分を構成する複数画素の値とテンプレートTを構成する複数画素の値との一致数である。この場合、一致数が多いほど正確度が高くなる。また、一致度は、識別された位置での画像部分を構成する複数画素の値とテンプレートTを構成する複数画素の値との差分値の合計であってもよい。この場合、差分値の合計が小さいほど正確度が高くなる。さらに、一致度は、識別された位置での画像部分を構成する複数画素の値とテンプレートTを構成する複数画素の値との相関値であってもよい。この場合、相関値が1に近いほど正確度が高くなる。   The degree of coincidence is, for example, the number of coincidence between the values of a plurality of pixels constituting the image portion at the identified position and the values of the plurality of pixels constituting the template T. In this case, the greater the number of matches, the higher the accuracy. Further, the degree of coincidence may be the sum of the difference values between the values of the plurality of pixels constituting the image portion at the identified position and the values of the plurality of pixels constituting the template T. In this case, the accuracy increases as the sum of the difference values decreases. Further, the degree of coincidence may be a correlation value between a value of a plurality of pixels constituting the image portion at the identified position and a value of a plurality of pixels constituting the template T. In this case, the closer the correlation value is to 1, the higher the accuracy.

その後、制御部10は、算出された正確度と予め定められたしきい値とを比較する(ステップS10b)。正確度がしきい値以下である場合、制御部10は、追尾動作を一時停止し(ステップS10c)、ステップS18の処理に移る。一方、ステップS10bにおいて、正確度がしきい値を超えている場合、制御部10はステップS11以降の処理を続行する。   Thereafter, the control unit 10 compares the calculated accuracy with a predetermined threshold value (step S10b). When the accuracy is equal to or less than the threshold value, the control unit 10 temporarily stops the tracking operation (step S10c), and proceeds to the process of step S18. On the other hand, when the accuracy exceeds the threshold value in step S10b, the control unit 10 continues the processing from step S11.

この場合、追尾が失敗した時点で正確度がしきい値以下になることにより追尾動作が自動的に停止する。これにより、各フレームの画像の追尾対象に対する追尾結果が正確である場合には追尾が続行され、追尾結果が正確でない場合には追尾が停止される。したがって、ユーザに追尾結果の確認またはテンプレートおよび探索範囲の設定の修正を促すことができる。その結果、追尾が失敗した最初のフレームの画像または追尾が失敗した直前のフレームの画像から追尾動作を容易に再開することができる。   In this case, the tracking operation is automatically stopped when the accuracy falls below the threshold when the tracking fails. Thereby, tracking is continued when the tracking result for the tracking target of the image of each frame is accurate, and tracking is stopped when the tracking result is not accurate. Therefore, it is possible to prompt the user to confirm the tracking result or to correct the setting of the template and the search range. As a result, the tracking operation can be easily restarted from the image of the first frame in which the tracking has failed or the image of the frame immediately before the tracking has failed.

図22において、ステップS10a〜S10cの処理は、ステップS10,S11間で実行されるが、これに限定されない。ステップS10a〜S10cの処理は、ステップS10,S11間、ステップS11,S12間、ステップS12,S13間、ステップS13,S14間、ステップS14,S15間およびステップS15,S16間のいずれかで実行されてもよい。   In FIG. 22, the processing of steps S10a to S10c is executed between steps S10 and S11, but is not limited to this. The processes of steps S10a to S10c are executed between steps S10 and S11, between steps S11 and S12, between steps S12 and S13, between steps S13 and S14, between steps S14 and S15, and between steps S15 and S16. Also good.

(6−2)制御部10は、ステップS19において、追尾結果を記憶して追尾処理を終了するが、これに限定されない。ユーザが追尾結果の記憶を選択しない場合、制御部10は追尾結果を記憶せずに追尾処理を終了してもよい。   (6-2) In step S19, the control unit 10 stores the tracking result and ends the tracking process, but is not limited thereto. When the user does not select storage of the tracking result, the control unit 10 may end the tracking process without storing the tracking result.

(7)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(7) Correspondence between each component of claim and each part of embodiment The following describes an example of the correspondence between each component of the claim and each part of the embodiment. It is not limited.

画像V1〜V20が画像の例であり、画像データv1〜v20が画像データの例であり、画像処理システム100が動画追尾装置の例であり、記憶部40が記憶部の例であり、表示部20が表示部の例であり、操作部4が操作部の例であり、制御部10が制御部または処理装置の例である。テンプレートTが追尾条件および初期画像内での追尾対象の画像部分の範囲の例であり、探索範囲Rが追尾条件および各フレームの画像内で追尾対象を探索する範囲の例であり、シンボルSがシンボルの例である。逆再生ボタンTeの機能が逆再生の機能の例であり、シークバーTfが選択部の例である。   Images V1 to V20 are examples of images, image data v1 to v20 are examples of image data, image processing system 100 is an example of a moving image tracking device, storage unit 40 is an example of a storage unit, and display unit 20 is an example of a display unit, the operation unit 4 is an example of an operation unit, and the control unit 10 is an example of a control unit or a processing device. The template T is an example of the tracking condition and the range of the image portion to be tracked in the initial image, the search range R is an example of the tracking condition and the range of searching for the tracking target in the image of each frame, and the symbol S is It is an example of a symbol. The function of the reverse playback button Te is an example of the reverse playback function, and the seek bar Tf is an example of the selection unit.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の画像処理システム、画像処理方法および画像処理プログラムに有効に利用することができる。   The present invention can be effectively used for various image processing systems, image processing methods, and image processing programs.

1 本体部
2 カメラ
3 照明装置
4 操作部
5 PLC
6,8 センサ
7 波形収集装置
10 制御部
10a RAM
20 表示部
30 録画部
30A 動画データ記憶領域
30B 波形データ記憶領域
40 記憶部
50 ビデオメモリ
60 波形収集部
100 画像処理システム
BS バス
FA〜FD 動画ファイル
fi ファイル情報
i1〜i42 評価値
L 現在表示位置バー
M 物体
M1,M2 突起
rd,s1〜s20,td 位置データ
R 探索範囲
Re 基準画像データ
S シンボル
Sa,Ta 画像表示領域
Sb 波形表示領域
Sc 条件設定領域
Sc1〜Sc5 入力枠
Se 録画ボタン
Sf トリガボタン
Sg,Tc 再生ボタン
Sj ファイルボタン
Sy 追尾ボタン
T テンプレート
Td 一時停止ボタン
Te 逆再生ボタン
Tf シークバー
Tg スライダ
Th 追尾開始ボタン
Ti 追尾停止ボタン
Tj 追尾再開ボタン
Tk 終了ボタン
Tl 始点表示カーソル
Tm 終点表示カーソル
v1〜v20 画像データ
V1〜V20 画像
W 被写体
DESCRIPTION OF SYMBOLS 1 Main body part 2 Camera 3 Illumination device 4 Operation part 5 PLC
6, 8 Sensor 7 Waveform collection device 10 Control unit 10a RAM
DESCRIPTION OF SYMBOLS 20 Display part 30 Recording part 30A Movie data storage area 30B Waveform data storage area 40 Storage part 50 Video memory 60 Waveform collection part 100 Image processing system BS bus FA-FD Movie file fi File information i1-i42 Evaluation value L Current display position bar M Object M1, M2 Protrusion rd, s1 to s20, td Position data R Search range Re Reference image data S Symbol Sa, Ta Image display area Sb Waveform display area Sc Condition setting area Sc1 to Sc5 Input frame Se Record button Sf Trigger button Sg , Tc Playback button Sj File button Sy Tracking button T Template Td Pause button Te Reverse playback button Tf Seek bar Tg Slider Th Tracking start button Ti Tracking stop button Tj Tracking restart button Tk End button Tl Start point display Sol Tm end point display cursor v1~v20 image data V1~V20 image W subject

Claims (8)

複数フレームの画像により構成される動画中の追尾対象を追尾する動画追尾装置であって、
前記複数フレームの画像を表示するための複数フレームの画像データを記憶する記憶部と、
前記記憶部に記憶される各フレームの画像データに基づいて画像を表示する表示部と、
前記表示部に表示される画像内での追尾対象の追尾条件の設定および追尾対象の追尾に関する指示を行なうためにユーザにより操作される操作部と、
前記表示部に複数フレームの画像を順に表示させ、前記表示される各画像において前記操作部により設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる追尾動作を実行する制御部とを備え、
前記制御部は、前記複数フレームの画像のうち一の画像を初期画像として前記表示部に表示させ、前記操作部により前記初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合に、前記初期画像以降のフレームの画像について前記追尾動作を実行し、前記追尾動作の停止または終了後に、前記操作部により前記複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合に、前記新たな初期画像を前記表示部に表示させ、前記操作部により前記新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、前記新たな初期画像以降のフレームの画像について前記追尾動作を実行することを特徴とする動画追尾装置。
A video tracking device that tracks a tracking target in a video composed of images of a plurality of frames,
A storage unit for storing a plurality of frames of image data for displaying the plurality of frames of images;
A display unit that displays an image based on image data of each frame stored in the storage unit;
An operation unit operated by a user to set a tracking condition of a tracking target in an image displayed on the display unit and to give an instruction regarding tracking of the tracking target;
A tracking operation in which images of a plurality of frames are sequentially displayed on the display unit, a position of a tracking target is identified in the displayed image according to the tracking condition set by the operation unit, and a symbol is displayed at the identified position. A control unit to execute,
The control unit causes the display unit to display one image among the images of the plurality of frames as an initial image, and when a tracking condition is set in the initial image and the start of tracking is instructed by the operation unit. The tracking operation is performed on frames after the initial image, and after the tracking operation is stopped or ended, any one of the images of the plurality of frames is displayed as a new initial image by the operation unit. Is displayed on the display unit, the tracking condition is reset in the new initial image and the start of tracking is instructed by the operation unit, the new initial image is displayed. A moving image tracking apparatus that performs the tracking operation on an image of a frame after the initial image.
前記制御部は、前記表示部に現在表示される画像において識別された追尾対象の位置と、前記表示部に現在表示される画像よりも以前のフレームの画像において識別された追尾対象の位置とに前記シンボルをそれぞれ表示させ、前記新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、前記表示部に現在表示される画像において識別された追尾対象の位置と、前記新たな初期画像よりも以後でかつ前記表示部に現在表示される画像よりも以前のフレームの画像において識別された追尾対象の位置と、前記新たな初期画像よりも以前のフレームの画像において識別された追尾対象の位置とに前記シンボルをそれぞれ表示させることを特徴とする請求項1記載の動画追尾装置。 The control unit includes a tracking target position identified in an image currently displayed on the display unit, and a tracking target position identified in an image of a frame before the image currently displayed on the display unit. Each of the symbols is displayed, and when the tracking condition is reset in the new initial image and the start of tracking is instructed, the position of the tracking target identified in the image currently displayed on the display unit; The position of the tracking target identified in the image of the frame after the new initial image and before the image currently displayed on the display unit, and the image of the frame prior to the new initial image The moving image tracking apparatus according to claim 1, wherein the symbol is displayed at each of the tracking target positions. 前記追尾条件は、前記初期画像内での追尾対象の画像部分の範囲および各フレームの画像内で追尾対象を探索する範囲のうち少なくとも一方を含むことを特徴とする請求項1または2記載の動画追尾装置。 The moving image according to claim 1, wherein the tracking condition includes at least one of a range of an image portion to be tracked in the initial image and a range to search for a tracking target in an image of each frame. Tracking device. 前記制御部は、複数フレームの画像を追尾動作時とは逆の時間順で前記表示部に表示させる逆再生の機能を有し、
前記操作部は、前記追尾動作の停止または終了後に、前記逆再生を指示することにより前記新たな初期画像の表示を指示可能であることを特徴とする請求項1〜3のいずれかに記載の動画追尾装置。
The control unit has a reverse playback function of displaying images of a plurality of frames on the display unit in a time order opposite to that in the tracking operation,
The said operation part can instruct | indicate the display of the said new initial image by instruct | indicating the reverse reproduction after the tracking operation | movement is stopped or complete | finished. Video tracking device.
前記制御部は、前記表示部に表示させる画像を選択するための選択部を前記表示部に表示させ、
前記操作部は、前記表示部に表示された前記選択部を操作することにより前記新たな初期画像の表示を指示可能であることを特徴とする請求項1〜4のいずれかに記載の動画追尾装置。
The control unit causes the display unit to display a selection unit for selecting an image to be displayed on the display unit,
The moving image tracking according to claim 1, wherein the operation unit can instruct display of the new initial image by operating the selection unit displayed on the display unit. apparatus.
前記制御部は、前記追尾動作の実行中に各画像について追尾対象の位置の識別結果の正確度を評価し、正確度が予め定められたしきい値以下になったときに前記追尾動作を停止することを特徴とする請求項1〜5のいずれかに記載の動画追尾装置。 The control unit evaluates the accuracy of the identification result of the tracking target position for each image during execution of the tracking operation, and stops the tracking operation when the accuracy falls below a predetermined threshold value. The moving image tracking device according to any one of claims 1 to 5, wherein 複数フレームの画像により構成される動画中の追尾対象を追尾する動画追尾方法であって、
前記複数フレームの画像を表示するための複数フレームの画像データを記憶するステップと、
前記記憶された複数フレームの画像データに基づいて複数フレームの画像のうち一の画像を初期画像として表示部に表示させるステップと、
前記初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合に、前記記憶された複数フレームの画像データに基づいて前記初期画像以降のフレームの画像を前記表示部に順に表示させ、前記表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第1の追尾動作を実行するステップと、
前記第1の追尾動作の停止または終了後に、前記複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合に、前記記憶された複数フレームの画像データに基づいて前記新たな初期画像を前記表示部に表示させるステップと、
前記新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、前記記憶された複数フレームの画像データに基づいて前記新たな初期画像以降のフレームの画像を前記表示部に順に表示させ、前記表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第2の追尾動作を実行するステップとを含むことを特徴とする動画追尾方法。
A video tracking method for tracking a tracking target in a video composed of images of a plurality of frames,
Storing a plurality of frames of image data for displaying the plurality of frames of images;
Displaying one image of a plurality of frames of images as an initial image on a display unit based on the stored plurality of frames of image data;
When the tracking condition is set in the initial image and the start of tracking is instructed, the images of the frames after the initial image are sequentially displayed on the display unit based on the stored image data of the plurality of frames. Performing a first tracking operation for identifying the position of the tracking target under the tracking condition set in each of the displayed images and displaying a symbol at the identified position;
When it is instructed to display any one of the images of the plurality of frames as a new initial image after stopping or ending the first tracking operation, based on the stored image data of the plurality of frames Displaying the new initial image on the display unit,
When the tracking condition is reset in the new initial image and the start of tracking is instructed, the display unit displays images of frames after the new initial image based on the stored image data of the plurality of frames. And sequentially executing a second tracking operation for identifying the position of the tracking target under the tracking condition set in each of the displayed images and displaying a symbol at the identified position. Video tracking method.
複数フレームの画像により構成される動画中の追尾対象を追尾する追尾処理を処理装置に実行させる動画追尾プログラムあって、
前記複数フレームの画像を表示するための複数フレームの画像データを記憶する処理と、
前記記憶された複数フレームの画像データに基づいて複数フレームの画像のうち一の画像を初期画像として前記表示部に表示させる処理と、
前記初期画像内で追尾条件が設定されかつ追尾の開始が指示された場合に、前記記憶された複数フレームの画像データに基づいて前記初期画像以降のフレームの画像を前記表示部に順に表示させ、前記表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第1の追尾動作を実行する処理と、
前記第1の追尾動作の停止または終了後に、前記複数フレームの画像のうちいずれかの画像を新たな初期画像として表示することが指示された場合に、前記記憶された複数フレームの画像データに基づいて前記新たな初期画像を前記表示部に表示させる処理と、
前記新たな初期画像内で追尾条件が再設定されかつ追尾の開始が指示された場合に、前記記憶された複数フレームの画像データに基づいて前記新たな初期画像以降のフレームの画像を前記表示部に順に表示させ、前記表示される各画像において設定された追尾条件で追尾対象の位置を識別するとともに識別された位置にシンボルを表示させる第2の追尾動作を実行する処理とを、
前記処理装置に実行させることを特徴とする動画追尾プログラム。
There is a moving image tracking program for causing a processing device to execute a tracking process for tracking a tracking target in a moving image composed of a plurality of frames of images,
Storing a plurality of frames of image data for displaying the plurality of frames of images;
A process of displaying one image among a plurality of frames of images as an initial image on the display unit based on the stored plurality of frames of image data;
When the tracking condition is set in the initial image and the start of tracking is instructed, the images of the frames after the initial image are sequentially displayed on the display unit based on the stored image data of the plurality of frames. A process of performing a first tracking operation for identifying a position of a tracking target under a tracking condition set in each of the displayed images and displaying a symbol at the identified position;
When it is instructed to display any one of the images of the plurality of frames as a new initial image after stopping or ending the first tracking operation, based on the stored image data of the plurality of frames Processing to display the new initial image on the display unit,
When the tracking condition is reset in the new initial image and the start of tracking is instructed, the display unit displays images of frames after the new initial image based on the stored image data of the plurality of frames. A second tracking operation for displaying the symbols in order and identifying the position of the tracking target under the tracking condition set in each of the displayed images and displaying a symbol at the identified position;
A moving picture tracking program which is executed by the processing apparatus.
JP2010244704A 2010-10-29 2010-10-29 Video tracking device, video tracking method, and video tracking program Expired - Fee Related JP5613016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010244704A JP5613016B2 (en) 2010-10-29 2010-10-29 Video tracking device, video tracking method, and video tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010244704A JP5613016B2 (en) 2010-10-29 2010-10-29 Video tracking device, video tracking method, and video tracking program

Publications (2)

Publication Number Publication Date
JP2012099975A true JP2012099975A (en) 2012-05-24
JP5613016B2 JP5613016B2 (en) 2014-10-22

Family

ID=46391418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010244704A Expired - Fee Related JP5613016B2 (en) 2010-10-29 2010-10-29 Video tracking device, video tracking method, and video tracking program

Country Status (1)

Country Link
JP (1) JP5613016B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
JP2017139701A (en) * 2016-02-05 2017-08-10 パナソニックIpマネジメント株式会社 Tracking support device, tracking support system and tracking support method
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
CN111524159A (en) * 2019-02-01 2020-08-11 北京京东尚科信息技术有限公司 Image processing method and apparatus, storage medium, and processor
CN111832367A (en) * 2019-04-22 2020-10-27 阿里巴巴集团控股有限公司 Service processing method and device based on image recognition and electronic equipment
CN112655018A (en) * 2018-10-18 2021-04-13 国立研究开发法人科学技术振兴机构 Object tracking method, object tracking system, and object tracking program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111063A (en) * 2001-10-02 2003-04-11 Hitachi Kokusai Electric Inc Intruded object tracing method and intruded object supervisory system
JP2007274543A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing apparatus and method, program, and recording medium
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111063A (en) * 2001-10-02 2003-04-11 Hitachi Kokusai Electric Inc Intruded object tracing method and intruded object supervisory system
JP2007274543A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing apparatus and method, program, and recording medium
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11113538B2 (en) 2014-09-26 2021-09-07 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11676388B2 (en) 2014-09-26 2023-06-13 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2017139701A (en) * 2016-02-05 2017-08-10 パナソニックIpマネジメント株式会社 Tracking support device, tracking support system and tracking support method
CN112655018A (en) * 2018-10-18 2021-04-13 国立研究开发法人科学技术振兴机构 Object tracking method, object tracking system, and object tracking program
CN111524159A (en) * 2019-02-01 2020-08-11 北京京东尚科信息技术有限公司 Image processing method and apparatus, storage medium, and processor
CN111832367A (en) * 2019-04-22 2020-10-27 阿里巴巴集团控股有限公司 Service processing method and device based on image recognition and electronic equipment
CN111832367B (en) * 2019-04-22 2024-06-11 阿里巴巴集团控股有限公司 Service processing method and device based on image recognition and electronic equipment

Also Published As

Publication number Publication date
JP5613016B2 (en) 2014-10-22

Similar Documents

Publication Publication Date Title
JP5613016B2 (en) Video tracking device, video tracking method, and video tracking program
CN100364317C (en) Imaging apparatus
KR100883066B1 (en) Apparatus and method for displaying object moving path using text
RU2017128072A (en) TRACKING SUPPORT DEVICE, TRACKING SUPPORT SYSTEM AND METHOD OF SUPPORTING TRACKING
JP6135391B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
US8174584B2 (en) Image shooting apparatus and control method and program thereof
US20140105454A1 (en) Tracking apparatus
JP5094070B2 (en) Imaging apparatus, imaging method, program, and storage medium
JP5714298B2 (en) Image processing apparatus, image processing method, and image processing program
JP5653174B2 (en) Video tracking device, video tracking method, and video tracking program
TWI505113B (en) Monitoring system and related method of searching an image
US20200412938A1 (en) Imaging apparatus
JP5714297B2 (en) Image processing apparatus, image processing method, and image processing program
US9467615B2 (en) Imaging apparatus including dynamic image focus detection
JP5321237B2 (en) Imaging apparatus and imaging program
JP2013201793A (en) Imaging apparatus
US20130136413A1 (en) Playback apparatus, control method and recording medium
JP5643607B2 (en) Image processing apparatus, image processing method, and image processing program
JP2004236211A (en) Image processing system
JP4933347B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
WO2015067750A1 (en) Method and apparatus for acquiring images
JP2013138492A (en) Imaging apparatus
JP2015015573A (en) Imaging apparatus, moving image photographing method, and program
JP2011155692A (en) Imaging apparatus and its program
JP2007124178A (en) Video signal recording/regenerating device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140905

R150 Certificate of patent or registration of utility model

Ref document number: 5613016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees