JP2008086799A - Information processing apparatus and information processing program - Google Patents

Information processing apparatus and information processing program Download PDF

Info

Publication number
JP2008086799A
JP2008086799A JP2007318825A JP2007318825A JP2008086799A JP 2008086799 A JP2008086799 A JP 2008086799A JP 2007318825 A JP2007318825 A JP 2007318825A JP 2007318825 A JP2007318825 A JP 2007318825A JP 2008086799 A JP2008086799 A JP 2008086799A
Authority
JP
Japan
Prior art keywords
information
contour
extraction
data
trial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007318825A
Other languages
Japanese (ja)
Other versions
JP4666233B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Tomoyuki Otsuki
知之 大月
Hitoshi Mukai
仁志 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007318825A priority Critical patent/JP4666233B2/en
Publication of JP2008086799A publication Critical patent/JP2008086799A/en
Application granted granted Critical
Publication of JP4666233B2 publication Critical patent/JP4666233B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily enhance the throughput of processing a predetermined object to be processed. <P>SOLUTION: Accumulated information data D67 including processing technique executed on a moving image to be processed to extract an object designation area for designating an object in a moving image and technique to be an evaluation value thereof are accumulated for a plurality of users in an information accumulating part 53. Any one of technique and practice of area extraction of enlightenment object users and one included in the accumulated information data D67 are compared with each other by a presented information selection part 54. The accumulated information data D67 are selected corresponding to the comparison result from a plurality of accumulated information data by the presented information selection part 54 to present the processing technique included in the accumulated information data D67 by an information presenting part 55. Thus, the improvement of processing technique of the enlightenment objective users themselves can be accelerated by the processing technique presented to the enlightenment objective users, thereby easily enhancing the throughput of processing the predetermined object to be processed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は情報処理装置及び情報処理プログラムに関し、特に所定の処理対象に対してユーザが処理を行う場合に適用して好適なものである。   The present invention relates to an information processing apparatus and an information processing program, and is particularly suitable for application when a user performs processing on a predetermined processing target.

従来、ユーザが所定の処理対象に対して行う処理としては、野球のバッティング練習において処理対象となるボールをバットで打つという処理や、処理対象となる動画像から当該動画像の一部分の表示対象(以下、これをオブジェクトと呼ぶ)を指定するための領域を抽出する処理、さらには処理対象となる動画像からオブジェクトの輪郭を抽出する処理等のように種々のものがある。   Conventionally, as a process performed by a user on a predetermined processing target, a process of hitting a ball to be processed with a bat in baseball batting practice, or a display target of a part of the moving image from the moving image to be processed ( Hereinafter, there are various processes such as a process for extracting an area for designating an object), a process for extracting the outline of an object from a moving image to be processed, and the like.

ところでかかる処理を行う際のユーザの処理能力を向上させるには、バットでボールを打つ打法や、動画像からオブジェクトを指定するための領域(以下、これをオブジェクト指定領域と呼ぶ)を抽出する領域抽出手法、動画像からオブジェクトの輪郭を抽出する輪郭抽出手法(以下、これら打法、領域抽出手法及び輪郭抽出手法をまとめて処理手法と呼ぶ)に対して処理能力の高い指導者を探して指導を依頼するような面倒な方法が取られており、ユーザ自身の処理能力を容易には向上させ難いという問題があった。   By the way, in order to improve the processing capability of the user when performing such processing, a method of hitting a ball with a bat and an area for designating an object from a moving image (hereinafter referred to as an object designation area) are extracted. Search for instructors with high processing capabilities for region extraction methods and contour extraction methods that extract the contours of objects from moving images (hereinafter, these striking methods, region extraction methods, and contour extraction methods are collectively referred to as processing methods). A troublesome method of requesting guidance has been taken, and there has been a problem that it is difficult to easily improve the processing capability of the user himself.

本発明は以上の点を考慮してなされたもので、所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置及び情報処理プログラムを提案しようとするものである。   The present invention has been made in view of the above points, and an object of the present invention is to propose an information processing apparatus and an information processing program that can easily improve the processing capability of a process performed on a predetermined processing target.

かかる課題を解決するため本発明においては、ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する処理の処理手法となる領域抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの領域抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる領域抽出手法及び技量を特定ユーザに提示するようにした。従って、特定ユーザに提示した領域抽出手法及び技量により当該特定ユーザ自身の領域抽出手法の向上を促すことができる。   In order to solve such a problem, in the present invention, region extraction which is a processing method of processing for extracting an object designation region for designating an object in the moving image performed on the moving image to be processed by the user. Accumulated information including technique and skill as an evaluation value for the processing is accumulated in the accumulating means for a plurality of users, and one of the region extraction technique and skill of a specific user is accumulated in the accumulating means, and accumulation accumulated in the accumulating means Compare with one included in the information, select the stored information from the multiple stored information stored in the storage means by the information selection means according to the comparison result by the comparison means, and select by the information selection means by the presentation means The region extraction technique and skill included in the stored information are presented to a specific user. Therefore, improvement of the area extraction method of the specific user can be promoted by the area extraction method and skill presented to the specific user.

また本発明においては、ユーザにより処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトの輪郭を抽出する処理の処理手法となる輪郭抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの輪郭抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる輪郭抽出手法及び技量を特定ユーザに提示するようにした。従って、特定ユーザに提示した輪郭抽出手法及び技量により当該特定ユーザ自身の輪郭抽出手法の向上を促すことができる。   In the present invention, the contour extraction method that is a processing method for extracting the contour of the object in the moving image performed on the moving image to be processed by the user, and the skill that becomes the evaluation value for the processing are also obtained. The stored information is stored in the storage means for a plurality of users, and the comparison means compares either one of the contour extraction method and skill of the specific user with one included in the stored information stored in the storage means, A contour extracting method for selecting stored information from a plurality of stored information stored in the storing means by the selecting means according to a comparison result by the comparing means, and including the outline information included in the stored information selected by the information selecting means by the presenting means, and The skill is presented to a specific user. Therefore, improvement of the contour extraction method of the specific user can be promoted by the contour extraction method and skill presented to the specific user.

本発明によれば、ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する処理の処理手法となる領域抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの領域抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる領域抽出手法及び技量を特定ユーザに提示するようにしたことにより、特定ユーザに提示した処理手法により当該特定ユーザ自身の処理手法の向上を促すことができ、かくして所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置及び情報処理プログラムを実現することができる。また本発明によれば、ユーザにより処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトの輪郭を抽出する処理の処理手法となる輪郭抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの輪郭抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる輪郭抽出手法及び技量を特定ユーザに提示するようにしたことにより、特定ユーザに提示した輪郭抽出手法及び技量により当該特定ユーザ自身の輪郭抽出手法の向上を促すことができ、かくして所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置及び情報処理プログラムを実現することができる。   According to the present invention, an area extraction method serving as a processing technique for extracting an object designation area for designating an object in a moving image performed on a moving image to be processed by a user, and the process Accumulated information including skill as an evaluation value is accumulated in the accumulating means for a plurality of users, and is included in the accumulated information accumulated in the accumulating means and either one of the region extraction method and skill of a specific user by the comparing means. Is selected from the plurality of stored information stored in the storage means by the information selection means according to the comparison result by the comparison means, and the storage information selected by the information selection means by the presentation means is selected. By presenting the region extraction method and skill to be included to a specific user, the processing method presented to the specific user can be processed by the specific user himself / herself. Can prompt improvement techniques, thus it is possible to realize an information processing apparatus and information processing program may easily improve the processing capacity of the processing performed for a given processed. Further, according to the present invention, a contour extraction method that is a processing method for extracting a contour of an object in the moving image performed on the moving image to be processed by the user, and a skill that becomes an evaluation value for the processing The storage means for storing a plurality of users in the storage means, comparing one of the contour extraction method and skill of the specific user by the comparison means with one included in the storage information stored in the storage means, Contour extraction method for selecting stored information from a plurality of stored information stored in the storing means by the information selecting means according to the comparison result by the comparing means and including the stored information selected by the information selecting means by the presenting means And by presenting the skill to the specific user, the contour extraction method presented to the specific user and the contour extraction method of the specific user based on the skill Can prompt on, thus it is possible to realize an information processing apparatus and information processing program may easily improve the processing capacity of the processing performed for a given processed.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)第1の実施の形態
図1において、1は全体として第1の実施の形態による情報処理装置を示し、個々のユーザによって行われた野球のバッティング練習(処理対象となるボールをバットで打つという打法)の様子をそれぞれ1台のビデオカメラ(図示せず)で撮像して生成されたバッティング動画像データD1を取り込む毎に、当該取り込んだバッティング動画像データD1を蓄積する。
(1) First Embodiment In FIG. 1, reference numeral 1 denotes an information processing apparatus according to the first embodiment as a whole, and baseball batting practice performed by individual users (the ball to be processed is a bat. Each time the batting moving image data D1 generated by capturing an image of a hitting method) is captured by one video camera (not shown), the acquired batting moving image data D1 is accumulated.

また情報処理装置1は、バッティング動画像データD1を取り込む毎に、すでに蓄積しているバッティング動画像データD1から、その時点にバッティング練習を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の打法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われるバッティング動画像データD1を選択して提示することにより、啓発対象ユーザに自分の打法における改善箇所の啓発を促すようになされている。   Further, every time the information processing apparatus 1 takes in the batting moving image data D1, the user who has performed batting practice at that time from the already accumulated batting moving image data D1 (hereinafter referred to as an enlightened user). By selecting and presenting batting moving image data D1 that is thought to be helpful for improving the hitting method (that is, the processing method for the processing target of the enlightenment target user), It is made to encourage enlightenment.

この場合、情報処理装置1は、情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5及び情報提示部6から構成されており、当該情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5、情報提示部6において啓発対象ユーザに自分の打法の改善箇所を啓発させるために実行する各種処理を第1の啓発促進プログラムに従ってソフトウェア的に実現する。   In this case, the information processing apparatus 1 includes an information input unit 2, a processing tendency information extraction unit 3, an information storage unit 4, a presentation information selection unit 5, and an information presentation unit 6. Software according to the first enlightenment promotion program that performs various processes executed in the information extraction unit 3, the information storage unit 4, the presentation information selection unit 5, and the information presentation unit 6 Realize.

すなわち情報処理装置1は、図2に示すように第1の啓発促進プログラムに従って第1の啓発促進処理手順RT1の開始ステップから入り、続くステップSP1へ移る。   That is, the information processing apparatus 1 enters from the start step of the first enlightenment promotion processing procedure RT1 according to the first enlightenment promotion program as shown in FIG. 2, and proceeds to the subsequent step SP1.

ステップSP1において情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込む。   In step SP <b> 1, the information processing apparatus 1 takes in batting moving image data D <b> 1 generated by capturing an image of the user's enlightenment user's batting practice to the information input unit 2.

この際、情報処理装置1は、図3に示すように、情報入力部2に所定の操作部(図示せず)を介して啓発対象ユーザの氏名及び当該啓発対象ユーザの打法に対する評価値となる打率(例えば野球のペナントレース中におけるその時点までの啓発対象ユーザの打率(成績))のユーザ情報S1が入力される。   At this time, as shown in FIG. 3, the information processing apparatus 1 uses the information input unit 2 via the predetermined operation unit (not shown) and the evaluation target user's name and the evaluation value for the enlightenment target user's batting method. The user information S1 of the batting rate (for example, batting rate (result) of the enlightenment user up to that point in the baseball pennant race) is input.

これにより情報処理装置1は、情報入力部2で取得した啓発対象ユーザの氏名及び打率とバッティング動画像データD1とからなる入力情報を当該情報入力部2から図4に示す入力情報データD2として処理傾向情報抽出部3に送出して、続くステップSP2へ移る。   Thereby, the information processing apparatus 1 processes the input information including the name and batting rate of the user to be enlightened acquired by the information input unit 2 and the batting moving image data D1 from the information input unit 2 as the input information data D2 illustrated in FIG. The data is sent to the trend information extraction unit 3, and the process proceeds to the subsequent step SP2.

ここで図5に示すように、バッティング動画像データD1に基づくバッティング動画像10は、時間的に連続する複数のフレーム画像10A、……、10N、……により啓発対象ユーザの画像(以下、これをユーザ画像と呼ぶ)11がバッターボックス内で構えた状態からバット12でボール13を打ち終わるまでの様子を2次元平面的に展開している。   Here, as shown in FIG. 5, the batting moving image 10 based on the batting moving image data D1 is an image of a user to be enlightened (hereinafter, this is represented by a plurality of temporally continuous frame images 10A,..., 10N,. (Referred to as a user image) from the state in which 11 is held in the batter box until the ball 13 is hit with the bat 12 in a two-dimensional plane.

そして、かかるバッティング動画像10は、各フレーム画像10A、……、10N、……において、ユーザ画像11の腰、肩、肘、膝等の複数の関節や頭頂部及び両手、ボール13、バット12のグリップ12A及び先端12Bにそれぞれ所定の色の丸印等でなるマーク14が予め付けられている。   The batting moving image 10 includes a plurality of joints such as a waist, a shoulder, an elbow, and a knee, a top of the head and both hands, a ball 13 and a bat 12 in each frame image 10A,..., 10N,. Each of the grips 12A and the tip 12B is preliminarily provided with a mark 14 made of a predetermined color circle or the like.

従ってステップSP2において情報処理装置1は、処理傾向情報抽出部3により、入力情報データD2に含まれるバッティング動画像データD1に対して所定の画像処理を施してバッティング動画像10における各マーク14の位置の変化を認識し、これによりユーザ画像11がバッターボックス内で構えた状態からバット12でボール13を打つ瞬間までの腰及び肩の回転角度を検出する。   Therefore, in step SP2, the information processing apparatus 1 performs predetermined image processing on the batting moving image data D1 included in the input information data D2 by the processing tendency information extracting unit 3, and the position of each mark 14 in the batting moving image 10. Thus, the rotation angle of the waist and shoulder from the state in which the user image 11 is held in the batter box to the moment of hitting the ball 13 with the bat 12 is detected.

また情報処理装置1は、図6に示すように処理傾向情報抽出部3により、画像処理によって、バッティング動画像10を構成する複数のフレーム画像10A、……、10N、……のうちバット12でボール13を打つ瞬間を捉えたフレーム画像(以下、これを特にインパクト時フレーム画像と呼ぶ)10Nを検出し、当該検出したインパクト時フレーム画像10Nにおいて、ユーザ画像11の両足のつま先を結ぶ基準仮想直線SKL1(この基準仮想直線SKL1は地面に相当する)を引く。   Further, as shown in FIG. 6, the information processing apparatus 1 uses the processing tendency information extraction unit 3 to process the batting moving image 10 with a bat 12 among a plurality of frame images 10A,..., 10N,. A frame image 10N that captures the moment of hitting the ball 13 (hereinafter referred to as a frame image at impact) 10N is detected, and a reference virtual straight line that connects the toes of both feet of the user image 11 in the detected frame image 10N at impact. Draw SKL1 (this reference virtual straight line SKL1 corresponds to the ground).

そして情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でボール13上のマーク14Aを通るコース検出用仮想直線CKL1を引き、当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1(すなわち基準仮想直線SKL1及びコース検出用仮想直線CKL1の双方と直交する垂線SL1に沿った当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間(すなわちインパクトの瞬間)における当該ボールの地面からの高さ(以下、これをボールコースと呼ぶ)として検出する。   Then, the information processing apparatus 1 draws the course detection virtual straight line CKL1 passing through the mark 14A on the ball 13 in parallel with the reference virtual straight line SKL1 in the impact-time frame image 10N by the processing tendency information extracting unit 3, and the reference virtual straight line SKL1. And the shortest distance D1 between the course detection virtual straight line CKL1 (that is, the distance between the reference virtual straight line SKL1 and the course detection virtual straight line CKL1 along the perpendicular SL1 perpendicular to both the reference virtual straight line SKL1 and the course detection virtual straight line CKL1). ) Is detected as the height of the ball from the ground (hereinafter referred to as a ball course) at the moment when the enlightenment user actually hits the ball with the bat (that is, the moment of impact).

これに加えて情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でバット12のグリップ12A上のマーク14Bを通る第1の高低差検出用仮想直線WKL1と、当該基準仮想直線SKL1と並行でバット12の先端12B上のマーク14Cを通る第2の高低差検出用仮想直線WKL2とを引き、当該第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2(すなわち第1及び第2の高低差検出用仮想直線WKL1及びWKL2の双方と直交する垂線SL2に沿った当該第1及び第2の高低差検出用仮想基準WKL1及びWKL2間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間における当該バットのグリップと先端との高低差(以下、これをバット高低差と呼ぶ)として検出する。   In addition, the information processing apparatus 1 causes the processing tendency information extraction unit 3 to perform a first height difference detection virtual that passes through the mark 14B on the grip 12A of the bat 12 in parallel with the reference virtual straight line SKL1 in the impact frame image 10N. A straight line WKL1 and a second vertical difference detection virtual line WKL2 passing through the mark 14C on the tip 12B of the bat 12 in parallel with the reference virtual straight line SKL1 are drawn, and the first and second vertical difference detection virtual lines are drawn. The shortest distance D2 between WKL1 and WKL2 (that is, the first and second height difference detection virtual references WKL1 and the second height difference detection virtual reference line WKL1 perpendicular to both the first and second height difference detection virtual lines WKL1 and WKL2) The distance between WKL2) is the difference in height between the grip and tip of the bat at the moment when the enlightened user actually hits the ball with the bat. Hereinafter, it detects this as is called butt height difference).

このようにして情報処理装置1は、図7に示すように処理傾向情報抽出部3により、バッティング動画像10から啓発対象ユーザがバッターボックス内で構えた状態からバットでボールを打つ瞬間までの腰及び肩の回転角度と、ボールコースと、バット高低差とを検出すると、これらを啓発対象ユーザがバットでボールをどのように打っているかを表す処理傾向情報とする。   In this way, the information processing apparatus 1 uses the processing tendency information extraction unit 3 to perform a hip from the state in which the enlightenment target user holds the batter box in the batter box to the moment of hitting the ball with the bat, as shown in FIG. If the rotation angle of the shoulder, the ball course, and the bat height difference are detected, these are set as processing tendency information indicating how the enlightening user hits the ball with the bat.

そして情報処理装置1は、処理傾向情報抽出部3により、バッティング動画像10から抽出した処理傾向情報を処理傾向情報データD3とし、当該処理傾向情報データD3及び入力情報データD2同士を対応付けて蓄積情報データD4として情報蓄積部4に送出すると共に、その処理傾向情報データD3をそのまま提示情報選択部5に送出した後、続くステップSP3及びステップSP4へ移る。   Then, the information processing apparatus 1 stores the processing trend information extracted from the batting moving image 10 by the processing trend information extraction unit 3 as the processing trend information data D3, and stores the processing trend information data D3 and the input information data D2 in association with each other. The information is sent to the information storage unit 4 as information data D4, and the processing tendency information data D3 is sent to the presentation information selection unit 5 as it is, and then the process proceeds to subsequent steps SP3 and SP4.

ステップSP3において情報処理装置1は、情報蓄積部4により、蓄積情報データD4を例えば図8に示すように入力情報データD2同士と処理傾向情報データD3同士とにまとめて記憶してステップSP5へ移る。   In step SP3, the information processing apparatus 1 stores the stored information data D4 together with the input information data D2 and the processing trend information data D3 as shown in FIG. 8, for example, by the information storage unit 4, and proceeds to step SP5. .

またステップSP4において情報処理装置1は、ステップSP3の処理と並行して提示情報選択部5により、処理傾向情報データD3に含まれるボールコース(以下、これを比較用基準ボールコースと呼ぶ)及びバット高低差(以下、これを比較用基準バット高低差と呼ぶ)の値と、情報蓄積部4においてステップSP3で記憶した啓発対象ユーザの蓄積情報データD4を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これらを特に過去蓄積情報データと呼ぶ)D4に処理傾向情報データD3として含まれるボールコース(以下、これを過去ボールコースと呼ぶ)及びバット高低差(以下、これを過去バット高低差と呼ぶ)の値とを比較する。   In step SP4, the information processing apparatus 1 causes the presentation information selection unit 5 to execute a ball course (hereinafter referred to as a reference ball course for comparison) and a bat which are included in the processing tendency information data D3 in parallel with the process in step SP3. Except for the value of the height difference (hereinafter referred to as a reference bat height difference for comparison) and the accumulated information data D4 of the enlightenment user stored in step SP3 in the information accumulation unit 4, all other information already accumulated A ball course (hereinafter referred to as past ball course) and a bat height difference (hereinafter referred to as past bat) included in the accumulated information data (hereinafter referred to as past accumulated information data) D4 as the processing tendency information data D3. Compared with the value of the height difference).

これにより情報処理装置1は、図9に示すように提示情報選択部5により、過去蓄積情報データD4の中から、比較用基準ボールコースの値(図6について上述したインパクト時フレーム画像10Nにおける基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1の値)を中心とした所定のコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ比較用基準バット高低差の値(図6について上述したインパクト時フレーム画像10Nにおける第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2の値)を中心とした所定の高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。   As a result, the information processing apparatus 1 causes the presentation information selection unit 5 to select the reference ball course value for comparison (the reference in the frame image 10N at impact described above with reference to FIG. 6) from the past accumulated information data D4 as shown in FIG. Value of the reference ball bat height difference for comparison, including past ball course information indicating a value within a predetermined course threshold range SH1 centering on the virtual straight line SKL1 and the course detection virtual straight line CKL1). A value within a predetermined height difference threshold range SH2 centered on (the value of the shortest distance D2 between the first and second height difference virtual lines WKL1 and WKL2 in the impact-time frame image 10N described above with reference to FIG. 6). The past accumulated information data D4 including the past bat height difference information shown is selected.

因みに、図9に示す一対のハッチングの入った丸印D1及びD2は、啓発対象ユーザに対する処理傾向情報である比較用基準ボールコースの値及び比較用基準バット高低差の値を示し、他の一対の三角印や四角印等はそれぞれ1つの過去蓄積情報データD4に処理傾向情報として含まれる過去ボールコースの値及び過去バット高低差の値を示す。   Incidentally, a pair of hatched circles D1 and D2 shown in FIG. 9 indicate the value of the reference ball course for comparison and the value of the difference in reference bat height for comparison, which are processing tendency information for the enlightenment target user. Each of the triangle mark, square mark, and the like indicates a past ball course value and a past bat height difference value included as processing tendency information in one past accumulated information data D4.

次いで情報処理装置1は、提示情報選択部5により、比較用基準ボールコースの値及び比較用基準バット高低差の値を用いて選択した過去蓄積情報データD4の中から、当該過去蓄積情報データD4に含まれる打率の情報同士を比較することにより、最も良い打率(すなわち最も高い評価値)を入力情報データD2の一部として含む過去蓄積情報データD4を選択する。   Next, the information processing apparatus 1 uses the presentation information selection unit 5 to select the past accumulated information data D4 from the past accumulated information data D4 selected using the comparison reference ball course value and the comparison reference bat height difference value. The past accumulated information data D4 including the best batting rate (that is, the highest evaluation value) as a part of the input information data D2 is selected by comparing the batting information included in.

このようにして情報処理装置1は、提示情報選択部5により図10に示すように、情報蓄積部4にすでに蓄積していた全ての過去蓄積情報データD4の中から、啓発対象ユーザの打法に対する処理傾向情報の比較用基準ボールコース及び比較用基準バット高低差を限定基準として用いて当該啓発対象ユーザの打法に類似する打法でバッティング練習を行ったユーザの過去蓄積情報データD4を選択した後(すなわち選択対象の過去蓄積情報データD4の数を限定した後)、当該選択した過去蓄積情報データD4の中からこれらに含まれる打率を選定基準として用いて打率の最も良いユーザの過去蓄積情報データD4を最終的に選択する。   In this way, the information processing apparatus 1 uses the presentation information selection unit 5 to select the enlightenment user's batting method from all the past stored information data D4 that has already been stored in the information storage unit 4, as shown in FIG. The past accumulated information data D4 of the user who practiced batting with a batting method similar to the batting method of the enlightenment target user is selected using the reference ball course for comparison of processing tendency information and the reference batting height difference for comparison as the limiting criteria. (That is, after limiting the number of past accumulation information data D4 to be selected), the past accumulation of the user with the best batting ratio using the batting average included in the selected past accumulation information data D4 as a selection criterion. Information data D4 is finally selected.

これにより情報処理装置1は、図11示すように提示情報選択部5により、情報蓄積部4から、最終的に選択した過去蓄積情報データD4に入力情報データD2として含まれるバッティング動画像データD1及び打率の情報を提示情報データD5として読み出すと共に、当該読み出した提示情報データD5を情報提示部6に送出してステップSP5へ移る。   As a result, the information processing apparatus 1 causes the presentation information selection unit 5 to perform the batting moving image data D1 included as the input information data D2 in the past storage information data D4 finally selected from the information storage unit 4 as shown in FIG. The batting information is read as presentation information data D5, and the read presentation information data D5 is sent to the information presentation unit 6 and the process proceeds to step SP5.

ステップSP5において情報処理装置1は、情報提示部6により提示情報データD5に基づくバッティング動画像及び打率の情報を当該情報提示部6に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示した後、ステップSP6へ移って第1の啓発促進処理手順RT1を終了する。   In step SP5, the information processing apparatus 1 outputs the batting moving image and batting information based on the presentation information data D5 by the information presentation unit 6 via a monitor and a speaker (not shown) provided in the information presentation unit 6. After presenting to the enlightenment target user, the process proceeds to step SP6, and the first enlightenment promotion processing procedure RT1 is terminated.

このようにして情報処理装置1は、啓発対象ユーザに例えば打法が似ているものの、当該啓発対象ユーザよりも打率の良い他のユーザのバッティング動画像を再生して提示することにより、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を啓発対象ユーザの打法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの打法に真似て改善させ得るようになされている。   In this way, the information processing apparatus 1 reproduces and presents a batting moving image of another user whose batting rate is similar to that of the enlightenment target user, although the batting method is similar to that of the enlightenment target user. It is made to be able to find a different part between the target user's batting method and another user's batting method as an improved part in the enlightenment target user's batting method, and thus improve the imitated part imitating the other user's batting method. Yes.

因みに第1の実施の形態の場合、情報処理装置1は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C1が入力されることによりこれを情報入力部2に取り込むと、当該追加命令C1を情報入力部2から処理傾向情報抽出部3を介して提示情報選択部5に送出する。   Incidentally, in the case of the first embodiment, the information processing apparatus 1 receives the presentation information addition command C1 via a predetermined operation unit in a state where the presentation information is presented to the enlightenment target user. Is input to the information input unit 2, the additional command C <b> 1 is sent from the information input unit 2 to the presentation information selection unit 5 via the processing trend information extraction unit 3.

そして情報処理装置1は、提示情報選択部5により情報蓄積部4から、最終的に選択した過去蓄積情報データD4に処理傾向情報データD3として含まれる腰及び肩の回転角度の情報を読み出し、当該読み出した腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報データD6として情報提示部6に送出する。   Then, the information processing apparatus 1 reads out information on the rotation angles of the waist and shoulders included as the processing tendency information data D3 in the past storage information data D4 finally selected from the information storage unit 4 by the presentation information selection unit 5, The read information on the rotation angle of the waist and shoulder is sent to the information presentation unit 6 as additional presentation information data D6 together with information on the rotation angle of the waist and shoulder included in the processing tendency information data D3 of the enlightenment target user.

これにより情報処理装置1は、情報提示部6により、追加提示情報データD6に基づく腰及び肩の回転角度の情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の打法と、他のユーザの打法との異なる箇所をバッティング動画像のみならずに腰や肩の回転角度の数値としての違いからも見つけさせることができるようになされている。   Thereby, the information processing apparatus 1 outputs the information on the rotation angle of the waist and the shoulder based on the additional presentation information data D6 through the monitor and the speaker by the information presentation unit 6 and presents the information to the user to be enlightened, and thus the user to be enlightened. In addition, it is possible to find different portions between the hitting method of the user and the hitting method of other users not only from the batting moving image but also from the difference in the numerical values of the rotation angles of the waist and the shoulder.

以上の構成において、情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込み、この際、情報入力部2に入力された啓発対象ユーザの打率の情報と共に入力情報データD2とする。   In the above configuration, the information processing apparatus 1 takes in the batting moving image data D1 generated by capturing an image of the user's enlightenment user's batting practice externally, and inputs the information to the information input unit 2 at this time. It is set as input information data D2 together with the information on the batting average of the enlightened user.

そして情報処理装置1は、バッティング動画像データD1に基づくバッティング動画像10から啓発対象ユーザの打法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD3をバッティング動画像データD1と共に蓄積情報データD4として情報蓄積部4に記憶する。   Then, the information processing apparatus 1 extracts processing tendency information for the enlightening target user's batting method from the batting moving image 10 based on the batting moving image data D1, and processes the processing tendency information data D3 including the extracted processing tendency information. The information is stored in the information storage unit 4 as the stored information data D4 together with the data D1.

このとき情報処理装置1は、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択する。   At this time, the information processing apparatus 1 compares the processing trend information data D3 of the enlightenment target user with the processing trend information data D3 included in the past storage information data D4 already stored in the information storage unit 4 to determine the past From the accumulated information data D4, the past accumulated information data D4 including the batting moving image data D1 generated by imaging another user's batting method similar to the enlightenment target user's batting method is selected.

次いで情報処理装置1は、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、その選択した過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにした。   Next, the information processing apparatus 1 compares the batting information included in the selected past accumulated information data D4, finally selects the past accumulated information data D4 of the user having the best batting rate, and the selected past accumulated The batting moving image based on the batting moving image data D1 included in the information data D4 is presented to the enlightenment target user as the presentation information.

従ってこの情報処理装置1は、処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の打法における改善箇所の啓発を促して、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。   Accordingly, the information processing apparatus 1 does not particularly require a leader with excellent processing capability, and encourages the enlightening target user to enlighten the improvement location in his own striking method using the presented information, and the enlightening target user's striking method. It is possible to make the user to be enlightened to find an improved part in his own batting method and to improve the imitated part by imitating the other user's batting method. .

また情報処理装置1は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C1が入力されると、これに応じて、最終的に選択した過去蓄積情報データD4に処理傾向情報として含まれる腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報として啓発対象ユーザに提示するようにした。   In addition, when the presentation information addition instruction C1 is input while presenting the presentation information to the enlightenment target user, the information processing apparatus 1 processes the past accumulated information data D4 that is finally selected in response thereto. The information on the hip and shoulder rotation angles included as the trend information is presented to the enlightenment target user as additional presentation information together with the information on the hip and shoulder rotation angles included in the processing trend information data D3 of the enlightenment target user.

従って情報処理装置1は、追加提示情報によっても啓発対象ユーザに自分の打法における改善箇所の啓発を促し、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を、バッティング動画像を目視させて見つけさせることに加えて腰や肩の回転角度の数値としての違いとしても啓発対象ユーザに自分の打法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。   Therefore, the information processing apparatus 1 also encourages the enlightenment target user to enlighten the improvement location in his / her batting method even by the additional presentation information, and shows a different location between the enlightenment target user's batting method and another user's batting method. In addition to letting the image be found visually, the difference in the numerical value of the rotation angle of the waist and shoulders allows the user to be enlightened to accurately find it as an improvement location in his own striking method, and other improvements can be found It can be improved by imitating the user's typing method.

以上の構成によれば、啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像10と当該啓発対象ユーザの打率の情報とを、そのバッティング動画像10から抽出した啓発対象ユーザの打法に対する処理傾向情報と共に蓄積情報データD4として情報蓄積部4に記憶すると共に、当該啓発対象ユーザの打法に対する処理傾向情報と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報とを比較して当該過去蓄積情報データD4の中から啓発対象ユーザの打法と類似する他のユーザの打法をバッティング動画像として含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の打法における改善箇所の啓発を促して当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの打法に真似て改善させることができ、かくして処理対象となるボールを打つという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。   According to the above configuration, the enlightenment user extracted from the batting moving image 10 includes the batting moving image 10 generated by imaging the enlightening target user's batting practice and the batting rate information of the enlightenment target user. The stored information data D4 is stored in the information storage unit 4 together with the processing trend information for the batting method, and the processing trend information for the enlightenment target user's batting method and the past accumulated information data D4 already stored in the information storage unit 4 After comparing the processing trend information included and selecting the past stored information data D4 including the batting method of another user similar to the enlightenment target user's batting method as the batting moving image from the past accumulated information data D4, By comparing the batting information included in the selected past accumulated information data D4, the past accumulated information data of the user having the best batting ratio is compared. Data D4 is finally selected, and the batting moving image included in the finally selected past accumulated information data D4 is presented to the enlightenment target user as the presentation information. Encourage enlightenment of improvement points in the hitting method of the user and make the target user to find the difference between the hitting method of the user targeted for enlightenment and the hitting method of other users as an improvement point in the own hitting method Thus, it is possible to realize an information processing apparatus that can imitate the improved portion by imitating another user's hitting method and thus easily improve the processing capability of hitting a ball to be processed.

なお上述した第1の実施の形態においては、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択し、当該選択した1又は複数の過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。   In the first embodiment described above, the processing tendency information data D3 of the enlightenment target user is compared with the processing tendency information data D3 included in the past accumulation information data D4 already accumulated in the information accumulation unit 4. After selecting past stored information data D4 including batting moving image data D1 generated by imaging another user's hitting method similar to the enlightenment target user's hitting method from the past stored information data D4 As described above, the batting information included in the selected past accumulated information data D4 is compared, and the past accumulated information data D4 of the user having the best batting rate is finally selected. Not limited to this, the processing trend information data D3 of the enlightenment target user and the processing trend information included in the past accumulated information data D4 already accumulated in the information accumulation unit 4 Past accumulated information including batting moving image data D1 generated by imaging another user's batting method similar to the enlightenment user's batting method from the past accumulated information data D4 by comparing with the data D3 The data D4 may be selected and a batting moving image based on the batting moving image data D1 included in the selected one or more past accumulated information data D4 may be presented to the enlightenment target user as the presentation information.

このようにすれば、啓発対象ユーザに打率の異なる複数のユーザのバッティング動画像を順次提示情報として提示することができるため、上述した第1の実施の形態の場合よりも、啓発対象ユーザに自分の打法における改善箇所を更に多く見つけさせることができる。   In this way, batting video images of a plurality of users having different batting rates can be sequentially presented as the presentation information to the enlightenment target user, so that the enlightenment target user himself / herself is more than the case of the first embodiment described above. It is possible to find more improvements in the hitting method.

また啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較して複数の過去蓄積情報データD4の中から最終的な過去蓄積情報データD4を選択することにより、上述した第1の実施の形態に比べて選択時の処理負荷を低減させることもできる。   Further, the processing trend information data D3 of the enlightenment target user and the processing trend information data D3 included in the past storage information data D4 already stored in the information storage unit 4 are compared, and a plurality of past storage information data D4 are compared. By selecting the final past accumulation information data D4, it is possible to reduce the processing load at the time of selection as compared with the first embodiment described above.

また上述した第1の実施の形態においては、啓発対象ユーザに他のユーザのバッティング動画像を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD4に啓発対象ユーザの過去の蓄積情報データD4が含まれており、当該啓発対象ユーザの過去の蓄積情報データD4を選択したときには、その蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の打法よりも過去の打法の方が打率が良いと、現在の打法における改善箇所を過去の打率の良かったときの打法と比較させて容易に見つけさせることができる。   In the first embodiment described above, the case where the user's enlightenment target user's batting moving image is presented as the presentation information has been described. However, the present invention is not limited to this, and the past accumulated information data D4 includes past accumulated information data D4 of the enlightenment target user. When the past accumulated information data D4 of the enlightenment target user is selected, batting based on the batting moving image data D1 included in the accumulated information data D4 A moving image may be presented to the enlightenment target user as presentation information. In this case, for example, if the batting rate of the past batting method is better than the current batting method of the enlightenment target user, the improvement point in the current batting method is compared with the batting method when the past batting rate was good. It can be easily found.

さらに上述した第1の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD4を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD4を除いた他の過去蓄積情報データD4を用いるようにしても良い。   Further, in the above-described first embodiment, the case where all the past accumulated information data D4 is used when selecting the presentation information to be presented to the enlightenment target user has been described. However, the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D4 used for the past presentation is selected based on the presentation history. Other past accumulated information data D4 excluded may be used.

このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で打法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD4をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。   In this way, it is possible to prevent the presentation information previously presented to the enlightenment target user from being presented again, and to present new presentation information, thereby enabling the enlightenment target user to improve the location in the striking method from a new viewpoint. Encourage enlightenment. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D4 used for presenting the presentation information is not used for the selection of the subsequent presentation information regardless of the user to be presented. Such processing can also be realized by forcing restrictions.

さらに上述した第1の実施の形態においては、図10について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図12に示すような種々の選択条件をいずれか1つ、又は図12に示す種々の選択情報と図10について上述した選択条件とを合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。   Furthermore, in the first embodiment described above, the case where presentation information is selected using the selection conditions described above with reference to FIG. 10 has been described. However, the present invention is not limited to this, and as shown in FIG. One of various selection conditions, or various selection information shown in FIG. 12 and the selection conditions described above with reference to FIG. 10 are combined to selectively use one or more selection conditions to select presentation information. May be.

ここで、図12に示す種々の選択条件について詳述すると、情報処理装置1は、まず第1の選択条件を用いる場合、提示情報選択部5により、比較用基準ボールコースの値と、全ての過去蓄積情報データD4に含まれる過去ボールコースの値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4の中から当該過去蓄積情報データD4に含まれる打率の情報同士を比較して最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。   Here, the various selection conditions shown in FIG. 12 will be described in detail. When using the first selection condition, the information processing apparatus 1 first determines the value of the reference ball course for comparison and all of the values by the presentation information selection unit 5. After selecting the past accumulated information data D4 including the past ball course information indicating the value in the course threshold range SH1 by comparing with the past ball course value included in the past accumulated information data D4, the selected past accumulated The past storage information data finally selected by comparing past batting information included in the past accumulation information data D4 from the information data D4 and finally selecting the past accumulation information data D4 including the best batting rate. The batting moving image included in D4 is presented to the enlightenment target user.

この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打った複数の打法の中から、打率の最も良い打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。   In this case, the information processing apparatus 1 presents the batting method having the best batting rate to the enlightening target user from among a plurality of hitting methods in which a ball of a ball course that is substantially the same as the ball hit by the enlightening target user is presented. It is possible to enlighten the user to be enlightened about the improvement points in his own batting method.

また情報処理装置1は、第2の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる打率(以下、これを過去打率と呼ぶ)の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。   In addition, when using the second selection condition, the information processing apparatus 1 uses the presentation information selection unit 5 to store the reference ball course value for comparison included in the processing tendency information data D3 of the enlightenment target user and the information storage unit 4. Comparing the values of past ball courses included in the accumulated past accumulated information data D4 and comparing information of batting rates (hereinafter referred to as past batting rates) included in the past accumulated information data D4. The past accumulated information data D4 including the past ball course information including the past ball course information indicating the values in the course threshold range SH1 and including a value equal to or larger than a predetermined threshold set in advance is selected.

そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4に含まれる過去バット高低差の値と、比較用基準バット高低差の値とを比較することにより、当該選択した過去蓄積情報データD4の中から高低差閾値範囲SH2外の値を示し、かつ比較用基準バット高低差の値との違いが最大である過去バット高低差の情報を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。   Then, the information processing apparatus 1 uses the presentation information selection unit 5 to compare the value of the past bat height difference included in the selected past accumulated information data D4 with the value of the reference bat height difference for comparison. Past accumulated information data D4 including past bat height difference information that indicates a value outside the height difference threshold range SH2 from the past accumulated information data D4 and has the largest difference from the reference bat height difference value for comparison. Finally, the batting moving image included in the past selected information data D4 finally selected is presented to the enlightenment target user.

この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から、バットの振り方が最も異なる打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。   In this case, the information processing apparatus 1 enlightens a striking method with the most different bat swinging method from among a plurality of striking methods that hit a ball of the same ball course as the ball hit by the enlightenment target user and have a certain hit rate. It can be presented to the target user, and the enlightenment target user can be enlightened about the improvement points in his batting method.

さらに情報処理装置1は、第3の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる過去打率の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。   Furthermore, when using the third selection condition, the information processing apparatus 1 uses the presentation information selection unit 5 to store the reference ball course value for comparison included in the processing tendency information data D3 of the enlightenment target user and the information storage unit 4. A value in the course threshold range SH1 is compared by comparing the past ball course value included in the accumulated past accumulated information data D4 and comparing the past hit rate information included in the past accumulated information data D4. The past accumulated information data D4 including the past ball course information to be displayed and including the past batting average having a value equal to or larger than a predetermined threshold set in advance is selected.

そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。   Then, the information processing apparatus 1 finally selects, for example, one past accumulated information data D4 at random from the selected past accumulated information data D4 by the presentation information selection unit 5, and the past past selected The batting moving image included in the accumulated information data D4 is presented to the enlightenment target user.

この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所をある程度偶然性に期待して啓発させることができる。   In this case, the information processing apparatus 1 hits the enlightenment target user with a batting method that is randomly selected from a plurality of batting methods that hit a ball of almost the same ball course as the enlightenment target user. By presenting, it is possible to enlighten the enlightened user in anticipation to some degree of chance of an improvement in his batting method.

さらに情報処理装置1は、第4の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース及び比較用基準バット高低差の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース及び過去バット高低差の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。   Furthermore, when using the fourth selection condition, the information processing apparatus 1 uses the presentation information selection unit 5 to compare the reference ball course for comparison and the reference bat height difference value included in the processing tendency information data D3 of the enlightenment target user. The past ball course information indicating the value within the course threshold range SH1 by comparing the past ball course and the past bat height difference value included in the past accumulated information data D4 already accumulated in the information accumulation unit 4 The past accumulated information data D4 including the past bat height difference information including and indicating the value within the height difference threshold range SH2 is selected.

そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最もわるい打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。   Then, the information processing apparatus 1 compares the past batting information included in the past accumulated information data D4 selected by the presentation information selection unit 5 with the past accumulated information data D4 including the worst batting rate. Is finally selected and the batting moving image included in the finally selected past accumulated information data D4 is presented to the enlightenment target user.

この場合、情報処理装置1は、啓発対象ユーザの打法と類似する複数の打法の中から打率の最もわるい打法を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した打法の提示により啓発対象ユーザに反面教師的に自分の打法の良い箇所を再確認させることもできる。   In this case, the information processing apparatus 1 presents the enlightenment target user with the batting method having the worst batting rate from a plurality of batting methods similar to the enlightenment target user's batting method. Enlighten improvement points. By the way, if the fourth selection condition is used, the enlightened user can be reconfirmed by a teacher on the other hand by the presentation of the finally selected hitting method.

さらに情報処理装置1は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD3に当該啓発対象ユーザの打率(以下、これを比較用基準打率と呼ぶ)の情報を格納しておき、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース、過去バット高低差及び過去打率の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報と、高低差閾値範囲SH2内の値を示す過去バット高低差と、比較用基準打率の値を中心とした所定の打率閾値範囲内の値を示す過去打率とを共に含む過去蓄積情報データD4を選択する。   Further, when the fifth selection condition is used, the information processing apparatus 1 stores information on the batting rate of the enlightening target user (hereinafter referred to as a reference batting rate for comparison), for example, in the processing trend information data D3 of the enlightening target user. In addition, by the presentation information selection unit 5, the reference ball course for comparison, the reference bat height difference for comparison and the reference batting rate for comparison included in the processing tendency information data D <b> 3 of the enlightenment target user, and the information storage unit 4 have already been stored. The past ball course information indicating values in the course threshold range SH1 by comparing the past ball course, the past bat height difference and the past batting value included in the past accumulated information data D4, and the height difference threshold range The past accumulated information data including both the past bat height difference indicating the value in SH2 and the past batting value indicating a value within a predetermined batting threshold threshold range centering on the reference batting value for comparison. To select the data D4.

そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。   Then, the information processing apparatus 1 uses the presentation information selection unit 5 to compare the past batting information included in the selected past accumulated information data D4 with the past accumulated information data D4 including the best batting rate. Is finally selected and the batting moving image included in the finally selected past accumulated information data D4 is presented to the enlightenment target user.

この場合、情報処理装置1は、啓発対象ユーザの打法と類似で、かつ実力(すなわち打率)もほとんど同じ複数の打法のうちで最も打率の良い打法を啓発対象ユーザに提示することにより、提示した打法と啓発対象ユーザの打法との違いがわずかであるため、当該啓発対象ユーザに自分の打法における改善箇所を容易に啓発させることができる。   In this case, the information processing apparatus 1 presents a batting method having the best batting rate to the enlightening target user among a plurality of batting methods that are similar to the enlightening target user's batting method and have almost the same ability (that is, batting rate). Since the difference between the presented striking method and the striking method of the enlightenment target user is slight, the improvement target user can be easily enlightened with the enlightening target user.

さらに情報処理装置1は、第6の選択条件を用いる場合、提示情報選択部5により、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を選択して当該選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。   Further, when using the sixth selection condition, the information processing apparatus 1 randomly selects, for example, one piece of past accumulated information from the past accumulated information data D4 already accumulated in the information accumulating unit 4 by the presentation information selecting unit 5. The data D4 is selected, and the batting moving image included in the selected past accumulated information data D4 is presented to the enlightenment target user.

この場合、情報処理装置1は、無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所を全面的に偶然性に期待して啓発させることができる。   In this case, the information processing apparatus 1 presents the randomly selected striking method to the enlightenment target user so that the enlightenment target user is fully enlightened with the expectation of the improvement in his / her striking method entirely. Can do.

因みに情報処理装置1では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD3に打率の情報を格納しておかなくても、提示情報選択部5により、情報蓄積部4に蓄積している全ての蓄積情報データD4(啓発対象ユーザの蓄積情報データD4を含む)に含まれている打率の情報を用いることで最終的な蓄積情報データD4の選択を実現することもできる。   Incidentally, in the information processing apparatus 1, when the above-described fifth selection condition is used, even if the batting information is not stored in the processing tendency information data D <b> 3 of the enlightenment target user, the presentation information selection unit 5 performs the information accumulation unit. The final selection of the stored information data D4 can also be realized by using batting information included in all the stored information data D4 stored in 4 (including the stored information data D4 of the enlightenment target user). it can.

また上述した各選択条件において打率の情報を用いるときには、打率の最小及び最大や、所定の閾値以上の打率等の規定にしなくても、所定の閾値以下の打率や、啓発対象ユーザの打率よりも良い又はわるい打率、啓発対象ユーザの打率から所定の閾値以上離れた値の打率、啓発対象ユーザの打率から所定の第1の閾値以上離れ、かつ第2の閾値以下の打率、さらには啓発対象ユーザの打率とほぼ同じ(類似する)打率等の条件でも過去蓄積情報データD4を選択することができる。   In addition, when using batting information in each of the selection conditions described above, the batting average below the predetermined threshold or the batting average of the enlightenment target user is not required, even if the batting average is not specified as the minimum and maximum batting ratios or batting ratios higher than the predetermined threshold. Good or bad batting rate, batting rate with a value greater than a predetermined threshold from the batting rate of the user to be enlightened, batting rate separated from the batting rate of the enlightenment user with a predetermined first threshold and less than the second threshold, and further the user to be enlightened The past stored information data D4 can be selected even under conditions such as batting rate that is substantially the same as (similar to) batting rate.

さらに蓄積情報データD4の選択に用いる選択条件としては、図10について上述した選択条件及び図12について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、腰や肩の回転角度を用いる選択条件等のように、この他にも種々の選択条件を用いることができる。   Further, as selection conditions used for selection of the stored information data D4, selection conditions described above with reference to FIG. 10 and selection conditions obtained by exchanging a part of the first to sixth selection conditions described above with reference to FIG. Various selection conditions can be used in addition to the selection conditions using the rotation angle.

これに加えて情報処理装置1では、図10及び図12について上述した選択条件において限定基準のボールコースやバット高低差、打率をそれぞれ個別に用いるようにしたが、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。   In addition to this, in the information processing apparatus 1, the limited reference ball course, the bat height difference, and the batting rate are individually used under the selection conditions described above with reference to FIGS. 10 and 12. For example, a square root of the sum of squares is calculated using at least two reference bat height differences for comparison and a reference batting rate for comparison, and a predetermined threshold space and a past ball course based on the calculation result in the Euclidean space, Similarly, the past accumulated information data D4 may be limited by comparing the result of calculating the square root of the sum of squares using at least two of the past bat height difference and the past batting rate.

また情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。   Further, the information processing apparatus 1 calculates, for example, the sum of absolute differences using at least two reference ball courses for comparison, a reference bat height difference for comparison, a reference batting rate for comparison, and the like. A comparison between a predetermined threshold space as a reference and a result of calculating a sum of absolute differences using at least two or more of the past ball course, a past bat height difference, a past hit rate, and the like, and the past accumulated information data D4 You may make it limit.

さらに情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を中心とした所定のコース閾値範囲SH1、高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去ボールコース、過去バット高低差及び過去打率等の少なくとも2つ以上とを比較して過去蓄積情報データD4を限定するようにしても良い。   Furthermore, in the information processing apparatus 1, a predetermined reference threshold range SH1, a height difference threshold range SH2, a batting threshold threshold range, and the like centered on a comparative reference ball course for comparison, a reference bat height difference for comparison, a reference batting ratio for comparison, and the like. At least two or more may be integrated, and the accumulated product space obtained may be compared with at least two or more of the past ball course, past bat height difference, past batting rate, etc. to limit the past accumulated information data D4. .

同様に情報処理装置1では、図10及び図12について上述した選択条件において選定基準のバット高低差及び打率もそれぞれ個別に用いるようにしたが、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。   Similarly, in the information processing apparatus 1, the selection reference butt height difference and batting rate are individually used under the selection conditions described above with reference to FIGS. 10 and 12, but the selection reference comparison reference butt height difference and comparison reference are also used. For example, the square root of the sum of squares is calculated using at least two batting rates and the like, and a predetermined threshold space based on the calculation result in the Euclidean space, the past bat height difference, the past batting rate, etc. are similarly at least two or more. The final past stored information data D4 may be selected by comparing the result of calculating the square root of the sum of squares using.

また情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。   Further, the information processing apparatus 1 calculates, for example, a sum of absolute differences using at least two or more comparison reference bat height differences and comparison reference batting rates as selection criteria, and a predetermined threshold value based on the obtained calculation result. Similarly, the final past accumulated information data D4 may be selected by comparing the space and the result of calculating the sum of absolute differences using at least two or more past bat height differences and past batting rates.

さらに情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を中心とした所定の高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去バット高低差及び過去打率等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。   Furthermore, in the information processing apparatus 1, at least two or more of a predetermined height difference threshold range SH2 and a batting threshold threshold range centered on the reference bat height difference for comparison and the reference batting ratio for comparison are obtained. The final past accumulated information data D4 may be selected by comparing the product space with at least two of the past bat height difference and past batting rate as well.

さらに上述した第1の実施の形態においては、情報蓄積部4に入力情報データD2及び処理傾向情報データD3からなる蓄積情報データD4を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD2を蓄積情報データとして情報蓄積部4に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD2及び蓄積情報データ(すなわち入力情報データD2)から処理傾向情報を抽出すれば良い。   Further, in the above-described first embodiment, the case where the information storage unit 4 stores the storage information data D4 including the input information data D2 and the processing tendency information data D3 has been described. Not limited to this, at least the input information data D2 may be stored in the information storage unit 4 as stored information data. In this case, each time the presentation information is selected, the input information data D2 of the enlightenment target user and What is necessary is just to extract process tendency information from accumulation | storage information data (namely, input information data D2).

さらに上述した第1の実施の形態においては、図2について上述した第1の啓発促進処理手順RT1に示す一連の処理に、啓発対象ユーザにより処理対象(ボール)に対して行われる処理手法を表す情報として、バッティング練習の様子を1台のビデオカメラで撮像して生成されたバッティング動画像10を利用するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザによるバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を2台のビデオカメラで撮像して生成された3次元動画像でなるバッティング動画像を利用し、又はバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を複数の角度から撮像して得られ複数の2次元及び又は3次元動画像を利用するようにしても良い。   Furthermore, in 1st Embodiment mentioned above, the processing method performed with respect to a process target (ball) by the enlightenment object user in the series of processes shown in the 1st enlightenment promotion process procedure RT1 mentioned above about FIG. 2 is represented. As the information, the case of using the batting moving image 10 generated by capturing the state of the batting practice with one video camera has been described. However, the present invention is not limited to this, and the batting practice by the user to be enlightened Using a batting moving image composed of 3D moving images generated by taking two video cameras to capture the situation of the enlightenment user during a baseball game or a baseball game So as to use a plurality of two-dimensional and / or three-dimensional moving images obtained by imaging a user's enlightenment target in a plurality of angles. And it may be.

因みに、かかる3次元動画像でなるバッティング動画像を利用すれば、当該バッティング動画像を画像処理することにより啓発対象ユーザの打法に対する処理傾向を3次元的に捉えた処理傾向情報(例えば、ボールコースとして内角低めや外角高め)を抽出することができる。そして、かかる3次元動画像でなるバッティング動画像と、図10について上述した選択条件や、図12について上述した第1乃至第5の選択条件とを合わせて利用すれば、啓発対象ユーザに自分の打法とほぼ同じ打法を提示することができる。   Incidentally, if a batting moving image composed of such a three-dimensional moving image is used, processing tendency information (for example, a ball) is obtained by processing the batting moving image three-dimensionally. As a course, a lower inner angle and a higher outer angle) can be extracted. If the batting moving image composed of such a three-dimensional moving image and the selection conditions described above with reference to FIG. 10 and the first to fifth selection conditions described above with reference to FIG. It is possible to present almost the same batting method as the batting method.

さらに上述した第1の実施の形態においては、啓発対象ユーザに対して野球のバッティングにおける打法の改善箇所の啓発を促して処理能力の向上を図るようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図るようにしても良く、これら種々の処理においても上述した第1の実施の形態による効果と同様の効果を得ることができる。因みに、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図る場合は、評価値として処理に応じたスコアやハンデキャップ、勝率等の成績を用いれば良い。   Furthermore, in the above-described first embodiment, the case where the enlightenment target user is encouraged to be enlightened about the improvement method of the batting method in the baseball batting to improve the processing capability has been described. Not only this but enlightenment of the improvement part of the processing technique in various other processing which uses a ball as a processing target like golf, tennis, etc. with respect to a user for enlightenment, and aims at improvement of processing capacity Even in these various processes, it is possible to obtain the same effects as those of the first embodiment described above. By the way, when encouraging enlightenment of the improvement part of the processing method in various other processes using the ball as a processing target such as golf or tennis for the enlightening target user, processing as an evaluation value The score, handicap, winning percentage, etc. according to the score may be used.

(2)第2の実施の形態
図13において、50は全体として第2の実施の形態による情報処理装置を示し、個々のユーザによって行われた領域抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトを指定するためのオブジェクト指定領域を抽出する領域抽出処理を実行する毎に、当該領域抽出処理の間、適宜表示内容を変化させて表示した一連の領域抽出処理用画面を領域抽出操作の経緯(すなわち処理対象となるオブジェクト抽出用動画像からオブジェクト指定領域を抽出するユーザの領域抽出手法)を表す領域抽出経緯画面データとして蓄積する。
(2) Second Embodiment In FIG. 13, reference numeral 50 denotes an information processing apparatus according to the second embodiment as a whole, which is extracted from a moving image for object extraction according to a region extraction operation performed by each user. Each time an area extraction process for extracting an object specification area for specifying a target object is executed, a series of area extraction processing screens displayed by appropriately changing display contents during the area extraction process are extracted. Is stored as area extraction history screen data representing the process of (that is, the user's area extraction method for extracting the object designated area from the object extraction moving image to be processed).

また情報処理装置50は、領域抽出処理を実行する毎に、すでに蓄積している領域抽出経緯画面データから、その時点に領域抽出操作を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の領域抽出手法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われる領域抽出経緯画面データを選択して提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促すようになされている。   Each time the information processing apparatus 50 executes the region extraction process, the user who has performed the region extraction operation at that time from the region extraction history screen data that has already been accumulated (hereinafter referred to as an enlightened user). By selecting and presenting region extraction history screen data that would help to improve the region extraction method (that is, the processing method for the processing target of the user to be enlightened), It is designed to promote awareness of improvements.

この場合、情報処理装置50は、領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55から構成されており、当該領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55において啓発対象ユーザに自分の領域抽出手法の改善箇所を啓発させるために実行する各種処理を第2の啓発促進プログラムに従ってソフトウェア的に実現する。   In this case, the information processing apparatus 50 includes a region extraction unit 51, a processing tendency information extraction unit 52, an information storage unit 53, a presentation information selection unit 54, and an information presentation unit 55. According to the second enlightenment promotion program, the information extraction unit 52, the information storage unit 53, the presentation information selection unit 54, and the information presentation unit 55 perform various processes to be performed to enlighten the user to be enlightened about the improvement location of his area extraction method. Realized in software.

すなわち情報処理装置50は、図14に示すように第2の啓発促進プログラムに従って第2の啓発促進処理手順RT50の開始ステップから入って続く領域抽出処理ルーチンSRT51へ移る。   That is, as shown in FIG. 14, the information processing apparatus 50 proceeds to the subsequent region extraction processing routine SRT51 after entering from the start step of the second enlightenment promotion processing procedure RT50 according to the second enlightenment promotion program.

ここで図15に示すように、情報処理装置50は、画像入力回路60、画像記録回路61、動きベクトル検出記録回路62、設定情報記録回路63、伝播領域決定回路64、ユーザインターフェース回路65、輪郭/領域変換回路66、領域生成記録回路67、領域出力回路68から構成された領域抽出部51によって領域抽出処理ルーチンSRT51を実行する。   As shown in FIG. 15, the information processing apparatus 50 includes an image input circuit 60, an image recording circuit 61, a motion vector detection recording circuit 62, a setting information recording circuit 63, a propagation region determination circuit 64, a user interface circuit 65, a contour. The region extraction processing routine SRT51 is executed by the region extraction unit 51 including the / region conversion circuit 66, the region generation / recording circuit 67, and the region output circuit 68.

この際、図16及び図17に示すように、情報処理装置50は、領域抽出処理ルーチンSRT51の開始ステップから入って次のステップSP51へ移り、当該ステップSP51において外部から供給されるオブジェクト抽出用動画像データD50を領域抽出部51の画像入力回路60に取り込む。   At this time, as shown in FIG. 16 and FIG. 17, the information processing apparatus 50 enters from the start step of the region extraction processing routine SRT51 and proceeds to the next step SP51, and the object extraction moving image supplied from the outside in the step SP51. The image data D50 is taken into the image input circuit 60 of the region extraction unit 51.

ここで、図18に示すように、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70は、時間的に連続して抽出対象のオブジェクト71を含む複数のフレーム画像(以下、これを領域抽出用フレーム画像と呼ぶ)70A乃至70G、……から構成されている。   Here, as shown in FIG. 18, the object extraction moving image 70 based on the object extraction moving image data D50 includes a plurality of frame images (hereinafter referred to as regions) including the object 71 to be extracted. 70A to 70G (referred to as extraction frame images).

この際、情報処理装置50は、画像入力回路60に取り込んだオブジェクト抽出用動画像データD50をフレーム画像データ(以下、これを領域抽出用フレーム画像データと呼ぶ)D51単位で画像記録回路61に送出して記録すると共に、当該画像記録回路61からオブジェクト抽出用動画像データD50を構成する領域抽出用フレーム画像データD51を順次読み出して動きベクトル検出記録回路62に送出する。   At this time, the information processing apparatus 50 sends the object extraction moving image data D50 taken into the image input circuit 60 to the image recording circuit 61 in units of frame image data (hereinafter referred to as region extraction frame image data) D51. The area extraction frame image data D51 constituting the object extraction moving image data D50 is sequentially read out from the image recording circuit 61 and sent to the motion vector detection recording circuit 62.

そして情報処理装置50は、動きベクトル検出処理回路62により、複数の領域抽出用フレーム画像データD51においてそれぞれマクロブロック等の所定単位ブロック毎の動きベクトル(例えば個々の所定単位ブロックについて時間的に過去及び未来の双方で隣接する領域抽出用フレーム画像70A乃至70G、……間の双方向の動きベクトル)を検出し、当該検出した領域抽出用フレーム画像データD51毎の動きベクトをそれぞれ領域抽出用フレーム画像データD51の識別情報と対応付けて記録してステップSP52へ移る。   Then, the information processing apparatus 50 causes the motion vector detection processing circuit 62 to use a motion vector for each predetermined unit block such as a macro block in the plurality of region extraction frame image data D51 (for example, for each predetermined unit block in the past and (Bidirectional motion vectors between adjacent region extraction frame images 70A to 70G,... In the future) and the detected motion vectors for each region extraction frame image data D51 are respectively detected as region extraction frame images. Recording is performed in association with the identification information of the data D51, and the process proceeds to step SP52.

ステップSP52において情報処理装置50は、ユーザインターフェース回路65から領域抽出処理用画面データD52を情報提示部55に送出することにより当該情報提示部55に設けられたモニタ(図示せず)に領域抽出処理用画面データD52に基づいて、命令選択領域やオブジェクト抽出用動画像の画像表示領域等を有する領域抽出処理用画面(図示せず)を表示する。   In step SP52, the information processing apparatus 50 sends the region extraction processing screen data D52 from the user interface circuit 65 to the information presenting unit 55, thereby performing region extraction processing on a monitor (not shown) provided in the information presenting unit 55. An area extraction processing screen (not shown) having an instruction selection area, an image display area of an object extraction moving image, and the like is displayed based on the screen data D52.

この状態で情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上でオブジェクト指定領域の抽出処理を行うための種々の抽出処理用命令C50が入力されることを待ち受け、当該啓発対象ユーザにより抽出処理用命令C50が入力されると、これをユーザインターフェース回路65に取り込んでステップSP53へ移る。   In this state, the information processing apparatus 50 waits for input of various extraction processing instructions C50 for performing the extraction processing of the object designated area on the area extraction processing screen by the enlightenment target user. When the extraction processing instruction C50 is input, it is fetched into the user interface circuit 65, and the process proceeds to step SP53.

ステップSP53において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト指定領域のもとになるオブジェクト71の輪郭を指定するために例えば1つの領域抽出用フレーム画像70A、……、又は70Gを輪郭指定用の作業フレーム画像として任意に設定する作業フレーム設定命令であるか否かを判断する。   In step SP53, the information processing apparatus 50 uses the user interface circuit 65 to extract a plurality of area extraction frame images 70A to 70G in which the extraction processing instruction C50 input by the enlightenment target user constitutes the object extraction moving image 70. In order to designate the outline of the object 71 that is the basis of the object designated area from among the above, for example, one area extraction frame image 70A,..., Or 70G is arbitrarily set as a work frame image for outline designation. It is determined whether it is a frame setting command.

ステップSP53において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令であることを表しており、このとき情報処理装置50はステップSP54へ移る。   If an affirmative result is obtained in step SP53, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a work frame setting instruction. At this time, the information processing apparatus 50 proceeds to step SP54.

ステップSP54において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を領域抽出用フレーム画像データD51単位で読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出する。   In step SP54, the information processing apparatus 50 reads the object extraction moving image data D50 from the image recording circuit 61 by the user interface circuit 65 in units of area extraction frame image data D51, and the read area extraction frame image data D51. It is combined with the area extraction processing screen data D52 and sent to the information presentation unit 55.

これにより情報処理装置50は、図19に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に領域抽出用フレーム画像70A乃至70Gを例えば所定フレーム数ずつ表示し、かくして啓発対象ユーザにオブジェクト抽出用動画像70を所定フレーム数ずつの領域抽出用フレーム画像70A乃至70Gとして互いを比較させながら目視させる。   As a result, the information processing apparatus 50 displays the region extraction frame images 70A to 70G, for example, for each predetermined number of frames in the image display area in the region extraction processing screen in the information presentation unit 55 as shown in FIG. The target user visually recognizes the object extraction moving image 70 while comparing the region extraction frame images 70A to 70G with a predetermined number of frames.

この結果、情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上で複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト71の輪郭指定用に1つの領域抽出用フレーム画像70Dが当該輪郭の指定のし易さ等で任意に選択されると、その選択された領域抽出用フレーム画像70Dの識別情報等を作業フレーム設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより選択された1つの領域抽出用フレーム画像70Dを輪郭指定用の作業フレーム画像に設定してステップSP52に戻る。   As a result, the information processing apparatus 50 causes the enlightenment user to select one area extraction frame image for specifying the contour of the object 71 from among the plurality of area extraction frame images 70A to 70G on the area extraction processing screen. When 70D is arbitrarily selected according to the ease of designating the contour, the identification information of the selected region extraction frame image 70D is used as work frame setting information from the user interface circuit 65 to the setting information recording circuit 63. The one region extraction frame image 70D selected by the capture and recording is set as a work frame image for contour specification, and the process returns to step SP52.

これに対して上述したステップSP53において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP55へ移る。   On the other hand, if a negative result is obtained in step SP53 described above, this indicates that the extraction processing instruction C50 input by the enlightenment target user is an instruction other than the work frame setting instruction. The processing device 50 moves to step SP55.

ステップSP55において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dで指定された輪郭をもとに、時間的に連続する任意のフレーム数の領域抽出用フレーム画像70A乃至70Gでそれぞれ生成したオブジェクト指定領域の修正の方法を修正モードとして設定する修正モード設定命令であるか否かを判断する。   In step SP55, the information processing apparatus 50 uses the user interface circuit 65 to arbitrarily extract any time-continuous instruction C50 input by the enlightenment target user based on the contour specified in the work frame image 70D. It is determined whether or not it is a correction mode setting command for setting, as a correction mode, a method for correcting the object designated areas generated in the frame extraction region images 70A to 70G having the number of frames.

ステップSP55において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が修正モード設定命令であることを表しており、このとき情報処理装置50はステップSP56へ移る。   If a positive result is obtained in step SP55, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a correction mode setting instruction, and at this time, the information processing apparatus 50 proceeds to step SP56.

ステップSP56において情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の修正方法として任意に選択された追加又は削除を表す情報をモード設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより啓発対象ユーザの選択した追加又は削除をオブジェクト指定領域に対する修正モードに設定してステップSP52に戻る。   In step SP56, the information processing apparatus 50 captures, as mode setting information, information indicating addition or deletion arbitrarily selected as a method for correcting the object designated area by the enlightenment target user from the user interface circuit 65 to the setting information recording circuit 63 and records it. Thus, the addition or deletion selected by the enlightenment target user is set to the correction mode for the object designation area, and the process returns to step SP52.

また上述したステップSP55において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令及び修正モード設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP57へ移る。   If a negative result is obtained in step SP55 described above, this indicates that the extraction processing instruction C50 input by the enlightenment target user is an instruction other than the work frame setting instruction and the correction mode setting instruction. When this happens, the information processing apparatus 50 proceeds to step SP57.

ステップSP57において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dに対するオブジェクト指定領域の生成をもとにその生成を伝播させる領域抽出用フレーム画像70A乃至70C、70E乃至70G、……や、いずれかの領域抽出用フレーム画像70A乃至70G、……に対して生成したオブジェクト指定領域に対する修正をもとにその修正を伝播させる他の領域抽出用フレーム画像70A乃至70C、70E乃至70G、……を設定する伝播範囲設定命令であるか否かを判断する。   In step SP57, the information processing apparatus 50 extracts a region by which the user interface circuit 65 causes the extraction processing instruction C50 input by the enlightenment target user to propagate the generation based on the generation of the object designation region for the work frame image 70D. Other frame image 70A to 70C, 70E to 70G,..., And other areas for propagating the correction based on the correction to the object designation area generated for any of the area extraction frame images 70A to 70G,. It is determined whether the command is a propagation range setting command for setting region extraction frame images 70A to 70C, 70E to 70G,.

このステップSP57において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が伝播範囲設定命令であることを表しており、このとき情報処理装置50はステップSP58へ移る。   If a positive result is obtained in step SP57, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a propagation range setting instruction, and the information processing apparatus 50 proceeds to step SP58 at this time. .

ステップSP58において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を構成する複数の領域抽出用フレーム画像データD51を読み出し、当該読み出した各領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出することにより、領域抽出処理用画面内の画像表示領域に、例えば啓発対象ユーザの画像切換要求に応じて所定フレーム数ずつの領域抽出用フレーム画像70A乃至70G、……を表示して啓発対象ユーザに目視させる。   In step SP58, the information processing apparatus 50 reads a plurality of area extraction frame image data D51 constituting the object extraction moving image data D50 from the image recording circuit 61 by the user interface circuit 65, and reads the read area extraction frames. By combining the image data D51 with the area extraction processing screen data D52 and sending it to the information presentation unit 55, a predetermined frame is displayed in the image display area in the area extraction processing screen, for example, in response to an image switching request of the enlightenment target user. Several region extraction frame images 70A to 70G,... Are displayed and made visible to the enlightenment target user.

この状態で情報処理装置50は、例えば図19に示すように啓発対象ユーザにより領域抽出処理用画面上で、オブジェクト指定領域の生成伝播用又はオブジェクト指定領域の修正伝播用に1又は複数の領域抽出用フレーム画像70B乃至70Fが選択されると、当該選択された領域抽出用フレーム画像70B乃至70Fの識別情報等を伝播範囲設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録する。   In this state, for example, as shown in FIG. 19, the information processing apparatus 50 extracts one or a plurality of areas for creating and propagating an object designation area or for correcting and propagating an object designation area on the area extraction processing screen by the enlightenment target user. When the frame images 70B to 70F are selected, the identification information and the like of the selected region extraction frame images 70B to 70F are captured from the user interface circuit 65 to the setting information recording circuit 63 and recorded as propagation range setting information.

これにより情報処理装置50は、啓発対象ユーザの選択した1又は時間的に連続する複数の領域抽出用フレーム画像70B乃至70Fを伝播範囲の領域抽出用フレーム画像70B乃至70Fに設定してステップSP52に戻る。   Thereby, the information processing apparatus 50 sets one or a plurality of continuous region extraction frame images 70B to 70F selected by the enlightenment target user to the region extraction frame images 70B to 70F in the propagation range, and then proceeds to step SP52. Return.

因みに情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以前に伝播範囲設定命令が入力されると、その際に選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……をオブジェクト指定領域の生成を伝播させる伝播範囲(以下、これを特に生成伝播範囲と呼ぶ)の領域抽出用フレーム画像70A乃至70G、……に設定する。   Incidentally, when a propagation range setting command is input before the generation of the object designation area for the work frame image 70D, the information processing apparatus 50 selects one or a plurality of area extraction frame images 70A to 70G,. Are set in the region extraction frame images 70A to 70G,... Of the propagation range in which the generation of the object designated region is propagated (hereinafter referred to as the generation propagation range).

そして情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以降に伝播範囲設定命令が入力されるまでは、生成伝播範囲をオブジェクト指定領域の修正を伝播させる伝播範囲(以下、これを修正伝播範囲と呼ぶ)に併用し、当該オブジェクト指定領域の生成以降に伝播範囲設定命令が入力されると、生成伝播範囲とは別に、その際に新たに選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……を修正伝播範囲の領域抽出用フレーム画像データD70A乃至70G、……に設定する。   The information processing apparatus 50 then propagates the generation propagation range to propagate the modification of the object designation region until a propagation range setting command is input after the generation of the object designation region for the work frame image 70D (hereinafter, this is corrected). When a propagation range setting command is input after the generation of the object specification area, one or a plurality of area extraction frames newly selected at that time are generated separately from the generation propagation range. The images 70A to 70G,... Are set as the region image frame data D70A to 70G,.

ただし情報処理装置50は、修正伝播範囲の設定の際に生成伝播範囲を超えて(すなわち生成伝播範囲よりも時間的に過去及び未来)領域抽出用フレーム画像70A乃至70G、……が選択されると、当該選択された領域抽出用フレーム画像70A乃至70G、……に対してはオブジェクト指定領域を生成してはいないことにより、情報提示部55を介して警告音を出力し、及び又は領域抽出処理用画面にエラーメッセージを表示してその選択が無効であることを啓発対象ユーザに通知する。   However, the information processing apparatus 50 selects the region extraction frame images 70A to 70G,... Beyond the generation propagation range (that is, the past and future in time than the generation propagation range) when setting the correction propagation range. For the selected region extraction frame images 70A to 70G,..., A warning sound is output via the information presentation unit 55 and / or the region extraction is performed because no object designation region is generated. An error message is displayed on the processing screen to notify the enlightened user that the selection is invalid.

さらに上述したステップSP57において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令及び伝播範囲設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP59へ移る。   Furthermore, if a negative result is obtained in step SP57 described above, this means that the extraction processing command C50 input by the enlightenment target user is a command other than the work frame setting command, the correction mode setting command, and the propagation range setting command. In this case, the information processing apparatus 50 proceeds to step SP59.

ステップSP59において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70D中のオブジェクト71の輪郭を指定する輪郭指定命令であるか否かを判断する。   In step SP59, the information processing apparatus 50 determines whether or not the extraction processing command C50 input by the user to be enlightened by the user interface circuit 65 is a contour specifying command for specifying the contour of the object 71 in the work frame image 70D. Judging.

このステップSP59において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令及び生成伝播範囲用の伝播範囲設定命令に応じた処理(ステップSP54及びステップSP58で上述した処理)をすでに実行したうえで入力された輪郭指定命令であることを表しており、このとき情報処理装置50はステップSP60へ移る。   If an affirmative result is obtained in step SP59, this means that the extraction processing command C50 input by the enlightenment target user is a process corresponding to at least the work frame setting command and the propagation range setting command for the generation propagation range (step SP54). In addition, the information processing apparatus 50 proceeds to step SP60. At this time, the information processing apparatus 50 proceeds to step SP60.

ステップSP60において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出する。   In step SP60, the information processing apparatus 50 uses the user interface circuit 65 to extract from the image recording circuit 61, for example, frame image data D51 for extracting the region of the generated propagation range and a region that is one frame past and future in time from the generated propagation range. The frame image data D51 is read out, and the read area extraction frame image data D51 is combined with the area extraction processing screen data D52 and sent to the information presentation unit 55.

これにより情報処理装置50は、図20に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に生成伝播範囲及び当該生成伝播範囲の前後の領域抽出用フレーム画像70A乃至70Gを表示する。   As a result, as shown in FIG. 20, the information processing apparatus 50 causes the information presentation unit 55 to generate a generation propagation range in the image display area in the area extraction processing screen and the region extraction frame images 70A to 70G before and after the generation propagation range. Is displayed.

この状態で情報処理装置50は、啓発対象ユーザによってマウス等を介して領域抽出処理用画面上で作業フレーム画像70D中のオブジェクト71の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線73(すなわち啓発対象ユーザのなぞった軌跡)に相当する入力輪郭線信号S50をユーザインターフェース回路65に取り込む。   In this state, the information processing apparatus 50 obtains this result when the enlightenment user specifies and arbitrarily traces the outline of the object 71 in the work frame image 70D on the area extraction processing screen via a mouse or the like. An input contour signal S50 corresponding to the input contour 73 (that is, the trace traced by the enlightenment user) is taken into the user interface circuit 65.

そして情報処理装置50は、ユーザインターフェース回路65により、その入力輪郭線信号S50を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該入力輪郭線信号S50に相当する複数の入力輪郭形成点(作業フレーム画像70D中の座標で表す)を生成し、当該生成した複数の入力輪郭形成点の集合データを入力輪郭形成点群データD53として輪郭/領域変換回路66に送出する。   The information processing apparatus 50 samples the input contour signal S50 at a predetermined sampling interval by the user interface circuit 65 and converts it into digital data, thereby forming a plurality of input contour forming points corresponding to the input contour signal S50. (Represented by coordinates in the work frame image 70D) is generated, and the generated set data of the plurality of input contour forming points is sent to the contour / region converting circuit 66 as input contour forming point group data D53.

また情報処理装置50は、輪郭/領域変換回路66により入力輪郭形成点群データD53に基づく入力輪郭形成点間を補間することにより入力輪郭線73に相当する入力輪郭補間線を生成すると共に、その入力輪郭補間線で囲まれた領域を所定の色で塗りつぶすことにより作業フレーム画像70D中のオブジェクト71を指定するオブジェクト指定領域(以下、これを特にオブジェクト指定基準領域と呼ぶ)に相当するオブジェクト指定基準領域データD54を生成し、当該生成したオブジェクト指定基準領域データD54を伝播領域決定回路64及び領域生成記録回路67に送出してステップSP61へ移る。   The information processing apparatus 50 generates an input contour interpolation line corresponding to the input contour 73 by interpolating between input contour forming points based on the input contour forming point group data D53 by the contour / region converting circuit 66, and An object designation reference corresponding to an object designation area (hereinafter referred to as an object designation reference area) for designating the object 71 in the work frame image 70D by painting the area surrounded by the input contour interpolation line with a predetermined color. Area data D54 is generated, and the generated object designation reference area data D54 is sent to the propagation area determination circuit 64 and the area generation recording circuit 67, and the process proceeds to step SP61.

ステップSP61において情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から作業フレーム設定情報及び伝播範囲設定情報を読み出すと共に、その作業フレーム設定情報及び伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から生成伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。   In step SP61, the information processing apparatus 50 reads out the work frame setting information and the propagation range setting information from the setting information recording circuit 63 by the propagation region determination circuit 64, and also sets the work frame setting information and the propagation range setting information (that is, for region extraction). Based on the identification information of the frame image data D51), motion vectors of predetermined unit blocks in all the region extraction frame images (including work frame images) 70B to 70F in the generated propagation range are read from the motion vector detection recording circuit 62.

そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックに対して、生成伝播範囲内で作業フレーム画像70Bを除いた他の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置を検出する。   Then, the information processing apparatus 50 operates within the generation propagation range for all the predetermined unit blocks related to the object designation reference region based on the motion vector read from the motion vector detection recording circuit 62 by the propagation region determination circuit 64. The movement destination positions for the other region extraction frame images 70B, 70C and 70E, 70F excluding the frame image 70B are detected.

これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、オブジェクト指定基準領域をもとにした他のオブジェクト指定領域の生成を生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して伝播させるための伝播領域情報とし、これを伝播領域情報データD55として領域生成記録回路67に送出する。   As a result, the information processing apparatus 50 causes the propagation area determination circuit 64 to generate the movement destination position of the detected predetermined unit block based on the object designation reference area and generate other object designation areas. Propagation region information to be propagated to the region extraction frame images 70B, 70C and 70E, 70F is transmitted to the region generation / recording circuit 67 as propagation region information data D55.

また情報処理装置50は、領域生成記録回路67により、伝播領域情報データD55に基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックをそれぞれ生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置へ移動させることにより当該オブジェクト指定基準領域を個々の領域抽出用フレーム画像70B、70C及び70E、70Fにそれぞれ伝播させて、当該個々の領域抽出用フレーム画像70B、70C及び70E、70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域(以下、これを特にオブジェクト指定伝播領域と呼ぶ)を生成する。   Further, the information processing apparatus 50 uses the region generation / recording circuit 67 to generate all the predetermined unit blocks related to the object designation reference region based on the propagation region information data D55, respectively, for each region extraction frame image 70B, 70C of the generated propagation range. , 70E and 70F, the object designation reference area is propagated to the individual area extraction frame images 70B, 70C and 70E and 70F, respectively, and the individual area extraction frame images 70B and 70C are respectively transmitted. , And 70E and 70F, respectively, an object designation area for designating the object 71 (hereinafter referred to as an object designation propagation area).

ここで情報処理装置50は、図21に示すように領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、生成伝播範囲の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の変化(すなわち生成伝播範囲におけるオブジェクト71の時間的な動き)に拘わらずに、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単に移動させている。   When the information processing apparatus 50 generates an object designated propagation area by the area generation / recording circuit 67 as shown in FIG. 21, the change of the object 71 in the area extraction frame images 70B to 70F in the generation propagation range (that is, Regardless of the temporal movement of the object 71 in the generation propagation range, the predetermined unit block 75 related to the object designation reference area 74 is simply moved according to the motion vector.

この際、所定単位ブロック75を単に移動させたままでは、個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して移動させたこれら所定単位ブロック75同士が離れてオブジェクト指定伝播領域内に所定の色による塗りつぶしが途切れた穴76が生じることがある。   At this time, if the predetermined unit block 75 is simply moved, the predetermined unit blocks 75 moved with respect to the individual region extraction frame images 70B, 70C and 70E, 70F are separated from each other in the object designated propagation region. A hole 76 in which filling with a predetermined color is interrupted may occur.

このため情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って移動させた後、これら所定単位ブロック75に対して画像処理としての膨張及び縮小処理を施すことにより穴76をほぼ塞いでオブジェクト指定伝播領域を生成する。   For this reason, the information processing apparatus 50 uses the area generation / recording circuit 67 to move the predetermined unit blocks 75 in the object designation reference area 74 according to the motion vectors, and then performs expansion and image processing on the predetermined unit blocks 75. By applying the reduction process, the hole 76 is almost closed and an object designated propagation area is generated.

このようにして情報処理装置50は、生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対するオブジェクト指定伝播領域を生成すると、領域生成記録回路67によりオブジェクト指定基準領域と各オブジェクト指定伝播領域とを生成伝播範囲の領域抽出用フレーム画像データD51の識別情報と対応付けて記録すると共に、当該領域生成記録回路67からオブジェクト指定基準領域及び各オブジェクト指定伝播領域をオブジェクト指定領域データD56としてユーザインターフェース回路65に送出する。   In this way, when the information processing apparatus 50 generates the object designation propagation area for each of the area extraction frame images 70B, 70C, 70E, and 70F in the generation propagation range, the area generation recording circuit 67 causes the object designation reference area and each object to be generated. The designated propagation region is recorded in association with the identification information of the region extraction frame image data D51 for the generated propagation range, and the object designated reference region and each object designated propagation region are stored in the object designated region data D56 from the region creation recording circuit 67. To the user interface circuit 65.

そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出す。   Then, the information processing apparatus 50 uses the user interface circuit 65 to, for example, generate the generation propagation range region extraction frame image data D51 from the image recording circuit 61 and the region extraction frame that is one frame past and future in time from the generation propagation range. Image data D51 is read.

この際、情報処理装置50は、ユーザインターフェース回路65により、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD56と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。   At this time, the information processing apparatus 50 generates designated area presentation image data by combining the area extraction frame image data D51 of the generation propagation range with the object designated area data D56 by the user interface circuit 65, and the designated area. The presentation image data and the remaining region extraction frame image data D51 are combined with the region extraction processing screen data D52 and sent to the information presentation unit 55.

これにより情報処理装置50は、図22に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、指定領域提示画像データに基づいて作業フレーム画像70Dにオブジェクト指定基準領域74を重ねて表示すると共に、生成伝播範囲の他の領域抽出用フレーム画像70B、70C、70E、70Fにそれぞれ対応するオブジェクト指定伝播領域77A乃至77Dを重ねて表示し、さらに生成伝播範囲の前後の領域抽出用フレーム画像70A及び70Gを表示することによりオブジェクト指定領域の生成結果を啓発対象ユーザに提示してステップSP52に戻る。   As a result, the information processing apparatus 50 adds the object designation reference area 74 to the work frame image 70D based on the designated area presentation image data in the image display area in the area extraction processing screen in the information presentation section 55 as shown in FIG. In addition to displaying in an overlapping manner, the object designated propagation regions 77A to 77D corresponding to the other region extraction frame images 70B, 70C, 70E, and 70F for the generated propagation range are displayed in a superimposed manner, and the regions before and after the generated propagation range are extracted. By displaying the frame images 70A and 70G for use, the object designated area generation result is presented to the enlightenment target user, and the process returns to step SP52.

ところで上述したステップSP59において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP62へ移る。   If a negative result is obtained in step SP59 described above, this means that the extraction processing command C50 input by the enlightenment target user is a command other than the work frame setting command, the correction mode setting command, the propagation range setting command, and the contour specifying command. In this case, the information processing apparatus 50 proceeds to step SP62.

ステップSP62において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50がオブジェクト指定基準領域75及びオブジェクト指定伝播領域77A乃至77Dを修正する領域修正命令であるか否かを判断する。   In step SP62, the information processing apparatus 50 determines whether the extraction processing instruction C50 input by the user to be enlightened by the user interface circuit 65 is an area correction instruction for correcting the object designation reference area 75 and the object designation propagation areas 77A to 77D. Judge whether or not.

このステップSP62において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP56、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域修正命令であることを表しており、このとき情報処理装置50はステップSP63へ移る。   If an affirmative result is obtained in step SP62, this means that the extraction processing command C50 input by the enlightenment target user is processed according to the work frame setting command, the correction mode setting command, the propagation range setting command, and the contour specifying command. (The processing described above in step SP54, step SP56, step SP58, step SP60 and step SP61) has already been executed, and represents an area correction command input. At this time, the information processing apparatus 50 proceeds to step SP63. Move.

ここで情報処理装置50は、領域生成記録回路67によって生成したオブジェクト指定伝播領域77A乃至77Dについて、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単に移動させた状態で生じた穴76が比較的小さければ、その後の膨張及び縮小処理によりその穴76を塞ぐことができる。   Here, the information processing apparatus 50 has the holes generated in the state in which the predetermined unit blocks 75 relating to the object designation reference area 74 are simply moved according to the motion vectors in the object designation propagation areas 77A to 77D generated by the area generation recording circuit 67. If 76 is relatively small, the hole 76 can be closed by subsequent expansion and contraction processes.

しかしながら情報処理装置50は、穴76が比較的大きければ、移動後の所定単位ブロック75に対して膨張及び縮小処理を施してもその穴76を塞ぐことができず、オブジェクト指定伝播領域77A乃至77Dにおいて穴76が残った状態となる(図22)。   However, if the hole 76 is relatively large, the information processing apparatus 50 cannot close the hole 76 even if the predetermined unit block 75 after the movement is expanded and contracted, and the object designated propagation areas 77A to 77D. In FIG. 22, the hole 76 remains.

また情報処理装置50は、領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単に移動させることにより、図21からも明らかなように所定単位ブロック75のもとの並びが移動先でばらつき、その結果、図22に示すように、オブジェクト指定伝播領域77A乃至77Dの輪郭部分にオブジェクト71よりも外側に突出した箇所(以下、これを突出箇所と呼ぶ)78や当該オブジェクト71の内側に凹んだ箇所(図示せず)が生じる場合がある。   Further, when the information processing apparatus 50 generates the object designation propagation area by the area generation / recording circuit 67, it is also apparent from FIG. 21 by simply moving the predetermined unit block 75 related to the object designation reference area 74 according to the motion vector. In this way, the original arrangement of the predetermined unit blocks 75 varies depending on the movement destination, and as a result, as shown in FIG. , This is referred to as a protruding portion) 78 and a recessed portion (not shown) may be generated inside the object 71.

そしてオブジェクト指定伝播領域77A乃至77Dに生じる突出箇所78等は、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dにかかる所定単位ブロックが移動してさらに別のオブジェクト指定伝播領域77A乃至77Dが生成されれば、そのオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合がある。   The protrusions 78 and the like generated in the object designated propagation areas 77A to 77D are moved to the other object designated propagation areas 77A to 77D by moving the predetermined unit block relating to the object designated propagation areas 77A to 77D in which the protrusions 78 are produced. May be generated in the object designated propagation areas 77A to 77D.

このためステップSP63において情報処理装置50は、ユーザインターフェース回路65からその時点で最新の指定領域提示画像データを合成した領域抽出処理用画面データD52を情報提示部55に送出し、当該情報提示部55に例えば図22について上述した領域抽出処理用画面を表示する。   For this reason, in step SP63, the information processing apparatus 50 sends the area extraction processing screen data D52 obtained by synthesizing the latest designated area presentation image data at that time from the user interface circuit 65 to the information presentation section 55. For example, the region extraction processing screen described above with reference to FIG. 22 is displayed.

この状態で情報処理装置50は、図23(A)及び(B)に示すように啓発対象ユーザにより領域抽出処理用画面上で修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dが指定されると共に、マウス等を介してその修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所(穴76や突出箇所78等)が当該修正箇所の周辺がなぞられて形成された枠79A及び79Bによって指示されると、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像データD51の識別情報と、枠79A及び79Bに相当する枠信号とを含む修正箇所指示信号S51が入力されることによりこれをユーザインターフェース回路65に取り込む。   In this state, the information processing apparatus 50, as shown in FIGS. 23A and 23B, provides one object designation reference area 74 or object designation propagation area 77A to 77A to be corrected on the area extraction processing screen by the enlightenment target user. 77D is specified, and the correction location (hole 76, protruding portion 78, etc.) of the object specification reference region 74 or the object specification propagation regions 77A to 77D to be corrected is traced around the correction location via a mouse or the like. When the frames 79A and 79B are formed, the identification information of the area extraction frame image data D51 corresponding to the object designation reference area 74 or the object designation propagation areas 77A to 77D to be corrected, and the frames 79A and 79B are displayed. When a correction location instruction signal S51 including the corresponding frame signal is input, Taken into over The interface circuit 65.

因みに、情報処理装置50は、この際、領域抽出処理用画面内の画像表示領域に生成伝播範囲及びその前後の領域抽出用フレーム画像(作業フレーム画像を含む)70A乃至70Gを表示していることにより、オブジェクト指定基準領域74の形状と、生成伝播範囲前後の領域抽出用フレーム画像70A及び70G中のオブジェクト71の形状とからオブジェクト指定伝播領域77A乃至77Dに対する突出箇所78を比較的容易に類推させて特定させ得るようになされている。   Incidentally, at this time, the information processing apparatus 50 displays the generation propagation range and the region extraction frame images (including work frame images) 70A to 70G before and after the generation propagation range in the image display region in the region extraction processing screen. Thus, it is possible to relatively easily analogize the protruding portion 78 with respect to the object designated propagation regions 77A to 77D from the shape of the object designated reference region 74 and the shape of the object 71 in the region extraction frame images 70A and 70G before and after the generation propagation range. So that it can be identified.

情報処理装置50は、ユーザインターフェース回路65により、修正箇所指示信号S51に含まれる枠信号を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該枠信号に相当する複数の枠形成点(領域抽出用フレーム画像70B乃至70F中の座標で表す)を生成し、当該生成した複数の枠形成点の集合データ(以下、これを枠形成点群データと呼ぶ)を、修正箇所指示信号S51に含まれる識別情報と共に修正箇所指示データD57として輪郭/領域変換回路66に送出する。   The information processing apparatus 50 uses the user interface circuit 65 to sample the frame signal included in the correction location instruction signal S51 at a predetermined sampling interval and convert it into digital data, thereby to obtain a plurality of frame formation points (corresponding to the frame signal). Region extraction frame images 70B to 70F) are generated, and the generated set data of a plurality of frame formation points (hereinafter referred to as frame formation point group data) is used as the correction location instruction signal S51. Along with the included identification information, it is sent to the contour / region conversion circuit 66 as correction location instruction data D57.

また情報処理装置50は、輪郭/領域変換回路66により、修正箇所指示データD57に基づいて得られた枠形成点群データに基づく枠形成点間を補間することにより枠79A及び79Bに相当する枠補間線を生成し、その枠補間線で囲まれた領域を修正箇所指示領域として表す修正箇所指示領域データと、修正箇所指示データD51に含まれる識別情報とを修正指示データD58として伝播領域決定回路64及び領域生成記録回路67に送出する。   In addition, the information processing apparatus 50 interpolates between the frame formation points based on the frame formation point group data obtained based on the correction location instruction data D57 by the contour / region conversion circuit 66, thereby corresponding to the frames 79A and 79B. Propagation region determination circuit that generates an interpolation line and uses the correction location indication region data that represents the region surrounded by the frame interpolation line as the correction location indication region and the identification information included in the correction location indication data D51. 64 and the area generation recording circuit 67.

情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から伝播範囲設定情報を読み出すと共に、その伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から修正伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。   The information processing apparatus 50 reads the propagation range setting information from the setting information recording circuit 63 by the propagation region determination circuit 64 and moves based on the propagation range setting information (that is, the identification information of the region extraction frame image data D51). The motion vectors of predetermined unit blocks in all the region extraction frame images (including work frame images) 70B to 70F in the corrected propagation range are read from the vector detection recording circuit 62.

そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、修正箇所指示領域にかかる全ての所定単位ブロックに対して、修正伝播範囲内で修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像70B乃至70Fを除いた他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置を検出する。   Then, the information processing apparatus 50 corrects all the predetermined unit blocks in the correction location indication area within the correction propagation range based on the motion vector read from the motion vector detection recording circuit 62 by the propagation area determination circuit 64. The movement destination position is detected with respect to the other region extraction frame images 70B to 70F excluding the region extraction frame images 70B to 70F corresponding to the target object specification reference region 74 or the object specification propagation regions 77A to 77D.

これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正を修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるための伝播領域情報として領域生成記録回路67に送出する。   As a result, the information processing apparatus 50 causes the propagation area determination circuit 64 to modify the detected movement destination position of the predetermined unit block to the object specification reference area 74 or the object specification propagation areas 77A to 77D to be corrected. The information is transmitted to the area generation / recording circuit 67 as propagation area information to be propagated to the other object designation reference area 74 or the object designation propagation areas 77A to 77D.

さらに情報処理装置50は、領域生成記録回路67により、設定情報記録回路63からその時点に設定されている修正モードを表す修正モード設定情報を読み出すと共に、すでに記憶しているオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dのうち修正指示データD58に含まれる識別情報に対応する修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを選択して読み出す。   Furthermore, the information processing apparatus 50 reads out the correction mode setting information indicating the correction mode set at that time from the setting information recording circuit 63 by the area generation recording circuit 67 and also stores the already-stored object designation reference area 74 or Of the object designation propagation areas 77A to 77D, the object designation reference area 74 or the object designation propagation areas 77A to 77D to be modified corresponding to the identification information included in the modification instruction data D58 is selected and read.

そして情報処理装置50は、領域生成記録回路67により、修正指示データD58に含まれる修正箇所指示領域データを取り出し、当該修正箇所指示領域データに基づく修正箇所指示領域を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと重ねる。   Then, the information processing apparatus 50 retrieves the correction location instruction area data included in the correction instruction data D58 by using the area generation recording circuit 67, and sets the correction location instruction area based on the correction location instruction area data as the object designation reference area 74 to be corrected. Or it overlaps with the object designated propagation areas 77A to 77D.

この状態で情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが削除であれば、例えば図24(A)に示すように、オブジェクト指定伝播領域77Aにおいて修正箇所指示領域79AXと重なった箇所77AXを削除することにより、突出箇所78を削って修正したオブジェクト指定伝播領域77AYを得る。   In this state, if the correction mode at that time is deleted based on the correction mode setting information by the area generation recording circuit 67, the information processing apparatus 50, for example, as shown in FIG. , The portion 77AX that overlaps with the correction location indication region 79AX is deleted, thereby obtaining the object designated propagation region 77AY that has been corrected by shaving the protruding portion 78.

また情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが追加であれば、例えば図24(B)に示すように、オブジェクト指定伝播領域77Bにおいて修正箇所指示領域79BXと重なった箇所77BXに所定の色の塗りつぶし領域を追加することにより、穴76を塞いで修正したオブジェクト指定伝播領域77BYを得る。   If the correction mode at that time is added based on the correction mode setting information by the area generation recording circuit 67, the information processing apparatus 50 corrects the object in the object designated propagation area 77B, for example, as shown in FIG. By adding a filled region of a predetermined color to a location 77BX that overlaps the location indication region 79BX, an object designated propagation region 77BY that is corrected by closing the hole 76 is obtained.

そして情報処理装置50は、領域生成記録回路67により、伝播領域情報に基づいて、修正箇所指示領域にかかる全ての所定単位ブロック(修正により新たに塗りつぶした、又は塗りつぶしを解除した所定単位ブロック)をそれぞれ修正伝播範囲の他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置へ移動させることにより修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにおける修正を他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにそれぞれ伝播させる。   Then, the information processing apparatus 50 uses the area generation / recording circuit 67 to determine all the predetermined unit blocks (predetermined unit blocks that have been newly painted or canceled by the correction) based on the propagation area information. The correction in the object designation reference area 74 or the object designation propagation areas 77A to 77D to be corrected is performed by moving the correction propagation range to the movement destination position with respect to the other area extraction frame images 70B to 70F. Alternatively, it is propagated to the object designated propagation areas 77A to 77D.

このようにして情報処理装置50は、修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正要求に応じて当該修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと、修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dとを合わせて修正することができる。   In this way, the information processing apparatus 50 responds to a correction request for one object specification reference area 74 or object specification propagation areas 77A to 77D to be corrected, and the object specification reference area 74 or object specification propagation areas 77A to 77A to be corrected. 77D and other object designation reference area 74 or object designation propagation areas 77A to 77D can be corrected together.

すなわち情報処理装置50は、複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれかのオブジェクト指定伝播領域77A乃至77Dに突出箇所78等が生じれば、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dをもとにして生成した他のオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合があるため、これら複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれか1つのオブジェクト指定伝播領域77A乃至77Dに対して修正を要求させるだけで他のオブジェクト指定伝播領域77A乃至77Dもその修正を反映させて容易に修正することができる。   In other words, the information processing apparatus 50, if a protruding portion 78 or the like occurs in any of the object specified propagation regions 77A to 77D among the plurality of object specified propagation regions 77A to 77D, the object specified propagation region in which the protruding portion 78 or the like has occurred. Since protruding portions may also occur in the other object designated propagation areas 77A to 77D generated based on 77A to 77D, any one of the plurality of object designated propagation areas 77A to 77D is selected. The other object designated propagation areas 77A to 77D can be easily corrected to reflect the correction by simply requesting the correction to 77D to 77D.

そして情報処理装置50は、領域生成記録回路67によりその修正して得た新たなオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを、修正前のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに上書きして記録することにより、記録保持しているオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを更新する。   Then, the information processing apparatus 50 converts the new object designation reference area 74 or object designation propagation areas 77A to 77D obtained by the area generation / recording circuit 67 to the object designation reference area 74 or object designation propagation area 77A before modification. The object designation reference area 74 and the object designation propagation areas 77A to 77D that are recorded and held are updated by overwriting and recording to 77D.

また情報処理装置50は、領域生成記録回路67により、更新したオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを再びオブジェクト指定領域データD59としてユーザインターフェース回路65に送出する。   The information processing apparatus 50 sends the updated object designation reference area 74 and object designation propagation areas 77A to 77D to the user interface circuit 65 again as object designation area data D59 by the area generation recording circuit 67.

そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD59と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。   Then, the information processing apparatus 50 reads the generation propagation range and the region extraction frame image data D51 before and after the generation propagation range from the image recording circuit 61 by the user interface circuit 65, and uses the region extraction frame image data D51 of the generation propagation range as the object designation region. The designated area presentation image data is generated by combining with the data D59, and the designated area presentation image data and the remaining area extraction frame image data D51 are combined with the area extraction processing screen data D52 to generate the information presentation section 55. To send.

これにより情報処理装置50は、図25に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応する修正済みのオブジェクト指定基準領域74A及びオブジェクト指定伝播領域77AX、77BX、77CX、77DX又は未だ修正を施していないオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを重ねて表示してステップSP52に戻る。   As a result, the information processing apparatus 50 displays the generation propagation range and the extraction frame frames 70A to 70B before and after the generation propagation range in the image display area in the area extraction processing screen as shown in FIG. The corrected object designation reference area 74A and the object designation propagation areas 77AX, 77BX, 77CX, 77DX corresponding to the area extraction frame images (including the work frame images) 70B to 70F of the generated propagation range, or still modified The object designation reference area 74 or the object designation propagation areas 77A to 77D that are not displayed are superimposed and displayed, and the process returns to step SP52.

このようにして情報処理装置50は、オブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成した後、修正伝播範囲及び修正モードを適宜設定して修正箇所が指示されれば、その都度、指示に応じてオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所を修正して提示し、啓発対象ユーザが精度等で納得するオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成することができる。   In this way, after generating the object designation reference area 74 and the object designation propagation areas 77A to 77D, the information processing apparatus 50 appropriately sets the modification propagation range and the modification mode, and each time a modification location is designated, In accordance with the instruction, the corrected portions of the object designation reference area 74 or the object designation propagation areas 77A to 77D are corrected and presented, and the object designation reference area 74 and the object designation propagation areas 77A to 77D that the enlightenment target user is satisfied with accuracy, etc. Can be generated.

これに加えて上述したステップSP62において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令、輪郭指定命令及び領域修正命令以外の命令であることを表しており、このとき情報処理装置50はステップSP64へ移る。   In addition to this, if a negative result is obtained in step SP62 described above, this means that the extraction processing command C50 input by the enlightenment target user is a work frame setting command, a correction mode setting command, a propagation range setting command, a contour specifying command. The information processing apparatus 50 moves to step SP64 at this time.

ステップSP64において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とするか、又は当該入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とするかを切り換える領域反転命令であるか否かを判断する。   In step SP64, the information processing apparatus 50 determines whether the extraction process instruction C50 input by the enlightenment target user by the user interface circuit 65 fills the area surrounded by the input contour interpolation line to be the object designation reference area 74, Alternatively, it is determined whether or not it is an area inversion command for switching whether to fill the outside of the input contour interpolation line to be an object designation reference area.

このステップSP64において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域反転命令であることを表しており、このとき情報処理装置50はステップSP65へ移る。   If an affirmative result is obtained in step SP64, this means that the extraction processing command C50 input by the enlightenment target user is processed according to at least a work frame setting command, a propagation range setting command, and a contour specifying command (step SP54, This represents that the area inversion command has been input after the processing described above in step SP58, step SP60 and step SP61) has already been executed. At this time, the information processing apparatus 50 proceeds to step SP65.

ステップSP65において情報処理装置50は、ユーザインターフェース回路65から領域反転命令を設定情報記録回路63に送出する。   In step SP65, the information processing apparatus 50 sends an area inversion command from the user interface circuit 65 to the setting information recording circuit 63.

情報処理装置50は、例えば初期状態では入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とする補間線内領域モードに設定しており、その補間線内領域モード時に領域反転命令が入力されると、当該領域反転命令を設定情報記録回路63に取り込んで、オブジェクト指定領域の形態を設定するための指定領域設定情報の内容を変更することにより、入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とする補間線外領域モードに設定を変更する。   For example, in the initial state, the information processing apparatus 50 is set to the interpolation line inner area mode in which the area surrounded by the input contour interpolation line is filled and used as the object designation reference area 74. Is input to the setting information recording circuit 63, and the contents of the designated area setting information for setting the form of the object designated area are changed to fill the outside of the input contour interpolation line. Change the setting to the non-interpolation line area mode that is used as the object specification reference area.

これに対して情報処理装置50は、補間線外領域モード時に領域反転命令が入力されると、その領域反転命令を設定情報記録回路63に取り込んで指定領域設定情報の内容を変更することにより補間線内領域モードに設定を変更する。   On the other hand, when an area inversion command is input in the out-of-interpolation area mode, the information processing apparatus 50 takes the area inversion command into the setting information recording circuit 63 and changes the contents of the designated area setting information to perform interpolation. Change the setting to in-line area mode.

そして情報処理装置50は、設定情報記録回路63により、補間線内領域モードを補間線外領域モードに切り換えたとき、これを領域生成記録回路67に通知する。   When the setting information recording circuit 63 switches the inter-interpolation line area mode to the inter-interpolation line area mode, the information processing apparatus 50 notifies the area generation recording circuit 67 of this.

情報処理装置50は、補間線内領域モードから補間線外領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dの外側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを除くオブジェクト71の背景となる領域)を所定の色で塗りつぶすオブジェクト指定領域(以下、これをオブジェクト指定基準領域に対応させてオブジェクト指定基準反転領域と呼び、オブジェクト指定伝播領域に対応させてオブジェクト指定伝播反転領域と呼ぶ)を生成する。   When the information processing apparatus 50 switches from the interpolation line inner area mode to the interpolation line outer area mode, the area generation recording circuit 67 causes the object designation reference area 74 and the object designation propagation areas 77A to 77D that have already been recorded and held. An object designating area (hereinafter referred to as this) that fills the outer side (that is, the area that becomes the background of the object 71 excluding the object designating reference area 74 and the object designating propagation areas 77A to 77D in the area extracting frame images 70B to 70F) with a predetermined color. The object designation reference inversion area is referred to as the object designation reference inversion area, and the object designation propagation inversion area is designated to correspond to the object designation propagation area.

そして情報処理装置50は、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を生成すると、領域生成記録回路67によりオブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を、オブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dに上書きして記録する。   When the information processing apparatus 50 generates the object designation reference inversion area and each object designation propagation inversion area, the area generation recording circuit 67 converts the object designation reference inversion area and each object designation propagation inversion area into the object designation reference area 74 and each of the object designation reference inversion areas. The object designated propagation areas 77A to 77D are overwritten and recorded.

また情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域をオブジェクト指定領域データD60としてユーザインターフェース回路65に送出する。   Also, the information processing apparatus 50 sends the object designation reference inversion area and each object designation propagation inversion area to the user interface circuit 65 as object designation area data D60 by the area generation recording circuit 67.

情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD60と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。   The information processing apparatus 50 uses the user interface circuit 65 to read the generation propagation range and the frame image data D51 for region extraction before and after the image generation circuit 61 from the image recording circuit 61, and use the region extraction frame image data D51 for the generation propagation range as object designation region data. The designated area presentation image data is generated by combining with D60, and the designated area presentation image data and the remaining area extraction frame image data D51 are combined with the area extraction processing screen data D52 to be sent to the information presentation unit 55. Send it out.

これにより情報処理装置50は、図26に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応するオブジェクト指定基準反転領域80及びオブジェクト指定伝播反転領域81A乃至81Dを重ねて表示してステップSP52に戻る。   As a result, the information processing apparatus 50 displays the generated propagation range and the preceding and following extraction frame images 70A to 70B in the image display area in the area extraction processing screen in the information presentation unit 55 as shown in FIG. Then, the object designation reference inversion area 80 and the object designation propagation inversion areas 81A to 81D respectively corresponding to the area extraction frame images (including work frame images) 70B to 70F of the generation propagation range are displayed in an overlapping manner, and the process returns to step SP52. .

因みに情報処理装置50は、補間線外領域モードから補間線内領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dの内側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dを除くオブジェクト71と重なる領域)を所定の色で塗りつぶすオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを生成する。   Incidentally, when the information processing apparatus 50 switches from the interpolation line outside area mode to the interpolation line inside area mode, the area generation recording circuit 67 causes the object designation reference inversion area 80 and each object designation propagation inversion area 81A already recorded and held. To 81D (that is, an area that overlaps the object designation reference inversion area 80 and the object designation propagation inversion areas 81A to 81D in the area extraction frame images 70B to 70F) with a predetermined color. And each object designated propagation area 77A thru / or 77D is generated.

この場合、情報処理装置50は、図22又は図25について上述した領域抽出処理用画面を啓発対象ユーザに提示してステップSP52に戻る。   In this case, the information processing apparatus 50 presents the area extraction processing screen described above with reference to FIG. 22 or FIG. 25 to the enlightenment target user and returns to step SP52.

このようにして情報処理装置50は、啓発対象ユーザによって入力される抽出処理命令C50に応じて上述したステップSP52乃至ステップSP65の処理を順次実行することにより当該啓発対象ユーザに自分で納得のできる精度でオブジェクト指定領域を抽出させることができる。   In this way, the information processing apparatus 50 performs the processing of step SP52 to step SP65 described above sequentially in accordance with the extraction processing command C50 input by the enlightenment target user, and thus the accuracy that can be convinced to the enlightenment target user by himself / herself. The object specification area can be extracted with.

そしてステップSP64において否定結果が得られると、このことはオブジェクト抽出用動画像70から時間的に連続する領域抽出用フレーム画像70B乃至70F中のオブジェクト71の動きに応じて推移させたオブジェクト指定領域が啓発対象ユーザの納得できる精度で抽出されたことにより、当該啓発対象ユーザにより抽出処理用命令C50として領域抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置50はステップSP66へ移る。   If a negative result is obtained in step SP64, this means that the object designated area changed in accordance with the movement of the object 71 in the area extracting frame images 70B to 70F that are temporally continuous from the object extracting moving image 70 is obtained. This means that the process end command for ending the region extraction process is input as the extraction process command C50 by the enlightenment target user because the extraction is performed with an accuracy that can be understood by the enlightenment target user. Moves to step SP66.

ステップSP66において情報処理装置50は、領域生成記録回路67により1度の生成又はその後の修正を経て最終的に記録したオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77D、又はオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dをオブジェクト指定領域データD61として領域抽出回路68を介して外部に出力することにより例えばオブジェクト抽出装置(図示せず)においてそのオブジェクト指定領域データD61に基づいてオブジェクト抽出用動画像データD50からオブジェクト71を抽出させるようにしてステップSP67(図14)へ移る。   In step SP66, the information processing apparatus 50 performs the object designation reference area 74 and the object designation propagation areas 77A to 77D finally recorded after one generation or subsequent correction by the area generation recording circuit 67, or the object designation reference inversion. By outputting the area 80 and the object designated propagation inversion areas 81A to 81D as object designated area data D61 to the outside through the area extraction circuit 68, for example, in an object extracting device (not shown), based on the object designated area data D61. Then, the process proceeds to step SP67 (FIG. 14) so as to extract the object 71 from the object extraction moving image data D50.

ステップSP67において情報処理装置50は、啓発対象ユーザにより所定の操作部(図示せず)を介して入力される啓発対象ユーザの氏名及び当該啓発対象ユーザの領域抽出手法に対する評価値となる技量のユーザ情報S55をユーザインターフェース回路65に取り込む。   In step SP67, the information processing apparatus 50 uses the enlightenment target user's name of the enlightenment target user input via a predetermined operation unit (not shown) and the skill user who becomes the evaluation value for the area extraction method of the enlightenment target user. The information S55 is taken into the user interface circuit 65.

ここで啓発対象ユーザの技量の判定には、コンピュータ等により所定の画像生成プログラムに従って生成された領域抽出操作の試行用の動画像(以下、これを領域抽出試行用動画像と呼ぶ)を用いて啓発対象ユーザにより定期的に領域抽出操作が試行的に行われた結果がその都度利用されている。   Here, the skill of the user to be enlightened is determined using a moving image for trial of region extraction operation (hereinafter referred to as a moving image for region extraction trial) generated by a computer or the like according to a predetermined image generation program. The result of the region extraction operation periodically performed by the enlightenment target user is used each time.

この場合、領域抽出試行用動画像は、時間的に連続して領域指定可能なオブジェクト(以下、これを領域抽出試行用オブジェクトと呼ぶ)を含む複数のフレーム画像(以下、これを試行用フレーム画像と呼ぶ)から構成されており、コンピュータ等によって実行された一般的な画像処理アプリケーションプログラムを利用した画像処理により領域抽出試行用オブジェクトの輪郭をほぼ正確に認識できるように生成されている。   In this case, the region extraction trial moving image includes a plurality of frame images (hereinafter referred to as trial frame images) including an object (hereinafter referred to as a region extraction trial object) whose region can be continuously specified in time. The contour of the region extraction trial object can be recognized almost accurately by image processing using a general image processing application program executed by a computer or the like.

従って啓発対象ユーザの技量は、領域抽出試行用動画像を用いて上述した領域抽出処理ルーチンSRT51とほぼ同様に複数の試行用フレーム画像中の領域抽出試行用オブジェクトに対するオブジェクト指定領域の領域抽出操作が試行的に行われた場合、例えば画像処理によってオブジェクト指定領域の形状と、実際の領域抽出試行用オブジェクトの輪郭とを比較し、予め設定された精度(予め設定された閾値内の誤差量)でオブジェクト指定領域が抽出されるまでに要した時間(すなわちオブジェクト指定領域の抽出を試行的に行った領域指定試行処理に要した時間)の逆数を用いて定量的に判定されている。   Therefore, the skill of the user to be enlightened is that the region extraction operation of the object designated region for the region extraction trial object in the plurality of trial frame images is performed using the region extraction trial moving image in substantially the same manner as the region extraction processing routine SRT51 described above. When performed on a trial basis, for example, the shape of the object designated area is compared with the contour of the actual area extraction trial object by image processing, for example, with a preset accuracy (an error amount within a preset threshold). The determination is made quantitatively by using the reciprocal of the time required until the object specified area is extracted (that is, the time required for the area specifying trial process for extracting the object specified area on a trial basis).

因みに啓発対象ユーザの技量は、比較的短い時間でオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が高いと判定することができ、この場合には領域指定試行処理に要した時間が短いことにより値が大きくなる。   By the way, the skill of the user to be enlightened can be determined that the skill is high if the object designated area is experimentally extracted with a predetermined accuracy in a relatively short time. In this case, the time required for the area designation trial process The value increases due to the short of.

また啓発対象ユーザの技量は、比較的長い時間をかけてオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が低いと判定することができ、この場合には領域指定試行処理に要した時間が長いことにより値が小さくなる。   The skill of the user to be enlightened can be determined to be low if the object designated area is extracted on a trial basis with a predetermined accuracy over a relatively long time. In this case, it is necessary for the area designation trial process. The value decreases as the time spent increases.

そして情報処理装置50は、かかる啓発対象ユーザの技量を含むユーザ情報S55をユーザインターフェース回路65に取り込むと、当該ユーザインターフェース回路65により画像記録回路61からオブジェクト動画像データD51を読み出す。   The information processing apparatus 50 reads the object moving image data D51 from the image recording circuit 61 by the user interface circuit 65 when the user information S55 including the skill of the enlightenment user is taken into the user interface circuit 65.

また情報処理装置50は、ユーザインターフェース回路65に上述した領域抽出処理ルーチンSRT51(すなわちオブジェクト抽出用動画像を用いた領域抽出処理)を実行している間、適宜表示内容を変化させて情報提示部55で表示した一連の領域抽出処理用画面を領域抽出処理に要した時間等の情報と共に領域抽出操作の経緯を表す領域抽出経緯画面データとして記録している。   Further, the information processing apparatus 50 appropriately changes the display contents while executing the above-described region extraction processing routine SRT51 (that is, the region extraction processing using the object extraction moving image) on the user interface circuit 65 to change the information presentation unit. A series of area extraction processing screens displayed at 55 are recorded as area extraction history screen data representing the history of the area extraction operation together with information such as time required for the area extraction processing.

従って情報処理装置50は、図27に示すように、ユーザインターフェース回路65により、ユーザ情報S55に含まれる啓発対象ユーザの氏名及び技量と、オブジェクト抽出用動画像データD50と、領域抽出経緯画面データとからなる入力情報を入力情報データD65として処理傾向情報抽出部52(図13)に送出してステップSP68へ移る。   Accordingly, as shown in FIG. 27, the information processing apparatus 50 uses the user interface circuit 65 to provide the name and skill of the enlightenment target user included in the user information S55, the moving image data D50 for object extraction, the area extraction history screen data, The input information consisting of is sent as input information data D65 to the processing tendency information extraction unit 52 (FIG. 13), and the process proceeds to step SP68.

ステップSP68において情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれるオブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ所定単位ブロックの周波数成分の和と当該所定単位ブロックの周波数成分のうち予め選定された特定周波数以上の周波数成分の和との比率を算出し、全ての領域抽出用フレーム画像データD51に対するこれら比率の平均値を高周波成分比率として算出する。   In step SP68, the information processing apparatus 50 causes the processing tendency information extraction unit 52 to execute a predetermined image for each of the region extraction frame image data D51 constituting the object extraction moving image data D50 included in the input information data D65. By performing the processing, the ratio between the sum of the frequency components of the predetermined unit block and the sum of the frequency components of a predetermined unit block or higher among the frequency components of the predetermined unit block in each region extraction frame image data D51 is calculated. The average value of these ratios for all the region extraction frame image data D51 is calculated as the high-frequency component ratio.

また情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ輝度の最大値から最小値を減算し、この結果得られた全ての領域抽出用フレーム画像データD51に対する減算結果の平均値を輝度値ダイナミックレンジとして算出する。   Further, the information processing apparatus 50 performs individual image extraction by applying predetermined image processing to all the image data D51 for area extraction constituting the moving image data D50 for object extraction by the processing tendency information extraction unit 52. In the frame image data D51, the minimum value is subtracted from the maximum value of each luminance, and the average value of the subtraction results for all the region extraction frame image data D51 obtained as a result is calculated as the luminance value dynamic range.

さらに情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれる領域抽出経緯画面データに対して所定の画像処理を施すことにより啓発対象ユーザにより作業フレーム画像70D中のオブジェクト71の輪郭が指定されたときの輪郭描線時間を検出し、その輪郭描線時間を、当該輪郭描線時間を除く領域抽出処理に要した時間(以下、これを描線除外処理時間と呼ぶ)で除算することにより得られる除算結果を描線及び描線除外処理時間比率として算出する。   Further, the information processing apparatus 50 performs predetermined image processing on the area extraction history screen data included in the input information data D65 by the processing tendency information extraction unit 52, so that the user 71 is enlightened by the object 71 in the work frame image 70D. Detecting the contour drawing time when a contour is specified, and dividing the contour drawing time by the time required for region extraction processing excluding the contour drawing time (hereinafter referred to as the “drawing line exclusion processing time”) The division result obtained by the above is calculated as the ratio of the drawn line and drawn line removal processing time.

これに加えて情報処理装置50は、処理傾向情報抽出部52により、啓発対象ユーザによって作業フレーム画像70D中のオブジェクト71の輪郭が指定されて得られた入力輪郭形成点を用いて当該入力輪郭形成点を生成するための所定サンプリング間隔と隣接する入力輪郭形成点間の距離とにより順次隣接する入力輪郭形成点間の描線速度を算出し、各入力輪郭形成点間の描線速度の平均値をオブジェクト71の輪郭が指定されたときの平均描線速度として算出する。   In addition, the information processing apparatus 50 uses the input contour formation point obtained by the processing tendency information extraction unit 52 to specify the contour of the object 71 in the work frame image 70D by the enlightenment target user. The drawing speed between adjacent input contour forming points is calculated sequentially based on the predetermined sampling interval for generating points and the distance between adjacent input contour forming points, and the average value of the drawing speed between the input contour forming points is calculated as an object. It is calculated as an average drawing speed when 71 contours are designated.

そして情報処理装置50は、図28に示すように処理傾向情報抽出部52により、高周波成分比率及び輝度値ダイナミックレンジをオブジェクト抽出用動画像70における絵柄の様子(複雑さや色調等がどのような動画像であるか)を表す画像特徴情報とすると共に、描線及び描線除外処理時間比率や平均描線速度を領域抽出操作の経緯を具体的に表す領域抽出経緯情報とし、これら画像特徴情報及び領域抽出経緯情報を啓発対象ユーザによりどのようなオブジェクト抽出用動画像70からどのようにオブジェクト指定領域が抽出されたかを表す処理傾向情報とする。   Then, the information processing apparatus 50 uses the processing tendency information extraction unit 52 to change the high-frequency component ratio and the luminance value dynamic range of the picture in the object extraction moving image 70 as shown in FIG. Image feature information indicating whether the image is an image), and the ratio of strokes and stroke exclusion processing time and the average stroke speed as region extraction history information that specifically represents the background of the region extraction operation. The information is processing trend information indicating how the object designation area is extracted from what kind of object extraction moving image 70 by the enlightenment target user.

これにより情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50及び領域抽出経緯画面データから抽出した処理傾向情報を処理傾向情報データD66とし、当該処理傾向情報データD66及び入力情報データD65同士を対応付けて蓄積情報データD67として情報蓄積部53に送出すると共に、その処理傾向情報データD66をそのまま提示情報選択部54に送出した後、続くステップSP69及びステップSP70へ移る。   Accordingly, the information processing apparatus 50 uses the processing trend information extraction unit 52 as the processing trend information data D66 as the processing trend information extracted from the object extraction moving image data D50 and the region extraction history screen data. The input information data D65 is associated with each other and transmitted as the accumulated information data D67 to the information accumulating unit 53, and the processing tendency information data D66 is directly transmitted to the presentation information selecting unit 54. Then, the process proceeds to the subsequent steps SP69 and SP70.

ステップSP69において情報処理装置50は、情報蓄積部53により、蓄積情報データD67を例えば入力情報データD65同士と処理傾向情報データD66同士とにまとめて記憶してステップSP71へ移る。   In step SP69, the information processing apparatus 50 stores the stored information data D67 together with, for example, the input information data D65 and the processing tendency information data D66 by the information storage unit 53, and proceeds to step SP71.

またステップSP70において情報処理装置50は、ステップSP69の処理と並行して提示情報選択部54により、処理傾向情報データD66に含まれる画像特徴情報としての輝度値ダイナミックレンジ(以下、これを比較用基準輝度値ダイナミックレンジと呼ぶ)の値及び領域抽出経緯情報としての平均描線速度(以下、これを比較用基準平均描線速度と呼ぶ)の値と、情報蓄積部53においてステップSP69で記憶した啓発対象ユーザの蓄積情報データD67を除いたすでに蓄積している他の全ての過去蓄積情報データD67に処理傾向情報データD66として含まれる輝度値ダイナミックレンジ(以下、これを過去輝度値ダイナミックレンジと呼ぶ)及び平均描線速度(以下、これを過去平均描線速度と呼ぶ)の値とを比較する。   In step SP70, the information processing apparatus 50 causes the presentation information selection unit 54 to execute a luminance value dynamic range (hereinafter referred to as a reference for comparison) as image feature information included in the processing tendency information data D66 in parallel with the processing in step SP69. Brightness value dynamic range) and average drawing speed (hereinafter referred to as a reference average drawing speed for comparison) as region extraction history information, and the enlightenment user stored in step SP69 in the information storage unit 53 Luminance value dynamic range (hereinafter referred to as past luminance value dynamic range) and average included as processing tendency information data D66 in all other past accumulated information data D67 already accumulated except for accumulated information data D67 The value of the drawing speed (hereinafter referred to as the past average drawing speed) is compared.

これにより情報処理装置50は、図9について上述した場合と同様に提示情報選択部54により、過去蓄積情報データD67の中から、比較用基準輝度値ダイナミックレンジの値を中心とした所定のダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ比較用基準平均描線速度の値を中心とした所定の描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。   As a result, the information processing apparatus 50 causes the presentation information selection unit 54 to perform a predetermined dynamic range centered on the value of the comparison reference luminance value dynamic range from the past accumulated information data D67 as in the case described above with reference to FIG. Past that includes past luminance value dynamic range information indicating a value within the threshold range and past average drawing speed information indicating a value within a predetermined drawing speed threshold range centered on the reference average drawing speed value for comparison The stored information data D67 is selected.

次いで情報処理装置50は、提示情報選択部54により、比較用輝度値ダイナミックレンジの値及び比較用基準平均描線速度の値を用いて選択した過去蓄積情報データD67の中から、当該過去蓄積情報データD67に含まれる技量の情報同士を比較することにより、最も高い技量(すなわち最も高い評価値)を入力情報データD65の一部として含む過去蓄積情報データD67を選択する。   Next, the information processing apparatus 50 uses the presentation information selection unit 54 to select the past stored information data D67 from the past stored information data D67 selected using the comparison brightness value dynamic range value and the comparison reference average drawing speed value. The past accumulated information data D67 including the highest skill (that is, the highest evaluation value) as a part of the input information data D65 is selected by comparing pieces of skill information included in D67.

このようにして情報処理装置50は、図29に示すように提示情報選択部54により、情報蓄積部53にすでに蓄積していた全ての過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法に対する処理傾向情報の比較用輝度値ダイナミックレンジ及び比較用平均描線速度を限定基準として用いて当該啓発対象ユーザの領域抽出手法に類似する領域抽出手法でオブジェクト指定領域の抽出を行ったユーザの過去蓄積情報データD67を選択した後(すなわち選択対象の過去蓄積情報データD67の数を限定した後)、当該選択した過去蓄積情報データD67の中からこれらに含まれる技量を選定基準として用いて技量の最も高いユーザの過去蓄積情報データD67を最終的に選択する。   In this way, the information processing apparatus 50 extracts the region of the enlightenment target user from all the past stored information data D67 that has already been stored in the information storage unit 53 by the presentation information selection unit 54 as shown in FIG. The past of the user who extracted the object specified region by the region extraction method similar to the region extraction method of the enlightenment user using the comparative brightness value dynamic range of the processing trend information for the method and the average drawing speed for comparison as the limiting criteria After selecting the accumulated information data D67 (that is, after limiting the number of past accumulated information data D67 to be selected), the skills included in the selected past accumulated information data D67 are used as selection criteria. The past accumulated information data D67 of the highest user is finally selected.

これにより情報処理装置50は、図30示すように提示情報選択部54により、情報蓄積部53から、最終的に選択した過去蓄積情報データD67に入力情報データD65として含まれる領域抽出経緯画面データ及び技量の情報を提示情報データD68として読み出すと共に、当該読み出した提示情報データD68を情報提示部55に送出してステップSP71へ移る。   As a result, the information processing apparatus 50 causes the presentation information selection unit 54 to display the area extraction history screen data included as the input information data D65 from the information storage unit 53 in the finally selected past storage information data D67, as shown in FIG. The skill information is read as presentation information data D68, and the read presentation information data D68 is sent to the information presentation unit 55, and the process proceeds to step SP71.

ステップSP71において情報処理装置50は、情報提示部55により提示情報データD68に基づく一連の領域抽出処理用画面及び技量の情報を啓発対象ユーザに提示した後、ステップSP72へ移って第2の啓発促進処理手順RT50を終了する。   In step SP71, the information processing apparatus 50 presents a series of area extraction processing screens and skill information based on the presentation information data D68 to the enlightenment target user by the information presenting unit 55, and then proceeds to step SP72 to perform the second enlightenment promotion. The processing procedure RT50 is terminated.

このようにして情報処理装置50は、啓発対象ユーザに類似する領域抽出手法(例えば啓発対象ユーザがオブジェクト指定領域の抽出に用いたオブジェクト抽出用動画像70の色調と類似する色調のオブジェクト抽出用動画像を用いて、オブジェクト指定領域の抽出処理で最も重要で、かつオブジェクト指定領域のもとになるオブジェクトの輪郭の指定の仕方が類似する)でオブジェクト指定領域を抽出した複数のユーザの中から、最も技量の高いユーザの領域抽出手法として一連の領域抽出処理用画面(処理の経緯やオブジェクト抽出用動画像を含む)を実際にユーザの行った領域抽出操作の時間経過に合わせて再生して提示する。   In this way, the information processing apparatus 50 uses an area extraction method similar to the enlightenment target user (for example, an object extraction moving image having a color tone similar to the color tone of the object extraction moving image 70 used by the enlightenment target user to extract the object designation area). Using the image, it is the most important in the extraction process of the object specification area, and the method of specifying the contour of the object that is the basis of the object specification area is similar), from among a plurality of users who extracted the object specification area, As a region extraction method for the user with the highest skill level, a series of region extraction processing screens (including process details and moving images for object extraction) are reproduced and presented according to the time lapse of the region extraction operation actually performed by the user. To do.

これにより情報処理装置50は、啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所(例えば領域抽出操作で最も重要な、輪郭の指定の仕方や、生成伝播範囲及び修正伝播範囲の設定の仕方等)を啓発対象ユーザの領域抽出手法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの領域抽出手法に真似て改善させ得るようになされている。   As a result, the information processing apparatus 50 is configured so that the region extraction method of the enlightenment user and the region extraction method of another user are different from each other (for example, the most important method of specifying the contour, the generation propagation range and the correction propagation in the region extraction operation). The setting method of the range etc.) can be found as an improved part in the area extraction method of the enlightenment target user, and thus the improved part can be imitated to improve the area extraction method of other users.

因みに第2の実施の形態の場合、情報処理装置50は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C51が入力されることによりこれを領域抽出部51のユーザインターフェース回路65に取り込むと、当該追加命令C51をユーザインターフェース回路65から処理傾向情報抽出部52を介して提示情報選択部54に送出する。   Incidentally, in the case of the second embodiment, the information processing apparatus 50 receives the presentation information addition command C51 via a predetermined operation unit while presenting the presentation information to the enlightenment target user. Is added to the user interface circuit 65 of the region extraction unit 51, and the additional command C51 is sent from the user interface circuit 65 to the presentation information selection unit 54 via the processing tendency information extraction unit 52.

そして情報処理装置50は、提示情報選択部54により情報蓄積部53から、最終的に選択した過去蓄積情報データD67に処理傾向情報データD66として含まれる画像特徴情報としての高周波成分比率と、領域抽出経緯情報としての描線及び描線除外処理時間比率の情報を読み出し、当該読み出した高周波成分比率と描線及び描線除外処理時間比率とを、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率と共に追加提示情報データD69として情報提示部55に送出する。   Then, the information processing apparatus 50 extracts the high-frequency component ratio as the image feature information included as the processing tendency information data D66 from the information storage unit 53 by the presentation information selection unit 54 as the processing trend information data D66, and region extraction. The information of the drawn line and drawn line removal processing time ratio as the background information is read, and the read high frequency component ratio and drawn line and drawn line exclusion processing time ratio are set to the high frequency component ratio and drawn line included in the processing trend information data D66 of the enlightenment target user. And it is sent to the information presentation part 55 as additional presentation information data D69 with a drawing line exclusion process time ratio.

これにより情報処理装置50は、情報提示部55により、追加提示情報データD69に基づく高周波成分比率と、描線及び描線除外処理時間比率との情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の領域抽出手法と、他のユーザの領域抽出手法との異なる箇所を一連の領域抽出処理用画面の提示のみならずに高周波成分比率や、描線及び描線除外処理時間比率の数値としての違いからも見つけさせることができるようになされている。   Thereby, the information processing apparatus 50 outputs the information of the high frequency component ratio based on the additional presentation information data D69 and the line drawing and line drawing exclusion processing time ratio through the monitor and the speaker by the information presentation unit 55 to the enlightenment target user. Presenting the information to the target user and thus showing different areas between the user's area extraction method and other users' area extraction methods as well as a series of area extraction processing screens, as well as high-frequency component ratios, line drawing, and line drawing exclusion processing It is made to be able to be found from the difference in the numerical value of the time ratio.

すなわち情報処理装置50は、啓発対象ユーザに他のユーザがオブジェクト指定領域の抽出処理に用いたオブジェクト抽出用動画像の絵柄の様子(複雑さ)がどう異なるのかや、領域抽出操作においてオブジェクトの輪郭の指定をどのくらい重要視しているか等の違いを数値として判断させ得るようになされている。   In other words, the information processing apparatus 50 determines how the pattern (complexity) of the image of the object extraction moving image used by another user for the object specified region extraction process differs from the enlightenment target user, and the contour of the object in the region extraction operation. It is made to be able to judge the difference such as how much importance is given to the designation as a numerical value.

以上の構成において、情報処理装置50は、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせ、その領域抽出操作に応じた領域抽出処理中に適宜表示内容を変更して提示した一連の領域抽出処理用画面を領域抽出操作の経緯を表す領域抽出経緯画面データとし、当該領域抽出経緯画面データと、領域抽出処理に用いたオブジェクト抽出用動画像データD50と、啓発対象ユーザによって入力された領域抽出手法に対する技量の情報とを入力情報データD65とする。   In the above configuration, the information processing apparatus 50 causes the enlightenment target user to perform an area extraction operation for extracting the object designated area from the object extraction moving image 70, and appropriately displays the contents during the area extraction process corresponding to the area extraction operation. A series of region extraction processing screens presented by changing the above are used as region extraction history screen data representing the history of the region extraction operation, the region extraction history screen data, and the object extraction moving image data D50 used for the region extraction processing. The skill information for the region extraction method input by the enlightenment target user is referred to as input information data D65.

そして情報処理装置50は、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70及び領域抽出経緯画面データから啓発対象ユーザがどのような動画像からどのようにオブジェクト指定領域を抽出しているかを表す当該啓発対象ユーザの領域抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD66を入力情報データD65と共に蓄積情報データD67として情報蓄積部53に記憶する。   Then, the information processing apparatus 50 extracts the object designation region from what kind of moving image by the enlightenment user from the object extracting moving image 70 based on the object extracting moving image data D50 and the region extraction history screen data. The processing tendency information for the enlightenment target user's region extraction method is extracted, and the processing tendency information data D66 including the extracted processing tendency information is stored in the information storage unit 53 as the stored information data D67 together with the input information data D65.

このとき情報処理装置50は、啓発対象ユーザの処理傾向情報データD66と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD66とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択する。   At this time, the information processing apparatus 50 compares the processing trend information data D66 of the enlightenment target user with the processing trend information data D66 included in the past storage information data D67 already stored in the information storage unit 53, thereby comparing the past. From the accumulated information data D67, the past accumulated information data D67 including the object extraction moving image data D50 representing the area extraction method of another user similar to the area extraction method of the enlightenment user and the area extraction history screen data are selected. .

次いで情報処理装置50は、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択し、その選択した過去蓄積情報データD67に含まれる領域抽出経緯画面データ(すなわち領域抽出処理中に提示していた一連の領域抽出処理用画面)を提示情報として啓発対象ユーザに提示するようにした。   Next, the information processing apparatus 50 compares the pieces of skill information included in the selected past stored information data D67, finally selects the past stored information data D67 of the user having the highest skill, and selects the selected past stored information. The area extraction history screen data included in the information data D67 (that is, a series of area extraction process screens presented during the area extraction process) is presented to the enlightenment target user as presentation information.

従ってこの情報処理装置50は、上述した第1の実施の形態と同様に処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。   Therefore, the information processing apparatus 50 does not particularly require an instructor with excellent processing capability as in the first embodiment described above. Encourage enlightenment and allow the user to be enlightened to find a different location between the region extraction method of the user targeted for enlightenment and the region extraction method of other users, as well as the improved portion Can be improved by imitating the region extraction method of other users.

また情報処理装置50は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C51が入力されると、これに応じて、最終的に選択した過去蓄積情報データD67に処理傾向情報として含まれる高周波成分比率と描線及び描線除外処理時間比率との情報を、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率との情報と共に追加提示情報として啓発対象ユーザに提示するようにした。   In addition, when the presentation information addition command C51 is input while presenting the presentation information to the enlightenment target user, the information processing apparatus 50 processes the past accumulated information data D67 that is finally selected in response thereto. Information on the high-frequency component ratio included in the trend information and the ratio of the drawn line and line-excluded processing time are additionally presented together with the information on the high-frequency component ratio and the drawn line and drawn-line excluded processing time ratio included in the processing trend information data D66 of the enlightenment target user. Information was presented to enlightened users.

従って情報処理装置50は、追加提示情報によっても啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促し、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所を、領域抽出処理中に提示していた一連の領域抽出処理用画面を目視させて見つけさせることに加えてオブジェクト抽出用動画像に対する高周波成分比率や、領域抽出処理中のオブジェクトの輪郭の指定の重要度を表す描線及び描線除外処理時間比率の数値としての違いとしても啓発対象ユーザに自分の領域抽出手法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。   Therefore, the information processing apparatus 50 also encourages the enlightenment target user to enlighten the improvement location in his / her area extraction method also by the additional presentation information, and identifies different locations between the enlightenment target user's area extraction method and other users' area extraction methods. In addition to visually locating a series of area extraction screens that were presented during area extraction processing, it is important to specify the high-frequency component ratio for the object extraction moving image and the outline of the object during area extraction processing. It is possible to make the user to be enlightened exactly as an improvement point in his area extraction method even as a difference between the drawing line representing degree and the line exclusion processing time ratio as a numerical value, and to improve the other user's area extraction method It can be imitated and improved.

これに加えて情報処理装置50は、オブジェクト指定領域を抽出する領域抽出処理時、図16及び図17について上述した領域抽出処理ルーチンSRT51を実行し、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……のうちオブジェクト71の輪郭を実際に指定する1つの作業フレーム画像70Dを選択させると共に、オブジェクト指定領域の生成を伝播させる生成伝播範囲の複数の領域抽出用フレーム画像70B、70C、70E、70Fを選択させる。   In addition to this, the information processing apparatus 50 executes the region extraction processing routine SRT51 described above with reference to FIGS. 16 and 17 during the region extraction processing for extracting the object designated region, and thereby includes a plurality of regions constituting the object extraction moving image 70. Among the extraction frame images 70A to 70G,..., One work frame image 70D that actually specifies the contour of the object 71 is selected, and a plurality of region extraction frames in the generation propagation range that propagates the generation of the object specification region are propagated. The images 70B, 70C, 70E, and 70F are selected.

そして情報処理装置50は、作業フレーム画像70D中のオブジェクト71の輪郭がなぞられて指定されると、その結果得られた入力輪郭線に基づいて作業フレーム画像70Dに対するオブジェクト指定基準領域74を生成すると共に、当該オブジェクト指定基準領域74にかかる所定単位ブロックを生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fにおける移動位置に移動させて当該生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fに対するオブジェクト指定伝播領域77A乃至77Dを生成する。   When the contour of the object 71 in the work frame image 70D is traced and designated, the information processing apparatus 50 generates an object designation reference area 74 for the work frame image 70D based on the input contour line obtained as a result. At the same time, the predetermined unit block related to the object designation reference region 74 is moved to the movement position in each region extraction frame image 70B, 70C, 70E, 70F in the generation propagation range, and each region extraction frame in the generation propagation range. Object designation propagation areas 77A to 77D for the images 70B, 70C, 70E, and 70F are generated.

従って情報処理装置50は、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の輪郭をそれぞれ指定しなくても、いずれか1つの領域抽出用フレーム画像(作業フレーム画像)70D中のオブジェクト71の輪郭を指定するだけで、複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域を容易に抽出することができる。   Therefore, the information processing apparatus 50 does not specify the contours of the objects 71 in the plurality of region extraction frame images 70B to 70F constituting the object extraction moving image 70, and any one region extraction frame image ( By simply designating the outline of the object 71 in the work frame image 70D, it is possible to easily extract the object designating areas that respectively designate the objects 71 in the plurality of area extracting frame images 70B to 70F.

また情報処理装置50は、修正伝播範囲を設定したうえでいずれか1つの修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正が指示されると、その修正を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dから修正伝播範囲内の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるため、啓発対象ユーザに極力少ない操作で複数のオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dの抽出精度を容易に向上させることができる。   In addition, when the information processing apparatus 50 sets a correction propagation range and is instructed to correct any one of the object specification reference areas 74 or the object specification propagation areas 77A to 77D to be corrected, the information processing apparatus 50 changes the correction target object. In order to propagate from the designated reference area 74 or the object designated propagation areas 77A to 77D to the other object designated reference areas 74 or the object designated propagation areas 77A to 77D within the modified propagation range, a plurality of objects can be designated with as few operations as possible to the enlightenment target user. The extraction accuracy of the reference area 74 and the object designated propagation areas 77A to 77D can be easily improved.

以上の構成によれば、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせた際に表示した一連の領域抽出処理用画面と、そのオブジェクト抽出用動画像70と、当該啓発対象ユーザの技量の情報とからなる入力情報を当該一連の領域抽出処理用画面及びオブジェクト抽出用動画像70から抽出した、啓発対象ユーザの領域抽出手法に対する処理傾向情報と共に蓄積情報データD67として情報蓄積部53に記憶すると共に、当該啓発対象ユーザの領域抽出手法に対する処理傾向情報と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報とを比較して当該過去蓄積情報データD67の中から啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法をオブジェクト抽出用動画像及び一連の領域抽出処理用画面として含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの領域抽出手法に真似て改善させることができ、かくして処理対象となるオブジェクト抽出用動画像70からオブジェクト指定領域を抽出するという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。   According to the above configuration, a series of area extraction processing screens displayed when the user to be enlightened performs an area extraction operation for extracting an object designated area from the object extraction moving image 70, and the object extraction moving image. 70 and input information consisting of information on the skill of the user to be enlightened is extracted from the series of region extraction processing screens and the moving image 70 for object extraction, together with processing trend information for the region extraction method of the user to be enlightened, and accumulated information Data D67 is stored in the information storage unit 53, and the processing tendency information for the region extraction method of the enlightenment target user is compared with the processing tendency information included in the past storage information data D67 already stored in the information storage unit 53. Then, from the past accumulated information data D67, other users similar to the region extraction method of the enlightenment target user After selecting the past accumulation information data D67 including the area extraction method as the object extraction moving image and the series of area extraction processing screens, the skill information included in the selected past accumulation information data D67 is compared with each other. The user selects the past accumulated information data D67 of the highest user and finally presents a series of area extraction processing screens included in the finally selected past accumulated information data D67 as the presentation information to the enlightenment target user. As a result, the enlightenment user is enlightened with the improvement of the area extraction method of his / her area extraction method based on the presented information, and the area extraction method of the user to be enlightened and the area extraction method of another user are identified as different areas of the enlightenment user. Make it possible to find an improvement point in your area extraction method, and the other user's area Can be improved to mimic the extraction procedure, thus the processing capabilities of the processing of the object extracting moving image 70 to be processed to extract the object specified area can be realized an information processing apparatus capable of easily improved.

なお上述した第2の実施の形態においては、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択し、当該選択した1又は複数の過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。   In the second embodiment described above, the processing tendency information data D65 of the enlightenment target user is compared with the processing tendency information data D65 included in the past accumulation information data D67 already accumulated in the information accumulation unit 53. Thus, from the past accumulated information data D67, the past accumulated information data including the object extraction moving image data D50 representing the area extracting method of another user similar to the area extracting method of the enlightenment target user and the area extracting history screen data. After selecting D67, the case where the skill information included in the selected past accumulated information data D67 is compared and the past accumulated information data D67 of the user with the highest skill is finally selected is described. However, the present invention is not limited to this, and the processing tendency information data D65 of the user to be enlightened and the information storage unit 53 By comparing the processing trend information data D65 included in the accumulated past accumulated information data D67, the area extracting method of other users similar to the area extracting method of the enlightenment user from the past accumulated information data D67. Is selected past accumulated information data D67 including object extraction moving image data D50 and area extraction history screen data, and a series of area extraction processing screens included in the selected one or more past accumulated information data D67 is presented. You may make it show to a user for enlightenment as information.

このようにすれば、啓発対象ユーザに技量の異なる複数のユーザの領域抽出処理の経緯を提示情報として提示することができるため、上述した第2の実施の形態の場合よりも、啓発対象ユーザに自分の領域抽出手法における改善箇所を更に多く見つけさせることができる。   In this way, it is possible to present the background of the region extraction process of a plurality of users with different skills to the enlightenment target user as the presentation information, and thus to the enlightenment target user than in the case of the second embodiment described above. You can find more improvements in your area extraction method.

また啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較して複数の過去蓄積情報データD67の中から最終的な過去蓄積情報データD67を選択することにより、上述した第2の実施の形態に比べて選択時の処理負荷を低減させることもできる。   Further, the processing trend information data D65 of the enlightenment target user is compared with the processing trend information data D65 included in the past storage information data D67 already stored in the information storage unit 53, and a plurality of past storage information data D67 are compared. By selecting the final past accumulation information data D67, it is possible to reduce the processing load at the time of selection as compared with the second embodiment described above.

また上述した第2の実施の形態においては、啓発対象ユーザに他のユーザの領域抽出処理における一連の領域抽出処理用画面を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD67に啓発対象ユーザの過去の蓄積情報データD67が含まれており、当該啓発対象ユーザの過去の蓄積情報データD67を選択したときには、その蓄積情報データD67に含まれる過去の領域抽出処理における一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の領域抽出手法よりも過去の領域抽出手法の方が技量が高いと、現在の領域抽出手法における改善箇所を過去の技量の高かったときの領域抽出手法と比較させて容易に見つけさせることができる。   In the second embodiment described above, a case has been described in which a series of region extraction processing screens in the region extraction processing of other users is presented to the enlightenment target user as presentation information. The past stored information data D67 of the user to be enlightened is included in the past stored information data D67, and when the past stored information data D67 of the user to be enlightened is selected, it is included in the stored information data D67. A series of region extraction processing screens in the past region extraction processing may be presented to the enlightenment target user as presentation information. In this case, for example, if the past region extraction method has a higher skill than the current region extraction method of the user to be enlightened, the improved region in the current region extraction method is the region extraction method when the past skill is high. It can be easily found in comparison with.

さらに上述した第2の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD67を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD67を除いた他の過去蓄積情報データD67を用いるようにしても良い。   Further, in the above-described second embodiment, when the presentation information to be presented to the enlightenment target user is selected, all past accumulated information data D67 is used. However, the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D67 used for the past presentation is selected based on the presentation history. Other past accumulated information data D67 excluded may be used.

このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で領域抽出手法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD67をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。   In this way, it is possible to prevent the presentation information previously presented to the enlightenment target user from being presented again and to present new presentation information, thereby improving the area extraction method from a new viewpoint to the enlightenment target user. Can be enlightened. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D67 used for presenting the presentation information is not used for the selection of the subsequent presentation information regardless of the user to be presented. Such processing can also be realized by forcing restrictions.

さらに上述した第2の実施の形態においては、図29について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図31に示すような種々の選択条件をいずれか1つ、又は図31に示す種々の選択情報と図29について上述した選択条件とを合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。   Furthermore, in the second embodiment described above, the case where presentation information is selected using the selection conditions described above with reference to FIG. 29 has been described, but the present invention is not limited to this, and as shown in FIG. Any one of various selection conditions, or various selection information shown in FIG. 31 and the selection conditions described above with reference to FIG. 29 are combined to selectively use one or more selection conditions to select presentation information. May be.

ここで、図31に示す種々の選択条件について詳述すると、情報処理装置50は、まず第1の選択条件を用いる場合、提示情報選択部54により、比較用基準輝度値ダイナミックレンジの値と、全ての過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67の中から当該過去蓄積情報データD67に含まれる技量の情報同士を比較して最も良い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。   Here, the various selection conditions shown in FIG. 31 will be described in detail. When the information processing apparatus 50 first uses the first selection condition, the presentation information selection unit 54 uses the comparison reference luminance value dynamic range value, After selecting past accumulated information data D67 including past luminance value dynamic range information indicating values within the dynamic range threshold range by comparing with past luminance value dynamic range values included in all past accumulated information data D67 From the selected past stored information data D67, the pieces of skill information included in the past stored information data D67 are compared with each other, and finally the past stored information data D67 including the best skill is finally selected. A series of area designating screens included in the selected past accumulated information data D67 are presented to the enlightenment target user.

この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から、技量の最も高い領域抽出手法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。   In this case, the information processing apparatus 50 extracts a plurality of object designation regions using the object extraction moving image 70 having a color tone similar to that of the object extraction moving image 70 used for extraction of the object designation region by the enlightenment target user. The region extraction method having the highest skill can be presented to the enlightenment target user from among the region extraction methods, and the enlightenment target user can be enlightened about the improvement location in his area extraction method.

また情報処理装置50は、第2の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる技量(以下、これを過去技量と呼ぶ)の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。   Further, when the second selection condition is used, the information processing apparatus 50 causes the presentation information selection unit 54 to use the reference luminance value dynamic range value for comparison included in the processing tendency information data D66 of the enlightenment target user and the information storage unit 53. Are compared with the values of the past luminance value dynamic range included in the past stored information data D67 already stored in the past, and information on skills (hereinafter referred to as past skills) included in the past stored information data D67. Are selected, the past accumulated information data D67 including the past luminance value dynamic range information indicating a value within the dynamic range threshold range and including the past skill having a value equal to or larger than a predetermined threshold value set in advance is selected.

そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67に含まれる過去平均描線速度の値と、比較用基準平均描線速度の値とを比較することにより、当該選択した過去蓄積情報データD67の中から描線速度閾値範囲外の値を示し、かつ比較用基準平均描線速度の値との違いが最大である過去平均描線速度の情報を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。   Then, the information processing device 50 compares the value of the past average drawing speed included in the selected past accumulated information data D67 with the value of the reference average drawing speed for comparison by using the presentation information selection unit 54, thereby selecting the selection. In the past accumulated information data D67, the past accumulated information data D67 indicating information outside the drawing speed threshold value range and including the information of the past average drawing speed that has the largest difference from the reference average drawing speed value for comparison is finalized. A series of area designating screens included in the past accumulated information data D67 finally selected is presented to the enlightenment target user.

この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から、オブジェクトの輪郭の指定の仕方が最も異なる領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。   In this case, the information processing apparatus 50 extracts the object designation region using the object extraction moving image 70 having a color tone similar to that of the object extraction moving image 70 used for extraction of the object designation region by the enlightenment target user, and From among a plurality of region extraction methods with a certain level of skill, the region extraction method (that is, a series of region specification processing screens) in which the method of specifying the contour of the object is the most different is presented to the enlightenment target user. Encourage people to improve their area extraction methods.

さらに情報処理装置50は、第3の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる過去技量の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。   Further, when using the third selection condition, the information processing apparatus 50 causes the presentation information selection unit 54 to use the reference reference dynamic value dynamic range value included in the processing tendency information data D66 of the enlightenment target user and the information storage unit 53. The dynamic range threshold value range is obtained by comparing the past luminance value dynamic range value included in the past accumulated information data D67 already accumulated in the past information and comparing the past skill information included in the past accumulated information data D67. The past accumulated information data D67 including information of the past luminance value dynamic range indicating the value within the range and including a past skill having a value equal to or larger than a predetermined threshold value set in advance is selected.

そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。   Then, the information processing apparatus 50 finally selects, for example, one past accumulated information data D67 at random from the selected past accumulated information data D67 by the presentation information selection unit 54, and the past selected past A series of area designation processing screens included in the accumulated information data D67 are presented to the enlightenment target user.

この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所をある程度偶然性に期待して啓発させることができる。   In this case, the information processing apparatus 50 extracts the object designation region using the object extraction moving image 70 having a color tone similar to that of the object extraction moving image 70 used for extraction of the object designation region by the enlightenment target user, and By presenting a region extraction method (that is, a series of region specification processing screens) randomly selected from a plurality of region extraction methods with a certain level of skill to the user to be enlightened, the region extraction method to the user to be enlightened It is possible to raise enlightenment by expecting the improvement part in to some extent contingency.

さらに情報処理装置50は、第4の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ及び比較用基準平均描線速度の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ及び過去平均描線速度の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。   Further, when using the fourth selection condition, the information processing apparatus 50 causes the presentation information selection unit 54 to determine the comparison reference luminance value dynamic range and comparison reference average drawing speed included in the processing tendency information data D66 of the enlightenment target user. Past luminance indicating a value within the dynamic range threshold value range by comparing the value with the past luminance value dynamic range and past average drawing speed value included in the past accumulated information data D67 already accumulated in the information accumulation unit 53 The past accumulated information data D67 including information on the value of the dynamic range and including information on the past average drawing speed indicating a value within the drawing speed threshold value range is selected.

そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も低い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。   Then, the information processing apparatus 50 compares the past skill information included in the past accumulated information data D67 selected by the presentation information selection unit 54 with the past accumulated information data D67 including the lowest skill. Is finally selected, and a series of area designation processing screens included in the finally selected past accumulated information data D67 are presented to the enlightenment target user.

この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から技量の最も低い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した領域抽出手法の提示により啓発対象ユーザに反面教師的に自分の領域抽出手法の良い箇所を再確認させることもできる。   In this case, the information processing apparatus 50 extracts a plurality of object designation regions using the object extraction moving image 70 having a color tone similar to that of the object extraction moving image 70 used for extraction of the object designation region by the enlightenment target user. By encouraging users to be enlightened by showing the region extraction methods with the lowest skills (ie, a series of area specification processing screens) from among the region extraction methods of the region, Can do. Incidentally, by using the fourth selection condition, it is possible to cause the user to be enlightened to reconfirm a good part of his / her region extraction method by presenting the finally selected region extraction method.

さらに情報処理装置50は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD66に当該啓発対象ユーザの技量(以下、これを比較用基準技量と呼ぶ)の情報を格納しておき、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報と、描線速度閾値範囲内の値を示す過去平均描線速度と、比較用基準技量の値を中心とした所定の技量閾値範囲内の値を示す過去技量とを共に含む過去蓄積情報データD67を選択する。   Further, when the fifth selection condition is used, the information processing apparatus 50 stores information on the skill of the user to be enlightened (hereinafter referred to as a reference skill for comparison) in the processing tendency information data D66 of the user to be enlightened, for example. In addition, by the presentation information selection unit 54, the comparison reference brightness value dynamic range, the comparison reference average drawing speed and the comparison reference skill value included in the processing tendency information data D 66 of the enlightenment target user, and the information storage unit 53 Past luminance value dynamic range information indicating a value within the dynamic range threshold range by comparing the past luminance value dynamic range, the past average drawing speed, and the past skill value included in the past accumulated information data D67 that has already been accumulated. And a predetermined average skill threshold value centered on the value of the reference average skill for comparison and the past average drawing speed indicating a value within the drawing speed threshold range. Selecting a past accumulated information data D67 containing both a past skill indicating the value of 囲内.

そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も高い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。   Then, the information processing apparatus 50 compares the past skill information included in the past accumulated information data D67 selected by the presentation information selection unit 54 with the past accumulated information data D67 including the highest skill. Is finally selected, and a series of area designation processing screens included in the finally selected past accumulated information data D67 are presented to the enlightenment target user.

この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつ実力(すなわち技量)もほとんど同じ複数の領域抽出手法のうちで最も技量の高い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、提示した領域抽出手法と啓発対象ユーザの領域抽出手法との違いがわずかであるため、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を容易に啓発させることができる。   In this case, the information processing apparatus 50 extracts the object designation region using the object extraction moving image 70 having a color tone similar to that of the object extraction moving image 70 used for extraction of the object designation region by the enlightenment target user, and The region extraction method and enlightenment presented by presenting to the target user the region extraction method (ie, a series of region specification processing screens) with the highest skill among multiple region extraction methods that have almost the same ability (ie, skill) Since the difference from the target user's area extraction method is slight, it is possible to easily enlighten the user to be enlightened about the improvement in his / her area extraction method.

さらに情報処理装置50は、第6の選択条件を用いる場合、提示情報選択部54により、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を選択して当該選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。   Furthermore, when using the sixth selection condition, the information processing apparatus 50 randomly selects, for example, one piece of past accumulated information from the past accumulated information data D67 already accumulated in the information accumulating unit 53 by the presentation information selecting unit 54. The data D67 is selected, and a series of area designation processing screens included in the selected past accumulated information data D67 are presented to the enlightenment target user.

この場合、情報処理装置50は、無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を全面的に偶然性に期待して啓発させることができる。   In this case, the information processing apparatus 50 presents a randomly selected region extraction method (that is, a series of region designation processing screens) to the enlightenment target user, so that the enlightenment target user can improve the area extraction method. Can be enlightened with full expectation of chance.

因みに情報処理装置50では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD66に技量の情報を格納しておかなくても、提示情報選択部54により、情報蓄積部53に蓄積している全ての蓄積情報データD67(啓発対象ユーザの蓄積情報データD67を含む)に含まれている技量の情報を用いることで最終的な蓄積情報データD67の選択を実現することもできる。   Incidentally, in the information processing apparatus 50, when the above-described fifth selection condition is used, the presentation information selection unit 54 causes the information accumulation unit to store the skill information in the processing tendency information data D66 of the enlightenment target user. The final selection of the stored information data D67 may be realized by using the skill information included in all the stored information data D67 stored in 53 (including the stored information data D67 of the enlightenment target user). it can.

また上述した各選択条件において技量の情報を用いるときには、技量の最小及び最大や、所定の閾値以上の技量等の規定にしなくても、所定の閾値以下の技量や、啓発対象ユーザの技量よりも高い又は低い技量、啓発対象ユーザの技量から所定の閾値以上離れた値の技量、啓発対象ユーザの技量から所定の第1の閾値以上離れ、かつ第2の閾値以下の技量、さらには啓発対象ユーザの技量とほぼ同じ(類似する)技量等の条件でも過去蓄積情報データD67を選択することができる。   In addition, when using skill information in each of the selection conditions described above, even if the minimum and maximum skills are not defined, and the skills are not less than a predetermined threshold, the skills below the predetermined threshold or the skills of the user to be enlightened High or low skill, skill with a value that is greater than or equal to a predetermined threshold from the skill of the user to be enlightened, skill that is more than a predetermined first threshold and less than or equal to the second threshold from the skill of the user to be enlightened, and further the user to be enlightened The past stored information data D67 can be selected even under conditions such as a skill that is substantially the same as (similar to) the skill.

さらに蓄積情報データD67の選択に用いる選択条件としては、図29について上述した選択条件及び図31について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、生成伝播範囲及び又は修正伝播範囲、修正箇所の指定の様子を用いる選択条件等のように、さらにこの他にも種々の選択条件を用いることができる。   Furthermore, as selection conditions used for selection of the stored information data D67, selection conditions obtained by replacing a part of the selection conditions described above with reference to FIG. 29 and the first to sixth selection conditions described above with reference to FIG. Alternatively, various other selection conditions can be used, such as a selection condition using a correction propagation range and a state of specifying a correction portion.

これに加えて情報処理装置50では、図29及び図31について上述した選択条件において限定基準の比較用基準輝度値ダイナミックレンジや比較用基準平均描線速度、比較用基準技量をそれぞれ個別に用いるようにしたが、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。   In addition to this, the information processing apparatus 50 uses the limited reference luminance value dynamic range for comparison, the reference average drawing speed for comparison, and the reference skill for comparison individually under the selection conditions described above with reference to FIGS. However, for example, the square root of the sum of squares is calculated using at least two or more of the limited reference comparative luminance value dynamic range, comparative reference average drawing speed, comparative reference skill, etc., and the calculation result in the Euclidean space The past accumulated information is compared with the result of calculating the square root of the sum of squares using at least two of the predetermined threshold space with reference to the past, the dynamic value of the past luminance value, the past average drawing speed, the past skill, etc. The data D67 may be limited.

また情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。   Further, the information processing apparatus 50 calculates, for example, the sum of absolute differences by using at least two or more of the limited reference comparative luminance value dynamic range, the comparative reference average drawing speed, the comparative reference skill, and the like. Past accumulation by comparing a predetermined threshold space based on the result with the result of calculating the sum of absolute differences using at least two of the past, such as past luminance value dynamic range, past average drawing speed, and past skill. The information data D67 may be limited.

さらに情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を中心とした所定のダイナミックレンジ閾値範囲、描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の少なくとも2つ以上とを比較して過去蓄積情報データD67を限定するようにしても良い。   Further, in the information processing apparatus 50, a predetermined reference standard luminance value dynamic range for comparison, a reference dynamic average drawing speed for comparison, a predetermined dynamic range threshold range centered on a reference standard skill for comparison, a drawing speed threshold value range, a skill threshold range, etc. The past product information D67 is limited by comparing at least two of the product space obtained and the past luminance value dynamic range, past average drawing speed, past skill, etc. May be.

同様に情報処理装置50では、図29及び図31について上述した選択条件において選定基準の平均描線速度及び技量もそれぞれ個別に用いるようにしたが、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。   Similarly, in the information processing apparatus 50, the average drawing speed and skill of the selection criterion are individually used under the selection conditions described above with reference to FIGS. 29 and 31, respectively. For example, the square root of the sum of squares is calculated by using at least two skills, etc., and a predetermined threshold space based on the calculation result in the Euclidean space, the past average drawing speed, the past skills, etc. are similarly at least two or more. The final past accumulated information data D67 may be selected by comparing with the result of calculating the square root of the sum of squares using.

また情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。   In the information processing apparatus 50, for example, a difference absolute value sum is calculated using at least two or more selection reference average drawing speed and comparison reference skill, and a predetermined threshold value based on the obtained calculation result. The final past accumulated information data D67 may be selected by comparing the space and the result of calculating the sum of absolute differences using at least two similarly, such as the past average drawing speed and the past skill.

さらに情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を中心とした所定の描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。   Further, the information processing apparatus 50 integrates at least two or more of a predetermined drawing speed threshold range and a skill threshold range centered on a comparison reference average drawing speed and a comparison reference skill, etc. The final past accumulated information data D67 may be selected by comparing the space with at least two of the past average drawing speed and past skill similarly.

さらに上述した第2の実施の形態においては、情報蓄積部53に入力情報データD65及び処理傾向情報データD66からなる蓄積情報データD67を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD65を蓄積情報データとして情報蓄積部53に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD65及び蓄積情報データ(すなわち入力情報データD65)から処理傾向情報を抽出すれば良い。また啓発対象ユーザと他のユーザとがそれぞれ同じオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する場合には、入力情報データDとして領域指定経緯画面データ及び技量の情報を利用すれば良い。   Further, in the above-described second embodiment, the case where the information storage unit 53 stores the storage information data D67 including the input information data D65 and the processing tendency information data D66 has been described. Not limited to this, at least the input information data D65 may be stored in the information storage unit 53 as stored information data. In this case, each time the presentation information is selected, the input information data D65 of the user to be enlightened and What is necessary is just to extract process tendency information from accumulation | storage information data (namely, input information data D65). When the enlightenment target user and other users extract the object designation area from the same object extraction moving image 70, the area designation history screen data and skill information may be used as the input information data D.

さらに上述した第2の実施の形態においては、領域指定処理を行う際に図16乃至図17について上述した領域抽出処理ルーチンSRT51で説明した種々の抽出処理用命令C50を入力し得るようにした場合について述べたが、本発明はこれに限らず、これら各種抽出処理用命令C50の他に一つ前の処理に戻る、いわゆるアンドゥ(undo)等のように、他の種々の命令も抽出処理用命令として入力し得るようにしても良い。   Furthermore, in the second embodiment described above, when the region designation processing is performed, various extraction processing instructions C50 described in the region extraction processing routine SRT51 described above with reference to FIGS. 16 to 17 can be input. However, the present invention is not limited to this, and in addition to these various extraction processing instructions C50, other various instructions such as so-called “undo” that return to the previous processing are also used for extraction processing. It may be possible to input as a command.

さらに上述した第2の実施の形態においては、啓発対象ユーザに対して、選択した領域抽出手法としての一連の領域抽出処理用画面を実際に行われた領域抽出操作の時間経過に合わせて再生して提示するようにした場合について述べたが、本発明はこれに限らず、一連の領域指定処理用画面に対する時間的な表示順序を表す情報を予め記録しておき、啓発対象ユーザに切換要求に応じて個々の領域抽出処理用画面を順次切り換えて提示するようにしても良い。   Furthermore, in the second embodiment described above, a series of region extraction processing screens as the selected region extraction method are reproduced for the enlightenment target user in accordance with the time lapse of the region extraction operation actually performed. However, the present invention is not limited to this, and information indicating a temporal display order for a series of area designation processing screens is recorded in advance, and a change request is made to the enlightenment target user. Accordingly, the individual region extraction processing screens may be sequentially switched and presented.

(3)第3の実施の形態
図32において、100は全体として第3の実施の形態による情報処理装置を示し、複数のユーザに、所定の画像生成プログラムに従ってオブジェクトに対する輪郭抽出操作の試行用に生成された動画像(以下、これを輪郭抽出試行用動画像と呼ぶ)中のオブジェクト(以下、これを特に試行用オブジェクトと呼ぶ)の輪郭に対して輪郭抽出操作を試行させ、その結果得られた試行結果を蓄積する。
(3) Third Embodiment In FIG. 32, 100 indicates an information processing apparatus according to the third embodiment as a whole, and allows a plurality of users to try a contour extraction operation on an object according to a predetermined image generation program. A contour extraction operation is attempted on the contour of an object (hereinafter referred to as a trial object in the following) in the generated moving image (hereinafter referred to as a contour extraction trial moving image). Accumulate trial results.

また、情報処理装置100は、実際にユーザによって行われる輪郭抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトの輪郭を抽出する輪郭抽出処理を行う場合、当該輪郭抽出処理の間、ユーザによって入力される各種命令に応じて適宜表示内容を変更して表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯(すなわちオブジェクト輪郭用動画像からオブジェクトの輪郭を抽出するユーザの輪郭抽出手法)を表す輪郭抽出経緯画面データとして蓄積する。   Further, when performing the contour extraction process for extracting the contour of the object to be extracted from the object extraction moving image in accordance with the contour extraction operation actually performed by the user, the information processing apparatus 100 performs the user during the contour extraction process. A series of contour extraction processing screens displayed by appropriately changing display contents according to various commands input by the contour extraction process (that is, a user contour extraction method for extracting an object contour from a moving image for object contour) ) Representing contour extraction history screen data.

そして情報処理装置100は、個々のユーザによって輪郭抽出操作が行われる際、その輪郭抽出操作に先立って、他のユーザによりすでに行われた輪郭抽出操作で蓄積している輪郭抽出経緯画面データのうち試行結果に応じて、その時点で輪郭抽出操作を行うユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の輪郭抽出手法を向上させるために手助けになると思われる輪郭抽出経緯画面データを選択して提示することにより、啓発対象ユーザに対して自分の輪郭抽出手法の向上を促すようになされている。   When the contour extraction operation is performed by each user, the information processing apparatus 100 includes the contour extraction history screen data accumulated by the contour extraction operation already performed by another user prior to the contour extraction operation. Depending on the trial result, select the contour extraction history screen data that will help to improve the contour extraction method of the user who performs the contour extraction operation at that time (hereinafter referred to as the enlightenment user). By presenting it, the user to be enlightened is encouraged to improve his / her contour extraction method.

実際上、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105から構成されている。   In practice, the information processing apparatus 100 includes a contour generation unit 101, a processing tendency information extraction unit 102, an information storage unit 103, a presentation information selection unit 104, and an information presentation unit 105.

また輪郭生成部101は、図33に示すように、動画像入力回路110、動画像記録回路111、ユーザインターフェース回路112、変換回路113、輪郭線推測生成回路114、輪郭線記録回路115、輪郭線出力回路116及び技量判定回路117から構成されている。   As shown in FIG. 33, the contour generation unit 101 includes a moving image input circuit 110, a moving image recording circuit 111, a user interface circuit 112, a conversion circuit 113, a contour estimation generation circuit 114, a contour recording circuit 115, a contour line, An output circuit 116 and a skill determination circuit 117 are included.

そして情報処理装置100は、先ず個々のユーザがオブジェクト抽出用動画像中の抽出対象のオブジェクトの輪郭をどの程度正確に指定するかを示す技量(この技量は輪郭抽出手法の評価値となる)と、当該輪郭を指定する際にどのような傾向を有しているかとを予め推測するために抽出対象のオブジェクトとは異なる輪郭抽出試行用動画像中の試行用オブジェクトの輪郭に対して試行的に輪郭抽出操作(以下、これを特に輪郭抽出試行操作と呼ぶ)を行わせ、その輪郭抽出試行操作に応じた輪郭抽出試行処理を実行する。   The information processing apparatus 100 first has a skill indicating how accurately each user specifies the contour of the object to be extracted in the object extraction moving image (this skill is an evaluation value of the contour extraction method). In order to estimate in advance what kind of tendency the user has when designating the contour, the contour of the trial object in the contour extraction trial moving image that is different from the object to be extracted is tried on a trial basis. A contour extraction operation (hereinafter referred to as a contour extraction trial operation) is performed, and a contour extraction trial process corresponding to the contour extraction trial operation is executed.

ここで情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出試行処理を実行するための各種処理を所定の輪郭抽出試行プログラムに従ってソフトウェア的に実現する。   Here, the information processing apparatus 100 performs various processes for executing the contour extraction trial process in the contour generation unit 101, the processing trend information extraction unit 102, the information storage unit 103, the presentation information selection unit 104, and the information presentation unit 105. It is realized by software according to the contour extraction trial program.

すなわち情報処理装置100は、図34に示すように、輪郭抽出試行プログラムに従って輪郭抽出試行処理手順RT100の開始ステップから入り、続くステップSP101へ移って試行モードへ移行する。   That is, as shown in FIG. 34, the information processing apparatus 100 enters from the start step of the contour extraction trial processing procedure RT100 according to the contour extraction trial program, moves to the subsequent step SP101, and shifts to the trial mode.

ステップSP101において情報処理装置100は、輪郭生成部101のユーザインターフェース回路112により、所定の操作部(図示せず)を介して入力されたユーザ名及びユーザIDからなるユーザ情報S100を取得し、次の技量判定処理ルーチンSRT200へ移る。   In step SP101, the information processing apparatus 100 acquires user information S100 including a user name and a user ID input via a predetermined operation unit (not shown) by the user interface circuit 112 of the contour generation unit 101, and next The skill determination processing routine SRT200 is moved to.

この際、情報処理装置100は、図35に示すように、技量判定処理ルーチンSRT200の開始ステップから入ってステップSP201へ移る。   At this time, as shown in FIG. 35, the information processing apparatus 100 enters from the start step of the skill determination processing routine SRT200 and proceeds to step SP201.

ステップSP201において情報処理装置100は、外部から供給された輪郭抽出試行用動画像データD100を輪郭生成部101の動画像入力回路110に取り込み、当該輪郭抽出試行用動画像データD100を構成するフレーム画像データ(以下、これを試行用フレーム画像データと呼ぶ)D100A単位で動画像記録回路111に記録する。   In step SP201, the information processing apparatus 100 takes the contour extraction trial moving image data D100 supplied from the outside into the moving image input circuit 110 of the contour generation unit 101, and forms the contour extraction trial moving image data D100. Data (hereinafter referred to as trial frame image data) is recorded in the moving image recording circuit 111 in units of D100A.

ここで輪郭抽出試行用動画像データD100に基づく輪郭抽出試行用動画像120は、図36に示すように、時間的に連続して試行用オブジェクトTJ1乃至TJ7を含む複数の試行用フレーム画像TF1乃至TF7(試行用フレーム画像データD100Aに相当)から構成されており、当該試行用オブジェクトTJ1乃至TJ7が時間の経過に従ってその形状を次第に変化させながら移動し、一般的な画像処理アプリケーションプログラムを利用した画像処理の実行によって、試行用オブジェクトTJ1乃至TJ7の輪郭を示す輪郭線(以下、これを計測基準輪郭線と呼ぶ)ROL1乃至ROL7を正確に認識させ得るように生成されている。   Here, as shown in FIG. 36, the contour extraction trial moving image 120 based on the contour extraction trial moving image data D100 includes a plurality of trial frame images TF1 to TF1 including trial objects TJ1 to TJ7. This is composed of TF7 (corresponding to trial frame image data D100A), and the trial objects TJ1 to TJ7 move while gradually changing their shapes as time passes, and an image using a general image processing application program By executing the processing, the contour lines indicating the contours of the trial objects TJ1 to TJ7 (hereinafter, referred to as measurement reference contour lines) ROL1 to ROL7 are generated accurately.

そして情報処理装置100は、ユーザインターフェース回路112から輪郭抽出試行処理用画面データD101を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタ(図示せず)に輪郭抽出試行処理用画面データD101に基づいて、輪郭抽出試行用動画像120の画像表示領域等を有する輪郭抽出試行処理用画面(図示せず)を表示する。   Then, the information processing apparatus 100 sends the contour extraction trial processing screen data D101 from the user interface circuit 112 to the information presenting unit 105 (FIG. 32), and then on a monitor (not shown) provided in the information presenting unit 105. Based on the contour extraction trial processing screen data D101, a contour extraction trial processing screen (not shown) having an image display area or the like of the contour extraction trial moving image 120 is displayed.

また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に試行用先頭フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用先頭フレーム画像データD100Aを選択して読み出し、当該試行用先頭フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105(図32)に送出する。   In addition, the information processing apparatus 100 responds to a request from the head trial frame image data (hereinafter referred to as “trial head frame image data”) D100A input by the user via the operation unit in response to a request from the user interface circuit 112. Thus, the trial first frame image data D100A is selected and read from the plurality of trial frame image data D100A constituting the contour extraction trial moving image data D100 from the moving image recording circuit 111, and the trial first frame image data D100A is read out. Is combined with the contour extraction trial processing screen data D101 and sent to the information presentation unit 105 (FIG. 32).

これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用先頭フレーム画像データD100Aに基づく試行用先頭フレーム画像TF1を表示し、かくして試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の形状をユーザに目視させる。   Thereby, the information processing apparatus 100 displays the trial first frame image TF1 based on the trial first frame image data D100A in the image display area in the contour extraction trial processing screen in the information presenting unit 105, and thus the trial first frame image. The user visually recognizes the shape of the trial object TJ1 in TF1.

この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行先頭入力輪郭線と呼ぶ)に相当する試行先頭入力輪郭線信号S101をユーザインターフェース回路112に取り込んで変換回路113へ送出する。   In this state, the information processing apparatus 100 is designated by the user by arbitrarily tracing the contour of the trial object TJ1 in the trial first frame image TF1 on the contour extraction trial processing screen via the operation unit such as a mouse. Then, a trial head input contour signal S101 corresponding to the input contour obtained as a result (hereinafter referred to as a trial head input contour) is taken into the user interface circuit 112 and sent to the conversion circuit 113.

情報処理装置100は、変換回路113により、試行先頭入力輪郭線信号S101を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行先頭入力輪郭線信号S101に相当する複数の試行先頭入力輪郭形成点を生成し、当該生成した複数の試行先頭入力輪郭形成点の集合データを試行先頭入力輪郭形成点群データD102として輪郭線推測生成回路114に送出して次のステップSP202へ移る。   The information processing apparatus 100 uses the conversion circuit 113 to sample the trial head input contour signal S101 at a predetermined sampling interval and convert it into digital data, whereby a plurality of trial heads corresponding to the trial head input contour signal S101 is obtained. An input contour forming point is generated, and the generated set data of a plurality of trial head input contour forming points is sent to the contour guess generation circuit 114 as trial head input contour forming point group data D102, and the process proceeds to the next step SP202.

ステップSP202において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の試行用フレーム画像データ(以下、これを特に試行用最後尾フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用最後尾フレーム画像データD100Aを選択して読み出し、当該試行用最後尾フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用最後尾フレーム画像データD100Aに基づく試行用最後尾フレーム画像TF7を表示し、かくして当該試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の形状をユーザに目視させる。   In step SP202, the information processing apparatus 100 responds to a request from the last trial frame image data (hereinafter, specifically referred to as trial last frame image data) D100A input by the user via the operation unit. The user interface circuit 112 selects and reads out the trial last frame image data D100A from the plurality of trial frame image data D100A constituting the contour extraction trial moving image data D100 from the moving image recording circuit 111, and performs the trial use. The last frame image data D100A is combined with the contour extraction trial processing screen data D101 and sent to the information presentation unit 105, whereby the information presentation unit 105 displays the last image for trial in the image display area in the contour extraction trial processing screen. For trial based on tail frame image data D100A Displays trailing frame image TF7, thus is visually shape the trial object TJ7 of the in trial last frame image TF7 user.

この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の輪郭がなぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行最後尾入力輪郭線と呼ぶ)に相当する試行最後尾入力輪郭線信号S102をユーザインターフェース回路112に取り込んで変換回路113へ送出する。   In this state, the information processing apparatus 100 is designated by the user by tracing the contour of the trial object TJ7 in the final trial frame image TF7 on the contour extraction trial processing screen via the operation unit such as a mouse. Then, the trial tail input contour signal S102 corresponding to the input contour obtained as a result (hereinafter referred to as trial tail input contour) is taken into the user interface circuit 112 and sent to the conversion circuit 113.

そして情報処理装置100は、変換回路113により、試行最後尾入力輪郭線信号S102を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行最後尾入力輪郭線信号S102に相当する複数の試行最後尾入力輪郭形成点を生成し、当該生成した複数の試行最後尾入力輪郭形成点の集合データを試行最後尾入力輪郭形成点群データD103として輪郭線推測生成回路114に送出して次の推測輪郭線生成処理ルーチンSRT300へ移る。   Then, the information processing apparatus 100 uses the conversion circuit 113 to sample the trial tail input contour signal S102 at a predetermined sampling interval and convert it into digital data, so that a plurality of information corresponding to the trial tail input contour signal S102 is obtained. The trial final input contour forming point is generated, and the generated set data of the trial final input contour forming points is sent to the contour estimation generating circuit 114 as the trial final input contour forming point group data D103, and the next is estimated. The process proceeds to the estimated contour line generation processing routine SRT300.

情報処理装置100は、図37に示すように、推測輪郭線生成処理ルーチンSRT300の開始ステップから入って次のステップSP301に移る。   As shown in FIG. 37, the information processing apparatus 100 enters from the start step of the estimated contour line generation processing routine SRT300 and moves to the next step SP301.

ここで試行用オブジェクトTJ1乃至TJ7は、時間的に連続する試行用フレーム画像TF1乃至TF7中にその形状を次第に変化させながら移動していることから(図36)、図38に示すように試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLを同一フレーム画像上で示した場合、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnIT24との各位置はそれぞれ異なる。   Here, since the trial objects TJ1 to TJ7 are moved while gradually changing their shapes in the trial frame images TF1 to TF7 that are temporally continuous (FIG. 36), the trial heads as shown in FIG. When the input contour line StTL and the trial tail input contour line EnTL are shown on the same frame image, the positions of the trial head input contour formation points StTP1 to StTP20 and the trial tail input contour formation points EnTP1 to EnIT24 are different from each other.

また試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLにおいては、試行先頭入力輪郭形成点StTP1乃至StTP20及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24を生成する際のサンプリング間隔が同じであるのに、試行用オブジェクトTJ1及びTJ7をユーザがそれぞれマウス等を介してなぞるときの描線速度や、試行用オブジェクトTJ1及びTJ7の輪郭の大きさ及び形状が異なることから、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との総数がそれぞれ異なるものとなる。   In the trial head input contour StTL and the trial tail input contour EnTL, the sampling intervals for generating the trial head input contour forming points StTP1 to StTP20 and the trial tail input contour forming points EnTP1 to EnTP24 are the same. Further, since the drawing speed when the user traces the trial objects TJ1 and TJ7 through the mouse or the like and the size and shape of the outlines of the trial objects TJ1 and TJ7 are different, the trial head input contour forming points StTP1 to StTP1 The total number of the StTP 20 and the trial last input contour forming points EnTP1 to EnTP24 is different.

従ってステップSP301において情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103に基づいて、試行先頭入力輪郭線StTLを構成する試行先頭入力輪郭形成点StTP1乃至StTP20の総数(以下、これを試行先頭形成点数と呼ぶ)と、試行最後尾入力輪郭線EnTLを構成する試行最後尾入力輪郭形成点EnTP1乃至EnTP24の総数(以下、これを試行最後尾形成点数と呼ぶ)とを比較する。   Therefore, in step SP301, the information processing apparatus 100 constructs the trial head input contour StTL by the contour guess generation circuit 114 based on the trial head input contour formation point group data D102 and the trial tail input contour formation point group data D103. The total number of trial leading input contour forming points StTP1 to StTP20 (hereinafter referred to as the number of trial leading forming points) and the total number of trial trailing input contour forming points EnTP1 to EnTP24 constituting the trial trailing input contour line EnTL (hereinafter referred to as the following points). This is referred to as the number of trial formation points).

この結果、情報処理装置100は、輪郭線推測生成回路114により、比較した試行先頭形成点数及び試行最後尾形成点数同士のうち数が少ない試行先頭形成点数の試行先頭入力輪郭形成点StTP1乃至StTP20で構成される試行先頭入力輪郭線StTLにおいて、互いに隣接する各試行先頭入力輪郭形成点StTP1乃至StTP20間の距離から当該試行先頭入力輪郭線StTLの全長を算出する。   As a result, the information processing apparatus 100 causes the contour estimation generation circuit 114 to use the trial head input contour formation points StTP1 to StTP20 having the trial head formation points having a smaller number of the trial head formation points and trial tail formation points compared with each other. In the configured trial head input contour StTL, the total length of the trial head input contour StTL is calculated from the distance between the trial head input contour forming points StTP1 to StTP20 adjacent to each other.

そして情報処理装置100は、輪郭線推測生成回路114により、その算出した全長を数の多い試行最後尾形成点数で除算することにより、試行先頭入力輪郭線StTL上でこれを構成する新たな輪郭形成点(以下、これを新規輪郭形成点と呼ぶ)を生成するための生成間隔を求める。   Then, the information processing apparatus 100 divides the calculated total length by the number of trial end formation points with a large number by the contour estimation generation circuit 114, thereby forming a new contour forming this on the trial head input contour StTL. A generation interval for generating a point (hereinafter referred to as a new contour forming point) is obtained.

これにより情報処理装置100は、図39に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL上で生成間隔NK毎に順次新規輪郭形成点NSTP1乃至NSTP24を生成し、試行先頭入力輪郭線StTLを構成する新規輪郭形成点NSTP1乃至NSTP24の総数を試行最後尾形成点数に合わせてステップSP302へ移る。   As a result, as shown in FIG. 39, the information processing apparatus 100 uses the contour estimation generation circuit 114 to sequentially generate new contour formation points NSTP1 to NSTP24 for each generation interval NK on the trial head input contour StTL. The total number of new contour forming points NSTP1 to NSTP24 constituting the input contour StTL is adjusted to the number of trial final tail forming points, and the process proceeds to step SP302.

ステップSP302において情報処理装置100は、輪郭線推測生成回路114により、図40(A)に示すように、試行先頭入力輪郭線StTLの重心StTC(座標値)と試行最後尾入力輪郭線EnTLの重心EnTCとを算出し、図40(B)に示すように、例えば試行先頭入力輪郭線StTLを、互いの重心StTC及びEnTC間の重心移動距離Lだけ一方の重心StTCから他方の重心EnTCの方向へ移動させることにより互いの重心StTC及びEnTC同士を一致させて試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLとを重ね合わせる。   In step SP302, the information processing apparatus 100 causes the contour estimation generation circuit 114 to perform the center of gravity StTC (coordinate value) of the trial head input contour StTL and the center of gravity of the trial last input contour EnTL, as shown in FIG. As shown in FIG. 40B, for example, the trial head input contour StTL is moved from one centroid StTC to the other centroid EnTC by the centroid moving distance L between the centroids StTC and EnTC. The center of gravity StTC and EnTC are made to coincide with each other by being moved, and the trial start input contour StTL and the trial end input contour EnTL are overlapped.

この状態で情報処理装置100は、図41に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTLを構成している複数の新規輪郭形成点NSTP1乃至NSTP24のうち任意の新規輪郭形成点NSTP1を選択した後、当該選択した新規輪郭形成点NSTP1から最短距離にある試行最後尾入力輪郭形成点EnTP1を探索し、これら最短距離の関係にある新規輪郭形成点NSTP1と試行最後尾入力輪郭形成点EnTP1との間の輪郭線間距離Da1を算出する。   In this state, the information processing apparatus 100, as shown in FIG. 41, uses the contour estimation generation circuit 114 to select an arbitrary new contour among the plurality of new contour formation points NSTP1 to NSTP24 constituting the trial head input contour StTL. After selecting the formation point NSTP1, the trial end input contour formation point EnTP1 located at the shortest distance from the selected new contour formation point NSTP1 is searched, and the new contour formation point NSTP1 and the trial end input having the shortest distance relationship are searched. The distance between contour lines Da1 between the contour forming point EnTP1 and the contour forming point EnTP1 is calculated.

このようにして情報処理装置100は、輪郭線推測生成回路114により、残りの新規輪郭形成点NSTP2乃至NSTP24に対してもそれぞれ最短距離にある試行最後尾入力輪郭形成点EnTP2乃至EnTP24を探索して同様に輪郭線間距離Da2乃至Da24 を算出した後、最も短い輪郭線間距離(ここでは輪郭線間距離Da1)の関係にある試行最後尾入力輪郭形成点EnTP1と新規輪郭形成点NSTP1とを起点ペアSPP1と決定して次のステップSP303へ移る。   In this way, the information processing apparatus 100 searches the trial end input contour formation points EnTP2 to EnTP24, which are at the shortest distances from the remaining new contour formation points NSTP2 to NSTP24, respectively, by the contour estimation generation circuit 114. Similarly, after calculating the distances between contour lines Da2 to Da24, the starting end input contour forming point EnTP1 and the new contour forming point NSTP1 having the shortest distance between contour lines (here, distance between contour lines Da1) are set as starting points. The pair SPP1 is determined and the process proceeds to the next step SP303.

ステップSP303において情報処理装置100は、輪郭線推測生成回路114により、図42(A)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて例えば矢印ArwS1に示す反時計回り方向(以下、これを基準方向と呼ぶ)の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwO1に示す反時計回り方向(以下、これを順回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP2乃至EnTP24をそれぞれ順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP2間、新規輪郭形成点NSTP3及び試行最後尾入力輪郭形成点StTP3間、……の距離をそれぞれ順回りペア間距離ODa2乃至ODa24 として算出する。   In step SP303, the information processing apparatus 100 causes the contour estimation generation circuit 114 to start from the starting point pair SPP1 as shown in FIG. 42A, and in the trial head input contour StTL, for example, in the counterclockwise direction indicated by the arrow ArwS1 In the new contour formation points NSTP2 to NSTP24 (hereinafter referred to as the reference direction), the trial end in the counterclockwise direction indicated by the arrow ArwO1 (hereinafter referred to as the forward direction) on the trial final input contour EnTL. By associating the tail input contour forming points EnTP2 to EnTP24 in order, the new contour forming point NSTP3 and the trial last input contour forming between the new contour forming point NSTP2 and the trial last input contour forming point StTP2 that are associated in this order. The distance between the points StTP3,... Da2 or is calculated as ODa24.

また情報処理装置100は、輪郭線推測生成回路114により、図42(B)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて基準方向の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwR1に示す時計回り方向(以下、これを逆回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP24乃至EnTP2を順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP24間、新規輪郭形成点NSTP3及び試行先頭入力輪郭形成点StTP23間、……の距離をそれぞれ逆回りペア間距離RDa2乃至RDa24 として算出する。   Further, as shown in FIG. 42 (B), the information processing apparatus 100 uses the starting point pair SPP1 as a starting point to generate new contour forming points NSTP2 to NSTP24 in the reference direction in the trial head input contour StTL as shown in FIG. The trial tail input contour forming points EnTP24 to EnTP2 in the clockwise direction indicated by the arrow ArwR1 (hereinafter referred to as the reverse direction) on the trial tail input contour line EnTL are associated with each other in this order. The distances between the new contour forming point NSTP2 and the trial last input contour forming point StTP24, between the new contour forming point NSTP3 and the trial head input contour forming point StTP23,... Are calculated as reverse pair distances RDA2 to RDA24, respectively.

そして情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 の総和と逆回りペア間距離RDa2乃至RDa24 の総和とを算出し、当該算出した総和同士を比較する。   Then, the information processing apparatus 100 calculates the sum of the forward pair-to-pair distances O Da2 to O Da24 and the sum of the reverse pair-to-pair distances R Da2 to R Da24 by the contour estimation generation circuit 114, and compares the calculated sums.

ここで新規輪郭形成点NSTP1乃至NSTP24と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との対応付けについて考えると、新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24にほぼ正しく対応付けられれば、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24間の順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的小さくなる。   Considering the association between the new contour forming points NSTP1 to NSTP24 and the trial last input contour forming points EnTP1 to EnTP24, the new contour forming points NSTP1 to NSTP24 are the trial first frame image TF1 and the trial last frame image TF7. If they are almost correctly associated with the previous trial tail contour forming points EnTP1 to EnTP24 that have moved through the plurality of trial frame images TF2 to TF6, the new contour forming points NSTP1 to NSTP24 and the trial tail contours that are associated with each other The sum of the forward pair-to-pair distances Oda2 to Oda24 between the formation points EnTP1 to EnTP24 or the reverse pair-to-pair distances RDA2 to RDA24 is relatively small.

これに対して新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24に正しく対応付けられずに異なる他の試行最後尾輪郭形成点EnTP1乃至EnTP24に対応付けられると、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24の位置関係が本来のものとは異なることにより順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的大きくなる。   On the other hand, the new trial contour formation points EnTP1 to which the new contour formation points NSTP1 to NSTP24 have moved through the plurality of trial frame images TF2 to TF6 between the trial first frame image TF1 and the trial last frame image TF7. If they are associated with other trial end contour forming points EnTP1 to EnTP24 that are not correctly associated with EnTP24 but are associated with different trial final contour forming points EnTP1 to EnTP24, the positions of these associated new contour forming points NSTP1 to NSTP24 and trial tail contour forming points EnTP1 to EnTP24 Since the relationship is different from the original one, the total sum of the forward pair-to-pair distances Oda2 to Oda24 or the reverse pair-to-pair distances RDA2 to RDA24 becomes relatively large.

従って情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和のうち当該総和が小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を、各新規輪郭形成点NSTP2乃至NSTP24と、これらが移動した先の試行最後尾入力輪郭形成点EnTP2乃至EnTP24とのほぼ正しい対応付けであると推測して選択し、次のステップSP304へ移る。   Accordingly, the information processing apparatus 100 uses the contour estimation generation circuit 114 to associate one of the sums of the forward pair-to-pair distances Oda2 to Oda24 or the reverse pair-to-pair distances RDA2 to Rda24 with a smaller sum (for example, the reference direction and the order (Association with the rotation direction) is selected by assuming that the new contour formation points NSTP2 to NSTP24 are substantially correct associations with the previous trial tail input contour formation points EnTP2 to EnTP24 to which they have moved, Control goes to the next step SP304.

ステップSP304において情報処理装置100は、輪郭線推測生成回路114により、図43に示すように輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1と試行用最後尾フレーム画像TF7とを除いた試行用フレーム画像(以下、これを特に試行用中間フレーム画像と呼ぶ)TF2乃至TF6の総数で順回りペア間距離ODa2、ODa3、……をそれぞれ除算することにより順番に対応付けた新規輪郭形成点NSTP2乃至NSTP24及び試行最後尾入力輪郭形成点EnTP2乃至EnTP24同士を結ぶ対応付け点間仮想線上で点形成間隔DDa2、DDa3、DDa4、……を求める。   In step SP304, the information processing apparatus 100 causes the contour estimation generation circuit 114 to use the trial first frame image TF1 among the plurality of trial frame images TF1 to TF7 constituting the contour extraction trial moving image 120 as shown in FIG. Are divided by the total number of trial frame images TF2 to TF6 excluding the trial final frame image TF7 (hereinafter referred to as the trial intermediate frame image) TF2 to TF6, respectively. As a result, the point formation intervals DDa2, DDa3, DDa4,... Are obtained on the virtual line between the association points connecting the new contour formation points NSTP2 to NSTP24 and the trial last input contour formation points EnTP2 to EnTP24 that are sequentially associated.

そして情報処理装置100は、輪郭線推測生成回路114により、各対応付け点間仮想線上でそれぞれ点形成間隔DDa2、DDa3、DDa4、……毎に試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa2乃至IPe2、IPa3乃至IPe3、IPa4乃至IPe4、……を生成する。   Then, the information processing apparatus 100 corresponds to the total number of trial intermediate frame images TF2 to TF6 for each point formation interval DDa2, DDa3, DDa4,... A number of trial estimation contour forming points IPa2 to IPe2, IPa3 to IPe3, IPa4 to IPe4,... Are generated.

また情報処理装置100は、起点ペアSPP1に対しても、新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1間の起点ペア間距離ODa1を試行用中間フレーム画像TF2乃至TF6の総数によって除算することにより新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1同士を結ぶ起点間仮想線上で点形成間隔DDa1を求め、当該起点間仮想線上で試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa1乃至IPe1を生成し、次のステップSP305へ移る。   The information processing apparatus 100 also divides the starting point pair distance O Da1 between the new contour forming point NSTP1 and the trial last input contour forming point EnTP1 by the total number of the trial intermediate frame images TF2 to TF6 for the starting point pair SPP1. Thus, the point formation interval DDa1 is obtained on the virtual line between the starting points connecting the new contour forming point NSTP1 and the trial last input contour forming point EnTP1, and corresponds to the total number of the trial intermediate frame images TF2 to TF6 on the virtual line between the starting points. A number of trial estimated contour forming points IPa1 to IPe1 are generated, and the process proceeds to the next step SP305.

ステップSP305において情報処理装置100は、輪郭線推測生成回路114により、起点間仮想線及び対応付け点間仮想線上の試行推測輪郭形成点IPa1乃至IPe1、IPa2乃至IPe2、……のうち新規輪郭形成点NSTP1乃至NSTP24から同一の順番にある試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、IPc1乃至IPc24 、IPd1乃至IPd24 及びIPe1乃至IPe24 間をそれぞれ補間することにより各試行用中間フレーム画像TF2乃至TF6に対する試行推測輪郭線ITLA1乃至ITLA5を生成する。   In step SP305, the information processing apparatus 100 causes the contour estimation generation circuit 114 to create new contour formation points among the trial estimation contour formation points IPa1 to IPe1, IPa2 to IPe2,. The trial estimated contour forming points IPa1 to IPa24, IPb1 to IPb24, IPc1 to IPc24, IPd1 to IPd24 and IPe1 to IPe24 in the same order from NSTP1 to NSTP24 are respectively interpolated for the trial intermediate frame images TF2 to TF6. Trial guess contours ITLA1 to ITLA5 are generated.

そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5の重心(座標値)を算出する。   Then, the information processing apparatus 100 calculates the center of gravity (coordinate value) of each trial estimated contour line ITLA1 to ITLA5 by the contour line estimation generation circuit 114.

ここで試行先頭入力輪郭線StTLの重心StTCは、試行用先頭フレーム画像TF1から試行用最後尾フレーム画像TF7までの間に重心移動距離L1(図40(A))だけ移動し、試行用最後尾フレーム画像TF7において試行最後尾入力輪郭線EnTLの重心EnTCの位置(座標値)に到達したと推測される。   Here, the center of gravity StTC of the trial head input contour StTL is moved by the center of gravity moving distance L1 (FIG. 40A) from the trial head frame image TF1 to the trial tail frame image TF7, and the trial tail tail. It is estimated that the position (coordinate value) of the center of gravity EnTC of the trial last input contour line EnTL in the frame image TF7 has been reached.

従って情報処理装置100は、図44に示すように、輪郭線推測生成回路114により、重心移動距離L1を試行用中間フレーム画像F2乃至F6の総数で除算することにより、試行先頭入力輪郭線StTLの重心StTC及び試行最後尾入力輪郭線EnTLの重心EnTC同士を結ぶ重心間仮想線上で当該試行先頭入力輪郭線StTLの重心StTCに対する試行用中間フレーム画像F2乃至F6での移動位置(すなわち重心間隔TK毎の位置であり、以下、これを推測重心位置と呼ぶ)TO1乃至TO5(座標値)を算出する。   Therefore, as shown in FIG. 44, the information processing apparatus 100 divides the center-of-gravity moving distance L1 by the total number of trial intermediate frame images F2 to F6 by the contour estimation generation circuit 114, thereby obtaining the trial head input contour StTL. On the virtual line between centroids connecting the centroid StTC and the centroid EnTC of the trial last input contour line EnTL, the moving positions in the trial intermediate frame images F2 to F6 with respect to the centroid StTC of the trial head input contour line StTL (that is, for each centroid interval TK) TO1 to TO5 (coordinate values) are calculated.

そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5をその順番を維持した状態で試行先頭入力輪郭線StTLの重心StTCから試行最後尾入力輪郭線EnTLの重心EnTCの方向へ移動させ、これら各試行推測輪郭線ITLA1乃至ITLA5の各重心をそれぞれ重心間仮想線上の推測重心位置TO1乃至TO5に順番に一致(すなわち試行推測輪郭線ITLA1の重心は重心推測位置TO1に一致)させることにより、これら各試行推測輪郭線ITLA1乃至ITLA5をそれぞれ試行用中間フレーム画像TF2乃至TF6に対応付ける。   The information processing apparatus 100 uses the contour guess generation circuit 114 to maintain the trial guess contours ITLA1 to ITLA5 in the order of the trial center input contour StTL from the center StTC of the trial last input contour EnTL. The center of gravity of each of the trial estimated contours ITLA1 to ITLA5 is sequentially matched with the estimated center of gravity positions TO1 to TO5 on the virtual line between the center of gravity (that is, the center of gravity of the trial estimated contour ITLA1 is the center of gravity estimated position TO1). These trial guess contours ITLA1 to ITLA5 are associated with the trial intermediate frame images TF2 to TF6, respectively.

これに加えて情報処理装置100は、輪郭線推測生成回路114により、試行推測輪郭線ITLA1乃至ITLA5を構成する複数の試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、……、IPe1乃至IPe24 (対応する試行用中間フレーム画像TF2乃至TF6中の座標で表す)の集合データでなる試行推測輪郭形成点群データを、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103と共に、試行用オブジェクト輪郭抽出データD104として輪郭線記録回路115に送出して記録した後、推測輪郭線生成処理ルーチンSRT300を終了して技量判定処理ルーチンRT200のステップSP203(図35)へ移る。   In addition, the information processing apparatus 100 uses the contour estimation generation circuit 114 to generate a plurality of trial estimation contour forming points IPa1 to IPa24, IPb1 to IPb24,..., IPe1 to IPe24 (the trial estimation contours ITLA1 to ITLA5). The trial estimated contour forming point group data consisting of the set data of the corresponding intermediate frame images TF2 to TF6 for trial) is set as trial leading input contour forming point group data D102 and trial tail input contour forming point group data D103. At the same time, the trial object outline extraction data D104 is sent to the outline recording circuit 115 and recorded, and then the estimated outline generation process routine SRT300 is terminated and the process proceeds to step SP203 (FIG. 35) of the skill determination process routine RT200.

このようにして情報処理装置100は、輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7の輪郭がなぞられて指定されることにより得られた試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLから、各試行用中間フレーム画像TF2乃至TF6中のオブジェクトTJ2乃至TJ6の輪郭を抽出するための試行推測輪郭線TLA1乃至TLA5を推測して生成し得るようになされている。   In this way, the information processing apparatus 100 performs the trial object in the trial first frame image TF1 and the trial last frame image TF7 among the plurality of trial frame images TF1 to TF7 constituting the contour extraction trial moving image 120. The contours of the objects TJ2 to TJ6 in the trial intermediate frame images TF2 to TF6 are obtained from the trial head input contour StTL and trial tail input contour EnTL obtained by tracing and specifying the contours of TJ1 and TJ7. The trial estimated contour lines TLA1 to TLA5 for extracting the data can be estimated and generated.

ところで試行先頭入力輪郭形成点(新規輪郭形成点NSTP1乃至NSTP24)及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24は、試行用オブジェクトTJ7をユーザがなぞった方向に沿って順番に生成される。   Incidentally, the trial head input contour formation points (new contour formation points NSTP1 to NSTP24) and trial tail input contour formation points EnTP1 to EnTP24 are generated in order along the direction in which the user traces the trial object TJ7.

このため新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24において、これらを単にその生成の順番に従って対応付けると、試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの描画が互いに逆向き(すなわち試行用オブジェクトTJ1とTJ7とをなぞった方向が逆向き)の場合、これら試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの間の試行推測輪郭線TLA1乃至TLA5が一度反転するように(すなわち裏返しになるように)生成させる。   Therefore, when the new contour forming points NSTP1 to NSTP24 and the trial final contour forming points EnTP1 to EnTP24 are simply associated according to the generation order, the trial leading input contour StTL and the trial final input contour EnTL are drawn with each other. In the reverse direction (that is, the direction traced by the trial objects TJ1 and TJ7 is reversed), the trial estimated contour lines TLA1 to TLA5 between the trial head input contour StTL and the trial last input contour EnTL are once reversed. To be generated (ie flipped inside out).

しかしながら情報処理装置100では、上述したように順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和の小さい一方の対応付けを選択することにより、試行用オブジェクトTJ1及びTJ7のなぞられる方向にかかわらずに各新規輪郭形成点NSTP2乃至NSTP24と試行最後尾輪郭形成点EnTP1乃至EnTP24とをほぼ正しく対応付けて試行推測輪郭線ITLA1乃至ITLA5が反転することを防止して対応付けることができる。   However, in the information processing apparatus 100, as described above, by selecting one of the associations with the smaller sum of the forward pair-to-pair distances Oda2 to Oda24 or the reverse pair-to-pair distances RDA2 to RDA24, the trial objects TJ1 and TJ7 are traced. Regardless of the direction, the new contour forming points NSTP2 to NSTP24 and the trial tail contour forming points EnTP1 to EnTP24 can be associated with each other by preventing the trial estimated contours ITLA1 to ITLA5 from being inverted. .

ステップSP203において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から試行用オブジェクト輪郭抽出データD104を読み出すと共に、動画像記録回路111から全ての試行用フレーム画像データD100Aを読み出し、当該試行用フレーム画像データD100Aを試行用オブジェクト輪郭抽出データD104と合成することにより試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。   In step SP203, the information processing apparatus 100 reads the trial object contour extraction data D104 from the contour recording circuit 115 by the user interface circuit 112, and also reads all the trial frame image data D100A from the moving image recording circuit 111. The trial extracted contour presentation image data is generated by combining the trial frame image data D100A with the trial object contour extraction data D104, and the trial extracted contour presentation image data is combined with the contour extraction trial processing screen data D101. It is sent to the skill determination circuit 117 and the information presentation unit 105.

これにより情報処理装置100は、図45に示すように、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLと試行推測輪郭線TLA1乃至TLA5とを重ねて表示してユーザに目視させる。   Thus, as shown in FIG. 45, the information processing apparatus 100 causes the information presentation unit 105 to display trial start input contour lines StTL corresponding to the trial frame images TF1 to TF7 in the image display area in the contour extraction trial processing screen. And the trial final input contour line EnTL and the trial estimated contour lines TLA1 to TLA5 are displayed in an overlapping manner so as to be visually observed by the user.

また情報処理装置100は、技量判定回路117により、輪郭抽出試行処理用画面データD101に基づいて試行先頭入力輪郭線StTL、試行推測輪郭線TLA1乃至TLA5及び試行最後尾入力輪郭線EnTLとそれぞれ対応する試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の計測基準輪郭線ROL1乃至ROL7との平均誤差量を算出し、次のステップSP204へ移る。   In addition, the information processing apparatus 100 causes the skill determination circuit 117 to correspond to the trial head input contour StTL, trial guess contours TLA1 to TLA5, and trial tail input contour EnTL based on the screen data D101 for contour extraction trial processing. The average error amount of the measurement reference contour lines ROL1 to ROL7 in the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image TF7 is calculated, and the process proceeds to the next step SP204.

ここで例えば計測基準輪郭線ROL1と試行先頭入力輪郭線StTLとの平均誤差量とは、当該計測基準輪郭線ROL1の各箇所と試行先頭入力輪郭線StTLの対応する各箇所との誤差を平均化した数値であり、試行先頭入力輪郭線StTLがその一周に渡り計測基準輪郭線ROL1に対して平均的にどの程度ずれているかを表すものである。   Here, for example, the average error amount between the measurement reference contour line ROL1 and the trial head input contour line StTL is an average of errors between the respective parts of the measurement reference contour line ROL1 and the corresponding parts of the trial head input contour line StTL. This represents the average deviation of the trial head input contour StTL from the measurement reference contour ROL1 over the entire circumference.

ステップSP204において情報処理装置100は、技量判定回路117により、試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7の全てにおいて平均誤差量が所定の閾値以下に達したか否かを判断する。   In step SP204, the information processing apparatus 100 causes the skill determination circuit 117 to reduce the average error amount to a predetermined threshold value or less in all of the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image TF7. Determine whether it has been reached.

このステップSP204において否定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7のうち少なくともいずれか一つにおいて平均誤差量が所定の閾値以下に達していないことを表しており、このとき情報処理装置100は、続くステップSP205へ移る。   If a negative result is obtained in step SP204, this means that the average error amount is predetermined in at least one of the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image TF7. In this case, the information processing apparatus 100 proceeds to step SP205.

ステップSP205において情報処理装置100は、技量判定回路117により、入力輪郭要求データD105を生成し、これをユーザインターフェース回路112へ送出する。   In step SP <b> 205, the information processing apparatus 100 generates input contour request data D <b> 105 by the skill determination circuit 117, and sends this to the user interface circuit 112.

これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出試行操作中のユーザに輪郭抽出試行処理用画面を介して、複数の試行用中間フレーム画像TF2乃至TF6のうち任意の試行用中間フレーム画像TF2乃至TF6で試行用オブジェクトTJ2乃至TJ6の輪郭を指定するように要求する。   Thus, the information processing apparatus 100 causes the user interface circuit 112 to notify the user who is performing the contour extraction trial operation to an arbitrary trial intermediate frame among the plurality of trial intermediate frame images TF2 to TF6 via the contour extraction trial processing screen. A request is made to designate the contours of the trial objects TJ2 to TJ6 in the images TF2 to TF6.

そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111から試行用中間フレーム画像データD100Aを読み出し、これを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面の画像表示領域に試行用中間フレーム画像データD100Aに基づく試行用中間フレーム画像TF2乃至TF6を表示してユーザに目視させる。   Then, the information processing apparatus 100 reads the trial intermediate frame image data D100A from the moving image recording circuit 111 through the user interface circuit 112, combines it with the contour extraction trial processing screen data D101, and sends it to the information presentation unit 105. As a result, the information presentation unit 105 displays the trial intermediate frame images TF2 to TF6 based on the trial intermediate frame image data D100A in the image display area of the contour extraction trial processing screen and allows the user to visually check the information.

この状態で情報処理装置100は、ユーザにより操作部を介して各試行用中間フレーム画像TF2乃至TF6のうち輪郭指定用に任意に選択された1枚の試行用中間フレーム画像TF2、……、又はTF6中の試行用オブジェクトTJ2、……、又はTJ6をなぞらせて指定させる。   In this state, the information processing apparatus 100 allows the user to select one trial intermediate frame image TF2, arbitrarily selected for contour specification from the trial intermediate frame images TF2 to TF6 via the operation unit, or the like. A trial object TJ2,..., Or TJ6 in TF6 is traced and designated.

この結果、情報処理装置100は、ユーザにより選択された試行用中間フレーム画像TF4中の試行用オブジェクトTJ4が任意になぞられて指定されることにより追加の入力輪郭線(以下、これを試行追加入力輪郭線と呼ぶ)に相当する試行追加入力輪郭線信号S103が入力されると、これをユーザインターフェース回路112に取り込んで推測輪郭線生成処理ルーチンSRT300へ戻る。   As a result, the information processing apparatus 100 allows the trial object TJ4 in the trial intermediate frame image TF4 selected by the user to be arbitrarily traced and designated, thereby adding an additional input contour line (hereinafter referred to as trial addition input). When a trial additional input contour line signal S103 corresponding to a contour line) is input, it is taken into the user interface circuit 112 and the process returns to the estimated contour generation processing routine SRT300.

この場合、情報処理装置100は、試行用中間フレーム画像TF4中の試行用オブジェクトTJ4がなぞられて指定されると、この結果得られた追加入力輪郭線信号S103を変換回路113により所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより当該追加入力輪郭線信号S103に相当する複数の追加入力輪郭形成点を生成し、当該生成した複数の追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD106として輪郭線推測生成回路114へ送出する。   In this case, when the trial object TJ4 in the trial intermediate frame image TF4 is traced and specified, the information processing apparatus 100 uses the conversion circuit 113 to obtain the additional input contour signal S103 obtained as a result, at a predetermined sampling interval. Are sampled and converted to digital data to generate a plurality of additional input contour forming points corresponding to the additional input contour signal S103, and the set data of the generated plurality of additional input contour forming points is formed as an additional input contour. The point cloud data D106 is sent to the contour estimation generation circuit 114.

そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からこれに記録している試行用オブジェクト輪郭抽出データD104を読み出し、試行追加入力輪郭線と当該試行用オブジェクト輪郭抽出データD104に含まれる試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLとを用いて上述した推測輪郭線生成処理を行う。   Then, the information processing apparatus 100 reads the trial object contour extraction data D104 recorded in the contour recording circuit 115 from the contour recording circuit 115 by the contour estimation generation circuit 114, and adds the trial additional input contour line and the trial object contour extraction data. The estimated contour generation process described above is performed using the trial start input contour StTL and the trial final input contour EnTL included in D104.

これにより情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL及び試行追加入力輪郭線から試行用先頭フレーム画像TF1及び試行用中間フレーム画像TF4間の試行用中間フレーム画像TF2及びTF3中のオブジェクトTJ2及びTJ3の輪郭を抽出するための試行推測輪郭線TLB1及びTLB2を新たに推測して生成する。   Accordingly, the information processing apparatus 100 causes the contour estimation generation circuit 114 to use the trial head frame image TF2 between the trial head frame image TF1 and the trial middle frame image TF4 from the trial head input contour StTL and the trial additional input contour. And trial estimated contour lines TLB1 and TLB2 for extracting the contours of the objects TJ2 and TJ3 in TF3 are newly estimated and generated.

また情報処理装置100は、輪郭線推測生成回路114により、試行追加入力輪郭線及び試行最後尾入力輪郭線EnTLから試行用中間フレーム画像TF4及び試行用最後尾フレーム画像TF7間の試行用中間フレーム画像TF5及びTF6中のオブジェクトTJ5及びTJ6の輪郭を抽出するための試行推測輪郭線TLB4及びTLB5を新たに推測して生成する。   In addition, the information processing apparatus 100 uses the contour estimation generation circuit 114 to perform the trial intermediate frame image between the trial additional input contour line and the trial final input contour EnTL and the trial intermediate frame image TF4 and the trial final frame image TF7. Trial estimation contour lines TLB4 and TLB5 for extracting the contours of the objects TJ5 and TJ6 in TF5 and TF6 are newly estimated and generated.

このようにして情報処理装置100は、ステップSP204において肯定結果が得られるまでの間は、新たに試行用中間フレーム画像TF2乃至TF6を選択させてオブジェクトTJ2乃至TJ6の輪郭を指定させることにより試行追加入力輪郭線を得ると共に、当該試行追加入力輪郭線と、その前後の入力輪郭線(試行先頭入力輪郭線StTL、試行最後尾入力輪郭線EnTL又は他の試行追加入力輪郭線)とから新たな試行推測輪郭線を推測し直して生成することにより平均誤差量を小さくし、かくして生成した新たな試行用オブジェクト輪郭抽出データD104を輪郭線記録回路115に記録して更新する。   In this way, the information processing apparatus 100 adds trials by selecting the trial intermediate frame images TF2 to TF6 and designating the outlines of the objects TJ2 to TJ6 until a positive result is obtained in step SP204. In addition to obtaining the input contour line, a new trial is performed from the trial additional input contour line and the input contour lines before and after it (trial initial input contour line StTL, trial last input contour line EnTL, or other trial additional input contour lines). By reestimating and generating the estimated contour line, the average error amount is reduced, and the new trial object contour extraction data D104 thus generated is recorded in the contour line recording circuit 115 and updated.

この際、情報処理装置100は、新たな試行推測輪郭線を生成する毎にユーザインターフェース回路112により、輪郭線記録回路115から新たな試行用オブジェクト輪郭抽出データD104を読み出し、当該新たな試行用オブジェクト輪郭抽出データD104と試行用フレーム画像データD100Aとを合成して試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。   At this time, the information processing apparatus 100 reads the new trial object contour extraction data D104 from the contour recording circuit 115 by the user interface circuit 112 every time a new trial estimation contour is generated, and the new trial object. The contour extraction data D104 and the trial frame image data D100A are combined to generate trial extraction contour presentation image data, and the trial extraction contour presentation image data is combined with the contour extraction trial processing screen data D101 to determine the skill. 117 and the information presentation unit 105.

これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと、試行最後尾入力輪郭線EnTLと、新たに生成した試行推測輪郭線とを重ねて表示してユーザに目視させる。   Thus, the information processing apparatus 100 causes the information presentation unit 105 to display the trial head input contour StTL and the trial final input contour corresponding to the trial frame images TF1 to TF7 in the image display area in the contour extraction trial processing screen. The line EnTL and the newly generated trial estimation contour line are displayed in an overlapping manner so as to be visually observed by the user.

これに対してステップSP204において肯定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7(すなわち全ての試行用フレーム画像TF1乃至TF7)においてそれぞれ平均誤差量が所定の閾値以下に達していることを表しており、このとき情報処理装置100は、次のステップSP206へ移る。   On the other hand, if a positive result is obtained in step SP204, this means that the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image TF7 (that is, all the trial frame images TF1 to TF1 to TF7). TF7) indicates that the average error amount has reached a predetermined threshold value or less. At this time, the information processing apparatus 100 proceeds to the next step SP206.

ステップSP206において情報処理装置100は、技量判定回路117により、試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7においてそれぞれ平均誤差量が閾値以下になるまでに試行用オブジェクトTJ1乃至TJ7の輪郭がなぞられて指定された試行用フレーム画像(以下、これを入力フレーム画像と呼ぶ)の総数と、予め設定された所定のフレーム画像基準数とを比較する。   In step SP206, the information processing apparatus 100 causes the skill determination circuit 117 to cause the average error amount to be less than or equal to the threshold value in each of the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image TF7. The total number of trial frame images (hereinafter referred to as input frame images) designated by tracing the contours of the trial objects TJ1 to TJ7 is compared with a predetermined predetermined frame image reference number.

ここで輪郭抽出試行操作の技量が低いユーザは、平均誤差量が所定の閾値以下に達するまでに何度も試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定するように要求されることから、入力フレーム画像の総数が多くなる傾向にある。   Here, the user who has a low skill of the contour extraction trial operation, the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image are repeated many times until the average error amount reaches a predetermined threshold value or less. Since it is required to specify the contours of the trial objects TJ1 to TJ7 in TF7, the total number of input frame images tends to increase.

一方、輪郭抽出試行操作の技量が高いユーザは、何度も試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定しなくても平均誤差量が所定の閾値以下に達することから、入力フレーム画像の総数が少なくなる傾向にある。   On the other hand, a user who has a high skill in the contour extraction trial operation repeatedly shows the contours of the trial objects TJ1 to TJ7 in the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial final frame image TF7. Even if not specified, the average error amount reaches a predetermined threshold value or less, so the total number of input frame images tends to decrease.

従って情報処理装置100は、入力フレーム画像の総数がフレーム画像基準数よりも少ない場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が高いと判定し、これに対して入力フレーム画像の総数がフレーム画像基準数よりも多い場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が低いと判定した後、その判定結果を入力フレーム画像の総数と共に技量データD107としてユーザインターフェース回路112に送出して技量判定処理ルーチンSRT200を終了し、続くステップSP102(図34)に移る。   Accordingly, when the total number of input frame images is smaller than the frame image reference number, the information processing apparatus 100 determines that the skill (that is, the evaluation value) of the user who performed the contour extraction trial operation at this time is high, When the total number of input frame images is larger than the frame image reference number, it is determined that the skill (that is, the evaluation value) of the user who performed the contour extraction trial operation at this time is low, and then the determination result is determined based on the input frame image. The skill data D107 is sent to the user interface circuit 112 together with the total number to finish the skill determination processing routine SRT200, and the process proceeds to the next step SP102 (FIG. 34).

ステップSP102において情報処理装置100は、ユーザインターフェース回路112により、技量判定処理の間、適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面をその技量判定処理(すなわちユーザによる輪郭抽出試行操作)に要した時間(以下、これを作業時間と呼ぶ)等の情報を共に、輪郭抽出経緯画面データ(以下、これを特に輪郭抽出試行経緯画面データと呼ぶ)とし、図46に示すように、その輪郭抽出試行経緯画面データと、技量データD107と、輪郭抽出試行用動画像データD100と、ユーザ情報S100とからなる入力情報を入力情報データD108として処理傾向情報抽出部102に送出して次のステップSP103へ移る。   In step SP102, the information processing apparatus 100 uses the user interface circuit 112 to display a series of contour extraction trial processing screens displayed by appropriately changing the display contents during the skill determination processing. Information such as the time required for the operation (hereinafter referred to as work time) is used as contour extraction history screen data (hereinafter referred to as contour extraction trial history screen data) as shown in FIG. The input information consisting of the contour extraction trial history screen data, the skill data D107, the contour extraction trial moving image data D100, and the user information S100 is sent as input information data D108 to the processing trend information extraction unit 102 to be next processed. The process proceeds to step SP103.

ステップSP103において情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行用動画像データD100に所定の画像処理を施すことにより、当該輪郭抽出試行用動画像データD100から試行用フレーム画像データD100A個別の又は全ての試行用フレーム画像データD100Aにおける平均的な色成分ヒストグラム及びエッジ成分比率とからなる画像特徴情報を抽出する。   In step SP103, the information processing apparatus 100 performs predetermined image processing on the contour extraction trial moving image data D100 included in the input information data D108 by the processing tendency information extraction unit 102, thereby the contour extraction trial moving image data. Image feature information consisting of average color component histograms and edge component ratios for individual or all trial frame image data D100A is extracted from D100.

また情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行経緯画面データに対して所定の画像処理を施すことにより、輪郭抽出試行操作に要した作業時間と、入力フレーム画像中の試行用オブジェクトTJ1乃至TJ7の輪郭が指定されたときの輪郭描線時間と、試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7を一度指定した後に、改めて入力フレーム画像中の試行用オブジェクトの指定を行った回数(以下、これを訂正回数と呼ぶ)と、入力フレーム画像を決定するために前後の試行用フレーム画像TF1乃至TF7をモニタに何回表示したかを表す表示回数とを輪郭抽出経緯情報として抽出する。   In addition, the information processing apparatus 100 performs predetermined image processing on the contour extraction trial history screen data included in the input information data D108 by the processing trend information extraction unit 102, thereby reducing the work time required for the contour extraction trial operation. The contour drawing time when the contours of the trial objects TJ1 to TJ7 in the input frame image are designated, and the trial objects TJ1 and TJ7 in the trial first frame image TF1 and the trial last frame image TF7 are designated once. After that, the number of times that the trial object in the input frame image is designated again (hereinafter referred to as the number of corrections) and the previous and subsequent trial frame images TF1 to TF7 are determined on the monitor to determine the input frame image. The number of times of display indicating how many times it is displayed is extracted as contour extraction history information.

このようにして情報処理装置100は、処理傾向情報抽出部102により、図47に示すように、入力情報から抽出した画像特徴情報と輪郭抽出経緯情報とをユーザによりどのような輪郭抽出試行用動画像120からどのように試行用オブジェクトTJ1乃至TJ7の輪郭が抽出されたかを示す処理傾向情報とする。   In this way, the information processing apparatus 100 causes the processing trend information extraction unit 102 to use the user to extract image feature information and contour extraction history information extracted from input information, as shown in FIG. The processing trend information indicates how the contours of the trial objects TJ1 to TJ7 are extracted from the image 120.

そして情報処理装置100は、処理傾向情報抽出部102により、入力情報から抽出した処理傾向情報を処理傾向情報データとし、当該処理傾向情報データ及び入力情報データD108を対応付けて、これを蓄積情報データD109として情報蓄積部103に送出した後、次のステップSP104へ移る。   The information processing apparatus 100 uses the processing trend information extraction unit 102 as processing trend information extracted from the input information as processing trend information data, associates the processing trend information data with the input information data D108, and stores the information as accumulated information data. After being sent to the information storage unit 103 as D109, the process proceeds to the next step SP104.

これによりステップSP104において情報処理装置100は、情報蓄積部103により、図48に示すように、複数のユーザの蓄積情報データD109をこれに入力情報の技量データD107として含まれる入力フレーム画像の総数が少ない順に並べて、フレーム画像基準数Bor1を基に技量の高いユーザの蓄積情報データD109と、技量の低いユーザの蓄積情報データD109とを区分した状態で記憶してデータベース化し、続くステップSP105へ移って輪郭抽出試行処理手順RT100を終了する。   Accordingly, in step SP104, the information processing apparatus 100 causes the information storage unit 103 to obtain the total number of input frame images included in the stored information data D109 of a plurality of users as the skill data D107 of the input information as shown in FIG. Arranged in ascending order, the accumulated information data D109 of the high skill user and the accumulated information data D109 of the low skill user based on the frame image reference number Bor1 are stored in a state of being divided into a database, and the process proceeds to the next step SP105. The contour extraction trial processing procedure RT100 is terminated.

このようにして情報処理装置100は、実際に抽出対象のオブジェクトを含むオブジェクト抽出用動画像に対して輪郭抽出操作が行われる前に輪郭抽出試行操作の結果を基にユーザの輪郭抽出操作に対する技量や輪郭抽出傾向(すなわち処理傾向情報で表される傾向)を推測し、これを蓄積情報データD109として情報蓄積部103に記憶する。   In this way, the information processing apparatus 100 has a skill with respect to the user's contour extraction operation based on the result of the contour extraction trial operation before the contour extraction operation is performed on the object extraction moving image including the object to be extracted. And the contour extraction tendency (that is, the tendency represented by the processing tendency information) are estimated and stored in the information storage unit 103 as the stored information data D109.

因みに情報処理装置100では、一度輪郭抽出試行操作を行ったユーザであっても所定期間以上、抽出対象のオブジェクトに対して輪郭抽出操作を行わなければ、再度輪郭抽出試行操作を行わせてユーザの輪郭抽出操作に対する技量及び輪郭抽出傾向の推測結果を更新し、これによりユーザの技量を常時適確に把握し得るようになされている。   Incidentally, in the information processing apparatus 100, even if a user who once performed a contour extraction trial operation does not perform a contour extraction operation for an object to be extracted for a predetermined period or longer, the contour extraction trial operation is performed again. The skill for the contour extraction operation and the estimation result of the contour extraction tendency are updated so that the user's skill can be always properly grasped.

次いで情報処理装置100は、輪郭抽出試行操作を行った啓発対象ユーザによりオブジェクト抽出用動画像に対して輪郭抽出操作が行われる際、当該啓発対象ユーザに他のユーザが輪郭抽出操作を行ったときの一連の輪郭抽出処理用画面を提示する。   Next, when the contour extraction operation is performed on the object extraction moving image by the enlightenment target user who performed the contour extraction trial operation, the information processing apparatus 100 performs another contour extraction operation on the enlightenment target user. Presents a series of contour extraction processing screens.

この場合、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において情報提示処理を実行するための各種処理を所定の情報提示プログラムに従ってソフトウェア的に実現する。   In this case, the information processing apparatus 100 performs various processes for executing the information presentation process in the contour generation unit 101, the processing tendency information extraction unit 102, the information storage unit 103, the presentation information selection unit 104, and the information presentation unit 105. It is realized by software according to the information presentation program.

すなわち情報処理装置100は、図49に示すように、情報提示処理プログラムに従って情報提示処理手順RT101の開始ステップから入り、続くステップSP110へ移って情報提示モードへ移行する。   That is, as shown in FIG. 49, the information processing apparatus 100 enters from the start step of the information presentation processing procedure RT101 according to the information presentation processing program, moves to the subsequent step SP110, and shifts to the information presentation mode.

ステップSP110において情報処理装置100は、外部から供給されたオブジェクト抽出用動画像データD200を輪郭生成部101の動画像入力回路110に取り込み、当該オブジェクト抽出用動画像データD200を構成するフレーム画像データ(以下、これを輪郭抽出用フレーム画像データと呼ぶ)D200A単位で動画像記録回路111に記録する。   In step SP110, the information processing apparatus 100 captures the object extraction moving image data D200 supplied from the outside into the moving image input circuit 110 of the contour generation unit 101, and sets the frame image data ( This is hereinafter referred to as contour extraction frame image data) and recorded in the moving image recording circuit 111 in units of D200A.

ここでオブジェクト抽出用動画像データD200に基づくオブジェクト抽出用動画像200は、図50に示すように、時間的に連続して抽出対象のオブジェクトOJ1乃至OJnを含む複数の輪郭抽出用フレーム画像OF1乃至OFnから構成されており、当該輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnが時間の経過に従ってその形状を次第に変化させながら移動する。   Here, as shown in FIG. 50, the object extraction moving image 200 based on the object extraction moving image data D200 includes a plurality of contour extraction frame images OF1 to OF1 including objects to be extracted OJ1 to OJn. The object is composed of OFn, and the objects OJ1 to OJn in the contour extracting frame images OF1 to OFn move while gradually changing their shapes as time passes.

そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aを順次読み出して情報提示部105に送出することにより当該情報提示部105に設けられたモニタに時間的に連続する輪郭抽出用フレーム画像OF1乃至OFnでなるオブジェクト抽出用動画像200を表示して啓発対象ユーザに目視させることにより当該オブジェクト抽出用動画像200の内容及び抽出対象のオブジェクトOJ1乃至OJnの輪郭を確認させて、続くステップSP111へ移る。   Then, the information processing apparatus 100 sequentially reads a plurality of contour extracting frame image data D200A constituting the object extracting moving image data D200 from the moving image recording circuit 111 by the user interface circuit 112, and sends them to the information presenting unit 105. By displaying the object extraction moving image 200 composed of the contour extraction frame images OF1 to OFn that are temporally continuous on the monitor provided in the information presenting unit 105 and allowing the user to be enlightened to visually observe the object extraction moving image. After confirming the contents of the image 200 and the outlines of the objects to be extracted OJ1 to OJn, the process proceeds to the following step SP111.

ステップSP111において情報処理装置100は、啓発対象ユーザにより操作部(図示せず)を介して入力されたユーザ名及びユーザIDとからなるユーザ情報S100を輪郭生成部101のユーザインターフェース回路112に取り込み、これを処理傾向情報抽出部102を介して提示情報選択部104に送出して続くステップSP112へ移る。   In step SP111, the information processing apparatus 100 loads the user information S100 including the user name and the user ID input by the enlightenment target user via the operation unit (not illustrated) into the user interface circuit 112 of the contour generation unit 101, This is sent to the presentation information selection unit 104 via the processing tendency information extraction unit 102, and the process proceeds to the subsequent step SP112.

ステップSP112において情報処理装置100は、提示情報選択部104により、情報蓄積部103からユーザ情報S100(ユーザ名及びユーザID)に基づいて啓発対象ユーザの蓄積情報データD109を読み出し、次のステップSP113へ移る。   In step SP112, the information processing apparatus 100 causes the presentation information selection unit 104 to read out the stored information data D109 of the user to be enlightened from the information storage unit 103 based on the user information S100 (user name and user ID), and proceeds to the next step SP113. Move.

ステップSP113において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に処理傾向情報データとして含まれる輪郭抽出経緯情報(以下、これを比較用基準抽出経緯情報と呼ぶ)と、情報蓄積部103に記憶した啓発対象ユーザの蓄積情報データD109を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これを過去蓄積情報データと呼ぶ)D109に処理傾向情報データ(以下、これを過去処理傾向情報データと呼ぶ)として含まれる輪郭抽出経緯情報(以下、これを過去抽出経緯情報と呼ぶ)とを比較する。   In step SP113, the information processing apparatus 100 causes the presentation information selection unit 104 to use contour extraction history information included as processing tendency information data in the accumulated information data D109 of the enlightenment target user (hereinafter referred to as comparison reference extraction history information). And processing trend information data in all other stored information data (hereinafter referred to as past stored information data) D109 that has already been stored except for the stored information data D109 of the enlightenment user stored in the information storage unit 103 Contour extraction history information (hereinafter referred to as past extraction history information) included as (hereinafter referred to as past processing trend information data) is compared.

実際上、情報処理装置100は、提示情報選択部104により、比較用基準抽出経緯情報に含まれる作業時間(以下、これを比較用基準作業時間と呼ぶ)、輪郭描線時間(以下、これを比較用基準描線時間と呼ぶ)、訂正回数(以下、これを比較用基準訂正回数と呼ぶ)及び表示回数(以下、これを比較用基準表示回数と呼ぶ)と、過去抽出経緯情報に含まれる作業時間(以下、これを過去作業時間と呼ぶ)、輪郭描線時間(以下、これを過去描線時間と呼ぶ)、訂正回数(以下、これを過去訂正回数と呼ぶ)及び表示回数(以下、これを過去表示回数と呼ぶ)とを比較する。   In practice, the information processing apparatus 100 uses the presentation information selection unit 104 to compare the work time included in the reference extraction history information for comparison (hereinafter referred to as “reference work time for comparison”) and the contour line drawing time (hereinafter referred to as “comparison”). Working time included in the past extraction history information, the number of corrections (hereinafter referred to as the reference number of corrections for comparison), the number of times of display (hereinafter referred to as the number of times of reference display for comparison) (Hereinafter referred to as past work time), contour drawing time (hereinafter referred to as past drawing time), correction count (hereinafter referred to as past correction count) and display count (hereinafter referred to as past display) The number of times).

この状態で情報処理装置100は、提示情報選択部104により、過去蓄積情報データD109の中から比較用基準作業時間の値を中心とした所定の作業時間閾値範囲内の値を示す過去作業時間と、比較用基準描線時間の値を中心とした所定の描線時間閾値範囲内の値を示す過去描線時間と、比較用基準訂正回数の値を中心とした所定の訂正回数閾値範囲内の値を示す過去訂正回数と、比較用基準表示回数の値を中心とした所定の表示回数閾値範囲内の値を示す過去表示回数とを過去抽出経緯情報として含む過去蓄積情報データD109を選択することにより、選択対象の過去蓄積情報データD109の数を啓発対象ユーザと輪郭抽出手法の類似する輪郭抽出手法のユーザの過去蓄積情報データD109に限定して続くステップSP114へ移る。   In this state, the information processing apparatus 100 causes the presentation information selection unit 104 to select a past work time indicating a value within a predetermined work time threshold range centered on the value of the reference work time for comparison from the past accumulated information data D109. A past drawing time indicating a value within a predetermined drawing time threshold range centered on a value of a reference drawing time for comparison, and a value within a predetermined correction frequency threshold range centered on a value of a reference correction number for comparison Selection is made by selecting past accumulated information data D109 including past correction counts and past display counts indicating values within a predetermined display count threshold range centered on the reference display count value for comparison as past extraction history information. Continue to step SP114 by limiting the number of target past accumulated information data D109 to the past accumulated information data D109 of the user of the contour extraction method similar to the enlightenment target user and the contour extraction method. That.

ステップSP114において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に含まれる技量データD107に基づいて当該啓発対象ユーザの技量(フレーム画像基準数Bor1を基準として判断した技量)が低いか否かを判断する。   In step SP114, the information processing apparatus 100 determines, based on the skill data D107 included in the accumulated information data D109 of the enlightenment target user, the skill of the enlightenment user (based on the frame image reference number Bor1) by the presentation information selection unit 104. Judge whether the skill is low.

このステップSP114において肯定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY1を輪郭抽出操作に対して技量の低いユーザであると判定していることを表しており、このとき情報処理装置100は、次のステップSP115へ移る。   If an affirmative result is obtained in step SP114, this means that the enlightenment target user Y1 is determined to be a user having a low skill with respect to the contour extraction operation based on the result of the contour extraction trial operation, as shown in FIG. In this case, the information processing apparatus 100 proceeds to the next step SP115.

ステップSP115において情報処理装置100は、提示情報選択部104により、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が高いと判定したユーザY2の過去蓄積情報データD109を最終的に選択する。   In step SP115, the information processing apparatus 100 uses the presentation information selection unit 104 to finalize the past stored information data D109 of the user Y2 that has been determined to have the highest skill by the skill determination process from the past stored information data D109 selected in step SP113. To choose.

これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から最終的に選択した最も技量の高いユーザY2の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の高いユーザY2により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の高いユーザY2の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出して続くステップSP116へ移る。   Thereby, the information processing apparatus 100 is based on the user ID included as the user information S100 in the past accumulated information data D109 of the user Y2 with the highest skill finally selected from the information accumulation unit 103 by the presentation information selection unit 104. Contour extraction history screen data D111 composed of a series of contour extraction processing screen data in the contour extraction operation for the object extraction moving image 200 performed in the past by the user Y2 having the highest skill, and the user Y2 having the highest skill. The skill information included in the past accumulated information data D109 as the skill data D107 is read as the presentation information data D110, the read presentation information data D110 is sent to the information presentation unit 105, and the process proceeds to the subsequent step SP116.

ここで輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面は、過去にユーザによって輪郭抽出操作が行われた際に情報提示部105のモニタに表示され、当該輪郭抽出操作に応じたオブジェクト抽出用動画像200の輪郭抽出用フレーム画像OF1乃至OFnの表示の仕方や、抽出対象のオブジェクトOJ1乃至OJnの指定の仕方等のように、抽出対象のオブジェクトOJ1乃至OJnの輪郭の抽出に対する一連の経緯を表している。   Here, a series of contour extraction processing screens based on the contour extraction history screen data D111 are displayed on the monitor of the information presentation unit 105 when a contour extraction operation is performed by the user in the past, and objects corresponding to the contour extraction operation are displayed. A series of steps for extracting the contours of the extraction target objects OJ1 to OJn, such as how to display the contour extraction frame images OF1 to OFn of the extraction moving image 200 and how to specify the extraction target objects OJ1 to OJn. Represents the background.

ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面と、当該ユーザY2の技量の情報とを情報提示部105に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示し、続くステップSP118に移って情報提示処理手順RT101を終了する。   In step SP116, the information processing apparatus 100 causes the information presentation unit 105 to perform a series of contour extraction processing screens based on the contour extraction history screen data D111 of the user Y2 having the highest skill based on the presentation information data D110, and the user Y2 The skill information is output via a monitor and a speaker (not shown) provided in the information presentation unit 105 and presented to the enlightenment target user. Then, the process proceeds to step SP118 to end the information presentation processing procedure RT101.

これに対してステップSP114において否定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY3を技量の高いユーザであると判定していることを表しており、このとき情報処理装置100は、ステップSP117へ移る。   On the other hand, if a negative result is obtained in step SP114, this means that the enlightenment target user Y3 is determined to be a highly skilled user based on the result of the contour extraction trial operation, as shown in FIG. At this time, the information processing apparatus 100 moves to step SP117.

ステップSP117において情報処理装置100は、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が低いと判定したユーザY4の過去蓄積情報データD109を最終的に選択する。   In step SP117, the information processing apparatus 100 finally selects the past stored information data D109 of the user Y4 determined to have the lowest skill by the skill determination process from the past stored information data D109 selected in step SP113.

これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から、最終的に選択した最も技量の低いユーザY4の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の低いユーザY4により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の低いユーザY4の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出してステップSP116へ移る。   Thereby, the information processing apparatus 100 is based on the user ID included as the user information S100 in the past accumulated information data D109 of the user Y4 with the lowest skill finally selected from the information accumulation unit 103 by the presentation information selection unit 104. Contour extraction history screen data D111 consisting of a series of contour extraction processing screen data at the time of contour extraction operation for the object extraction moving image 200 performed in the past by the user Y4 having the lowest skill, and the user having the lowest skill The information on the skill included as the skill data D107 in the past accumulated information data D109 of Y4 is read as the presentation information data D110, the read presentation information data D110 is sent to the information presentation unit 105, and the process proceeds to step SP116.

この場合ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面とそのユーザY4の技量の情報とをモニタ及びスピーカを介して出力して啓発対象ユーザに提示した後、ステップSP118に移り情報提示処理手順RT101を終了する。   In this case, in step SP116, the information processing apparatus 100 causes the information presentation unit 105 to perform a series of contour extraction processing screens based on the contour extraction history screen data D111 of the user Y4 having the lowest skill based on the presentation information data D110 and the user Y4. After the information of the skill is output through the monitor and the speaker and presented to the enlightenment target user, the process proceeds to step SP118 and the information presentation processing procedure RT101 is terminated.

このようにして情報処理装置100は、図52に示すように、技量の低い啓発対象ユーザY1に対して、当該啓発対象ユーザY1の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の高いユーザY2の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点や、より良くするために真似るべき点等を気付かせて当該輪郭抽出操作の向上を促すようになされている。   In this way, as shown in FIG. 52, the information processing apparatus 100 is the most among a plurality of users who have a contour extraction method similar to the contour extraction method of the enlightenment target user Y1 with respect to the enlightenment target user Y1 with low skill. By presenting a series of contour extraction processing screens based on the contour extraction history screen data D111 of the user Y2 with high skill as the presentation information, the contour extraction method of the user Y2 with the highest skill (that is, the background of the contour extraction operation) is obtained. Based on this, the user to be enlightened is made aware of points to be noted in his / her contour extraction operation, points to be imitated in order to improve it, and the like so as to promote the improvement of the contour extraction operation.

これに対して情報処理装置100は、技量の高い啓発対象ユーザY3に対して、当該啓発対象ユーザY3の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の低いユーザY4の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に反面教師的に啓発対象ユーザY3に対してその輪郭抽出手法と類似する、最も技量の低いユーザY4の輪郭抽出手法を誤って真似ることを防止して当該輪郭抽出操作の向上を促すようになされている。   On the other hand, the information processing apparatus 100 gives the outline of the user Y4 with the lowest skill among the plurality of users of the outline extraction method similar to the outline extraction method of the education target user Y3 to the education target user Y3 with high skill. By presenting a series of contour extraction processing screens based on the extraction history screen data D111 as presentation information, enlightenment on the other hand based on the contour extraction method of the user Y4 having the lowest skill (that is, the background of the contour extraction operation) The target user Y3 is prevented from imitating the contour extraction method of the user Y4 having the lowest skill, which is similar to the contour extraction method, and the improvement of the contour extraction operation is promoted.

そして情報処理装置100は、啓発対象ユーザに対するこのような提示情報の提示の際に事前にオブジェクト抽出用動画像200を啓発対象ユーザに提示していることにより、オブジェクト抽出用動画像200の内容と、他のユーザの輪郭抽出手法とを照らし合わさせることができ、かくして啓発対象ユーザに対して輪郭抽出操作の向上をさらに適確に促すことができるようになされている。   The information processing apparatus 100 presents the object extraction moving image 200 to the enlightenment target user in advance when presenting such presentation information to the enlightenment target user. Therefore, it is possible to collate with the contour extraction method of other users, and thus it is possible to prompt the enlightening target user to improve the contour extraction operation more appropriately.

続いて情報処理装置100は、啓発対象ユーザに提示情報を提示した後、当該啓発対象ユーザによって行われるオブジェクト抽出用動画像200に対する輪郭抽出操作に応じて輪郭抽出処理を実行する。   Subsequently, after presenting the presentation information to the enlightenment target user, the information processing apparatus 100 performs contour extraction processing according to the contour extraction operation performed on the object extraction moving image 200 performed by the enlightenment target user.

この際、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出処理を実行するための各種処理を所定の輪郭抽出処理プログラムに従ってソフトフェア的に実現する。   At this time, the information processing apparatus 100 performs various processes for executing the contour extraction process in the contour generation unit 101, the processing tendency information extraction unit 102, the information storage unit 103, the presentation information selection unit 104, and the information presentation unit 105. The software is realized in accordance with the contour extraction processing program.

すなわち情報処理装置100は、図53に示すように、輪郭抽出処理プログラムに従って輪郭抽出処理手順RT102の開始ステップから入り、続くステップSP130へ移って情報提示モードから輪郭抽出処理モードへ移行する。   That is, as shown in FIG. 53, the information processing apparatus 100 enters from the start step of the contour extraction processing procedure RT102 according to the contour extraction processing program, proceeds to the subsequent step SP130, and shifts from the information presentation mode to the contour extraction processing mode.

ステップSP130において情報処理装置100は、ユーザインターフェース回路112から輪郭抽出処理用画面データD120を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタに輪郭抽出処理用画面データD120に基づいて、オブジェクト抽出用動画像200の画像表示領域等を有する輪郭抽出処理用画面(図示せず)を表示する。   In step SP130, the information processing apparatus 100 sends the contour extraction processing screen data D120 from the user interface circuit 112 to the information presenting unit 105 (FIG. 32), and the contour information is displayed on the monitor provided in the information presenting unit 105. Based on the screen data D120, a contour extraction processing screen (not shown) having an image display area of the object extraction moving image 200 is displayed.

また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に輪郭抽出用先頭フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用先頭フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用先頭フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。   In addition, the information processing apparatus 100 responds to a request from the head trial frame image data (hereinafter referred to as contour extraction head frame image data) D200A input by the user via the operation unit in response to a request from the user interface circuit. 112 selects and reads out the contour extraction first frame image data D200A from among the plurality of contour extraction frame image data D200A constituting the object extraction moving image data D200 from the moving image recording circuit 111; The image data D200A is combined with the contour extraction screen data D120 and sent to the information presentation unit 105.

これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用先頭フレーム画像データD200Aに基づく輪郭抽出用先頭フレーム画像OF1を表示し、かくして輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の形状をユーザに目視させる。   As a result, the information processing apparatus 100 causes the information presentation unit 105 to display the contour extraction first frame image OF1 based on the contour extraction first frame image data D200A in the image display area in the contour extraction processing screen, and thus the contour extraction first frame. The user visually recognizes the shape of the object OJ1 in the frame image OF1.

この状態で情報処理装置100は、図54に示すように、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に先頭入力輪郭線と呼ぶ)に相当する先頭入力輪郭線信号S110をユーザインターフェース回路112に取り込んで変換回路113へ送出する。   In this state, as illustrated in FIG. 54, the information processing apparatus 100 allows the enlightenment user to arbitrarily specify the contour of the object OJ1 in the contour extraction first frame image OF1 on the contour extraction processing screen via the operation unit such as a mouse. Are specified, the leading input contour signal S110 corresponding to the input contour line obtained as a result (hereinafter referred to as the leading input contour line in particular) is taken into the user interface circuit 112 and converted into the conversion circuit 113. To send.

情報処理装置100は、変換回路113により、先頭入力輪郭線信号S110を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該先頭入力輪郭線信号S110に相当する複数の先頭入力輪郭形成点を生成し、当該生成した複数の先頭入力輪郭形成点の集合データを先頭入力輪郭形成点群データD121として輪郭線推測生成回路114に送出し、続くステップSP131へ移る。   The information processing apparatus 100 uses the conversion circuit 113 to sample the head input contour signal S110 at a predetermined sampling interval and convert it into digital data, thereby forming a plurality of head input contours corresponding to the head input contour signal S110. A point is generated, and the generated set data of the plurality of head input contour forming points is sent to the contour estimation generating circuit 114 as head input contour forming point group data D121, and the process proceeds to the next step SP131.

ステップSP131において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の輪郭抽出用フレーム画像データ(以下、これを特に輪郭抽出用最後尾フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用最後尾フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用最後尾フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。   In step SP131, the information processing apparatus 100 responds to a request from the last contour extraction frame image data (hereinafter, referred to as contour extraction last frame image data) D200A input by the user via the operation unit. Then, the user interface circuit 112 selects and reads out the contour extracting last frame image data D200A from the plurality of contour extracting frame image data D200A constituting the object extracting moving image data D200 from the moving image recording circuit 111, The contour extraction last frame image data D200A is combined with the contour extraction processing screen data D120 and sent to the information presentation unit 105.

これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用最後尾フレーム画像データD200Aに基づく輪郭抽出用最後尾フレーム画像OFnを表示し、かくして輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの形状をユーザに目視させる。   As a result, the information processing apparatus 100 displays the contour extraction tail frame image OFn based on the contour extraction tail frame image data D200A in the image display area in the contour extraction processing screen in the information presentation unit 105, and thus contour extraction. The user visually recognizes the shape of the object OJn in the final frame image OFn.

この状態で情報処理装置100は、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に最後尾入力輪郭線と呼ぶ)に相当する最後尾入力輪郭線信号S111をユーザインターフェース回路112に取り込んで変換回路113に送出する。   In this state, the information processing apparatus 100 is designated by the user to be enlightened by arbitrarily tracing the contour of the object OJn in the last frame image OFn for contour extraction on the contour extraction processing screen via the operation unit such as a mouse. Then, the last input contour signal S111 corresponding to the input contour line obtained as a result (hereinafter referred to as the last tail input contour line) is taken into the user interface circuit 112 and sent to the conversion circuit 113.

そして情報処理装置100は、変換回路113により、最後尾入力輪郭線信号S111を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該最後尾入力輪郭線信号S111に相当する複数の最後尾入力輪郭形成点を生成し、当該生成した複数の最後尾入力輪郭形成点の集合データを最後尾入力輪郭形成点群データD122として輪郭線推測生成回路114に送出し、続くステップSP132へ移る。   Then, the information processing apparatus 100 uses the conversion circuit 113 to sample the last input contour signal S111 at a predetermined sampling interval and convert it to digital data, so that a plurality of last input contour signals S111 corresponding to the last input contour signal S111 are obtained. A tail input contour forming point is generated, and the set data of the plurality of last input contour forming points thus generated is sent to the contour estimation generating circuit 114 as the last input contour forming point group data D122, and the process proceeds to the next step SP132.

ステップSP132において情報処理装置100は、輪郭生成部101により、図37について上述した推測輪郭線生成処理ルーチンSRT300と同様の処理を実行することにより、先頭入力輪郭線StOL及び最後尾入力輪郭線EnOLから、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn間の全ての輪郭抽出用フレーム画像(以下、これを輪郭抽出用中間フレーム画像と呼ぶ)OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭を抽出するための推測輪郭線を推測して生成する。因みに推測輪郭線は輪郭生成部101により、以下のように生成される。   In step SP132, the information processing apparatus 100 causes the contour generation unit 101 to execute the same processing as that of the estimated contour generation processing routine SRT300 described above with reference to FIG. 37, so that the first input contour StOL and the last input contour EnOL , All the contour extraction frame images between the contour extraction first frame image OF1 and the contour extraction last frame image OFn (hereinafter referred to as contour extraction intermediate frame images) OF2 through OFn-1 through objects OJ2 through OFn-1. An estimated contour line for extracting the contour of OJn-1 is estimated and generated. Incidentally, the estimated contour line is generated by the contour generation unit 101 as follows.

すなわち輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLを構成する複数の先頭入力輪郭形成点の総数(以下、これを先頭形成点数と呼ぶ)と、最後尾入力輪郭線EnOLを構成する複数の最後尾入力輪郭形成点の総数(以下、これを最後尾形成点数と呼ぶ)とを比較し、数の少ない例えば先頭入力輪郭形成点で構成される先頭入力輪郭線StOLにおいて、互いに隣接する各先頭入力輪郭形成点間の距離から当該先頭入力輪郭線StOLの全長を算出する。   That is, the contour generation unit 101 uses the contour estimation generation circuit 114 to calculate the total number of leading input contour forming points constituting the leading input contour StOL (hereinafter referred to as the number of leading forming points) and the last input contour line. The total number of a plurality of last input contour forming points constituting EnOL (hereinafter referred to as the last tail forming point number) is compared, and a small number of head input contour lines StOL composed of head input contour forming points are compared. The total length of the leading input contour StOL is calculated from the distance between the leading input contour forming points adjacent to each other.

そして輪郭生成部101は、輪郭線推測生成回路114により、その算出した全長を数の多い最後尾形成点数で除算することにより、先頭入力輪郭線StOL上でこれを構成する複数の新たな新規輪郭形成点を生成するための生成間隔を求め、当該生成間隔毎に順次新規輪郭形成点を生成することにより、先頭入力輪郭線StOLを構成する新規輪郭形成点の総数を最後尾形成点数に合わせる。   Then, the contour generation unit 101 divides the calculated total length by the large number of last formation points by the contour estimation generation circuit 114, so that a plurality of new new contours constituting the top input contour StOL are formed. A generation interval for generating formation points is obtained, and new contour formation points are sequentially generated at each generation interval, so that the total number of new contour formation points constituting the leading input contour line StOL is matched with the number of last formation points.

次いで輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOC(座標値)と最後尾入力輪郭線EnOLの重心EnOC(座標値)とを算出し、図55(A)及び(B)に示すように、互いの重心StOC及びEnOC同士を一致させて先頭入力輪郭線StOLと最後尾入力輪郭線EnOLとを重ね合わせる。   Next, the contour generation unit 101 calculates the centroid StOC (coordinate value) of the head input contour StOL and the centroid EnOC (coordinate value) of the last input contour EnOL by the contour estimation generation circuit 114, and FIG. ) And (B), the center of gravity StOC and EnOC are made to coincide with each other, and the leading input contour StOL and the trailing input contour EnOL are overlapped.

この状態で輪郭生成部101は、図56に示すように、輪郭線推測生成回路114により、各新規輪郭形成点NSOP1乃至NSOPnと、これらに対してそれぞれ最短距離の関係にある最後尾入力輪郭形成点EnOP1乃至EnOPnとの間の輪郭線間距離Db1、Db2、Db3、……、Dbnを算出し、当該算出した輪郭線間距離Db1、Db2、Db3、……、Dbnのうち最も短い輪郭線間距離(ここでは輪郭線間距離Db1)の関係にある最後尾入力輪郭形成点EnOP1と新規輪郭形成点NSOP1とを起点ペアSPP2と決定する。   In this state, as shown in FIG. 56, the contour generation unit 101 uses the contour estimation generation circuit 114 to form the last input contour formation having the shortest distance relationship with each of the new contour formation points NSOP1 to NSOPn. Inter-contour line distances Db1, Db2, Db3,..., Dbn between the points EnOP1 to EnOPn are calculated, and among the calculated inter-contour line distances Db1, Db2, Db3,. The last input contour formation point EnOP1 and the new contour formation point NSOP1 which are in the relationship of distance (here, distance between contour lines Db1) are determined as the starting point pair SPP2.

続いて輪郭生成部101は、輪郭線推測生成回路114により、図57(A)に示すように、起点ペアSPP2を起点とし、先頭入力輪郭線StOLにおいて例えば矢印ArwS2に示す反時計回り方向である基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwO2に示す反時計回り方向である順回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOP2間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOP3間、……の順回りペア間距離ODb2乃至ODbnを算出する。   Subsequently, the contour generation unit 101 uses the contour estimation generation circuit 114 as shown in FIG. 57A to start from the starting point pair SPP2 and in the counterclockwise direction indicated by the arrow ArwS2, for example, in the head input contour StOL. By associating the new contour forming points NSOP1 to NSOPn in the reference direction with the last input contour forming points EnOP1 to EnOPn in the forward direction which is the counterclockwise direction indicated by the arrow ArwO2 on the last input contour line EnOL, respectively. The forward paired distances ODb2 to ODbn between the new contour forming point NSOP2 and the last input contour forming point EnOP2, the new contour forming point NSOP3 and the last input contour forming point EnOP3,.

また情報処理装置100は、輪郭線推測生成回路114により、図57(B)に示すように、起点ペアSPP2を起点として、先頭入力輪郭線StOLにおいて基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwS2に示す時計回り方向である逆回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOPn間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOPn−1間、……の逆回りペア間距離RDb2乃至RDbnを算出する。   Further, the information processing apparatus 100 causes the contour estimation generation circuit 114 to generate new contour formation points NSOP1 to NSOPn in the reference direction from the starting pair SPP2 as the starting point, as shown in FIG. By associating the last input contour forming points EnOP1 to EnOPn in the reverse direction which is the clockwise direction indicated by the arrow ArwS2 on the last input contour line EnOL in order, respectively, the associated new contour forming point NSOP2 and the last input The distances RDb2 to RDbn between the counterclockwise pairs of the contour forming points EnOPn, the new contour forming point NSOP3 and the last input contour forming point EnOPn-1, and so on are calculated.

次いで輪郭生成部101は、輪郭線推測生成回路114により、順回りペア間距離ODb2乃至ODbnの総和と逆回りペア間距離RDb2乃至RDbnの総和とを算出した後、当該算出した総和同士を比較することにより総和の小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を選択する。   Next, the contour generation unit 101 calculates the sum of the forward pair-to-pair distances ODb2 to ODbn and the sum of the reverse pair-to-pair distances RDb2 to RDbn by the contour estimation generation circuit 114, and then compares the calculated sums. Thus, one of the associations having a small sum (for example, association between the reference direction and the forward direction) is selected.

そして輪郭生成部101は、輪郭線推測生成回路114により、図58に示すように、起点ペア間距離ODb1、順回りペア間距離ODb2、ODb3、……をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより起点ペアである新規輪郭形成点NSOP1及び最後尾入力輪郭形成点EnOP1同士を結ぶ起点間仮想線上と、順番に対応付けた新規輪郭形成点NSOP2乃至NSOPn及び最後尾入力輪郭形成点EnOP2乃至EnOPn同士を結ぶ対応付け点間仮想線上とでそれぞれ点形成間隔DDb1、DDb2、DDb3、……を求め、当該起点間仮想線上及び各対応付け点間仮想線上で点形成間隔DDb1、DDb2、DDb3、……毎に推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……を生成する。   Then, as shown in FIG. 58, the contour generation unit 101 uses the contour estimation generation circuit 114 to set the distance between the origin points ODb1, the distance between the forward pairs ODb2, ODb3,... The new contour forming points NSOP1 and the last input contour forming points EnOP1 that are the starting point pairs by dividing by the total number of −1, the virtual lines between the starting points connecting the last input contour forming points EnOP1, and the new contour forming points NSOP2 to NSOPn and the tails associated with each other in order The point formation intervals DDb1, DDb2, DDb3,... Are obtained on the virtual lines between the association points connecting the input contour formation points EnOP2 to EnOPn, and the point formation intervals on the virtual lines between the start points and the virtual lines between the association points. DDb1, DDb2, DDb3,..., Estimated contour forming points OIPa1 to OIPn1, OIPa2 to OIPn2, OIPa3 to OIPn3, ... to generate.

輪郭生成部101は、輪郭線推測生成回路114により、起点間仮想線上及び各対応付け点間仮想線上の推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……のうち新規輪郭形成点NSOP1乃至NSOPnから同一の順番にある推測輪郭形成点OIPa1乃至OIPan間、OIPb1乃至OIPbn間、OIPc1乃至OIPcn間、……をそれぞれ補間することにより、各輪郭抽出用中間フレーム画像OF2乃至OFn−1に対する推測輪郭線OLA1乃至OLAn-2を生成する。   The contour generation unit 101 uses the contour estimation generation circuit 114 to form a new contour among the estimated contour formation points OIPa1 to OIPn1, OIPa2 to OIPn2, OIPa3 to OIPn3,. By interpolating the estimated contour forming points OIPa1 to OIPan, the OIPb1 to OIPbn, the OIPc1 to OIPcn,. Estimated contour lines OLA1 to OLAn-2 are generated.

そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn-2の重心(座標値)を算出する。   Then, the contour generation unit 101 calculates the centroids (coordinate values) of the estimated contour lines OLA1 to OLAn-2 by the contour guess generation circuit 114.

また輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOCと最後尾入力輪郭線EnOLの重心EnOCとの間の重心移動距離L2(図55)を輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより、これら互いの重心StOC及びEnOC同士を結ぶ重心間仮想線上で当該先頭入力輪郭線StOLの重心StOCに対する輪郭抽出用中間フレーム画像OF2乃至OFn−1での移動位置(すなわち推測重心位置)を算出する。   Further, the contour generation unit 101 uses the contour estimation generation circuit 114 to calculate the center-of-gravity moving distance L2 (FIG. 55) between the center of gravity StOC of the leading input contour StOL and the center of gravity EnOC of the last input contour EnOL. By dividing by the total number of the frame images OF2 to OFn−1, the contour extracting intermediate frame images OF2 to OFn− with respect to the center of gravity StOC of the head input contour StOL on the centroid virtual line connecting the centroids StOC and EnOC to each other. 1 is calculated (that is, the estimated center-of-gravity position).

そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn-2を、その順番を維持した状態で先頭入力輪郭線StOLの重心StOCから最後尾入力輪郭線EnOLの重心EnOCの方向に移動させ、これら推測輪郭線OLA1乃至OLAn-2の各重心をそれぞれ重心間仮想線上の推測重心位置に順番に一致させることにより、これら各推測輪郭線OLA1乃至OLAn-2をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1に対応付ける。   Then, the contour generation unit 101 causes the contour estimation generation circuit 114 to convert the estimated contours OLA1 to OLAn-2 from the center of gravity StOC of the leading input contour StOL to the center of gravity of the last input contour EnOL while maintaining the order. The estimated contour lines OLA1 to OLAn-2 are respectively contoured by moving in the direction of EnOC, and sequentially aligning the centroids of the estimated contour lines OLA1 to OLAn-2 with the estimated centroid positions on the virtual line between the centroids. Corresponding to the extraction intermediate frame images OF2 to OFn-1.

このようにして情報処理装置100は、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJ1及びOJnの輪郭がなぞられて指定されることにより得られた先頭入力輪郭線StOLと最後尾入力輪郭線EnOLから各輪郭抽出中間フレーム画像F2乃至Fn−1中のオブジェクトOJ2乃至OJn−1を抽出するための推測輪郭線OLA1乃至OLAn-2を推測して生成する。   In this way, the information processing apparatus 100 reads the head input contour line obtained by tracing and designating the contours of the objects OJ1 and OJn in the contour extraction first frame image OF1 and the contour extraction last frame image OFn. Estimated contour lines OLA1 to OLAn-2 for extracting the objects OJ2 to OJn-1 in the respective contour extraction intermediate frame images F2 to Fn-1 are estimated and generated from the StOL and the last input contour line EnOL.

そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLA1乃至OLAn-2を構成する複数の推測輪郭形成点OIPa1乃至OIPan、OIPb1乃至OIPbn、OIPc1乃至OIPcn、……(対応する輪郭抽出用中間フレーム画像OF2乃至OFn−1中の座標で表す)の集合データでなる推測輪郭形成点群データを、先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122と共に、オブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録し、続くステップSP133へ移る。   Then, the information processing apparatus 100 causes the contour estimation generation circuit 114 to use a plurality of estimated contour forming points OIPa1 to OIPan, OIPb1 to OIPbn, OIPc1 to OIPcn,... (Corresponding contours) constituting the estimated contours OLA1 to OLAn-2. The estimated contour forming point cloud data consisting of the set data of the extraction intermediate frame images OF2 to OFn-1) together with the leading input contour forming point cloud data D121 and the last input contour forming point cloud data D122 The contour extraction data D123 is sent to and recorded on the contour recording circuit 115, and then the process proceeds to step SP133.

ステップSP133において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から全ての輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aをオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。   In step SP133, the information processing apparatus 100 reads out the object contour extraction data D123 from the contour recording circuit 115 by the user interface circuit 112, and also reads out all the contour extraction frame image data D200A from the moving image recording circuit 111. The extracted contour presentation image data is generated by combining the extraction frame image data D200A with the object contour extraction data D123, and the extracted contour presentation image data is combined with the contour extraction processing screen data D120 to the information presentation unit 105. Send it out.

これにより情報処理装置100は、図59に示すように、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOL、推測輪郭線OLA1乃至OLAn-2及び最後尾入力輪郭線EnOLを重ねて表示して啓発対象ユーザに目視させ、続くステップSP134に移る。   As a result, the information processing apparatus 100, as shown in FIG. 59, displays the head input contour lines StOL corresponding to the contour extraction frame images OF1 to OFn in the image display area in the contour extraction processing screen in the information presentation unit 105, respectively. The estimated contour lines OLA1 to OLAn-2 and the last input contour line EnOL are displayed in a superimposed manner so that the user to be enlightened can visually check them, and then the process proceeds to step SP134.

ステップSP134において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたか否かを判断する。   In step SP134, the information processing apparatus 100 determines whether or not the user interface circuit 112 has input a process end command to end the contour extraction process by the enlightenment target user.

このステップSP134において否定結果が得られると、このことは輪郭抽出処理用画面を介して推測輪郭線OLA1乃至OLAn-2を目視確認した啓発対象ユーザによって処理終了命令が入力されていないこと、すなわち輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得のできる精度で抽出されておらず、引き続き輪郭抽出操作が行われることを表しており、このとき情報処理装置100は、続くステップSP135へ移る。   If a negative result is obtained in this step SP134, this means that the processing end command has not been input by the enlightenment target user who visually confirmed the estimated contour lines OLA1 to OLAn-2 via the contour extraction processing screen, that is, the contour This means that the contours of the objects OJ2 to OJn-1 in the extraction intermediate frame images OF2 to OFn-1 are not extracted with sufficient accuracy that can be understood by the enlightenment target user, and the contour extraction operation continues. When this happens, the information processing apparatus 100 proceeds to the following step SP135.

ステップSP135において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって入力された輪郭指定用に輪郭抽出中間フレーム画像OF2乃至OFn−1の提示を要求する提示命令に応じて、動画像記録回路111から輪郭抽出用中間フレーム画像OF2乃至OFn−1に相当する輪郭抽出用フレーム画像データD200Aを読み出し、これを輪郭抽出処理用画面データD120に合成して情報提示部105に送出することにより、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用中間フレーム画像OF2乃至OFn−1を表示して啓発対象ユーザに目視させる。   In step SP135, the information processing apparatus 100 causes the user interface circuit 112 to record a moving image in response to a presentation command requesting presentation of the contour extraction intermediate frame images OF2 to OFn-1 for contour specification input by the enlightenment target user. By reading out the contour extraction frame image data D200A corresponding to the contour extraction intermediate frame images OF2 to OFn-1 from the circuit 111, combining it with the contour extraction processing screen data D120 and sending it to the information presentation unit 105, The information presenting unit 105 displays the contour extraction intermediate frame images OF2 to OFn-1 in the image display area in the contour extraction processing screen to allow the user to be enlightened to visually check.

このようにして情報処理装置100は、啓発対象ユーザに対して複数の輪郭抽出用中間フレーム画像OF2乃至OFn−1を視覚的に比較させながら新たにオブジェクトOJ2乃至OJn−1の輪郭を指定する輪郭抽出用中間フレーム画像OF2乃至OFn−1を選択させる。   In this way, the information processing apparatus 100 newly outlines the objects OJ2 to OJn-1 while visually comparing the plurality of contour extraction intermediate frame images OF2 to OFn-1 to the enlightenment target user. Extraction intermediate frame images OF2 to OFn-1 are selected.

この結果、情報処理装置100は、図60に示すように、啓発対象ユーザにより例えば輪郭抽出用中間フレーム画像OF12が選択され、その輪郭抽出用中間フレーム画像OF12中のオブジェクトOJ12の輪郭が任意になぞられることにより得られた追加の入力輪郭線(以下、これを追加入力輪郭線と呼ぶ)AL1に相当する追加入力輪郭線信号S120をユーザインターフェース回路112に取り込むと、ステップSP133に戻る。   As a result, as shown in FIG. 60, the information processing apparatus 100 selects, for example, the contour extraction intermediate frame image OF12 by the enlightenment target user, and arbitrarily traces the contour of the object OJ12 in the contour extraction intermediate frame image OF12. When the additional input contour signal S120 corresponding to the additional input contour line (hereinafter, referred to as an additional input contour line) AL1 obtained as described above is taken into the user interface circuit 112, the process returns to step SP133.

この場合、情報処理装置100は、ステップSP133において変換回路113により、追加入力輪郭線信号S120を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S120に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD124として輪郭線推測生成回路114へ送出する。   In this case, the information processing apparatus 100 corresponds to the additional input contour signal S120 by sampling the additional input contour signal S120 at a predetermined sampling interval and converting it into digital data by the conversion circuit 113 in step SP133. A plurality of additional input contour formation points are generated, and the generated set data of the additional input contour formation points is sent to the contour estimation generation circuit 114 as additional input contour formation point group data D124.

そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122を取り出す。   Then, the information processing apparatus 100 reads out the object contour extraction data D123 from the contour recording circuit 115 by the contour guess generation circuit 114, and forms leading input contour formation point group data D121 and tail input contour formation from the object contour extraction data D123. Point cloud data D122 is taken out.

ここで情報処理装置100は、輪郭線推測生成回路114により、まず先頭入力輪郭形成点群データD121に相当する先頭入力輪郭線StOLと、追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1とから輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用中間フレーム画像OF12間の輪郭抽出用中間フレーム画像OF2乃至OF11中のオブジェクトOJ2乃至OJ11の輪郭を抽出するための推測輪郭線OLB1乃至OLB10 を新たに推測して生成する。   Here, the information processing apparatus 100 uses the contour guess generation circuit 114 to start with the head input contour StOL corresponding to the head input contour formation point cloud data D121 and the additional input contour corresponding to the additional input contour formation point cloud data D124. Estimated contour lines OLB1 to OLB10 for extracting the contours of the objects OJ2 to OJ11 in the contour extracting intermediate frame images OF2 to OF11 between the contour extracting head frame image OF1 and the contour extracting intermediate frame image OF12 from AL1 are newly added. To guess and generate.

また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL1と最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF13乃至OFn−1中のオブジェクトOJ13乃至OJn−1の輪郭を抽出するための推測輪郭線OLB12 乃至OLBn-2を新たに推測して生成する。   Further, the information processing apparatus 100 uses the contour estimation generation circuit 114 to generate the contour extraction intermediate frame image OF12 and the contour from the additional input contour AL1 and the tail input contour EnOL corresponding to the tail input contour formation point group data D122. Estimated contour lines OLB12 to OLBn-2 for extracting the contours of the objects OJ13 to OJn-1 in the contour extracting intermediate frame images OF13 to OFn-1 between the extraction last frame images OFn are newly estimated and generated. To do.

そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn-2をそれぞれ構成する複数の推測輪郭形成点群データを生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。   Then, the information processing apparatus 100 generates a plurality of estimated contour formation point group data respectively constituting the estimated contour lines OLB1 to OLB10 and OLB12 to OLBn-2 by the contour estimation generation circuit 114, and the estimated contour formation point group data. The first input contour formation point group data D121, the last input contour formation point group data D122, and the additional input contour formation point group data D124 are sent to the contour line recording circuit 115 as new object contour extraction data D123. Update by recording.

これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。   Thus, the information processing apparatus 100 reads out new object contour extraction data D123 from the contour recording circuit 115 by the user interface circuit 112, and also reads out frame extraction frame image data D200A from the moving image recording circuit 111 to extract the contour. The extracted contour presentation image data is generated by combining the frame image data D200A with the new object contour extraction data D123, and the extracted contour presentation image data is combined with the contour extraction processing screen data D120 to generate the information presentation unit 105. To send.

この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1と新たな推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn-2とを重ねて表示してユーザに目視させる。   As a result, the information processing apparatus 100 causes the information presentation unit 105 to display the head input contour StOL and the tail input contour EnOL respectively corresponding to the contour extraction frame images OF1 to OFn in the image display area in the contour extraction processing screen. And the additional input contour line AL1 and the new estimated contour lines OLB1 to OLB10 and OLB12 to OLBn-2 are displayed so as to be visually observed by the user.

この状態で情報処理装置100は、ステップSP134において例えば再び否定結果が得られると、上述したステップSP135へ移って同様に輪郭指定用の輪郭抽出用フレーム画像OF1乃至OFnを選択させる。   In this state, if a negative result is obtained again in step SP134, for example, the information processing apparatus 100 proceeds to step SP135 described above and similarly selects the contour extraction frame images OF1 to OFn for specifying the contour.

そして情報処理装置100は、啓発対象ユーザによって新たに輪郭抽出用中間フレーム画像OF22が選択(図60)され、当該輪郭抽出用中間フレーム画像OF22中のオブジェクトOJ22が任意になぞられることにより追加入力輪郭線信号S121が得られると、これをユーザインターフェース回路112に取り込んでステップSP132に戻る。   Then, the information processing apparatus 100 newly selects the contour extraction intermediate frame image OF22 by the enlightenment target user (FIG. 60), and arbitrarily traces the object OJ22 in the contour extraction intermediate frame image OF22, thereby adding additional input contours. When the line signal S121 is obtained, it is taken into the user interface circuit 112 and the process returns to step SP132.

この場合、情報処理装置100は、ステップSP132において、変換回路113により、追加入力輪郭線信号S121を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S121に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD125として輪郭線推測生成回路114へ送出する。   In this case, in step SP132, the information processing apparatus 100 uses the conversion circuit 113 to sample the additional input contour signal S121 at a predetermined sampling interval and convert it into digital data, which corresponds to the additional input contour signal S121. A plurality of additional input contour forming points to be generated is generated, and the generated set data of the additional input contour forming points is sent to the contour estimation generating circuit 114 as additional input contour forming point group data D125.

そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から追加入力輪郭形成点群データD124及び最後尾入力輪郭形成点群データD122を取り出す。   Then, the information processing apparatus 100 reads the object contour extraction data D123 from the contour recording circuit 115 by the contour guess generation circuit 114, and forms additional input contour formation point cloud data D124 and tail input contour formation from the object contour extraction data D123. Point cloud data D122 is taken out.

ここで情報処理装置100は、輪郭線推測生成回路114により、まず追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1と、追加入力輪郭形成点群データD125に相当する追加入力輪郭線AL2とから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用中間フレーム画像OF22間の輪郭抽出用中間フレーム画像OF13乃至OF21中のオブジェクトOJ13乃至OJ21の輪郭を抽出するための推測輪郭線OLC12 乃至OLC20 を推測し直して新たに生成する。   Here, the information processing apparatus 100 uses the contour estimation generation circuit 114 to first add the additional input contour AL1 corresponding to the additional input contour formation point cloud data D124 and the additional input contour corresponding to the additional input contour formation point cloud data D125. Presumed contour lines OLC12 to OLC20 for extracting the contours of the objects OJ13 to OJ21 in the contour extracting intermediate frame images OF13 to OF21 between the contour extracting intermediate frame image OF12 and the contour extracting intermediate frame image OF22 are estimated from AL2. Re-create it.

また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL2と、最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF22及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF23乃至OFn−1中のオブジェクトOJ23乃至OJn−1の輪郭を抽出するための推測輪郭線OLC22 乃至OLCn-2を推測し直して新たに生成する。   In addition, the information processing apparatus 100 uses the contour estimation generation circuit 114 to generate the contour extraction intermediate frame image OF22 from the additional input contour AL2 and the tail input contour EnOL corresponding to the tail input contour formation point group data D122. Re-estimating the estimated contour lines OLC22 to OLCn-2 for extracting the contours of the objects OJ23 to OJn-1 in the contour extracting intermediate frame images OF23 to OFn-1 between the contour extracting last frame images OFn To generate.

そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn-2をそれぞれ構成する複数の推測輪郭形成点群データを新たに生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124及びD125とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。   Then, the information processing apparatus 100 newly generates a plurality of estimated contour forming point group data respectively constituting the estimated contours OLB1 to OLB10, OLC12 to OLC20, and OLC22 to OLCn-2 by the contour estimation generating circuit 114, The estimated contour forming point group data, the head input contour forming point group data D121, the tail input contour forming point group data D122, and the additional input contour forming point group data D124 and D125 are contoured as new object contour extraction data D123. It is updated by sending it to the line recording circuit 115 and recording it.

これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。   Thus, the information processing apparatus 100 reads out new object contour extraction data D123 from the contour recording circuit 115 by the user interface circuit 112, and also reads out frame extraction frame image data D200A from the moving image recording circuit 111 to extract the contour. The extracted contour presentation image data is generated by combining the frame image data D200A with the new object contour extraction data D123, and the extracted contour presentation image data is combined with the contour extraction processing screen data D120 to generate the information presentation unit 105. To send.

この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1及びAL2と推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn-2とを重ねて表示してユーザに目視させる。   As a result, the information processing apparatus 100 causes the information presentation unit 105 to display the head input contour StOL and the tail input contour EnOL respectively corresponding to the contour extraction frame images OF1 to OFn in the image display area in the contour extraction processing screen. The additional input contour lines AL1 and AL2 and the estimated contour lines OLB1 to OLB10, OLC12 to OLC20, and OLC22 to OLCn-2 are displayed in an overlapping manner so that the user can visually observe them.

このようにして情報処理装置100は、ステップSP134において肯定結果が得られるまでの間はステップSP135−ステップSP132−ステップSP133−ステップSP134の処理を繰り返す。   In this way, the information processing apparatus 100 repeats the processing of step SP135-step SP132-step SP133-step SP134 until a positive result is obtained in step SP134.

従って情報処理装置1は、啓発対象ユーザによってオブジェクトOJ1乃至OJnに輪郭が指定されることにより1度は推測輪郭線を生成しても、新たにオブジェクトOJ1乃至OJnの輪郭が指定されると、その都度、輪郭の指定結果に応じて輪郭抽出用フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭を抽出するための推測輪郭線を推測し直して修正することによりオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得する精度で抽出することができる。   Therefore, the information processing apparatus 1 generates the estimated contour line once by the enlightenment target user specifying the contours of the objects OJ1 to OJn, but when the contours of the objects OJ1 to OJn are newly specified, Each time the objects OJ1 to OJn are re-estimated and corrected for the estimated contour lines for extracting the contours of the objects OJ2 to OJn-1 in the contour extraction frame images OF2 to OFn-1 in accordance with the contour designation results. It is possible to extract the outline of the user with the accuracy that the enlightenment target user agrees with.

これに対してステップSP134において肯定結果が得られると、このことは輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得する精度で抽出できたことにより、当該啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置100は、処理終了命令をユーザインターフェース回路112に取り込んでステップSP136へ移る。   On the other hand, if an affirmative result is obtained in step SP134, this indicates that the contours of the objects OJ2 to OJn-1 in the contour extraction intermediate frame images OF2 to OFn-1 can be extracted with an accuracy that the enlightenment target user agrees with. This indicates that the process end command for ending the contour extraction process has been input by the enlightenment target user. At this time, the information processing apparatus 100 takes the process end command into the user interface circuit 112 and moves to step SP136. .

ステップSP136において情報処理装置100は、ユーザインターフェース回路112から処理終了命令を変換回路113及び輪郭線推測生成回路114を順次介して輪郭線記録回路115に送出することにより、当該輪郭線記録回路115によりこの時点で記録している最新のオブジェクト輪郭抽出データD123に相当する先頭入力輪郭線StOLと、最後尾入力輪郭線EnOLと、追加入力輪郭線AL1及びAL2と、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn-2とをオブジェクトOJ1乃至OJnの輪郭を抽出して最終的に得た輪郭線(以下、これを最終輪郭線と呼ぶ)とする。   In step SP136, the information processing apparatus 100 sends a processing end command from the user interface circuit 112 to the contour line recording circuit 115 via the conversion circuit 113 and the contour line estimation generation circuit 114 in order, so that the contour line recording circuit 115 performs the processing. The first input contour StOL, the last input contour EnOL, the additional input contours AL1 and AL2 corresponding to the latest object contour extraction data D123 recorded at this time, the estimated contours OLB1 to OLB10, OLC12 to OLC12 to OLC OLC20 and OLC22 to OLCn-2 are contour lines finally obtained by extracting the contours of the objects OJ1 to OJn (hereinafter referred to as final contour lines).

そして情報処理装置100は、輪郭線記録回路115により、その最終輪郭線を最終輪郭線データD126として輪郭線出力回路116を介して図示しないオブジェクト抽出装置に送出することにより、当該オブジェクト抽出装置によって最終輪郭線を用いて、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnを抽出させる。   Then, the information processing apparatus 100 sends the final contour line as final contour data D126 to the object extraction device (not shown) via the contour output circuit 116 by the contour recording circuit 115, so that the object extraction device finally performs the final processing. Using the contour lines, the objects OJ1 to OJn are extracted from the plurality of contour extraction frame images OF1 to OFn constituting the object extraction moving image 200.

また情報処理装置100は、ユーザインターフェース回路112に上述した輪郭抽出処理手順RT102(すなわちオブジェクト抽出用動画像200を用いた輪郭抽出処理)を実行している間、適宜表示内容を変更して情報提示部105で表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯を表す輪郭抽出経緯画面データD111として記録している。   In addition, the information processing apparatus 100 appropriately changes the display contents while performing the above-described contour extraction processing procedure RT102 (that is, the contour extraction processing using the object extraction moving image 200) on the user interface circuit 112 to present information. A series of contour extraction processing screens displayed by the unit 105 is recorded as contour extraction history screen data D111 representing the history of the contour extraction operation.

従って情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出経緯画面データD111に啓発対象ユーザのユーザIDを対応付け、これを処理傾向情報抽出部102を介して情報蓄積部103に送出して、当該情報蓄積部103に記憶することにより、他の啓発対象ユーザによって輪郭抽出操作が行われる際にその輪郭抽出経緯画面データD111を提示情報として利用可能な状態とし、次のステップSP137へ移って上述した輪郭抽出処理手順RT102を終了する。   Therefore, the information processing apparatus 100 associates the user ID of the enlightenment target user with the contour extraction history screen data D111 by the user interface circuit 112, and sends this to the information storage unit 103 via the processing trend information extraction unit 102. By storing the information in the information storage unit 103, when the contour extraction operation is performed by another enlightenment target user, the contour extraction history screen data D111 can be used as the presentation information, and the process proceeds to the next step SP137 and described above. The contour extraction processing procedure RT102 is finished.

このようにして情報処理装置100は、図61に示すように、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得のできる精度で当該オブジェクトOJ1乃至OJnの動きに応じて推移させた理想的な最終輪郭線LS1乃至LSnとして抽出し得るようになされている。   In this way, as shown in FIG. 61, the information processing apparatus 100 satisfies the enlightenment user with the outlines of the objects OJ1 to OJn in the plurality of outline extraction frame images OF1 to OFn constituting the object extraction moving image 200. It can be extracted as ideal final contour lines LS1 to LSn that have been shifted according to the movement of the objects OJ1 to OJn.

以上の構成において、情報処理装置100は、試行モード時、啓発対象ユーザに輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭に対して輪郭抽出試行操作を行わせ、当該輪郭抽出試行操作に応じた輪郭抽出試行処理の結果により啓発対象ユーザに対する輪郭抽出手法の技量を判定し、その判定結果を示す技量データD107を、当該輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面からなる輪郭抽出試行経緯画面データと、輪郭抽出試行用動画像データD100等と共に入力情報データD108とする。   In the above configuration, in the trial mode, the information processing apparatus 100 applies to the contours of the trial objects TJ1 to TJ7 in the plurality of trial frame images TF1 to TF7 constituting the contour extraction trial moving image 120 to the enlightenment target user. The contour extraction trial operation is performed, the skill of the contour extraction technique for the enlightenment user is determined based on the result of the contour extraction trial process according to the contour extraction trial operation, and skill data D107 indicating the determination result is extracted from the contour extraction Input information data D108 together with contour extraction trial history screen data consisting of a series of contour extraction trial processing screens displayed by appropriately changing display contents during trial processing, contour extraction trial moving image data D100, and the like.

また情報処理装置100は、入力情報データD108に含まれる輪郭抽出試行経緯画面データ及び輪郭抽出試行用動画像データD100から啓発対象ユーザがどのような輪郭抽出試行用動画像120からどのようにオブジェクトTJ1乃至TJ7の輪郭を抽出しているかを表す当該啓発対象ユーザの輪郭抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報を処理傾向情報データとして入力情報データD108と共に蓄積情報データD109として情報蓄積部103に記憶する。   In addition, the information processing apparatus 100 uses the contour extraction trial history screen data and the contour extraction trial moving image data D100 included in the input information data D108 to determine from the contour extraction trial moving image 120 how the object T Thru | or the process tendency information with respect to the outline extraction method of the said enlightenment user showing whether the outline of TJ7 is extracted is extracted, and the extracted process tendency information is information as the accumulated information data D109 together with the input information data D108 as the process tendency information data Store in the storage unit 103.

そして情報処理装置100は、輪郭抽出処理モードに先立つ情報提示モード時、啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報データと、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報データとを比較することにより当該過去蓄積情報データD109の中から、啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択する。   In the information presentation mode prior to the contour extraction processing mode, the information processing apparatus 100 displays the processing tendency information data included in the stored information data D109 of the enlightenment target user and the past stored information data D109 already stored in the information storage unit 103. Are compared with the processing trend information data included in the past information information D109 of other users of the contour extraction method similar to the contour extraction method of the enlightenment target user from the past storage information data D109.

次いで情報処理装置100は、その選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データ111を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにした。   Next, the information processing apparatus 100 performs a series of contour extraction processing presented to the user of the skill according to the skill of the user to be enlightened based on the skill information included in the selected past accumulated information data D109 during the contour extraction process. The contour extraction history screen data 111 composed of a screen is finally selected and presented to the user to be enlightened as presentation information data D110 together with information on the skill of the user.

従って情報処理装置100は、処理能力に優れた指導者による指導を特には必要とせずに、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出手法における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭抽出手法の向上を促すことができる。   Therefore, the information processing apparatus 100 does not particularly require guidance from a leader with excellent processing capability, and uses the contour extraction method of the user to be enlightened based on the contour extraction method of other users with different skills. Points to be noted can be noticed prior to the execution of the contour extraction operation on the object extraction moving image 200, and the enhancement of the contour extraction method of the enlightenment target user can be promoted.

また情報処理装置100は、情報提示モード時、啓発対象ユーザに対して提示情報データD110の他に、引き続き啓発対象ユーザによって行われる輪郭抽出操作に用いるオブジェクト抽出用動画像200も提示するため、提示情報の内容とオブジェクト抽出用動画像200の内容とを照らし合わせて目視確認させることができ、かくしてオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を例えば効率良く等のようにどのように抽出すべきかをその時点で容易に気付かせて当該啓発対象ユーザに自分の輪郭抽出手法の向上をさらに適確に促すことができる。   In addition, in the information presentation mode, the information processing apparatus 100 presents the object extraction moving image 200 used for the contour extraction operation continuously performed by the enlightenment target user in addition to the presentation information data D110 to the enlightenment target user. The contents of the information and the contents of the moving image for object extraction 200 can be visually checked, and thus the outlines of the objects OJ1 to OJn are extracted from the moving image for object extraction 200, for example, efficiently. It can be easily noticed at that time and the user to be enlightened can be further urged to improve his contour extraction technique more appropriately.

以上の構成によれば、試行モード時に啓発対象ユーザに輪郭抽出試行用動画像120から試行用オブジェクトTJ1乃至TJ7の輪郭を抽出する輪郭抽出試行操作を行わせて輪郭抽出手法の技量を判定し、その技量の情報を、輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面と輪郭抽出試行用動画像120とから抽出した啓発対象ユーザの輪郭抽出手法に対する処理傾向情報と共に蓄積情報データD109として情報蓄積部103に記憶しておき、輪郭抽出処理モードに先立つ情報提示モード時に啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報と、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報とを比較して当該啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択すると共に、当該選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにしたことにより、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭抽出手法の向上を促すことができ、かくして処理対象となるオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を抽出するという処理の処理能力を容易に向上させることができる。   According to the above configuration, the skill of the contour extraction method is determined by performing the contour extraction trial operation for extracting the contours of the trial objects TJ1 to TJ7 from the contour extraction trial moving image 120 in the enlightenment target user in the trial mode, Processing for the enlightenment target user's contour extraction technique, in which the skill information is extracted from a series of contour extraction trial processing screens and contour extraction trial moving images 120 displayed by appropriately changing display contents during the contour extraction trial processing. The information is stored in the information storage unit 103 as the stored information data D109 together with the trend information, and the processing trend information included in the stored information data D109 of the enlightenment user in the information presentation mode prior to the contour extraction processing mode is already stored in the information storage unit 103. Contour extraction of the enlightenment target user by comparing the processing tendency information included in the accumulated past accumulated information data D109. A user having a skill corresponding to the skill of the user to be enlightened based on the skill information included in the selected past accumulated information data D109, while selecting past accumulated information data D109 of another user similar to the technique of contour extraction By selecting a series of screens for contour extraction processing presented at the time of the contour extraction processing and presenting them together with information on the skill of the user to the enlightenment user as presentation information data D110, the skill Prior to the execution of the contour extraction operation for the object extraction moving image 200, the user to be enlightened is made aware of the points to be noted in the contour extraction operation based on the contour extraction method of other users with different It is possible to promote improvement of the contour extraction method of the enlightenment target user, and thus the object extraction moving image 2 to be processed. The processing capabilities of the processing of extracting the contour of the object OJ1 to OJn 0 can be easily improved.

なお上述した第3の実施の形態においては、啓発対象ユーザに過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面を提示した後に当該啓発対象ユーザにオブジェクト抽出用動画像200中のオブジェクトOJ1乃至OJnの輪郭に対する輪郭抽出操作を行わせるようにした場合について述べたが、本発明はこれに限らず、図62に示すように、輪郭抽出処理モード時、過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面145を表示する画像表示領域149Aと、啓発対象ユーザによって行われる輪郭抽出操作に応じて一連の輪郭抽出処理用画面146を表示する輪郭抽出領域149Bとを有する処理画面150を情報提示部105で表示し、当該啓発対象ユーザによって行われる輪郭抽出操作に合わせて過去のユーザによる輪郭抽出操作時の一連の輪郭抽出処理用画面145を提示するようにしても良い。   In the third embodiment described above, an object extraction is performed on the enlightenment target user after presenting a series of contour extraction processing screens representing the history of the contour extraction operation performed by other users in the past to the enlightenment target user. The case where the contour extraction operation is performed on the contours of the objects OJ1 to OJn in the moving image 200 has been described, but the present invention is not limited to this, and as shown in FIG. An image display area 149A for displaying a series of contour extraction processing screens 145 representing the background of the contour extraction operation performed by another user, and a series of contour extraction processing according to the contour extraction operation performed by the enlightenment target user The processing screen 150 having the contour extraction area 149B for displaying the screen 146 is displayed on the information presentation unit 105, and the enlightenment target user is displayed. Together the contour extraction operations performed I may be presented a series of contour extraction processing screen 145 at the time of contour extraction operation by the user's past.

また上述した第3の実施の形態においては、試行モード時、予め設定されたフレーム画像基準数Bor1(図48)を基準とした入力フレーム画像の総数に応じて各ユーザの技量を判定するようにした場合について述べたが、本発明はこれに限らず、試行モード時、図63に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、全ユーザの数をほぼ半分に区切る閾値Bor2により各ユーザの技量を判定し、又は図64に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、技量の高い又は低いユーザを所定人数に限定するような閾値Bor3により各ユーザの技量を判定するようにしても良い。この場合、各ユーザにおける入力フレーム画像の総数の傾向に応じてユーザの技量を判定することができる。   In the above-described third embodiment, in the trial mode, the skill of each user is determined according to the total number of input frame images based on a preset frame image reference number Bor1 (FIG. 48). However, the present invention is not limited to this. In the trial mode, as shown in FIG. 63, the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images, and the number of all users is almost halved. 64. The skill of each user is determined by the threshold Bor2 divided into two, or as shown in FIG. 64, the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images, and the number of users with high or low skill is limited to a predetermined number. The skill of each user may be determined based on such a threshold Bor3. In this case, the skill of the user can be determined according to the tendency of the total number of input frame images for each user.

さらに上述した第3の実施の形態においては、情報提示モード時、過去蓄積情報データD109の中から啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法のユーザの過去蓄積情報データD109を選択(限定)するようにした場合について述べたが、本発明はこれに限らず、各ユーザによって行われた輪郭抽出試行操作及び又は輪郭抽出操作で抽出したオブジェクトの名称を過去蓄積情報データD109に格納しておき、情報提示モード時、啓発対象ユーザにオブジェクト抽出用動画像中のオブジェクトの名称(例えば星型や人間の上半身等)を入力させ、当該オブジェクトの名称の情報を含む過去蓄積情報データD109を選択(限定)したり、当該啓発対象ユーザの蓄積情報データD109に処理傾向情報として含まれる画像特徴情報と、過去蓄積情報データD109に処理傾向情報として含まれる画像特徴情報とを比較することにより、啓発対象ユーザの抽出する輪郭を有するオブジェクトと同じ又は類似するオブジェクト(又は類似するオブジェクト抽出用動画像中のオブジェクト)の輪郭を抽出したユーザの過去蓄積情報データD109を選択(限定)するようにしても良い。   Further, in the third embodiment described above, in the information presentation mode, the past accumulated information data D109 of the user of the contour extraction method similar to the contour extraction method of the enlightenment target user is selected (limited) from the past accumulated information data D109. However, the present invention is not limited to this, and the name of the object extracted by the contour extraction trial operation and / or the contour extraction operation performed by each user is stored in the past accumulated information data D109. In the information presentation mode, the enlightenment user is made to input the name of an object (for example, star shape or human upper body) in the object extraction moving image, and the past accumulated information data D109 including information on the name of the object is selected. (Limited) or image features included as processing trend information in the accumulated information data D109 of the enlightenment target user The object is the same as or similar to the object having the contour extracted by the enlightenment target user (or similar moving image for object extraction) It is also possible to select (limit) the user's past accumulated information data D109 from which the contour of the (object) is extracted.

この場合、啓発対象ユーザにこれから輪郭を抽出するオブジェクトと同じ又は類似するオブジェクト、又はその輪郭の抽出に用いるオブジェクト抽出用動画像と同じ又は類似するオブジェクト抽出用動画像に対して輪郭抽出操作を行った他のユーザの輪郭抽出手法を表す一連の輪郭抽出処理用画面を提示することができることにより、啓発対象ユーザに自分の輪郭抽出手法の向上をより適確に促すことができる。   In this case, the contour extraction operation is performed for the enlightenment target user on the object extraction moving image that is the same as or similar to the object from which the contour is to be extracted, or the object extraction moving image used for extracting the outline. In addition, since a series of contour extraction processing screens representing the contour extraction methods of other users can be presented, it is possible to prompt the enlightening target user to improve their contour extraction method more appropriately.

さらに上述した第3の実施の形態においては、情報提示モード時、啓発対象ユーザY1(図51)の技量が低い場合、過去蓄積情報データD109の中から最も技量の高いユーザY2の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY3の技量が高い場合、過去蓄積情報データD109の中から最も技量の低いユーザY4の過去蓄積情報データD109を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、図65に示すように、情報提示モード時、啓発対象ユーザY5の技量が低い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY5の技量を基準とした一定範囲W内で最も技量の高いユーザY6の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY7の技量が高い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY7の技量を基準とした一定範囲W内で最も技量の低いユーザY8の過去蓄積情報データD109を最終的に選択するようにしても良い。   Furthermore, in the third embodiment described above, when the skill of the enlightenment target user Y1 (FIG. 51) is low in the information presentation mode, the past accumulated information data of the user Y2 with the highest skill among the past accumulated information data D109. When D109 is finally selected and the skill of the enlightenment target user Y3 is high, the case where the past accumulated information data D109 of the user Y4 having the lowest skill is finally selected from the past accumulated information data D109 will be described. However, the present invention is not limited to this, and as shown in FIG. 65, when the skill of the enlightenment target user Y5 is low in the information presentation mode, the skill of the enlightenment target user Y5 is selected from the past accumulated information data D109. The past accumulated information data D109 of the user Y6 who has the highest skill in the fixed range W is finally selected, and the skill of the user Y7 to be enlightened is high If I may be finally selected in the past accumulated information data D109 of the awareness target user Y7 of lowest skill within a certain range W relative to the skill user Y8 from the past accumulated information data D109.

この場合、啓発対象ユーザに輪郭抽出手法を提示するために選択したユーザの技量が高すぎ又は低すぎて当該ユーザによって輪郭抽出操作が行われた際の一連の輪郭抽出処理用画面が啓発対象ユーザの輪郭抽出手法の向上を促すために利用し難くなることを防止することができる。   In this case, a series of contour extraction processing screens when the user's skill selected for presenting the contour extraction method to the enlightenment user is too high or too low and the contour extraction operation is performed by the user is the enlightenment user. Therefore, it is possible to prevent difficulty in use in order to promote improvement of the contour extraction method.

さらに上述した第3の実施の形態においては、試行モード時に啓発対象ユーザの輪郭抽出試行操作の結果を蓄積情報データD109として情報蓄積部103に記憶しておき、情報提示モード時にその蓄積情報データD109に基づいて他のユーザの輪郭抽出経緯画面データD111を選択するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出処理モード時、啓発対象ユーザがすでに行ったオブジェクト抽出用動画像中のオブジェクトの輪郭に対する輪郭抽出操作の結果を基に当該啓発対象ユーザの輪郭抽出操作に対する技量や輪郭の抽出傾向(すなわち処理傾向情報で表される傾向)を判定し、これを蓄積情報データD109として情報記憶部103に記憶しておき、再び啓発対象ユーザがオブジェクト抽出用動画像に対して輪郭抽出操作を行う情報提示モード時に、当該蓄積情報データD109に応じて他のユーザの輪郭抽出経緯画面データD111を選択するようにしても良い。   Further, in the third embodiment described above, the result of the contour extraction trial operation of the enlightenment target user is stored in the information storage unit 103 as the stored information data D109 in the trial mode, and the stored information data D109 is stored in the information presentation mode. However, the present invention is not limited to this, and the object extraction moving image already performed by the enlightenment target user in the contour extraction processing mode has been described. Based on the result of the contour extraction operation for the contour of the object in the image, the skill and contour extraction tendency (that is, the tendency represented by the processing trend information) for the contour extraction operation of the user to be enlightened is determined and stored information data D109 is stored in the information storage unit 103, and the enlightenment target user again responds to the object extraction moving image. Te information presentation mode for performing contour extraction operation, may be selected contour extraction history screen data D111 of other users in accordance with the stored information data D 109.

さらに上述した第3の実施の形態においては、マウス等の操作部を介してオブジェクトの輪郭がなぞられることにより得られた入力輪郭線から推測輪郭線を推測して生成するようにした場合について述べたが、本発明はこれに限らず、オブジェクトの輪郭内側の領域を塗りつぶして当該オブジェクトを指定する指定領域や、オブジェクトの背景を塗りつぶして当該オブジェクトを指定する指定領域等から推定輪郭線を推定して生成するようにしても良い。   Further, in the above-described third embodiment, a case is described in which an estimated contour is estimated and generated from an input contour obtained by tracing the contour of an object via an operation unit such as a mouse. However, the present invention is not limited to this, and the estimated contour line is estimated from a designated area in which the area inside the contour of the object is filled to designate the object, a designated area in which the background of the object is filled to designate the object, and the like. May be generated.

さらに上述した第3の実施の形態においては、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず先頭及び最後尾の輪郭抽出用フレーム画像及び試行用フレーム画像を選択するようにした場合について述べたが、本発明はこれに限らず、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず任意に2つのフレーム画像を選択するようにしても良い。   Furthermore, in the above-described third embodiment, when extracting the contour of an object from a moving image, first and last contour extracting frame images and trial frame images from a plurality of frame images constituting the moving image. However, the present invention is not limited to this, and when extracting the contour of an object from a moving image, two frame images are first arbitrarily selected from a plurality of frame images constituting the moving image. You may make it select.

(4)他の実施の形態
なお上述した第1乃至第3の実施の形態においては、本発明による情報処理装置を図1乃至図65について上述した情報処理装置1、50、100に適用するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータや画像処理装置、上述した情報処理装置50及び100から領域抽出部51及び輪郭生成部101を分離した情報処理装置等のように、この他種々の情報処理装置に広く適用することができる。
(4) Other Embodiments In the first to third embodiments described above, the information processing apparatus according to the present invention is applied to the information processing apparatuses 1, 50, and 100 described above with reference to FIGS. However, the present invention is not limited to this, such as a personal computer, an image processing device, an information processing device in which the region extraction unit 51 and the contour generation unit 101 are separated from the above information processing devices 50 and 100, and the like. In addition, the present invention can be widely applied to various other information processing apparatuses.

また上述した第1乃至第3の実施の形態においては、本発明による情報処理プログラムを図1乃至図65について上述した第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに適用し、当該第1及び第2の啓発促進プログラムに従って図2及び図14について上述した第1及び第2の啓発促進処理手順RT1及びRT50を実行すると共に、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに従って図34及び図49並びに図53について上述した輪郭抽出試行処理手順RT100及び情報提示処理手順RT101並びに輪郭抽出処理手順RT102を実行するようにした場合について述べたが、本発明はこれに限らず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムをローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用して情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良いし、当該第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが格納されたプログラム格納媒体を情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良い。   In the first to third embodiments described above, the information processing program according to the present invention is the first and second enlightenment promotion programs, contour extraction trial programs, information presentation programs, and contours described above with reference to FIGS. The first and second enlightenment promotion processing procedures RT1 and RT50 described above with reference to FIGS. 2 and 14 are executed according to the first and second enlightenment promotion programs, and the contour extraction trial program and information are applied to the extraction process program. The case where the contour extraction trial processing procedure RT100, the information presentation processing procedure RT101 and the contour extraction processing procedure RT102 described above with reference to FIGS. 34, 49 and 53 are executed according to the presentation program and the contour extraction processing program has been described. The invention is not limited to this, and the first and second enlightenment promotion programs By installing the program, the contour extraction trial program, the information presentation program, and the contour extraction processing program in the information processing apparatus 1, 50, 100 using a wired and wireless communication medium such as a local area network, the Internet, and digital satellite broadcasting. The first and second enlightenment promotion processing procedures RT1 and RT50, the contour extraction trial processing procedure RT100, the information presentation processing procedure RT101 and the contour extraction processing procedure RT102 may be executed, or the first and second enlightenment promotion procedures. By installing a program storage medium in which a program, contour extraction trial program, information presentation program, and contour extraction processing program are stored in the information processing apparatuses 1, 50, 100, the first and second enlightenment promotion processing procedures RT1 and RT50, Contour extraction trial processing procedure RT1 0, may be executing the information presentation processing procedure RT101 and contour extraction processing procedure RT102.

因みに上述した第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するための第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを情報処理装置1、50、100にインストールして実行可能な状態にするためのプログラム格納媒体としては、例えばフレキシブルディスク、CD−ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)等のパッケージメディアのみならず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが一時的もしくは永続的に格納される半導体メモリや磁気ディスク等で実現しても良い。またこれらプログラム格納媒体に第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを格納する手段としては、ローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用しても良く、ルータやモデム等の各種通信インターフェイスを介して格納するようにしても良い。   Incidentally, the first and second enlightenment promotion programs RT1 and RT50, the contour extraction trial processing procedure RT100, the information presentation processing procedure RT101 and the contour extraction processing procedure RT102 described above, As a program storage medium for installing the contour extraction trial program, the information presentation program, and the contour extraction processing program in the information processing apparatuses 1, 50, 100 and making them executable, for example, a flexible disk, a CD-ROM (Compact Disc) -Not only package media such as Read Only Memory (DVD) and DVD (Digital Versatile Disc), but also first and second enlightenment promotion programs, contour extraction trial programs, information presentation programs and contour extraction processing programs temporarily or permanently With stored semiconductor memory, magnetic disk, etc. It may be represented. Means for storing the first and second enlightenment promotion programs, contour extraction trial programs, information presentation programs, and contour extraction processing programs in these program storage media include wired and wireless such as local area networks, the Internet, and digital satellite broadcasting. A communication medium may be used, and data may be stored via various communication interfaces such as a router and a modem.

さらに上述した第1乃至第3の実施の形態においては、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積手段として、図1乃至図65について上述した情報蓄積部4、53、103を適用するようにした場合について述べたが、本発明はこれに限らず、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積することができれば、ハードディスクドライブや情報処理装置1、50、100の外部の外部記録装置等のように、この他種々の蓄積手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, as a storage means for storing storage information including a processing method of processing performed on a processing target by a user and evaluation values for the processing for a plurality of users, FIG. Although the case where the information storage units 4, 53, and 103 described above with reference to FIGS. 1 to 65 are applied has been described, the present invention is not limited to this, and the processing method of processing performed on the processing target by the user and If storage information including evaluation values for the processing can be stored for a plurality of users, various other storage means such as a hard disk drive and an external recording device outside the information processing apparatus 1, 50, 100 are widely applied. can do.

さらに上述した第1乃至第3の実施の形態においては、特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する比較手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、特定ユーザ(すなわち啓発対象ユーザ)の処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較することができれば、提示情報選択部5、54、104とは異なる専用の比較回路等のように、この他種々の比較手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, as comparing means for comparing any one of the processing method and evaluation value of a specific user with one included in the accumulated information accumulated in the accumulating means. 1 to 65, the case where the presentation information selection units 5, 54, 104 described above are applied has been described. However, the present invention is not limited to this, and the processing method of a specific user (that is, a user to be enlightened) and If any one of the evaluation values can be compared with one included in the accumulated information accumulated in the accumulating means, like a dedicated comparison circuit different from the presentation information selection units 5, 54, 104, etc. Various other comparison means can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択する情報選択手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択することができれば、提示情報選択部5、54、104から特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する機能を除いた専用の情報選択回路等のように、この他種々の情報選択手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, as information selection means for selecting stored information according to the comparison result by the comparison means from among a plurality of pieces of storage information stored in the storage means, FIG. Although the case where the presentation information selection units 5, 54, and 104 described above with reference to FIG. 65 are applied has been described, the present invention is not limited to this, and a comparison unit is selected from a plurality of storage information stored in the storage unit. If the accumulated information can be selected in accordance with the comparison result of, the presentation information selecting unit 5, 54, 104 can select one of the processing method and evaluation value of the specific user and the accumulated information accumulated in the accumulating means. Various other information selection means can be widely applied, such as a dedicated information selection circuit excluding the function of comparing one included.

さらに上述した第1乃至第3の実施の形態においては、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示する提示手段として、図1乃至図65について上述したモニタ及びスピーカを有する情報提示部6、55、105を適用するようにした場合について述べたが、本発明はこれに限らず、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示することができれば、表示部や情報処理装置1、50、100の外部の外部表示装置等のように、この他種々の提示手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, the monitor and speaker described above with reference to FIGS. 1 to 65 are used as the presenting means for presenting the processing method included in the stored information selected by the information selecting means to a specific user. However, the present invention is not limited to this, and the processing method included in the accumulated information selected by the information selection means is presented to a specific user. If possible, various other presentation means can be widely applied, such as an external display device outside the display unit or the information processing devices 1, 50, 100.

さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に1つのフレーム画像を選択するための画像選択手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, FIG. 13 shows image selection means for selecting one frame image for designating the contour of an object from among a plurality of frame images constituting a moving image. Although the case where the operation unit such as a mouse (not shown) described above with reference to FIG. 31 is applied has been described, the present invention is not limited thereto, such as a pointing device such as a joystick, a stylus pen, a touch panel, a keyboard, etc. Various other image selection means can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクト指定領域の抽出用の複数のフレーム画像を設定するための画像設定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像設定手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, FIG. 13 shows image setting means for setting a plurality of frame images for extracting an object designated area from a plurality of frame images constituting a moving image. Although the case where the operation unit such as a mouse (not shown) described above with reference to FIG. 31 is applied has been described, the present invention is not limited thereto, such as a pointing device such as a joystick, a stylus pen, a touch panel, a keyboard, etc. Various other image setting means can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、動画像中のオブジェクトの動きベクトルを検出する動きベクトル検出手段として、図13乃至図31について上述した動きベクトル検出記録回路62を適用するようにした場合について述べたが、本発明はこれに限らず、動きベクトルの検出機能のみを有する動きベクトル検出回路等のように、この他種々の動きベクトル検出手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, the motion vector detection recording circuit 62 described above with reference to FIGS. 13 to 31 is applied as the motion vector detection means for detecting the motion vector of the object in the moving image. However, the present invention is not limited to this, and various other motion vector detection means such as a motion vector detection circuit having only a motion vector detection function can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された1つのフレーム画像中のオブジェクトの輪郭を指定するための輪郭指定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。   Further, in the first to third embodiments described above, FIGS. 13 to 31 are described as contour designating means for designating the contour of an object in one frame image selected via the image selecting means. However, the present invention is not limited to this, and various other contour designating means such as a pointing device such as a joystick, a stylus pen, and a touch panel are used. Can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、動きベクトル検出手段によって検出された動きベクトルと、輪郭指定手段を介して指定された輪郭とに基づいて、画像設定手段によって設定された複数のフレーム画像に対するオブジェクト指定領域を抽出する指定領域抽出手段として、図13乃至図31について上述した領域抽出部51を適用するようにした場合について述べたが、本発明はこれに限らず、情報処理装置50から分離された外部の領域抽出装置等のように、この他種々の指定領域抽出手段を広く適用することができる。   Further, in the first to third embodiments described above, a plurality of images set by the image setting unit based on the motion vector detected by the motion vector detecting unit and the contour specified by the contour specifying unit. Although the case where the region extracting unit 51 described above with reference to FIGS. 13 to 31 is applied as the specified region extracting means for extracting the object specified region for the frame image of the present invention has been described, the present invention is not limited to this, and the information processing Various other designated area extracting means can be widely applied, such as an external area extracting apparatus separated from the apparatus 50.

さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段、画像設定手段及び輪郭指定手段による入力履歴として、図13乃至図31について上述した一連の領域抽出処理用画面でなる領域抽出経緯画面データを適用するようにした場合について述べたが、本発明はこれに限らず、領域抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。   Furthermore, in the first to third embodiments described above, as input histories by the image selection means, the image setting means, and the contour designation means, which are processing techniques included in the storage information stored in the storage means, FIG. 13 to FIG. Although the case where the region extraction history screen data composed of the series of region extraction processing screens described above is applied to the case 31 has been described, the present invention is not limited to this, and the input history representing the background of the region extraction method as character information As described above, various other input histories can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に少なくとも2つの第1及び第2のフレーム画像を選択するための画像選択手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。   Further, in the first to third embodiments described above, for selecting at least two first and second frame images for designating the contour of an object from among a plurality of frame images constituting a moving image. The case where an operation unit such as a mouse (not shown) described above with reference to FIGS. 32 to 65 is applied as the image selection means has been described, but the present invention is not limited to this, and a pointing device such as a joystick, stylus pen, touch panel, or the like. Various other image selection means such as a keyboard and a keyboard can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された第1及び第2のフレーム画像中のオブジェクトの輪郭をそれぞれ指定するための輪郭指定手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, FIG. 32 shows contour designating means for designating the contours of the objects in the first and second frame images selected via the image selecting means. The operation unit such as a mouse (not shown) described above with reference to FIG. 65 has been described. However, the present invention is not limited to this, and various other types of pointing devices such as a joystick, a stylus pen, and a touch panel can be used. The contour designating means can be widely applied.

さらに上述した第1乃至第3の実施の形態においては、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測する輪郭推測手段として、図32乃至図65について上述した輪郭線推測生成回路114を適用するようにした場合について述べたが、本発明はこれに限らず、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測することができれば、CPU(Central Processing Unit)やマイクロプロセッサ等のように、この他種々の輪郭推測手段を広く適用することができる。   Furthermore, in the first to third embodiments described above, when another frame image exists between the first and second frame images, the first and second frame images are included in the first and second frame images via the contour specifying means. The contour lines described above with reference to FIGS. 32 to 65 as contour estimation means for estimating the contours of objects in other frame images from the first and second contour designation results obtained by designating the contours of the objects. Although the case where the inference generation circuit 114 is applied has been described, the present invention is not limited to this, and when there is another frame image between the first and second frame images, the second operation is performed via the contour specifying means. Objects in other frame images from the first and second contour designation results obtained by designating the contours of the objects in the first and second frame images, respectively. If it is possible to infer the contour, CPU as such (Central Processing Unit) or a microprocessor, it is possible to widely apply various other outline estimating means.

さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段及び輪郭指定手段による入力履歴として、図32乃至図65について上述した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データD111を適用するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。   Further, in the first to third embodiments described above, FIGS. 32 to 65 are described as input histories by the image selection unit and the contour specification unit, which are processing methods included in the storage information stored in the storage unit. Although the case where the contour extraction history screen data D111 composed of a series of contour extraction processing screens is applied has been described, the present invention is not limited to this, such as an input history that represents the history of the contour extraction method as character information. In addition, various other input histories can be widely applied.

本発明による情報処理装置の回路構成の第1の実施の形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of the circuit structure of the information processing apparatus by this invention. 第1の啓発促進処理手順を示すフローチャートである。It is a flowchart which shows a 1st enlightenment promotion processing procedure. 入力情報の構成を示す略線図である。It is a basic diagram which shows the structure of input information. 入力情報データを示す略線図である。It is a basic diagram which shows input information data. バッティング動画像の構成を示す略線図である。It is a basic diagram which shows the structure of a batting moving image. ボールのコース及びバットのグリップと先端との高低差の検出の説明に供する略線図である。It is a basic diagram with which it uses for description of the detection of the height difference with the course of a ball | bowl, and the grip and front-end | tip of a bat. 処理傾向情報の構成を示す略線図である。It is a basic diagram which shows the structure of process tendency information. 蓄積情報データの記憶の説明に供する略線図である。It is an approximate line figure used for explanation of storage of accumulation information data. 蓄積情報データの限定の説明に供する略線図である。It is an approximate line figure used for explanation of limitation of accumulation information data. 提示情報を選択するための選択条件を示す略線図である。It is a basic diagram which shows the selection conditions for selecting presentation information. 提示情報の構成を示す略線図である。It is a basic diagram which shows the structure of presentation information. 他の実施の形態による提示情報の選択条件を示す略線図である。It is a basic diagram which shows the selection conditions of the presentation information by other embodiment. 第2の実施の形態による情報処理装置の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the information processing apparatus by 2nd Embodiment. 第2の啓発促進処理手順を示すフローチャートである。It is a flowchart which shows a 2nd enlightenment promotion processing procedure. 領域抽出部の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of an area | region extraction part. 領域抽出処理ルーチン(1)を示すフローチャートである。It is a flowchart which shows an area | region extraction process routine (1). 領域抽出処理ルーチン(2)を示すフローチャートである。It is a flowchart which shows an area | region extraction process routine (2). オブジェクト抽出用動画像の構成を示す略線図である。It is a basic diagram which shows the structure of the moving image for object extraction. 作業フレーム画像及び伝播範囲の設定の説明に供する略線図である。It is a basic diagram with which it uses for description of the setting of a work frame image and a propagation range. 作業フレーム画像におけるオブジェクトの輪郭の指定の説明に供する略線図である。It is a basic diagram with which it uses for description of designation | designated of the outline of the object in a work frame image. オブジェクト指定伝播領域の生成の説明に供する略線図である。It is a basic diagram with which it uses for description of the production | generation of an object designation | designated propagation area. 伝播範囲におけるオブジェクト指定領域の生成の説明に供する略線図である。It is a basic diagram with which it uses for description of the production | generation of the object designation | designated area | region in a propagation range. オブジェクト指定領域に対する修正箇所の指示の説明に供する略線図である。It is a basic diagram with which it uses for description of the instruction | indication of the correction location with respect to an object designation | designated area | region. オブジェクト指定領域の修正の説明に供する略線図である。It is an approximate line figure used for explanation of amendment of an object specification field. 修正したオブジェクト指定領域の提示の説明に供する略線図である。It is a basic diagram with which it uses for description of presentation of the corrected object designation | designated area | region. 領域を反転したオブジェクト指定領域の説明に供する略線図である。It is a basic diagram with which it uses for description of the object designated area | region which reversed the area | region. 入力情報の構成を示す略線図である。It is a basic diagram which shows the structure of input information. 処理傾向情報の構成を示す略線図である。It is a basic diagram which shows the structure of process tendency information. 提示情報を選択するための選択条件を示す略線図である。It is a basic diagram which shows the selection conditions for selecting presentation information. 提示情報の構成を示す略線図である。It is a basic diagram which shows the structure of presentation information. 他の実施の形態による提示情報の選択条件を示す略線図である。It is a basic diagram which shows the selection conditions of the presentation information by other embodiment. 第3の実施の形態による情報処理装置の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the information processing apparatus by 3rd Embodiment. 輪郭生成部の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of an outline production | generation part. 輪郭抽出試行処理手順を示すフローチャートである。It is a flowchart which shows a contour extraction trial processing procedure. 技量判定処理ルーチンを示すフローチャートである。It is a flowchart which shows a skill determination processing routine. 輪郭抽出試行用動画像の構成を示す略線図である。It is a basic diagram which shows the structure of the moving image for an outline extraction trial. 推測輪郭線生成処理ルーチンを示すフローチャートである。It is a flowchart which shows a presumed outline generation process routine. 試行先頭入力輪郭形成点及び試行最後尾入力輪郭形成点の説明に供する略線図である。It is a basic diagram with which it uses for description of a trial head input outline formation point and a trial last input outline formation point. 試行先頭入力輪郭線を新たに構成する新規輪郭形成点の生成の説明に供する略線図である。It is a basic diagram with which it uses for description of the production | generation of the new outline formation point which newly comprises a trial head input outline. 試行先頭入力輪郭線及び試行最後尾入力輪郭線の重心を一致させた場合の説明に供する略線図である。It is a basic diagram with which it uses for description at the time of making the gravity center of a trial head input outline and a trial last input outline match. 起点ペアの決定の説明に供する略線図である。It is a basic diagram with which it uses for description of determination of a starting point pair. 順回り方向及び逆回り方向の対応付けの説明に供する略線図である。It is a basic diagram with which it uses for description of matching of a forward direction and a reverse direction. 試行推測輪郭線の生成の説明に供する略線図である。It is an approximate line figure used for explanation of generation of a trial guess outline. 各試行用フレーム画像での重心位置の推測の説明に供する略線図である。It is a basic diagram with which it uses for description of presumption of the gravity center position in each frame image for trial. 試行先頭入力輪郭線、試行推測輪郭線及び試行最後尾入力輪郭線の提示結果の説明に供する略線図である。It is an approximate line figure used for explanation of a presentation result of a trial head input outline, a trial guess outline, and a trial last input outline. 入力情報の構成を示す略線図である。It is a basic diagram which shows the structure of input information. 処理傾向情報の構成を示す略線図である。It is a basic diagram which shows the structure of process tendency information. 蓄積情報データのデータベース化の説明に供する略線図である。It is a basic diagram with which it uses for description of database-ization of accumulation | storage information data. 情報提示処理手順を示すフローチャートである。It is a flowchart which shows an information presentation process procedure. オブジェクト抽出用動画像の構成を示す略線図である。It is a basic diagram which shows the structure of the moving image for object extraction. 蓄積情報データの選択の説明に供する略線図である。It is an approximate line figure used for explanation of selection of accumulation information data. 提示情報の構成を示す略線図である。It is a basic diagram which shows the structure of presentation information. 輪郭抽出処理手順を示すフローチャートである。It is a flowchart which shows an outline extraction process procedure. 先頭入力輪郭線及び最後尾入力輪郭線の生成の説明に供する略線図である。It is a basic diagram with which it uses for description of the production | generation of a head input outline and a tail input outline. 先頭入力輪郭線及び最後尾入力輪郭線の重心を一致させた場合の説明に供する略線図である。It is a basic diagram with which it uses for description at the time of making the gravity center of a head input outline and a tail input outline match. 起点ペアの決定の説明に供する略線図である。It is a basic diagram with which it uses for description of determination of a starting point pair. 順回り方向及び逆回り方向の対応付けの説明に供する略線図である。It is a basic diagram with which it uses for description of matching of a forward direction and a reverse direction. 推測輪郭線の生成の説明に供する略線図である。It is a basic diagram with which it uses for description of the production | generation of a presumed outline. 輪郭抽出用中間フレーム画像に対する推測輪郭線の生成結果を示す略線図である。It is a basic diagram which shows the production | generation result of the estimation outline with respect to the intermediate | middle frame image for outline extraction. 追加入力輪郭線に基づく推測輪郭線の生成の説明に供する略線図である。It is a basic diagram with which it uses for description of the production | generation of the presumed outline based on an additional input outline. 最終輪郭線の説明に供する略線図である。It is an approximate line figure used for explanation of a final outline. 他の実施の形態による輪郭抽出処理用画面の提示の説明に供する略線図である。It is an approximate line figure used for explanation of presentation of a screen for outline extraction processing by other embodiments. 他の実施の形態によるユーザの技量の判定(1)の説明に供する略線図である。It is a basic diagram with which it uses for description of determination (1) of the skill of the user by other embodiment. 他の実施の形態によるユーザの技量の判定(2)の説明に供する略線図である。It is a basic diagram with which it uses for description of determination (2) of the skill of the user by other embodiment. 他の実施の形態による蓄積情報データの選択の説明に供する略線図である。It is a basic diagram with which it uses for description of selection of the accumulation | storage information data by other embodiment.

符号の説明Explanation of symbols

1、50、100……情報処理装置、2……情報入力部、3、52、102……処理傾向情報抽出部、4、53、103……情報蓄積部、5、54、104……提示情報選択部、6、55、105……情報提示部、51……領域抽出部、62……動きベクトル検出記録回路、114……輪郭線推測回路、70、200……オブジェクト抽出用動画像、70A乃至70G……領域抽出用フレーム画像、71、120……輪郭抽出試行用動画像、TF1乃至TF7……試行用フレーム画像、TJ1乃至TJ7……試行用オブジェクト、OJ1乃至OJn……オブジェクト、101……輪郭生成部、74A……オブジェクト指定基準領域、77A乃至77D、77AX乃至77DX……オブジェクト指定伝播領域、80……オブジェクト指定基準反転領域、81A乃至81D……オブジェクト指定伝播反転領域、D1……バッティング動画像データ、D2、D65……入力情報データ、D3、D66……処理傾向情報データ、D4、D67、D109……蓄積情報データ、D5、D68、D110……提示情報データ、D50、D200……オブジェクト抽出用動画像データ、D51……領域抽出用フレーム画像データ、D52……領域抽出処理用画面データ、D100……輪郭抽出試行用動画像データ、D100A……試行用フレーム画像データ、D200A……輪郭抽出用フレーム画像データ、D108……技量データ、D111……輪郭抽出経緯画面データ、S1、S55……ユーザ情報、OF1乃至OFn……輪郭抽出用フレーム画像、StOL……先頭入力輪郭線、EnOL……最後尾入力輪郭線、OLA1乃至OLAn-2、OLB1乃至OLB10 、OLC12 乃至OLC20 、OLC22 乃至OLCn-2d……推測輪郭線、SH1……コース閾値範囲、SH2……高低差閾値範囲、RT1……第1の啓発促進処理手順、RT50……第2の啓発促進処理手順RT101……情報提示処理手順、RT102……輪郭抽出処理手順。   1, 50, 100 ... Information processing device, 2 ... Information input unit, 3, 52, 102 ... Processing trend information extraction unit, 4, 53, 103 ... Information storage unit, 5, 54, 104 ... Presentation Information selection unit, 6, 55, 105... Information presentation unit, 51... Region extraction unit, 62... Motion vector detection recording circuit, 114. 70A to 70G... Region extraction frame image, 71 and 120... Contour extraction trial moving image, TF1 to TF7. Trial frame image, TJ1 to TJ7... Trial object, OJ1 to OJn. ... contour generation unit, 74A ... object specification reference area, 77A to 77D, 77AX to 77DX ... object specification propagation area, 80 ... object specification reference area Area, 81A to 81D... Object designated propagation reversal area, D1 .. Batting moving image data, D2, D65... Input information data, D3, D66... Processing trend information data, D4, D67, D109. D5, D68, D110 ... presentation information data, D50, D200 ... moving image data for object extraction, D51 ... frame image data for region extraction, D52 ... screen data for region extraction processing, D100 ... outline extraction trial Moving image data, D100A: Trial frame image data, D200A: Contour extraction frame image data, D108: Skill data, D111: Contour extraction history screen data, S1, S55: User information, OF1 to OFn ... frame image for contour extraction, StOL ... top input contour line, EnOL ... Last input contour line, OLA1 to OLAn-2, OLB1 to OLB10, OLC12 to OLC20, OLC22 to OLCn-2d .... Estimated contour, SH1 ... Course threshold range, SH2 ... Height difference threshold range, RT1 ... No. 1 enlightenment promotion processing procedure, RT50 ... 2nd enlightenment promotion processing procedure RT101 ... information presentation processing procedure, RT102 ... contour extraction processing procedure.

Claims (6)

ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する処理の処理手法となる領域抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を複数ユーザ分蓄積する蓄積手段と、
特定ユーザの上記領域抽出手法及び上記技量のうちいずれか一方と、上記蓄積手段に蓄積している上記蓄積情報に含まれる上記一方とを比較する比較手段と、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較手段による比較結果に応じて上記蓄積情報を選択する情報選択手段と、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記領域抽出手法及び上記技量を上記特定ユーザに提示する提示手段と
を具えることを特徴とする情報処理装置。
A region extraction method that is a processing method for extracting an object designation region for specifying an object in the moving image performed on the moving image to be processed by the user, and a skill that is an evaluation value for the processing Storage means for storing storage information including a plurality of users;
Comparison means for comparing one of the region extraction method and the skill of a specific user with the one included in the accumulated information accumulated in the accumulation means,
Information selecting means for selecting the stored information from the plurality of stored information stored in the storing means according to the comparison result by the comparing means;
An information processing apparatus comprising: the region extraction method included in the accumulated information selected by the information selection means; and a presentation means for presenting the skill to the specific user.
上記動画像を構成する複数のフレーム画像の中から上記オブジェクトの輪郭の指定用に1つの上記フレーム画像を選択するための画像選択手段と、
上記動画像を構成する上記複数のフレーム画像の中から上記オブジェクト指定領域の抽出用の複数の上記フレーム画像を設定するための画像設定手段と、
上記動画像中の上記オブジェクトの動きベクトルを検出する動きベクトル検出手段と、
上記画像選択手段を介して選択された上記1つの上記フレーム画像中の上記オブジェクトの上記輪郭を指定するための輪郭指定手段と、
上記動きベクトル検出手段によって検出された上記動きベクトルと、上記輪郭指定手段を介して指定された上記輪郭とに基づいて、上記画像設定手段によって設定された上記複数の上記フレーム画像に対する上記オブジェクト指定領域を抽出する指定領域抽出手段と
を具え、
上記蓄積手段は、
上記画像選択手段、上記画像設定手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積する
ことを特徴とする請求項1に記載の情報処理装置。
Image selecting means for selecting one frame image for designating the contour of the object from a plurality of frame images constituting the moving image;
Image setting means for setting a plurality of the frame images for extraction of the object designation region from the plurality of frame images constituting the moving image;
Motion vector detecting means for detecting a motion vector of the object in the moving image;
Contour designating means for designating the contour of the object in the one frame image selected via the image selecting means;
The object designating region for the plurality of frame images set by the image setting unit based on the motion vector detected by the motion vector detecting unit and the contour specified by the contour specifying unit. A designated area extracting means for extracting
The storage means is
The information processing apparatus according to claim 1, wherein the storage information is stored using the input history by the image selection unit, the image setting unit, and the contour specifying unit as the processing technique.
ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトの輪郭を抽出する処理の処理手法となる輪郭抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を複数ユーザ分蓄積する蓄積手段と、
特定ユーザの上記輪郭抽出手法及び上記技量のうちいずれか一方と、上記蓄積手段に蓄積している上記蓄積情報に含まれる上記一方とを比較する比較手段と、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較手段による比較結果に応じて上記蓄積情報を選択する情報選択手段と、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記輪郭抽出手法及び上記技量を上記特定ユーザに提示する提示手段と
を具えることを特徴とする情報処理装置。
A plurality of users can store accumulated information including a contour extraction method as a processing method for extracting a contour of an object in the moving image performed on a moving image to be processed by the user and a skill as an evaluation value for the processing. Accumulation means for accumulating; and
Comparison means for comparing any one of the contour extraction method and the skill of the specific user with the one included in the accumulated information accumulated in the accumulation means,
Information selecting means for selecting the stored information from the plurality of stored information stored in the storing means according to the comparison result by the comparing means;
An information processing apparatus comprising: the contour extraction method included in the accumulated information selected by the information selection means; and a presentation means for presenting the skill to the specific user.
上記動画像を構成する複数のフレーム画像の中から上記オブジェクトの輪郭の指定用に少なくとも2つの第1及び第2のフレーム画像を選択するための画像選択手段と、
上記画像選択手段を介して選択された上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭をそれぞれ指定するための輪郭指定手段と、
上記第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、上記輪郭指定手段を介して上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から上記他のフレーム画像中の上記オブジェクトの輪郭を推測する輪郭推測手段と
を具え、
上記蓄積手段は、
上記画像選択手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積し、
上記選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記技量から所定の閾値以上離れた技量を含む上記蓄積情報を選択する
ことを特徴とする請求項3に記載の情報処理装置。
Image selecting means for selecting at least two first and second frame images for designating the contour of the object from among a plurality of frame images constituting the moving image;
Contour designating means for designating each of the contours of the object in the first and second frame images selected via the image selecting means;
When there is another frame image between the first and second frame images, the contour of the object in the first and second frame images is designated via the contour designating means, respectively. Contour estimation means for estimating the contour of the object in the other frame image from the first and second contour designation results obtained,
The storage means is
Accumulating the accumulated information using the input history by the image selecting means and the contour designating means as the processing technique,
The selection means is:
The stored information including a skill that is more than a predetermined threshold away from the skill of the specific user is selected from a plurality of the stored information stored in the storage means according to the comparison result. The information processing apparatus according to claim 3.
コンピュータに、
ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する処理の処理手法となる領域抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記領域抽出手法及び上記技量のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記領域抽出手法及び上記技量を上記特定ユーザに提示する提示ステップと
を実行させるための情報処理プログラム。
On the computer,
A region extraction method that is a processing method for extracting an object designation region for specifying an object in the moving image performed on the moving image to be processed by the user, and a skill that is an evaluation value for the processing An accumulation step for accumulating the accumulated information for a plurality of users;
A comparison step of comparing any one of the region extraction method and the skill of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selection step for selecting the accumulated information according to the comparison result obtained in the comparison step from the plurality of accumulated information accumulated in the accumulation step;
An information processing program for executing the region extraction method included in the accumulated information selected in the information selection step and a presentation step of presenting the skill to the specific user.
コンピュータに、
ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトの輪郭を抽出する処理の処理手法となる輪郭抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記輪郭抽出手法及び上記技量のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記輪郭抽出手法及び上記技量を上記特定ユーザに提示する提示ステップと
を実行させるための情報処理プログラム。
On the computer,
A plurality of users can store accumulated information including a contour extraction method as a processing method for extracting a contour of an object in the moving image performed on a moving image to be processed by the user and a skill as an evaluation value for the processing. An accumulation step for accumulating, and
A comparison step of comparing either one of the contour extraction method and the skill of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selection step for selecting the accumulated information according to the comparison result obtained in the comparison step from the plurality of accumulated information accumulated in the accumulation step;
An information processing program for executing the contour extraction method included in the accumulated information selected in the information selection step and a presentation step of presenting the skill to the specific user.
JP2007318825A 2007-12-10 2007-12-10 Information processing apparatus and information processing program Expired - Fee Related JP4666233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007318825A JP4666233B2 (en) 2007-12-10 2007-12-10 Information processing apparatus and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007318825A JP4666233B2 (en) 2007-12-10 2007-12-10 Information processing apparatus and information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002255853A Division JP4117604B2 (en) 2002-08-30 2002-08-30 Information processing apparatus, information processing method, information processing program, and information processing program storage medium

Publications (2)

Publication Number Publication Date
JP2008086799A true JP2008086799A (en) 2008-04-17
JP4666233B2 JP4666233B2 (en) 2011-04-06

Family

ID=39371522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007318825A Expired - Fee Related JP4666233B2 (en) 2007-12-10 2007-12-10 Information processing apparatus and information processing program

Country Status (1)

Country Link
JP (1) JP4666233B2 (en)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255379A (en) * 1985-05-08 1986-11-13 三菱電機株式会社 Foreign language pronunciation training apparatus
JPH01154189A (en) * 1987-12-11 1989-06-16 Kawai Musical Instr Mfg Co Ltd Enunciation training apparatus
JPH02249566A (en) * 1989-01-20 1990-10-05 Nec Corp Form educating device
JPH0326281A (en) * 1989-06-23 1991-02-04 Oyo Keisoku Kenkyusho:Kk Operation diagnosing device
JPH0816092A (en) * 1994-06-29 1996-01-19 Mitsubishi Electric Corp Simulator for training
JPH08272974A (en) * 1995-01-31 1996-10-18 Matsushita Electric Ind Co Ltd Hand action recognizing device
JPH10263126A (en) * 1997-03-27 1998-10-06 Nec Software Ltd Form analyzing system for exercise using personal computer
JPH10275086A (en) * 1996-12-23 1998-10-13 General Electric Co <Ge> System and method for estimating reliability scale of coincidence generated by instance base inference system and system and method for analyzing error log generated by machine having malfunctioned
JPH11198075A (en) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp Behavior support system
JP2000048044A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Method and system for providing multimedia information and storage medium storing multimedia information providing program
JP2000293092A (en) * 1999-04-02 2000-10-20 Mitsubishi Electric Corp Simulation system
JP2001246037A (en) * 2000-03-03 2001-09-11 Asobous:Kk Method of outputting play information for golf player
JP2002073826A (en) * 2000-08-31 2002-03-12 Tomotaka Marui Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training
JP2002244547A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Computer program for utterance leaning system and server device collaborating with the program

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255379A (en) * 1985-05-08 1986-11-13 三菱電機株式会社 Foreign language pronunciation training apparatus
JPH01154189A (en) * 1987-12-11 1989-06-16 Kawai Musical Instr Mfg Co Ltd Enunciation training apparatus
JPH02249566A (en) * 1989-01-20 1990-10-05 Nec Corp Form educating device
JPH0326281A (en) * 1989-06-23 1991-02-04 Oyo Keisoku Kenkyusho:Kk Operation diagnosing device
JPH0816092A (en) * 1994-06-29 1996-01-19 Mitsubishi Electric Corp Simulator for training
JPH08272974A (en) * 1995-01-31 1996-10-18 Matsushita Electric Ind Co Ltd Hand action recognizing device
JPH10275086A (en) * 1996-12-23 1998-10-13 General Electric Co <Ge> System and method for estimating reliability scale of coincidence generated by instance base inference system and system and method for analyzing error log generated by machine having malfunctioned
JPH10263126A (en) * 1997-03-27 1998-10-06 Nec Software Ltd Form analyzing system for exercise using personal computer
JPH11198075A (en) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp Behavior support system
JP2000048044A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Method and system for providing multimedia information and storage medium storing multimedia information providing program
JP2000293092A (en) * 1999-04-02 2000-10-20 Mitsubishi Electric Corp Simulation system
JP2001246037A (en) * 2000-03-03 2001-09-11 Asobous:Kk Method of outputting play information for golf player
JP2002073826A (en) * 2000-08-31 2002-03-12 Tomotaka Marui Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training
JP2002244547A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Computer program for utterance leaning system and server device collaborating with the program

Also Published As

Publication number Publication date
JP4666233B2 (en) 2011-04-06

Similar Documents

Publication Publication Date Title
US10486050B2 (en) Virtual reality sports training systems and methods
TWI377055B (en) Interactive rehabilitation method and system for upper and lower extremities
US9298263B2 (en) Show body position
CN107943291B (en) Human body action recognition method and device and electronic equipment
KR101643020B1 (en) Chaining animations
US8418085B2 (en) Gesture coach
US11826628B2 (en) Virtual reality sports training systems and methods
US9597592B2 (en) Method and apparatus for processing virtual world
US9776088B2 (en) Apparatus and method of user interaction
US10049483B2 (en) Apparatus and method for generating animation
CN106020440A (en) Emotion interaction based Peking Opera teaching system
JP5238900B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
KR101428922B1 (en) Golf swing classification apparatus and method using fuzzy system
TW201900250A (en) Team sports virtual reality training system
JP4683305B2 (en) Information processing apparatus and information processing program
JP6032710B2 (en) Simulation apparatus and program
JP4117604B2 (en) Information processing apparatus, information processing method, information processing program, and information processing program storage medium
JP4666233B2 (en) Information processing apparatus and information processing program
JP5971816B2 (en) GAME DEVICE AND PROGRAM
JP2008295970A (en) Game device, control method for game device, and program
KR102279594B1 (en) Sports coaching device and method
JP2021108015A (en) Image processing apparatus, image processing method, and program
JP4193101B2 (en) Image processing apparatus, image processing method, image processing program, and image processing program storage medium
WO2022230557A1 (en) Content generation device for generating content in accordance with exercise by user, and content generation method for generating content in accordance with exercise by user
US11615580B2 (en) Method, apparatus and computer program product for generating a path of an object through a virtual environment

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101229

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees