JP2008086799A - Information processing apparatus and information processing program - Google Patents
Information processing apparatus and information processing program Download PDFInfo
- Publication number
- JP2008086799A JP2008086799A JP2007318825A JP2007318825A JP2008086799A JP 2008086799 A JP2008086799 A JP 2008086799A JP 2007318825 A JP2007318825 A JP 2007318825A JP 2007318825 A JP2007318825 A JP 2007318825A JP 2008086799 A JP2008086799 A JP 2008086799A
- Authority
- JP
- Japan
- Prior art keywords
- information
- contour
- extraction
- data
- trial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は情報処理装置及び情報処理プログラムに関し、特に所定の処理対象に対してユーザが処理を行う場合に適用して好適なものである。 The present invention relates to an information processing apparatus and an information processing program, and is particularly suitable for application when a user performs processing on a predetermined processing target.
従来、ユーザが所定の処理対象に対して行う処理としては、野球のバッティング練習において処理対象となるボールをバットで打つという処理や、処理対象となる動画像から当該動画像の一部分の表示対象(以下、これをオブジェクトと呼ぶ)を指定するための領域を抽出する処理、さらには処理対象となる動画像からオブジェクトの輪郭を抽出する処理等のように種々のものがある。 Conventionally, as a process performed by a user on a predetermined processing target, a process of hitting a ball to be processed with a bat in baseball batting practice, or a display target of a part of the moving image from the moving image to be processed ( Hereinafter, there are various processes such as a process for extracting an area for designating an object), a process for extracting the outline of an object from a moving image to be processed, and the like.
ところでかかる処理を行う際のユーザの処理能力を向上させるには、バットでボールを打つ打法や、動画像からオブジェクトを指定するための領域(以下、これをオブジェクト指定領域と呼ぶ)を抽出する領域抽出手法、動画像からオブジェクトの輪郭を抽出する輪郭抽出手法(以下、これら打法、領域抽出手法及び輪郭抽出手法をまとめて処理手法と呼ぶ)に対して処理能力の高い指導者を探して指導を依頼するような面倒な方法が取られており、ユーザ自身の処理能力を容易には向上させ難いという問題があった。 By the way, in order to improve the processing capability of the user when performing such processing, a method of hitting a ball with a bat and an area for designating an object from a moving image (hereinafter referred to as an object designation area) are extracted. Search for instructors with high processing capabilities for region extraction methods and contour extraction methods that extract the contours of objects from moving images (hereinafter, these striking methods, region extraction methods, and contour extraction methods are collectively referred to as processing methods). A troublesome method of requesting guidance has been taken, and there has been a problem that it is difficult to easily improve the processing capability of the user himself.
本発明は以上の点を考慮してなされたもので、所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置及び情報処理プログラムを提案しようとするものである。 The present invention has been made in view of the above points, and an object of the present invention is to propose an information processing apparatus and an information processing program that can easily improve the processing capability of a process performed on a predetermined processing target.
かかる課題を解決するため本発明においては、ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する処理の処理手法となる領域抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの領域抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる領域抽出手法及び技量を特定ユーザに提示するようにした。従って、特定ユーザに提示した領域抽出手法及び技量により当該特定ユーザ自身の領域抽出手法の向上を促すことができる。 In order to solve such a problem, in the present invention, region extraction which is a processing method of processing for extracting an object designation region for designating an object in the moving image performed on the moving image to be processed by the user. Accumulated information including technique and skill as an evaluation value for the processing is accumulated in the accumulating means for a plurality of users, and one of the region extraction technique and skill of a specific user is accumulated in the accumulating means, and accumulation accumulated in the accumulating means Compare with one included in the information, select the stored information from the multiple stored information stored in the storage means by the information selection means according to the comparison result by the comparison means, and select by the information selection means by the presentation means The region extraction technique and skill included in the stored information are presented to a specific user. Therefore, improvement of the area extraction method of the specific user can be promoted by the area extraction method and skill presented to the specific user.
また本発明においては、ユーザにより処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトの輪郭を抽出する処理の処理手法となる輪郭抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの輪郭抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる輪郭抽出手法及び技量を特定ユーザに提示するようにした。従って、特定ユーザに提示した輪郭抽出手法及び技量により当該特定ユーザ自身の輪郭抽出手法の向上を促すことができる。 In the present invention, the contour extraction method that is a processing method for extracting the contour of the object in the moving image performed on the moving image to be processed by the user, and the skill that becomes the evaluation value for the processing are also obtained. The stored information is stored in the storage means for a plurality of users, and the comparison means compares either one of the contour extraction method and skill of the specific user with one included in the stored information stored in the storage means, A contour extracting method for selecting stored information from a plurality of stored information stored in the storing means by the selecting means according to a comparison result by the comparing means, and including the outline information included in the stored information selected by the information selecting means by the presenting means, and The skill is presented to a specific user. Therefore, improvement of the contour extraction method of the specific user can be promoted by the contour extraction method and skill presented to the specific user.
本発明によれば、ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する処理の処理手法となる領域抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの領域抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる領域抽出手法及び技量を特定ユーザに提示するようにしたことにより、特定ユーザに提示した処理手法により当該特定ユーザ自身の処理手法の向上を促すことができ、かくして所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置及び情報処理プログラムを実現することができる。また本発明によれば、ユーザにより処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトの輪郭を抽出する処理の処理手法となる輪郭抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの輪郭抽出手法及び技量のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる輪郭抽出手法及び技量を特定ユーザに提示するようにしたことにより、特定ユーザに提示した輪郭抽出手法及び技量により当該特定ユーザ自身の輪郭抽出手法の向上を促すことができ、かくして所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置及び情報処理プログラムを実現することができる。 According to the present invention, an area extraction method serving as a processing technique for extracting an object designation area for designating an object in a moving image performed on a moving image to be processed by a user, and the process Accumulated information including skill as an evaluation value is accumulated in the accumulating means for a plurality of users, and is included in the accumulated information accumulated in the accumulating means and either one of the region extraction method and skill of a specific user by the comparing means. Is selected from the plurality of stored information stored in the storage means by the information selection means according to the comparison result by the comparison means, and the storage information selected by the information selection means by the presentation means is selected. By presenting the region extraction method and skill to be included to a specific user, the processing method presented to the specific user can be processed by the specific user himself / herself. Can prompt improvement techniques, thus it is possible to realize an information processing apparatus and information processing program may easily improve the processing capacity of the processing performed for a given processed. Further, according to the present invention, a contour extraction method that is a processing method for extracting a contour of an object in the moving image performed on the moving image to be processed by the user, and a skill that becomes an evaluation value for the processing The storage means for storing a plurality of users in the storage means, comparing one of the contour extraction method and skill of the specific user by the comparison means with one included in the storage information stored in the storage means, Contour extraction method for selecting stored information from a plurality of stored information stored in the storing means by the information selecting means according to the comparison result by the comparing means and including the stored information selected by the information selecting means by the presenting means And by presenting the skill to the specific user, the contour extraction method presented to the specific user and the contour extraction method of the specific user based on the skill Can prompt on, thus it is possible to realize an information processing apparatus and information processing program may easily improve the processing capacity of the processing performed for a given processed.
以下図面について、本発明の一実施の形態を詳述する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(1)第1の実施の形態
図1において、1は全体として第1の実施の形態による情報処理装置を示し、個々のユーザによって行われた野球のバッティング練習(処理対象となるボールをバットで打つという打法)の様子をそれぞれ1台のビデオカメラ(図示せず)で撮像して生成されたバッティング動画像データD1を取り込む毎に、当該取り込んだバッティング動画像データD1を蓄積する。
(1) First Embodiment In FIG. 1,
また情報処理装置1は、バッティング動画像データD1を取り込む毎に、すでに蓄積しているバッティング動画像データD1から、その時点にバッティング練習を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の打法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われるバッティング動画像データD1を選択して提示することにより、啓発対象ユーザに自分の打法における改善箇所の啓発を促すようになされている。
Further, every time the
この場合、情報処理装置1は、情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5及び情報提示部6から構成されており、当該情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5、情報提示部6において啓発対象ユーザに自分の打法の改善箇所を啓発させるために実行する各種処理を第1の啓発促進プログラムに従ってソフトウェア的に実現する。
In this case, the
すなわち情報処理装置1は、図2に示すように第1の啓発促進プログラムに従って第1の啓発促進処理手順RT1の開始ステップから入り、続くステップSP1へ移る。
That is, the
ステップSP1において情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込む。
In step SP <b> 1, the
この際、情報処理装置1は、図3に示すように、情報入力部2に所定の操作部(図示せず)を介して啓発対象ユーザの氏名及び当該啓発対象ユーザの打法に対する評価値となる打率(例えば野球のペナントレース中におけるその時点までの啓発対象ユーザの打率(成績))のユーザ情報S1が入力される。
At this time, as shown in FIG. 3, the
これにより情報処理装置1は、情報入力部2で取得した啓発対象ユーザの氏名及び打率とバッティング動画像データD1とからなる入力情報を当該情報入力部2から図4に示す入力情報データD2として処理傾向情報抽出部3に送出して、続くステップSP2へ移る。
Thereby, the
ここで図5に示すように、バッティング動画像データD1に基づくバッティング動画像10は、時間的に連続する複数のフレーム画像10A、……、10N、……により啓発対象ユーザの画像(以下、これをユーザ画像と呼ぶ)11がバッターボックス内で構えた状態からバット12でボール13を打ち終わるまでの様子を2次元平面的に展開している。
Here, as shown in FIG. 5, the
そして、かかるバッティング動画像10は、各フレーム画像10A、……、10N、……において、ユーザ画像11の腰、肩、肘、膝等の複数の関節や頭頂部及び両手、ボール13、バット12のグリップ12A及び先端12Bにそれぞれ所定の色の丸印等でなるマーク14が予め付けられている。
The
従ってステップSP2において情報処理装置1は、処理傾向情報抽出部3により、入力情報データD2に含まれるバッティング動画像データD1に対して所定の画像処理を施してバッティング動画像10における各マーク14の位置の変化を認識し、これによりユーザ画像11がバッターボックス内で構えた状態からバット12でボール13を打つ瞬間までの腰及び肩の回転角度を検出する。
Therefore, in step SP2, the
また情報処理装置1は、図6に示すように処理傾向情報抽出部3により、画像処理によって、バッティング動画像10を構成する複数のフレーム画像10A、……、10N、……のうちバット12でボール13を打つ瞬間を捉えたフレーム画像(以下、これを特にインパクト時フレーム画像と呼ぶ)10Nを検出し、当該検出したインパクト時フレーム画像10Nにおいて、ユーザ画像11の両足のつま先を結ぶ基準仮想直線SKL1(この基準仮想直線SKL1は地面に相当する)を引く。
Further, as shown in FIG. 6, the
そして情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でボール13上のマーク14Aを通るコース検出用仮想直線CKL1を引き、当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1(すなわち基準仮想直線SKL1及びコース検出用仮想直線CKL1の双方と直交する垂線SL1に沿った当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間(すなわちインパクトの瞬間)における当該ボールの地面からの高さ(以下、これをボールコースと呼ぶ)として検出する。
Then, the
これに加えて情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でバット12のグリップ12A上のマーク14Bを通る第1の高低差検出用仮想直線WKL1と、当該基準仮想直線SKL1と並行でバット12の先端12B上のマーク14Cを通る第2の高低差検出用仮想直線WKL2とを引き、当該第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2(すなわち第1及び第2の高低差検出用仮想直線WKL1及びWKL2の双方と直交する垂線SL2に沿った当該第1及び第2の高低差検出用仮想基準WKL1及びWKL2間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間における当該バットのグリップと先端との高低差(以下、これをバット高低差と呼ぶ)として検出する。
In addition, the
このようにして情報処理装置1は、図7に示すように処理傾向情報抽出部3により、バッティング動画像10から啓発対象ユーザがバッターボックス内で構えた状態からバットでボールを打つ瞬間までの腰及び肩の回転角度と、ボールコースと、バット高低差とを検出すると、これらを啓発対象ユーザがバットでボールをどのように打っているかを表す処理傾向情報とする。
In this way, the
そして情報処理装置1は、処理傾向情報抽出部3により、バッティング動画像10から抽出した処理傾向情報を処理傾向情報データD3とし、当該処理傾向情報データD3及び入力情報データD2同士を対応付けて蓄積情報データD4として情報蓄積部4に送出すると共に、その処理傾向情報データD3をそのまま提示情報選択部5に送出した後、続くステップSP3及びステップSP4へ移る。
Then, the
ステップSP3において情報処理装置1は、情報蓄積部4により、蓄積情報データD4を例えば図8に示すように入力情報データD2同士と処理傾向情報データD3同士とにまとめて記憶してステップSP5へ移る。
In step SP3, the
またステップSP4において情報処理装置1は、ステップSP3の処理と並行して提示情報選択部5により、処理傾向情報データD3に含まれるボールコース(以下、これを比較用基準ボールコースと呼ぶ)及びバット高低差(以下、これを比較用基準バット高低差と呼ぶ)の値と、情報蓄積部4においてステップSP3で記憶した啓発対象ユーザの蓄積情報データD4を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これらを特に過去蓄積情報データと呼ぶ)D4に処理傾向情報データD3として含まれるボールコース(以下、これを過去ボールコースと呼ぶ)及びバット高低差(以下、これを過去バット高低差と呼ぶ)の値とを比較する。
In step SP4, the
これにより情報処理装置1は、図9に示すように提示情報選択部5により、過去蓄積情報データD4の中から、比較用基準ボールコースの値(図6について上述したインパクト時フレーム画像10Nにおける基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1の値)を中心とした所定のコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ比較用基準バット高低差の値(図6について上述したインパクト時フレーム画像10Nにおける第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2の値)を中心とした所定の高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。
As a result, the
因みに、図9に示す一対のハッチングの入った丸印D1及びD2は、啓発対象ユーザに対する処理傾向情報である比較用基準ボールコースの値及び比較用基準バット高低差の値を示し、他の一対の三角印や四角印等はそれぞれ1つの過去蓄積情報データD4に処理傾向情報として含まれる過去ボールコースの値及び過去バット高低差の値を示す。 Incidentally, a pair of hatched circles D1 and D2 shown in FIG. 9 indicate the value of the reference ball course for comparison and the value of the difference in reference bat height for comparison, which are processing tendency information for the enlightenment target user. Each of the triangle mark, square mark, and the like indicates a past ball course value and a past bat height difference value included as processing tendency information in one past accumulated information data D4.
次いで情報処理装置1は、提示情報選択部5により、比較用基準ボールコースの値及び比較用基準バット高低差の値を用いて選択した過去蓄積情報データD4の中から、当該過去蓄積情報データD4に含まれる打率の情報同士を比較することにより、最も良い打率(すなわち最も高い評価値)を入力情報データD2の一部として含む過去蓄積情報データD4を選択する。
Next, the
このようにして情報処理装置1は、提示情報選択部5により図10に示すように、情報蓄積部4にすでに蓄積していた全ての過去蓄積情報データD4の中から、啓発対象ユーザの打法に対する処理傾向情報の比較用基準ボールコース及び比較用基準バット高低差を限定基準として用いて当該啓発対象ユーザの打法に類似する打法でバッティング練習を行ったユーザの過去蓄積情報データD4を選択した後(すなわち選択対象の過去蓄積情報データD4の数を限定した後)、当該選択した過去蓄積情報データD4の中からこれらに含まれる打率を選定基準として用いて打率の最も良いユーザの過去蓄積情報データD4を最終的に選択する。
In this way, the
これにより情報処理装置1は、図11示すように提示情報選択部5により、情報蓄積部4から、最終的に選択した過去蓄積情報データD4に入力情報データD2として含まれるバッティング動画像データD1及び打率の情報を提示情報データD5として読み出すと共に、当該読み出した提示情報データD5を情報提示部6に送出してステップSP5へ移る。
As a result, the
ステップSP5において情報処理装置1は、情報提示部6により提示情報データD5に基づくバッティング動画像及び打率の情報を当該情報提示部6に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示した後、ステップSP6へ移って第1の啓発促進処理手順RT1を終了する。
In step SP5, the
このようにして情報処理装置1は、啓発対象ユーザに例えば打法が似ているものの、当該啓発対象ユーザよりも打率の良い他のユーザのバッティング動画像を再生して提示することにより、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を啓発対象ユーザの打法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの打法に真似て改善させ得るようになされている。
In this way, the
因みに第1の実施の形態の場合、情報処理装置1は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C1が入力されることによりこれを情報入力部2に取り込むと、当該追加命令C1を情報入力部2から処理傾向情報抽出部3を介して提示情報選択部5に送出する。
Incidentally, in the case of the first embodiment, the
そして情報処理装置1は、提示情報選択部5により情報蓄積部4から、最終的に選択した過去蓄積情報データD4に処理傾向情報データD3として含まれる腰及び肩の回転角度の情報を読み出し、当該読み出した腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報データD6として情報提示部6に送出する。
Then, the
これにより情報処理装置1は、情報提示部6により、追加提示情報データD6に基づく腰及び肩の回転角度の情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の打法と、他のユーザの打法との異なる箇所をバッティング動画像のみならずに腰や肩の回転角度の数値としての違いからも見つけさせることができるようになされている。
Thereby, the
以上の構成において、情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込み、この際、情報入力部2に入力された啓発対象ユーザの打率の情報と共に入力情報データD2とする。
In the above configuration, the
そして情報処理装置1は、バッティング動画像データD1に基づくバッティング動画像10から啓発対象ユーザの打法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD3をバッティング動画像データD1と共に蓄積情報データD4として情報蓄積部4に記憶する。
Then, the
このとき情報処理装置1は、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択する。
At this time, the
次いで情報処理装置1は、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、その選択した過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにした。
Next, the
従ってこの情報処理装置1は、処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の打法における改善箇所の啓発を促して、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。
Accordingly, the
また情報処理装置1は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C1が入力されると、これに応じて、最終的に選択した過去蓄積情報データD4に処理傾向情報として含まれる腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報として啓発対象ユーザに提示するようにした。
In addition, when the presentation information addition instruction C1 is input while presenting the presentation information to the enlightenment target user, the
従って情報処理装置1は、追加提示情報によっても啓発対象ユーザに自分の打法における改善箇所の啓発を促し、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を、バッティング動画像を目視させて見つけさせることに加えて腰や肩の回転角度の数値としての違いとしても啓発対象ユーザに自分の打法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。
Therefore, the
以上の構成によれば、啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像10と当該啓発対象ユーザの打率の情報とを、そのバッティング動画像10から抽出した啓発対象ユーザの打法に対する処理傾向情報と共に蓄積情報データD4として情報蓄積部4に記憶すると共に、当該啓発対象ユーザの打法に対する処理傾向情報と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報とを比較して当該過去蓄積情報データD4の中から啓発対象ユーザの打法と類似する他のユーザの打法をバッティング動画像として含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の打法における改善箇所の啓発を促して当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの打法に真似て改善させることができ、かくして処理対象となるボールを打つという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
According to the above configuration, the enlightenment user extracted from the
なお上述した第1の実施の形態においては、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択し、当該選択した1又は複数の過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。 In the first embodiment described above, the processing tendency information data D3 of the enlightenment target user is compared with the processing tendency information data D3 included in the past accumulation information data D4 already accumulated in the information accumulation unit 4. After selecting past stored information data D4 including batting moving image data D1 generated by imaging another user's hitting method similar to the enlightenment target user's hitting method from the past stored information data D4 As described above, the batting information included in the selected past accumulated information data D4 is compared, and the past accumulated information data D4 of the user having the best batting rate is finally selected. Not limited to this, the processing trend information data D3 of the enlightenment target user and the processing trend information included in the past accumulated information data D4 already accumulated in the information accumulation unit 4 Past accumulated information including batting moving image data D1 generated by imaging another user's batting method similar to the enlightenment user's batting method from the past accumulated information data D4 by comparing with the data D3 The data D4 may be selected and a batting moving image based on the batting moving image data D1 included in the selected one or more past accumulated information data D4 may be presented to the enlightenment target user as the presentation information.
このようにすれば、啓発対象ユーザに打率の異なる複数のユーザのバッティング動画像を順次提示情報として提示することができるため、上述した第1の実施の形態の場合よりも、啓発対象ユーザに自分の打法における改善箇所を更に多く見つけさせることができる。 In this way, batting video images of a plurality of users having different batting rates can be sequentially presented as the presentation information to the enlightenment target user, so that the enlightenment target user himself / herself is more than the case of the first embodiment described above. It is possible to find more improvements in the hitting method.
また啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較して複数の過去蓄積情報データD4の中から最終的な過去蓄積情報データD4を選択することにより、上述した第1の実施の形態に比べて選択時の処理負荷を低減させることもできる。 Further, the processing trend information data D3 of the enlightenment target user and the processing trend information data D3 included in the past storage information data D4 already stored in the information storage unit 4 are compared, and a plurality of past storage information data D4 are compared. By selecting the final past accumulation information data D4, it is possible to reduce the processing load at the time of selection as compared with the first embodiment described above.
また上述した第1の実施の形態においては、啓発対象ユーザに他のユーザのバッティング動画像を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD4に啓発対象ユーザの過去の蓄積情報データD4が含まれており、当該啓発対象ユーザの過去の蓄積情報データD4を選択したときには、その蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の打法よりも過去の打法の方が打率が良いと、現在の打法における改善箇所を過去の打率の良かったときの打法と比較させて容易に見つけさせることができる。 In the first embodiment described above, the case where the user's enlightenment target user's batting moving image is presented as the presentation information has been described. However, the present invention is not limited to this, and the past accumulated information data D4 includes past accumulated information data D4 of the enlightenment target user. When the past accumulated information data D4 of the enlightenment target user is selected, batting based on the batting moving image data D1 included in the accumulated information data D4 A moving image may be presented to the enlightenment target user as presentation information. In this case, for example, if the batting rate of the past batting method is better than the current batting method of the enlightenment target user, the improvement point in the current batting method is compared with the batting method when the past batting rate was good. It can be easily found.
さらに上述した第1の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD4を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD4を除いた他の過去蓄積情報データD4を用いるようにしても良い。 Further, in the above-described first embodiment, the case where all the past accumulated information data D4 is used when selecting the presentation information to be presented to the enlightenment target user has been described. However, the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D4 used for the past presentation is selected based on the presentation history. Other past accumulated information data D4 excluded may be used.
このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で打法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD4をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。 In this way, it is possible to prevent the presentation information previously presented to the enlightenment target user from being presented again, and to present new presentation information, thereby enabling the enlightenment target user to improve the location in the striking method from a new viewpoint. Encourage enlightenment. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D4 used for presenting the presentation information is not used for the selection of the subsequent presentation information regardless of the user to be presented. Such processing can also be realized by forcing restrictions.
さらに上述した第1の実施の形態においては、図10について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図12に示すような種々の選択条件をいずれか1つ、又は図12に示す種々の選択情報と図10について上述した選択条件とを合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。 Furthermore, in the first embodiment described above, the case where presentation information is selected using the selection conditions described above with reference to FIG. 10 has been described. However, the present invention is not limited to this, and as shown in FIG. One of various selection conditions, or various selection information shown in FIG. 12 and the selection conditions described above with reference to FIG. 10 are combined to selectively use one or more selection conditions to select presentation information. May be.
ここで、図12に示す種々の選択条件について詳述すると、情報処理装置1は、まず第1の選択条件を用いる場合、提示情報選択部5により、比較用基準ボールコースの値と、全ての過去蓄積情報データD4に含まれる過去ボールコースの値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4の中から当該過去蓄積情報データD4に含まれる打率の情報同士を比較して最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
Here, the various selection conditions shown in FIG. 12 will be described in detail. When using the first selection condition, the
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打った複数の打法の中から、打率の最も良い打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。
In this case, the
また情報処理装置1は、第2の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる打率(以下、これを過去打率と呼ぶ)の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。
In addition, when using the second selection condition, the
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4に含まれる過去バット高低差の値と、比較用基準バット高低差の値とを比較することにより、当該選択した過去蓄積情報データD4の中から高低差閾値範囲SH2外の値を示し、かつ比較用基準バット高低差の値との違いが最大である過去バット高低差の情報を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から、バットの振り方が最も異なる打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。
In this case, the
さらに情報処理装置1は、第3の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる過去打率の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。
Furthermore, when using the third selection condition, the
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所をある程度偶然性に期待して啓発させることができる。
In this case, the
さらに情報処理装置1は、第4の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース及び比較用基準バット高低差の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース及び過去バット高低差の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。
Furthermore, when using the fourth selection condition, the
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最もわるい打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置1は、啓発対象ユーザの打法と類似する複数の打法の中から打率の最もわるい打法を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した打法の提示により啓発対象ユーザに反面教師的に自分の打法の良い箇所を再確認させることもできる。
In this case, the
さらに情報処理装置1は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD3に当該啓発対象ユーザの打率(以下、これを比較用基準打率と呼ぶ)の情報を格納しておき、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース、過去バット高低差及び過去打率の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報と、高低差閾値範囲SH2内の値を示す過去バット高低差と、比較用基準打率の値を中心とした所定の打率閾値範囲内の値を示す過去打率とを共に含む過去蓄積情報データD4を選択する。
Further, when the fifth selection condition is used, the
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置1は、啓発対象ユーザの打法と類似で、かつ実力(すなわち打率)もほとんど同じ複数の打法のうちで最も打率の良い打法を啓発対象ユーザに提示することにより、提示した打法と啓発対象ユーザの打法との違いがわずかであるため、当該啓発対象ユーザに自分の打法における改善箇所を容易に啓発させることができる。
In this case, the
さらに情報処理装置1は、第6の選択条件を用いる場合、提示情報選択部5により、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を選択して当該選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
Further, when using the sixth selection condition, the
この場合、情報処理装置1は、無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所を全面的に偶然性に期待して啓発させることができる。
In this case, the
因みに情報処理装置1では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD3に打率の情報を格納しておかなくても、提示情報選択部5により、情報蓄積部4に蓄積している全ての蓄積情報データD4(啓発対象ユーザの蓄積情報データD4を含む)に含まれている打率の情報を用いることで最終的な蓄積情報データD4の選択を実現することもできる。
Incidentally, in the
また上述した各選択条件において打率の情報を用いるときには、打率の最小及び最大や、所定の閾値以上の打率等の規定にしなくても、所定の閾値以下の打率や、啓発対象ユーザの打率よりも良い又はわるい打率、啓発対象ユーザの打率から所定の閾値以上離れた値の打率、啓発対象ユーザの打率から所定の第1の閾値以上離れ、かつ第2の閾値以下の打率、さらには啓発対象ユーザの打率とほぼ同じ(類似する)打率等の条件でも過去蓄積情報データD4を選択することができる。 In addition, when using batting information in each of the selection conditions described above, the batting average below the predetermined threshold or the batting average of the enlightenment target user is not required, even if the batting average is not specified as the minimum and maximum batting ratios or batting ratios higher than the predetermined threshold. Good or bad batting rate, batting rate with a value greater than a predetermined threshold from the batting rate of the user to be enlightened, batting rate separated from the batting rate of the enlightenment user with a predetermined first threshold and less than the second threshold, and further the user to be enlightened The past stored information data D4 can be selected even under conditions such as batting rate that is substantially the same as (similar to) batting rate.
さらに蓄積情報データD4の選択に用いる選択条件としては、図10について上述した選択条件及び図12について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、腰や肩の回転角度を用いる選択条件等のように、この他にも種々の選択条件を用いることができる。 Further, as selection conditions used for selection of the stored information data D4, selection conditions described above with reference to FIG. 10 and selection conditions obtained by exchanging a part of the first to sixth selection conditions described above with reference to FIG. Various selection conditions can be used in addition to the selection conditions using the rotation angle.
これに加えて情報処理装置1では、図10及び図12について上述した選択条件において限定基準のボールコースやバット高低差、打率をそれぞれ個別に用いるようにしたが、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。
In addition to this, in the
また情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。
Further, the
さらに情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を中心とした所定のコース閾値範囲SH1、高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去ボールコース、過去バット高低差及び過去打率等の少なくとも2つ以上とを比較して過去蓄積情報データD4を限定するようにしても良い。
Furthermore, in the
同様に情報処理装置1では、図10及び図12について上述した選択条件において選定基準のバット高低差及び打率もそれぞれ個別に用いるようにしたが、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
Similarly, in the
また情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
Further, the
さらに情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を中心とした所定の高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去バット高低差及び過去打率等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
Furthermore, in the
さらに上述した第1の実施の形態においては、情報蓄積部4に入力情報データD2及び処理傾向情報データD3からなる蓄積情報データD4を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD2を蓄積情報データとして情報蓄積部4に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD2及び蓄積情報データ(すなわち入力情報データD2)から処理傾向情報を抽出すれば良い。 Further, in the above-described first embodiment, the case where the information storage unit 4 stores the storage information data D4 including the input information data D2 and the processing tendency information data D3 has been described. Not limited to this, at least the input information data D2 may be stored in the information storage unit 4 as stored information data. In this case, each time the presentation information is selected, the input information data D2 of the enlightenment target user and What is necessary is just to extract process tendency information from accumulation | storage information data (namely, input information data D2).
さらに上述した第1の実施の形態においては、図2について上述した第1の啓発促進処理手順RT1に示す一連の処理に、啓発対象ユーザにより処理対象(ボール)に対して行われる処理手法を表す情報として、バッティング練習の様子を1台のビデオカメラで撮像して生成されたバッティング動画像10を利用するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザによるバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を2台のビデオカメラで撮像して生成された3次元動画像でなるバッティング動画像を利用し、又はバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を複数の角度から撮像して得られ複数の2次元及び又は3次元動画像を利用するようにしても良い。
Furthermore, in 1st Embodiment mentioned above, the processing method performed with respect to a process target (ball) by the enlightenment object user in the series of processes shown in the 1st enlightenment promotion process procedure RT1 mentioned above about FIG. 2 is represented. As the information, the case of using the
因みに、かかる3次元動画像でなるバッティング動画像を利用すれば、当該バッティング動画像を画像処理することにより啓発対象ユーザの打法に対する処理傾向を3次元的に捉えた処理傾向情報(例えば、ボールコースとして内角低めや外角高め)を抽出することができる。そして、かかる3次元動画像でなるバッティング動画像と、図10について上述した選択条件や、図12について上述した第1乃至第5の選択条件とを合わせて利用すれば、啓発対象ユーザに自分の打法とほぼ同じ打法を提示することができる。 Incidentally, if a batting moving image composed of such a three-dimensional moving image is used, processing tendency information (for example, a ball) is obtained by processing the batting moving image three-dimensionally. As a course, a lower inner angle and a higher outer angle) can be extracted. If the batting moving image composed of such a three-dimensional moving image and the selection conditions described above with reference to FIG. 10 and the first to fifth selection conditions described above with reference to FIG. It is possible to present almost the same batting method as the batting method.
さらに上述した第1の実施の形態においては、啓発対象ユーザに対して野球のバッティングにおける打法の改善箇所の啓発を促して処理能力の向上を図るようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図るようにしても良く、これら種々の処理においても上述した第1の実施の形態による効果と同様の効果を得ることができる。因みに、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図る場合は、評価値として処理に応じたスコアやハンデキャップ、勝率等の成績を用いれば良い。 Furthermore, in the above-described first embodiment, the case where the enlightenment target user is encouraged to be enlightened about the improvement method of the batting method in the baseball batting to improve the processing capability has been described. Not only this but enlightenment of the improvement part of the processing technique in various other processing which uses a ball as a processing target like golf, tennis, etc. with respect to a user for enlightenment, and aims at improvement of processing capacity Even in these various processes, it is possible to obtain the same effects as those of the first embodiment described above. By the way, when encouraging enlightenment of the improvement part of the processing method in various other processes using the ball as a processing target such as golf or tennis for the enlightening target user, processing as an evaluation value The score, handicap, winning percentage, etc. according to the score may be used.
(2)第2の実施の形態
図13において、50は全体として第2の実施の形態による情報処理装置を示し、個々のユーザによって行われた領域抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトを指定するためのオブジェクト指定領域を抽出する領域抽出処理を実行する毎に、当該領域抽出処理の間、適宜表示内容を変化させて表示した一連の領域抽出処理用画面を領域抽出操作の経緯(すなわち処理対象となるオブジェクト抽出用動画像からオブジェクト指定領域を抽出するユーザの領域抽出手法)を表す領域抽出経緯画面データとして蓄積する。
(2) Second Embodiment In FIG. 13,
また情報処理装置50は、領域抽出処理を実行する毎に、すでに蓄積している領域抽出経緯画面データから、その時点に領域抽出操作を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の領域抽出手法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われる領域抽出経緯画面データを選択して提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促すようになされている。
Each time the
この場合、情報処理装置50は、領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55から構成されており、当該領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55において啓発対象ユーザに自分の領域抽出手法の改善箇所を啓発させるために実行する各種処理を第2の啓発促進プログラムに従ってソフトウェア的に実現する。
In this case, the
すなわち情報処理装置50は、図14に示すように第2の啓発促進プログラムに従って第2の啓発促進処理手順RT50の開始ステップから入って続く領域抽出処理ルーチンSRT51へ移る。
That is, as shown in FIG. 14, the
ここで図15に示すように、情報処理装置50は、画像入力回路60、画像記録回路61、動きベクトル検出記録回路62、設定情報記録回路63、伝播領域決定回路64、ユーザインターフェース回路65、輪郭/領域変換回路66、領域生成記録回路67、領域出力回路68から構成された領域抽出部51によって領域抽出処理ルーチンSRT51を実行する。
As shown in FIG. 15, the
この際、図16及び図17に示すように、情報処理装置50は、領域抽出処理ルーチンSRT51の開始ステップから入って次のステップSP51へ移り、当該ステップSP51において外部から供給されるオブジェクト抽出用動画像データD50を領域抽出部51の画像入力回路60に取り込む。
At this time, as shown in FIG. 16 and FIG. 17, the
ここで、図18に示すように、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70は、時間的に連続して抽出対象のオブジェクト71を含む複数のフレーム画像(以下、これを領域抽出用フレーム画像と呼ぶ)70A乃至70G、……から構成されている。
Here, as shown in FIG. 18, the object
この際、情報処理装置50は、画像入力回路60に取り込んだオブジェクト抽出用動画像データD50をフレーム画像データ(以下、これを領域抽出用フレーム画像データと呼ぶ)D51単位で画像記録回路61に送出して記録すると共に、当該画像記録回路61からオブジェクト抽出用動画像データD50を構成する領域抽出用フレーム画像データD51を順次読み出して動きベクトル検出記録回路62に送出する。
At this time, the
そして情報処理装置50は、動きベクトル検出処理回路62により、複数の領域抽出用フレーム画像データD51においてそれぞれマクロブロック等の所定単位ブロック毎の動きベクトル(例えば個々の所定単位ブロックについて時間的に過去及び未来の双方で隣接する領域抽出用フレーム画像70A乃至70G、……間の双方向の動きベクトル)を検出し、当該検出した領域抽出用フレーム画像データD51毎の動きベクトをそれぞれ領域抽出用フレーム画像データD51の識別情報と対応付けて記録してステップSP52へ移る。
Then, the
ステップSP52において情報処理装置50は、ユーザインターフェース回路65から領域抽出処理用画面データD52を情報提示部55に送出することにより当該情報提示部55に設けられたモニタ(図示せず)に領域抽出処理用画面データD52に基づいて、命令選択領域やオブジェクト抽出用動画像の画像表示領域等を有する領域抽出処理用画面(図示せず)を表示する。
In step SP52, the
この状態で情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上でオブジェクト指定領域の抽出処理を行うための種々の抽出処理用命令C50が入力されることを待ち受け、当該啓発対象ユーザにより抽出処理用命令C50が入力されると、これをユーザインターフェース回路65に取り込んでステップSP53へ移る。
In this state, the
ステップSP53において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト指定領域のもとになるオブジェクト71の輪郭を指定するために例えば1つの領域抽出用フレーム画像70A、……、又は70Gを輪郭指定用の作業フレーム画像として任意に設定する作業フレーム設定命令であるか否かを判断する。
In step SP53, the
ステップSP53において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令であることを表しており、このとき情報処理装置50はステップSP54へ移る。
If an affirmative result is obtained in step SP53, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a work frame setting instruction. At this time, the
ステップSP54において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を領域抽出用フレーム画像データD51単位で読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出する。
In step SP54, the
これにより情報処理装置50は、図19に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に領域抽出用フレーム画像70A乃至70Gを例えば所定フレーム数ずつ表示し、かくして啓発対象ユーザにオブジェクト抽出用動画像70を所定フレーム数ずつの領域抽出用フレーム画像70A乃至70Gとして互いを比較させながら目視させる。
As a result, the
この結果、情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上で複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト71の輪郭指定用に1つの領域抽出用フレーム画像70Dが当該輪郭の指定のし易さ等で任意に選択されると、その選択された領域抽出用フレーム画像70Dの識別情報等を作業フレーム設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより選択された1つの領域抽出用フレーム画像70Dを輪郭指定用の作業フレーム画像に設定してステップSP52に戻る。
As a result, the
これに対して上述したステップSP53において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP55へ移る。
On the other hand, if a negative result is obtained in step SP53 described above, this indicates that the extraction processing instruction C50 input by the enlightenment target user is an instruction other than the work frame setting instruction. The
ステップSP55において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dで指定された輪郭をもとに、時間的に連続する任意のフレーム数の領域抽出用フレーム画像70A乃至70Gでそれぞれ生成したオブジェクト指定領域の修正の方法を修正モードとして設定する修正モード設定命令であるか否かを判断する。
In step SP55, the
ステップSP55において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が修正モード設定命令であることを表しており、このとき情報処理装置50はステップSP56へ移る。
If a positive result is obtained in step SP55, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a correction mode setting instruction, and at this time, the
ステップSP56において情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の修正方法として任意に選択された追加又は削除を表す情報をモード設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより啓発対象ユーザの選択した追加又は削除をオブジェクト指定領域に対する修正モードに設定してステップSP52に戻る。
In step SP56, the
また上述したステップSP55において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令及び修正モード設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP57へ移る。
If a negative result is obtained in step SP55 described above, this indicates that the extraction processing instruction C50 input by the enlightenment target user is an instruction other than the work frame setting instruction and the correction mode setting instruction. When this happens, the
ステップSP57において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dに対するオブジェクト指定領域の生成をもとにその生成を伝播させる領域抽出用フレーム画像70A乃至70C、70E乃至70G、……や、いずれかの領域抽出用フレーム画像70A乃至70G、……に対して生成したオブジェクト指定領域に対する修正をもとにその修正を伝播させる他の領域抽出用フレーム画像70A乃至70C、70E乃至70G、……を設定する伝播範囲設定命令であるか否かを判断する。
In step SP57, the
このステップSP57において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が伝播範囲設定命令であることを表しており、このとき情報処理装置50はステップSP58へ移る。
If a positive result is obtained in step SP57, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a propagation range setting instruction, and the
ステップSP58において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を構成する複数の領域抽出用フレーム画像データD51を読み出し、当該読み出した各領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出することにより、領域抽出処理用画面内の画像表示領域に、例えば啓発対象ユーザの画像切換要求に応じて所定フレーム数ずつの領域抽出用フレーム画像70A乃至70G、……を表示して啓発対象ユーザに目視させる。
In step SP58, the
この状態で情報処理装置50は、例えば図19に示すように啓発対象ユーザにより領域抽出処理用画面上で、オブジェクト指定領域の生成伝播用又はオブジェクト指定領域の修正伝播用に1又は複数の領域抽出用フレーム画像70B乃至70Fが選択されると、当該選択された領域抽出用フレーム画像70B乃至70Fの識別情報等を伝播範囲設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録する。
In this state, for example, as shown in FIG. 19, the
これにより情報処理装置50は、啓発対象ユーザの選択した1又は時間的に連続する複数の領域抽出用フレーム画像70B乃至70Fを伝播範囲の領域抽出用フレーム画像70B乃至70Fに設定してステップSP52に戻る。
Thereby, the
因みに情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以前に伝播範囲設定命令が入力されると、その際に選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……をオブジェクト指定領域の生成を伝播させる伝播範囲(以下、これを特に生成伝播範囲と呼ぶ)の領域抽出用フレーム画像70A乃至70G、……に設定する。
Incidentally, when a propagation range setting command is input before the generation of the object designation area for the work frame image 70D, the
そして情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以降に伝播範囲設定命令が入力されるまでは、生成伝播範囲をオブジェクト指定領域の修正を伝播させる伝播範囲(以下、これを修正伝播範囲と呼ぶ)に併用し、当該オブジェクト指定領域の生成以降に伝播範囲設定命令が入力されると、生成伝播範囲とは別に、その際に新たに選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……を修正伝播範囲の領域抽出用フレーム画像データD70A乃至70G、……に設定する。
The
ただし情報処理装置50は、修正伝播範囲の設定の際に生成伝播範囲を超えて(すなわち生成伝播範囲よりも時間的に過去及び未来)領域抽出用フレーム画像70A乃至70G、……が選択されると、当該選択された領域抽出用フレーム画像70A乃至70G、……に対してはオブジェクト指定領域を生成してはいないことにより、情報提示部55を介して警告音を出力し、及び又は領域抽出処理用画面にエラーメッセージを表示してその選択が無効であることを啓発対象ユーザに通知する。
However, the
さらに上述したステップSP57において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令及び伝播範囲設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP59へ移る。
Furthermore, if a negative result is obtained in step SP57 described above, this means that the extraction processing command C50 input by the enlightenment target user is a command other than the work frame setting command, the correction mode setting command, and the propagation range setting command. In this case, the
ステップSP59において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70D中のオブジェクト71の輪郭を指定する輪郭指定命令であるか否かを判断する。
In step SP59, the
このステップSP59において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令及び生成伝播範囲用の伝播範囲設定命令に応じた処理(ステップSP54及びステップSP58で上述した処理)をすでに実行したうえで入力された輪郭指定命令であることを表しており、このとき情報処理装置50はステップSP60へ移る。
If an affirmative result is obtained in step SP59, this means that the extraction processing command C50 input by the enlightenment target user is a process corresponding to at least the work frame setting command and the propagation range setting command for the generation propagation range (step SP54). In addition, the
ステップSP60において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出する。
In step SP60, the
これにより情報処理装置50は、図20に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に生成伝播範囲及び当該生成伝播範囲の前後の領域抽出用フレーム画像70A乃至70Gを表示する。
As a result, as shown in FIG. 20, the
この状態で情報処理装置50は、啓発対象ユーザによってマウス等を介して領域抽出処理用画面上で作業フレーム画像70D中のオブジェクト71の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線73(すなわち啓発対象ユーザのなぞった軌跡)に相当する入力輪郭線信号S50をユーザインターフェース回路65に取り込む。
In this state, the
そして情報処理装置50は、ユーザインターフェース回路65により、その入力輪郭線信号S50を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該入力輪郭線信号S50に相当する複数の入力輪郭形成点(作業フレーム画像70D中の座標で表す)を生成し、当該生成した複数の入力輪郭形成点の集合データを入力輪郭形成点群データD53として輪郭/領域変換回路66に送出する。
The
また情報処理装置50は、輪郭/領域変換回路66により入力輪郭形成点群データD53に基づく入力輪郭形成点間を補間することにより入力輪郭線73に相当する入力輪郭補間線を生成すると共に、その入力輪郭補間線で囲まれた領域を所定の色で塗りつぶすことにより作業フレーム画像70D中のオブジェクト71を指定するオブジェクト指定領域(以下、これを特にオブジェクト指定基準領域と呼ぶ)に相当するオブジェクト指定基準領域データD54を生成し、当該生成したオブジェクト指定基準領域データD54を伝播領域決定回路64及び領域生成記録回路67に送出してステップSP61へ移る。
The
ステップSP61において情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から作業フレーム設定情報及び伝播範囲設定情報を読み出すと共に、その作業フレーム設定情報及び伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から生成伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。
In step SP61, the
そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックに対して、生成伝播範囲内で作業フレーム画像70Bを除いた他の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置を検出する。
Then, the
これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、オブジェクト指定基準領域をもとにした他のオブジェクト指定領域の生成を生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して伝播させるための伝播領域情報とし、これを伝播領域情報データD55として領域生成記録回路67に送出する。
As a result, the
また情報処理装置50は、領域生成記録回路67により、伝播領域情報データD55に基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックをそれぞれ生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置へ移動させることにより当該オブジェクト指定基準領域を個々の領域抽出用フレーム画像70B、70C及び70E、70Fにそれぞれ伝播させて、当該個々の領域抽出用フレーム画像70B、70C及び70E、70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域(以下、これを特にオブジェクト指定伝播領域と呼ぶ)を生成する。
Further, the
ここで情報処理装置50は、図21に示すように領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、生成伝播範囲の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の変化(すなわち生成伝播範囲におけるオブジェクト71の時間的な動き)に拘わらずに、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単に移動させている。
When the
この際、所定単位ブロック75を単に移動させたままでは、個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して移動させたこれら所定単位ブロック75同士が離れてオブジェクト指定伝播領域内に所定の色による塗りつぶしが途切れた穴76が生じることがある。
At this time, if the
このため情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って移動させた後、これら所定単位ブロック75に対して画像処理としての膨張及び縮小処理を施すことにより穴76をほぼ塞いでオブジェクト指定伝播領域を生成する。
For this reason, the
このようにして情報処理装置50は、生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対するオブジェクト指定伝播領域を生成すると、領域生成記録回路67によりオブジェクト指定基準領域と各オブジェクト指定伝播領域とを生成伝播範囲の領域抽出用フレーム画像データD51の識別情報と対応付けて記録すると共に、当該領域生成記録回路67からオブジェクト指定基準領域及び各オブジェクト指定伝播領域をオブジェクト指定領域データD56としてユーザインターフェース回路65に送出する。
In this way, when the
そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出す。
Then, the
この際、情報処理装置50は、ユーザインターフェース回路65により、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD56と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
At this time, the
これにより情報処理装置50は、図22に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、指定領域提示画像データに基づいて作業フレーム画像70Dにオブジェクト指定基準領域74を重ねて表示すると共に、生成伝播範囲の他の領域抽出用フレーム画像70B、70C、70E、70Fにそれぞれ対応するオブジェクト指定伝播領域77A乃至77Dを重ねて表示し、さらに生成伝播範囲の前後の領域抽出用フレーム画像70A及び70Gを表示することによりオブジェクト指定領域の生成結果を啓発対象ユーザに提示してステップSP52に戻る。
As a result, the
ところで上述したステップSP59において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP62へ移る。
If a negative result is obtained in step SP59 described above, this means that the extraction processing command C50 input by the enlightenment target user is a command other than the work frame setting command, the correction mode setting command, the propagation range setting command, and the contour specifying command. In this case, the
ステップSP62において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50がオブジェクト指定基準領域75及びオブジェクト指定伝播領域77A乃至77Dを修正する領域修正命令であるか否かを判断する。
In step SP62, the
このステップSP62において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP56、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域修正命令であることを表しており、このとき情報処理装置50はステップSP63へ移る。
If an affirmative result is obtained in step SP62, this means that the extraction processing command C50 input by the enlightenment target user is processed according to the work frame setting command, the correction mode setting command, the propagation range setting command, and the contour specifying command. (The processing described above in step SP54, step SP56, step SP58, step SP60 and step SP61) has already been executed, and represents an area correction command input. At this time, the
ここで情報処理装置50は、領域生成記録回路67によって生成したオブジェクト指定伝播領域77A乃至77Dについて、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単に移動させた状態で生じた穴76が比較的小さければ、その後の膨張及び縮小処理によりその穴76を塞ぐことができる。
Here, the
しかしながら情報処理装置50は、穴76が比較的大きければ、移動後の所定単位ブロック75に対して膨張及び縮小処理を施してもその穴76を塞ぐことができず、オブジェクト指定伝播領域77A乃至77Dにおいて穴76が残った状態となる(図22)。
However, if the
また情報処理装置50は、領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単に移動させることにより、図21からも明らかなように所定単位ブロック75のもとの並びが移動先でばらつき、その結果、図22に示すように、オブジェクト指定伝播領域77A乃至77Dの輪郭部分にオブジェクト71よりも外側に突出した箇所(以下、これを突出箇所と呼ぶ)78や当該オブジェクト71の内側に凹んだ箇所(図示せず)が生じる場合がある。
Further, when the
そしてオブジェクト指定伝播領域77A乃至77Dに生じる突出箇所78等は、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dにかかる所定単位ブロックが移動してさらに別のオブジェクト指定伝播領域77A乃至77Dが生成されれば、そのオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合がある。
The
このためステップSP63において情報処理装置50は、ユーザインターフェース回路65からその時点で最新の指定領域提示画像データを合成した領域抽出処理用画面データD52を情報提示部55に送出し、当該情報提示部55に例えば図22について上述した領域抽出処理用画面を表示する。
For this reason, in step SP63, the
この状態で情報処理装置50は、図23(A)及び(B)に示すように啓発対象ユーザにより領域抽出処理用画面上で修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dが指定されると共に、マウス等を介してその修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所(穴76や突出箇所78等)が当該修正箇所の周辺がなぞられて形成された枠79A及び79Bによって指示されると、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像データD51の識別情報と、枠79A及び79Bに相当する枠信号とを含む修正箇所指示信号S51が入力されることによりこれをユーザインターフェース回路65に取り込む。
In this state, the
因みに、情報処理装置50は、この際、領域抽出処理用画面内の画像表示領域に生成伝播範囲及びその前後の領域抽出用フレーム画像(作業フレーム画像を含む)70A乃至70Gを表示していることにより、オブジェクト指定基準領域74の形状と、生成伝播範囲前後の領域抽出用フレーム画像70A及び70G中のオブジェクト71の形状とからオブジェクト指定伝播領域77A乃至77Dに対する突出箇所78を比較的容易に類推させて特定させ得るようになされている。
Incidentally, at this time, the
情報処理装置50は、ユーザインターフェース回路65により、修正箇所指示信号S51に含まれる枠信号を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該枠信号に相当する複数の枠形成点(領域抽出用フレーム画像70B乃至70F中の座標で表す)を生成し、当該生成した複数の枠形成点の集合データ(以下、これを枠形成点群データと呼ぶ)を、修正箇所指示信号S51に含まれる識別情報と共に修正箇所指示データD57として輪郭/領域変換回路66に送出する。
The
また情報処理装置50は、輪郭/領域変換回路66により、修正箇所指示データD57に基づいて得られた枠形成点群データに基づく枠形成点間を補間することにより枠79A及び79Bに相当する枠補間線を生成し、その枠補間線で囲まれた領域を修正箇所指示領域として表す修正箇所指示領域データと、修正箇所指示データD51に含まれる識別情報とを修正指示データD58として伝播領域決定回路64及び領域生成記録回路67に送出する。
In addition, the
情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から伝播範囲設定情報を読み出すと共に、その伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から修正伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。
The
そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、修正箇所指示領域にかかる全ての所定単位ブロックに対して、修正伝播範囲内で修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像70B乃至70Fを除いた他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置を検出する。
Then, the
これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正を修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるための伝播領域情報として領域生成記録回路67に送出する。
As a result, the
さらに情報処理装置50は、領域生成記録回路67により、設定情報記録回路63からその時点に設定されている修正モードを表す修正モード設定情報を読み出すと共に、すでに記憶しているオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dのうち修正指示データD58に含まれる識別情報に対応する修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを選択して読み出す。
Furthermore, the
そして情報処理装置50は、領域生成記録回路67により、修正指示データD58に含まれる修正箇所指示領域データを取り出し、当該修正箇所指示領域データに基づく修正箇所指示領域を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと重ねる。
Then, the
この状態で情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが削除であれば、例えば図24(A)に示すように、オブジェクト指定伝播領域77Aにおいて修正箇所指示領域79AXと重なった箇所77AXを削除することにより、突出箇所78を削って修正したオブジェクト指定伝播領域77AYを得る。
In this state, if the correction mode at that time is deleted based on the correction mode setting information by the area
また情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが追加であれば、例えば図24(B)に示すように、オブジェクト指定伝播領域77Bにおいて修正箇所指示領域79BXと重なった箇所77BXに所定の色の塗りつぶし領域を追加することにより、穴76を塞いで修正したオブジェクト指定伝播領域77BYを得る。
If the correction mode at that time is added based on the correction mode setting information by the area
そして情報処理装置50は、領域生成記録回路67により、伝播領域情報に基づいて、修正箇所指示領域にかかる全ての所定単位ブロック(修正により新たに塗りつぶした、又は塗りつぶしを解除した所定単位ブロック)をそれぞれ修正伝播範囲の他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置へ移動させることにより修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにおける修正を他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにそれぞれ伝播させる。
Then, the
このようにして情報処理装置50は、修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正要求に応じて当該修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと、修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dとを合わせて修正することができる。
In this way, the
すなわち情報処理装置50は、複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれかのオブジェクト指定伝播領域77A乃至77Dに突出箇所78等が生じれば、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dをもとにして生成した他のオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合があるため、これら複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれか1つのオブジェクト指定伝播領域77A乃至77Dに対して修正を要求させるだけで他のオブジェクト指定伝播領域77A乃至77Dもその修正を反映させて容易に修正することができる。
In other words, the
そして情報処理装置50は、領域生成記録回路67によりその修正して得た新たなオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを、修正前のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに上書きして記録することにより、記録保持しているオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを更新する。
Then, the
また情報処理装置50は、領域生成記録回路67により、更新したオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを再びオブジェクト指定領域データD59としてユーザインターフェース回路65に送出する。
The
そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD59と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
Then, the
これにより情報処理装置50は、図25に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応する修正済みのオブジェクト指定基準領域74A及びオブジェクト指定伝播領域77AX、77BX、77CX、77DX又は未だ修正を施していないオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを重ねて表示してステップSP52に戻る。
As a result, the
このようにして情報処理装置50は、オブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成した後、修正伝播範囲及び修正モードを適宜設定して修正箇所が指示されれば、その都度、指示に応じてオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所を修正して提示し、啓発対象ユーザが精度等で納得するオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成することができる。
In this way, after generating the object
これに加えて上述したステップSP62において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令、輪郭指定命令及び領域修正命令以外の命令であることを表しており、このとき情報処理装置50はステップSP64へ移る。
In addition to this, if a negative result is obtained in step SP62 described above, this means that the extraction processing command C50 input by the enlightenment target user is a work frame setting command, a correction mode setting command, a propagation range setting command, a contour specifying command. The
ステップSP64において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とするか、又は当該入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とするかを切り換える領域反転命令であるか否かを判断する。
In step SP64, the
このステップSP64において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域反転命令であることを表しており、このとき情報処理装置50はステップSP65へ移る。
If an affirmative result is obtained in step SP64, this means that the extraction processing command C50 input by the enlightenment target user is processed according to at least a work frame setting command, a propagation range setting command, and a contour specifying command (step SP54, This represents that the area inversion command has been input after the processing described above in step SP58, step SP60 and step SP61) has already been executed. At this time, the
ステップSP65において情報処理装置50は、ユーザインターフェース回路65から領域反転命令を設定情報記録回路63に送出する。
In step SP65, the
情報処理装置50は、例えば初期状態では入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とする補間線内領域モードに設定しており、その補間線内領域モード時に領域反転命令が入力されると、当該領域反転命令を設定情報記録回路63に取り込んで、オブジェクト指定領域の形態を設定するための指定領域設定情報の内容を変更することにより、入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とする補間線外領域モードに設定を変更する。
For example, in the initial state, the
これに対して情報処理装置50は、補間線外領域モード時に領域反転命令が入力されると、その領域反転命令を設定情報記録回路63に取り込んで指定領域設定情報の内容を変更することにより補間線内領域モードに設定を変更する。
On the other hand, when an area inversion command is input in the out-of-interpolation area mode, the
そして情報処理装置50は、設定情報記録回路63により、補間線内領域モードを補間線外領域モードに切り換えたとき、これを領域生成記録回路67に通知する。
When the setting
情報処理装置50は、補間線内領域モードから補間線外領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dの外側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを除くオブジェクト71の背景となる領域)を所定の色で塗りつぶすオブジェクト指定領域(以下、これをオブジェクト指定基準領域に対応させてオブジェクト指定基準反転領域と呼び、オブジェクト指定伝播領域に対応させてオブジェクト指定伝播反転領域と呼ぶ)を生成する。
When the
そして情報処理装置50は、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を生成すると、領域生成記録回路67によりオブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を、オブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dに上書きして記録する。
When the
また情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域をオブジェクト指定領域データD60としてユーザインターフェース回路65に送出する。
Also, the
情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD60と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
The
これにより情報処理装置50は、図26に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応するオブジェクト指定基準反転領域80及びオブジェクト指定伝播反転領域81A乃至81Dを重ねて表示してステップSP52に戻る。
As a result, the
因みに情報処理装置50は、補間線外領域モードから補間線内領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dの内側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dを除くオブジェクト71と重なる領域)を所定の色で塗りつぶすオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを生成する。
Incidentally, when the
この場合、情報処理装置50は、図22又は図25について上述した領域抽出処理用画面を啓発対象ユーザに提示してステップSP52に戻る。
In this case, the
このようにして情報処理装置50は、啓発対象ユーザによって入力される抽出処理命令C50に応じて上述したステップSP52乃至ステップSP65の処理を順次実行することにより当該啓発対象ユーザに自分で納得のできる精度でオブジェクト指定領域を抽出させることができる。
In this way, the
そしてステップSP64において否定結果が得られると、このことはオブジェクト抽出用動画像70から時間的に連続する領域抽出用フレーム画像70B乃至70F中のオブジェクト71の動きに応じて推移させたオブジェクト指定領域が啓発対象ユーザの納得できる精度で抽出されたことにより、当該啓発対象ユーザにより抽出処理用命令C50として領域抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置50はステップSP66へ移る。
If a negative result is obtained in step SP64, this means that the object designated area changed in accordance with the movement of the
ステップSP66において情報処理装置50は、領域生成記録回路67により1度の生成又はその後の修正を経て最終的に記録したオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77D、又はオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dをオブジェクト指定領域データD61として領域抽出回路68を介して外部に出力することにより例えばオブジェクト抽出装置(図示せず)においてそのオブジェクト指定領域データD61に基づいてオブジェクト抽出用動画像データD50からオブジェクト71を抽出させるようにしてステップSP67(図14)へ移る。
In step SP66, the
ステップSP67において情報処理装置50は、啓発対象ユーザにより所定の操作部(図示せず)を介して入力される啓発対象ユーザの氏名及び当該啓発対象ユーザの領域抽出手法に対する評価値となる技量のユーザ情報S55をユーザインターフェース回路65に取り込む。
In step SP67, the
ここで啓発対象ユーザの技量の判定には、コンピュータ等により所定の画像生成プログラムに従って生成された領域抽出操作の試行用の動画像(以下、これを領域抽出試行用動画像と呼ぶ)を用いて啓発対象ユーザにより定期的に領域抽出操作が試行的に行われた結果がその都度利用されている。 Here, the skill of the user to be enlightened is determined using a moving image for trial of region extraction operation (hereinafter referred to as a moving image for region extraction trial) generated by a computer or the like according to a predetermined image generation program. The result of the region extraction operation periodically performed by the enlightenment target user is used each time.
この場合、領域抽出試行用動画像は、時間的に連続して領域指定可能なオブジェクト(以下、これを領域抽出試行用オブジェクトと呼ぶ)を含む複数のフレーム画像(以下、これを試行用フレーム画像と呼ぶ)から構成されており、コンピュータ等によって実行された一般的な画像処理アプリケーションプログラムを利用した画像処理により領域抽出試行用オブジェクトの輪郭をほぼ正確に認識できるように生成されている。 In this case, the region extraction trial moving image includes a plurality of frame images (hereinafter referred to as trial frame images) including an object (hereinafter referred to as a region extraction trial object) whose region can be continuously specified in time. The contour of the region extraction trial object can be recognized almost accurately by image processing using a general image processing application program executed by a computer or the like.
従って啓発対象ユーザの技量は、領域抽出試行用動画像を用いて上述した領域抽出処理ルーチンSRT51とほぼ同様に複数の試行用フレーム画像中の領域抽出試行用オブジェクトに対するオブジェクト指定領域の領域抽出操作が試行的に行われた場合、例えば画像処理によってオブジェクト指定領域の形状と、実際の領域抽出試行用オブジェクトの輪郭とを比較し、予め設定された精度(予め設定された閾値内の誤差量)でオブジェクト指定領域が抽出されるまでに要した時間(すなわちオブジェクト指定領域の抽出を試行的に行った領域指定試行処理に要した時間)の逆数を用いて定量的に判定されている。 Therefore, the skill of the user to be enlightened is that the region extraction operation of the object designated region for the region extraction trial object in the plurality of trial frame images is performed using the region extraction trial moving image in substantially the same manner as the region extraction processing routine SRT51 described above. When performed on a trial basis, for example, the shape of the object designated area is compared with the contour of the actual area extraction trial object by image processing, for example, with a preset accuracy (an error amount within a preset threshold). The determination is made quantitatively by using the reciprocal of the time required until the object specified area is extracted (that is, the time required for the area specifying trial process for extracting the object specified area on a trial basis).
因みに啓発対象ユーザの技量は、比較的短い時間でオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が高いと判定することができ、この場合には領域指定試行処理に要した時間が短いことにより値が大きくなる。 By the way, the skill of the user to be enlightened can be determined that the skill is high if the object designated area is experimentally extracted with a predetermined accuracy in a relatively short time. In this case, the time required for the area designation trial process The value increases due to the short of.
また啓発対象ユーザの技量は、比較的長い時間をかけてオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が低いと判定することができ、この場合には領域指定試行処理に要した時間が長いことにより値が小さくなる。 The skill of the user to be enlightened can be determined to be low if the object designated area is extracted on a trial basis with a predetermined accuracy over a relatively long time. In this case, it is necessary for the area designation trial process. The value decreases as the time spent increases.
そして情報処理装置50は、かかる啓発対象ユーザの技量を含むユーザ情報S55をユーザインターフェース回路65に取り込むと、当該ユーザインターフェース回路65により画像記録回路61からオブジェクト動画像データD51を読み出す。
The
また情報処理装置50は、ユーザインターフェース回路65に上述した領域抽出処理ルーチンSRT51(すなわちオブジェクト抽出用動画像を用いた領域抽出処理)を実行している間、適宜表示内容を変化させて情報提示部55で表示した一連の領域抽出処理用画面を領域抽出処理に要した時間等の情報と共に領域抽出操作の経緯を表す領域抽出経緯画面データとして記録している。
Further, the
従って情報処理装置50は、図27に示すように、ユーザインターフェース回路65により、ユーザ情報S55に含まれる啓発対象ユーザの氏名及び技量と、オブジェクト抽出用動画像データD50と、領域抽出経緯画面データとからなる入力情報を入力情報データD65として処理傾向情報抽出部52(図13)に送出してステップSP68へ移る。
Accordingly, as shown in FIG. 27, the
ステップSP68において情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれるオブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ所定単位ブロックの周波数成分の和と当該所定単位ブロックの周波数成分のうち予め選定された特定周波数以上の周波数成分の和との比率を算出し、全ての領域抽出用フレーム画像データD51に対するこれら比率の平均値を高周波成分比率として算出する。
In step SP68, the
また情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ輝度の最大値から最小値を減算し、この結果得られた全ての領域抽出用フレーム画像データD51に対する減算結果の平均値を輝度値ダイナミックレンジとして算出する。
Further, the
さらに情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれる領域抽出経緯画面データに対して所定の画像処理を施すことにより啓発対象ユーザにより作業フレーム画像70D中のオブジェクト71の輪郭が指定されたときの輪郭描線時間を検出し、その輪郭描線時間を、当該輪郭描線時間を除く領域抽出処理に要した時間(以下、これを描線除外処理時間と呼ぶ)で除算することにより得られる除算結果を描線及び描線除外処理時間比率として算出する。
Further, the
これに加えて情報処理装置50は、処理傾向情報抽出部52により、啓発対象ユーザによって作業フレーム画像70D中のオブジェクト71の輪郭が指定されて得られた入力輪郭形成点を用いて当該入力輪郭形成点を生成するための所定サンプリング間隔と隣接する入力輪郭形成点間の距離とにより順次隣接する入力輪郭形成点間の描線速度を算出し、各入力輪郭形成点間の描線速度の平均値をオブジェクト71の輪郭が指定されたときの平均描線速度として算出する。
In addition, the
そして情報処理装置50は、図28に示すように処理傾向情報抽出部52により、高周波成分比率及び輝度値ダイナミックレンジをオブジェクト抽出用動画像70における絵柄の様子(複雑さや色調等がどのような動画像であるか)を表す画像特徴情報とすると共に、描線及び描線除外処理時間比率や平均描線速度を領域抽出操作の経緯を具体的に表す領域抽出経緯情報とし、これら画像特徴情報及び領域抽出経緯情報を啓発対象ユーザによりどのようなオブジェクト抽出用動画像70からどのようにオブジェクト指定領域が抽出されたかを表す処理傾向情報とする。
Then, the
これにより情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50及び領域抽出経緯画面データから抽出した処理傾向情報を処理傾向情報データD66とし、当該処理傾向情報データD66及び入力情報データD65同士を対応付けて蓄積情報データD67として情報蓄積部53に送出すると共に、その処理傾向情報データD66をそのまま提示情報選択部54に送出した後、続くステップSP69及びステップSP70へ移る。
Accordingly, the
ステップSP69において情報処理装置50は、情報蓄積部53により、蓄積情報データD67を例えば入力情報データD65同士と処理傾向情報データD66同士とにまとめて記憶してステップSP71へ移る。
In step SP69, the
またステップSP70において情報処理装置50は、ステップSP69の処理と並行して提示情報選択部54により、処理傾向情報データD66に含まれる画像特徴情報としての輝度値ダイナミックレンジ(以下、これを比較用基準輝度値ダイナミックレンジと呼ぶ)の値及び領域抽出経緯情報としての平均描線速度(以下、これを比較用基準平均描線速度と呼ぶ)の値と、情報蓄積部53においてステップSP69で記憶した啓発対象ユーザの蓄積情報データD67を除いたすでに蓄積している他の全ての過去蓄積情報データD67に処理傾向情報データD66として含まれる輝度値ダイナミックレンジ(以下、これを過去輝度値ダイナミックレンジと呼ぶ)及び平均描線速度(以下、これを過去平均描線速度と呼ぶ)の値とを比較する。
In step SP70, the
これにより情報処理装置50は、図9について上述した場合と同様に提示情報選択部54により、過去蓄積情報データD67の中から、比較用基準輝度値ダイナミックレンジの値を中心とした所定のダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ比較用基準平均描線速度の値を中心とした所定の描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。
As a result, the
次いで情報処理装置50は、提示情報選択部54により、比較用輝度値ダイナミックレンジの値及び比較用基準平均描線速度の値を用いて選択した過去蓄積情報データD67の中から、当該過去蓄積情報データD67に含まれる技量の情報同士を比較することにより、最も高い技量(すなわち最も高い評価値)を入力情報データD65の一部として含む過去蓄積情報データD67を選択する。
Next, the
このようにして情報処理装置50は、図29に示すように提示情報選択部54により、情報蓄積部53にすでに蓄積していた全ての過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法に対する処理傾向情報の比較用輝度値ダイナミックレンジ及び比較用平均描線速度を限定基準として用いて当該啓発対象ユーザの領域抽出手法に類似する領域抽出手法でオブジェクト指定領域の抽出を行ったユーザの過去蓄積情報データD67を選択した後(すなわち選択対象の過去蓄積情報データD67の数を限定した後)、当該選択した過去蓄積情報データD67の中からこれらに含まれる技量を選定基準として用いて技量の最も高いユーザの過去蓄積情報データD67を最終的に選択する。
In this way, the
これにより情報処理装置50は、図30示すように提示情報選択部54により、情報蓄積部53から、最終的に選択した過去蓄積情報データD67に入力情報データD65として含まれる領域抽出経緯画面データ及び技量の情報を提示情報データD68として読み出すと共に、当該読み出した提示情報データD68を情報提示部55に送出してステップSP71へ移る。
As a result, the
ステップSP71において情報処理装置50は、情報提示部55により提示情報データD68に基づく一連の領域抽出処理用画面及び技量の情報を啓発対象ユーザに提示した後、ステップSP72へ移って第2の啓発促進処理手順RT50を終了する。
In step SP71, the
このようにして情報処理装置50は、啓発対象ユーザに類似する領域抽出手法(例えば啓発対象ユーザがオブジェクト指定領域の抽出に用いたオブジェクト抽出用動画像70の色調と類似する色調のオブジェクト抽出用動画像を用いて、オブジェクト指定領域の抽出処理で最も重要で、かつオブジェクト指定領域のもとになるオブジェクトの輪郭の指定の仕方が類似する)でオブジェクト指定領域を抽出した複数のユーザの中から、最も技量の高いユーザの領域抽出手法として一連の領域抽出処理用画面(処理の経緯やオブジェクト抽出用動画像を含む)を実際にユーザの行った領域抽出操作の時間経過に合わせて再生して提示する。
In this way, the
これにより情報処理装置50は、啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所(例えば領域抽出操作で最も重要な、輪郭の指定の仕方や、生成伝播範囲及び修正伝播範囲の設定の仕方等)を啓発対象ユーザの領域抽出手法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの領域抽出手法に真似て改善させ得るようになされている。
As a result, the
因みに第2の実施の形態の場合、情報処理装置50は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C51が入力されることによりこれを領域抽出部51のユーザインターフェース回路65に取り込むと、当該追加命令C51をユーザインターフェース回路65から処理傾向情報抽出部52を介して提示情報選択部54に送出する。
Incidentally, in the case of the second embodiment, the
そして情報処理装置50は、提示情報選択部54により情報蓄積部53から、最終的に選択した過去蓄積情報データD67に処理傾向情報データD66として含まれる画像特徴情報としての高周波成分比率と、領域抽出経緯情報としての描線及び描線除外処理時間比率の情報を読み出し、当該読み出した高周波成分比率と描線及び描線除外処理時間比率とを、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率と共に追加提示情報データD69として情報提示部55に送出する。
Then, the
これにより情報処理装置50は、情報提示部55により、追加提示情報データD69に基づく高周波成分比率と、描線及び描線除外処理時間比率との情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の領域抽出手法と、他のユーザの領域抽出手法との異なる箇所を一連の領域抽出処理用画面の提示のみならずに高周波成分比率や、描線及び描線除外処理時間比率の数値としての違いからも見つけさせることができるようになされている。
Thereby, the
すなわち情報処理装置50は、啓発対象ユーザに他のユーザがオブジェクト指定領域の抽出処理に用いたオブジェクト抽出用動画像の絵柄の様子(複雑さ)がどう異なるのかや、領域抽出操作においてオブジェクトの輪郭の指定をどのくらい重要視しているか等の違いを数値として判断させ得るようになされている。
In other words, the
以上の構成において、情報処理装置50は、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせ、その領域抽出操作に応じた領域抽出処理中に適宜表示内容を変更して提示した一連の領域抽出処理用画面を領域抽出操作の経緯を表す領域抽出経緯画面データとし、当該領域抽出経緯画面データと、領域抽出処理に用いたオブジェクト抽出用動画像データD50と、啓発対象ユーザによって入力された領域抽出手法に対する技量の情報とを入力情報データD65とする。
In the above configuration, the
そして情報処理装置50は、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70及び領域抽出経緯画面データから啓発対象ユーザがどのような動画像からどのようにオブジェクト指定領域を抽出しているかを表す当該啓発対象ユーザの領域抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD66を入力情報データD65と共に蓄積情報データD67として情報蓄積部53に記憶する。
Then, the
このとき情報処理装置50は、啓発対象ユーザの処理傾向情報データD66と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD66とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択する。
At this time, the
次いで情報処理装置50は、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択し、その選択した過去蓄積情報データD67に含まれる領域抽出経緯画面データ(すなわち領域抽出処理中に提示していた一連の領域抽出処理用画面)を提示情報として啓発対象ユーザに提示するようにした。
Next, the
従ってこの情報処理装置50は、上述した第1の実施の形態と同様に処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。
Therefore, the
また情報処理装置50は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C51が入力されると、これに応じて、最終的に選択した過去蓄積情報データD67に処理傾向情報として含まれる高周波成分比率と描線及び描線除外処理時間比率との情報を、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率との情報と共に追加提示情報として啓発対象ユーザに提示するようにした。
In addition, when the presentation information addition command C51 is input while presenting the presentation information to the enlightenment target user, the
従って情報処理装置50は、追加提示情報によっても啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促し、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所を、領域抽出処理中に提示していた一連の領域抽出処理用画面を目視させて見つけさせることに加えてオブジェクト抽出用動画像に対する高周波成分比率や、領域抽出処理中のオブジェクトの輪郭の指定の重要度を表す描線及び描線除外処理時間比率の数値としての違いとしても啓発対象ユーザに自分の領域抽出手法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。
Therefore, the
これに加えて情報処理装置50は、オブジェクト指定領域を抽出する領域抽出処理時、図16及び図17について上述した領域抽出処理ルーチンSRT51を実行し、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……のうちオブジェクト71の輪郭を実際に指定する1つの作業フレーム画像70Dを選択させると共に、オブジェクト指定領域の生成を伝播させる生成伝播範囲の複数の領域抽出用フレーム画像70B、70C、70E、70Fを選択させる。
In addition to this, the
そして情報処理装置50は、作業フレーム画像70D中のオブジェクト71の輪郭がなぞられて指定されると、その結果得られた入力輪郭線に基づいて作業フレーム画像70Dに対するオブジェクト指定基準領域74を生成すると共に、当該オブジェクト指定基準領域74にかかる所定単位ブロックを生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fにおける移動位置に移動させて当該生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fに対するオブジェクト指定伝播領域77A乃至77Dを生成する。
When the contour of the
従って情報処理装置50は、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の輪郭をそれぞれ指定しなくても、いずれか1つの領域抽出用フレーム画像(作業フレーム画像)70D中のオブジェクト71の輪郭を指定するだけで、複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域を容易に抽出することができる。
Therefore, the
また情報処理装置50は、修正伝播範囲を設定したうえでいずれか1つの修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正が指示されると、その修正を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dから修正伝播範囲内の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるため、啓発対象ユーザに極力少ない操作で複数のオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dの抽出精度を容易に向上させることができる。
In addition, when the
以上の構成によれば、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせた際に表示した一連の領域抽出処理用画面と、そのオブジェクト抽出用動画像70と、当該啓発対象ユーザの技量の情報とからなる入力情報を当該一連の領域抽出処理用画面及びオブジェクト抽出用動画像70から抽出した、啓発対象ユーザの領域抽出手法に対する処理傾向情報と共に蓄積情報データD67として情報蓄積部53に記憶すると共に、当該啓発対象ユーザの領域抽出手法に対する処理傾向情報と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報とを比較して当該過去蓄積情報データD67の中から啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法をオブジェクト抽出用動画像及び一連の領域抽出処理用画面として含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの領域抽出手法に真似て改善させることができ、かくして処理対象となるオブジェクト抽出用動画像70からオブジェクト指定領域を抽出するという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
According to the above configuration, a series of area extraction processing screens displayed when the user to be enlightened performs an area extraction operation for extracting an object designated area from the object
なお上述した第2の実施の形態においては、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択し、当該選択した1又は複数の過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。
In the second embodiment described above, the processing tendency information data D65 of the enlightenment target user is compared with the processing tendency information data D65 included in the past accumulation information data D67 already accumulated in the
このようにすれば、啓発対象ユーザに技量の異なる複数のユーザの領域抽出処理の経緯を提示情報として提示することができるため、上述した第2の実施の形態の場合よりも、啓発対象ユーザに自分の領域抽出手法における改善箇所を更に多く見つけさせることができる。 In this way, it is possible to present the background of the region extraction process of a plurality of users with different skills to the enlightenment target user as the presentation information, and thus to the enlightenment target user than in the case of the second embodiment described above. You can find more improvements in your area extraction method.
また啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較して複数の過去蓄積情報データD67の中から最終的な過去蓄積情報データD67を選択することにより、上述した第2の実施の形態に比べて選択時の処理負荷を低減させることもできる。
Further, the processing trend information data D65 of the enlightenment target user is compared with the processing trend information data D65 included in the past storage information data D67 already stored in the
また上述した第2の実施の形態においては、啓発対象ユーザに他のユーザの領域抽出処理における一連の領域抽出処理用画面を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD67に啓発対象ユーザの過去の蓄積情報データD67が含まれており、当該啓発対象ユーザの過去の蓄積情報データD67を選択したときには、その蓄積情報データD67に含まれる過去の領域抽出処理における一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の領域抽出手法よりも過去の領域抽出手法の方が技量が高いと、現在の領域抽出手法における改善箇所を過去の技量の高かったときの領域抽出手法と比較させて容易に見つけさせることができる。 In the second embodiment described above, a case has been described in which a series of region extraction processing screens in the region extraction processing of other users is presented to the enlightenment target user as presentation information. The past stored information data D67 of the user to be enlightened is included in the past stored information data D67, and when the past stored information data D67 of the user to be enlightened is selected, it is included in the stored information data D67. A series of region extraction processing screens in the past region extraction processing may be presented to the enlightenment target user as presentation information. In this case, for example, if the past region extraction method has a higher skill than the current region extraction method of the user to be enlightened, the improved region in the current region extraction method is the region extraction method when the past skill is high. It can be easily found in comparison with.
さらに上述した第2の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD67を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD67を除いた他の過去蓄積情報データD67を用いるようにしても良い。 Further, in the above-described second embodiment, when the presentation information to be presented to the enlightenment target user is selected, all past accumulated information data D67 is used. However, the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D67 used for the past presentation is selected based on the presentation history. Other past accumulated information data D67 excluded may be used.
このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で領域抽出手法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD67をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。 In this way, it is possible to prevent the presentation information previously presented to the enlightenment target user from being presented again and to present new presentation information, thereby improving the area extraction method from a new viewpoint to the enlightenment target user. Can be enlightened. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D67 used for presenting the presentation information is not used for the selection of the subsequent presentation information regardless of the user to be presented. Such processing can also be realized by forcing restrictions.
さらに上述した第2の実施の形態においては、図29について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図31に示すような種々の選択条件をいずれか1つ、又は図31に示す種々の選択情報と図29について上述した選択条件とを合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。 Furthermore, in the second embodiment described above, the case where presentation information is selected using the selection conditions described above with reference to FIG. 29 has been described, but the present invention is not limited to this, and as shown in FIG. Any one of various selection conditions, or various selection information shown in FIG. 31 and the selection conditions described above with reference to FIG. 29 are combined to selectively use one or more selection conditions to select presentation information. May be.
ここで、図31に示す種々の選択条件について詳述すると、情報処理装置50は、まず第1の選択条件を用いる場合、提示情報選択部54により、比較用基準輝度値ダイナミックレンジの値と、全ての過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67の中から当該過去蓄積情報データD67に含まれる技量の情報同士を比較して最も良い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
Here, the various selection conditions shown in FIG. 31 will be described in detail. When the
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から、技量の最も高い領域抽出手法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。
In this case, the
また情報処理装置50は、第2の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる技量(以下、これを過去技量と呼ぶ)の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。
Further, when the second selection condition is used, the
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67に含まれる過去平均描線速度の値と、比較用基準平均描線速度の値とを比較することにより、当該選択した過去蓄積情報データD67の中から描線速度閾値範囲外の値を示し、かつ比較用基準平均描線速度の値との違いが最大である過去平均描線速度の情報を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から、オブジェクトの輪郭の指定の仕方が最も異なる領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。
In this case, the
さらに情報処理装置50は、第3の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる過去技量の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。
Further, when using the third selection condition, the
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所をある程度偶然性に期待して啓発させることができる。
In this case, the
さらに情報処理装置50は、第4の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ及び比較用基準平均描線速度の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ及び過去平均描線速度の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。
Further, when using the fourth selection condition, the
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も低い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から技量の最も低い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した領域抽出手法の提示により啓発対象ユーザに反面教師的に自分の領域抽出手法の良い箇所を再確認させることもできる。
In this case, the
さらに情報処理装置50は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD66に当該啓発対象ユーザの技量(以下、これを比較用基準技量と呼ぶ)の情報を格納しておき、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報と、描線速度閾値範囲内の値を示す過去平均描線速度と、比較用基準技量の値を中心とした所定の技量閾値範囲内の値を示す過去技量とを共に含む過去蓄積情報データD67を選択する。
Further, when the fifth selection condition is used, the
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も高い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
Then, the
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつ実力(すなわち技量)もほとんど同じ複数の領域抽出手法のうちで最も技量の高い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、提示した領域抽出手法と啓発対象ユーザの領域抽出手法との違いがわずかであるため、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を容易に啓発させることができる。
In this case, the
さらに情報処理装置50は、第6の選択条件を用いる場合、提示情報選択部54により、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を選択して当該選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
Furthermore, when using the sixth selection condition, the
この場合、情報処理装置50は、無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を全面的に偶然性に期待して啓発させることができる。
In this case, the
因みに情報処理装置50では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD66に技量の情報を格納しておかなくても、提示情報選択部54により、情報蓄積部53に蓄積している全ての蓄積情報データD67(啓発対象ユーザの蓄積情報データD67を含む)に含まれている技量の情報を用いることで最終的な蓄積情報データD67の選択を実現することもできる。
Incidentally, in the
また上述した各選択条件において技量の情報を用いるときには、技量の最小及び最大や、所定の閾値以上の技量等の規定にしなくても、所定の閾値以下の技量や、啓発対象ユーザの技量よりも高い又は低い技量、啓発対象ユーザの技量から所定の閾値以上離れた値の技量、啓発対象ユーザの技量から所定の第1の閾値以上離れ、かつ第2の閾値以下の技量、さらには啓発対象ユーザの技量とほぼ同じ(類似する)技量等の条件でも過去蓄積情報データD67を選択することができる。 In addition, when using skill information in each of the selection conditions described above, even if the minimum and maximum skills are not defined, and the skills are not less than a predetermined threshold, the skills below the predetermined threshold or the skills of the user to be enlightened High or low skill, skill with a value that is greater than or equal to a predetermined threshold from the skill of the user to be enlightened, skill that is more than a predetermined first threshold and less than or equal to the second threshold from the skill of the user to be enlightened, and further the user to be enlightened The past stored information data D67 can be selected even under conditions such as a skill that is substantially the same as (similar to) the skill.
さらに蓄積情報データD67の選択に用いる選択条件としては、図29について上述した選択条件及び図31について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、生成伝播範囲及び又は修正伝播範囲、修正箇所の指定の様子を用いる選択条件等のように、さらにこの他にも種々の選択条件を用いることができる。 Furthermore, as selection conditions used for selection of the stored information data D67, selection conditions obtained by replacing a part of the selection conditions described above with reference to FIG. 29 and the first to sixth selection conditions described above with reference to FIG. Alternatively, various other selection conditions can be used, such as a selection condition using a correction propagation range and a state of specifying a correction portion.
これに加えて情報処理装置50では、図29及び図31について上述した選択条件において限定基準の比較用基準輝度値ダイナミックレンジや比較用基準平均描線速度、比較用基準技量をそれぞれ個別に用いるようにしたが、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。
In addition to this, the
また情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。
Further, the
さらに情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を中心とした所定のダイナミックレンジ閾値範囲、描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の少なくとも2つ以上とを比較して過去蓄積情報データD67を限定するようにしても良い。
Further, in the
同様に情報処理装置50では、図29及び図31について上述した選択条件において選定基準の平均描線速度及び技量もそれぞれ個別に用いるようにしたが、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
Similarly, in the
また情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
In the
さらに情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を中心とした所定の描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
Further, the
さらに上述した第2の実施の形態においては、情報蓄積部53に入力情報データD65及び処理傾向情報データD66からなる蓄積情報データD67を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD65を蓄積情報データとして情報蓄積部53に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD65及び蓄積情報データ(すなわち入力情報データD65)から処理傾向情報を抽出すれば良い。また啓発対象ユーザと他のユーザとがそれぞれ同じオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する場合には、入力情報データDとして領域指定経緯画面データ及び技量の情報を利用すれば良い。
Further, in the above-described second embodiment, the case where the
さらに上述した第2の実施の形態においては、領域指定処理を行う際に図16乃至図17について上述した領域抽出処理ルーチンSRT51で説明した種々の抽出処理用命令C50を入力し得るようにした場合について述べたが、本発明はこれに限らず、これら各種抽出処理用命令C50の他に一つ前の処理に戻る、いわゆるアンドゥ(undo)等のように、他の種々の命令も抽出処理用命令として入力し得るようにしても良い。 Furthermore, in the second embodiment described above, when the region designation processing is performed, various extraction processing instructions C50 described in the region extraction processing routine SRT51 described above with reference to FIGS. 16 to 17 can be input. However, the present invention is not limited to this, and in addition to these various extraction processing instructions C50, other various instructions such as so-called “undo” that return to the previous processing are also used for extraction processing. It may be possible to input as a command.
さらに上述した第2の実施の形態においては、啓発対象ユーザに対して、選択した領域抽出手法としての一連の領域抽出処理用画面を実際に行われた領域抽出操作の時間経過に合わせて再生して提示するようにした場合について述べたが、本発明はこれに限らず、一連の領域指定処理用画面に対する時間的な表示順序を表す情報を予め記録しておき、啓発対象ユーザに切換要求に応じて個々の領域抽出処理用画面を順次切り換えて提示するようにしても良い。 Furthermore, in the second embodiment described above, a series of region extraction processing screens as the selected region extraction method are reproduced for the enlightenment target user in accordance with the time lapse of the region extraction operation actually performed. However, the present invention is not limited to this, and information indicating a temporal display order for a series of area designation processing screens is recorded in advance, and a change request is made to the enlightenment target user. Accordingly, the individual region extraction processing screens may be sequentially switched and presented.
(3)第3の実施の形態
図32において、100は全体として第3の実施の形態による情報処理装置を示し、複数のユーザに、所定の画像生成プログラムに従ってオブジェクトに対する輪郭抽出操作の試行用に生成された動画像(以下、これを輪郭抽出試行用動画像と呼ぶ)中のオブジェクト(以下、これを特に試行用オブジェクトと呼ぶ)の輪郭に対して輪郭抽出操作を試行させ、その結果得られた試行結果を蓄積する。
(3) Third Embodiment In FIG. 32, 100 indicates an information processing apparatus according to the third embodiment as a whole, and allows a plurality of users to try a contour extraction operation on an object according to a predetermined image generation program. A contour extraction operation is attempted on the contour of an object (hereinafter referred to as a trial object in the following) in the generated moving image (hereinafter referred to as a contour extraction trial moving image). Accumulate trial results.
また、情報処理装置100は、実際にユーザによって行われる輪郭抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトの輪郭を抽出する輪郭抽出処理を行う場合、当該輪郭抽出処理の間、ユーザによって入力される各種命令に応じて適宜表示内容を変更して表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯(すなわちオブジェクト輪郭用動画像からオブジェクトの輪郭を抽出するユーザの輪郭抽出手法)を表す輪郭抽出経緯画面データとして蓄積する。
Further, when performing the contour extraction process for extracting the contour of the object to be extracted from the object extraction moving image in accordance with the contour extraction operation actually performed by the user, the
そして情報処理装置100は、個々のユーザによって輪郭抽出操作が行われる際、その輪郭抽出操作に先立って、他のユーザによりすでに行われた輪郭抽出操作で蓄積している輪郭抽出経緯画面データのうち試行結果に応じて、その時点で輪郭抽出操作を行うユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の輪郭抽出手法を向上させるために手助けになると思われる輪郭抽出経緯画面データを選択して提示することにより、啓発対象ユーザに対して自分の輪郭抽出手法の向上を促すようになされている。
When the contour extraction operation is performed by each user, the
実際上、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105から構成されている。
In practice, the
また輪郭生成部101は、図33に示すように、動画像入力回路110、動画像記録回路111、ユーザインターフェース回路112、変換回路113、輪郭線推測生成回路114、輪郭線記録回路115、輪郭線出力回路116及び技量判定回路117から構成されている。
As shown in FIG. 33, the
そして情報処理装置100は、先ず個々のユーザがオブジェクト抽出用動画像中の抽出対象のオブジェクトの輪郭をどの程度正確に指定するかを示す技量(この技量は輪郭抽出手法の評価値となる)と、当該輪郭を指定する際にどのような傾向を有しているかとを予め推測するために抽出対象のオブジェクトとは異なる輪郭抽出試行用動画像中の試行用オブジェクトの輪郭に対して試行的に輪郭抽出操作(以下、これを特に輪郭抽出試行操作と呼ぶ)を行わせ、その輪郭抽出試行操作に応じた輪郭抽出試行処理を実行する。
The
ここで情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出試行処理を実行するための各種処理を所定の輪郭抽出試行プログラムに従ってソフトウェア的に実現する。
Here, the
すなわち情報処理装置100は、図34に示すように、輪郭抽出試行プログラムに従って輪郭抽出試行処理手順RT100の開始ステップから入り、続くステップSP101へ移って試行モードへ移行する。
That is, as shown in FIG. 34, the
ステップSP101において情報処理装置100は、輪郭生成部101のユーザインターフェース回路112により、所定の操作部(図示せず)を介して入力されたユーザ名及びユーザIDからなるユーザ情報S100を取得し、次の技量判定処理ルーチンSRT200へ移る。
In step SP101, the
この際、情報処理装置100は、図35に示すように、技量判定処理ルーチンSRT200の開始ステップから入ってステップSP201へ移る。
At this time, as shown in FIG. 35, the
ステップSP201において情報処理装置100は、外部から供給された輪郭抽出試行用動画像データD100を輪郭生成部101の動画像入力回路110に取り込み、当該輪郭抽出試行用動画像データD100を構成するフレーム画像データ(以下、これを試行用フレーム画像データと呼ぶ)D100A単位で動画像記録回路111に記録する。
In step SP201, the
ここで輪郭抽出試行用動画像データD100に基づく輪郭抽出試行用動画像120は、図36に示すように、時間的に連続して試行用オブジェクトTJ1乃至TJ7を含む複数の試行用フレーム画像TF1乃至TF7(試行用フレーム画像データD100Aに相当)から構成されており、当該試行用オブジェクトTJ1乃至TJ7が時間の経過に従ってその形状を次第に変化させながら移動し、一般的な画像処理アプリケーションプログラムを利用した画像処理の実行によって、試行用オブジェクトTJ1乃至TJ7の輪郭を示す輪郭線(以下、これを計測基準輪郭線と呼ぶ)ROL1乃至ROL7を正確に認識させ得るように生成されている。
Here, as shown in FIG. 36, the contour extraction
そして情報処理装置100は、ユーザインターフェース回路112から輪郭抽出試行処理用画面データD101を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタ(図示せず)に輪郭抽出試行処理用画面データD101に基づいて、輪郭抽出試行用動画像120の画像表示領域等を有する輪郭抽出試行処理用画面(図示せず)を表示する。
Then, the
また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に試行用先頭フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用先頭フレーム画像データD100Aを選択して読み出し、当該試行用先頭フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105(図32)に送出する。
In addition, the
これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用先頭フレーム画像データD100Aに基づく試行用先頭フレーム画像TF1を表示し、かくして試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の形状をユーザに目視させる。
Thereby, the
この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行先頭入力輪郭線と呼ぶ)に相当する試行先頭入力輪郭線信号S101をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
In this state, the
情報処理装置100は、変換回路113により、試行先頭入力輪郭線信号S101を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行先頭入力輪郭線信号S101に相当する複数の試行先頭入力輪郭形成点を生成し、当該生成した複数の試行先頭入力輪郭形成点の集合データを試行先頭入力輪郭形成点群データD102として輪郭線推測生成回路114に送出して次のステップSP202へ移る。
The
ステップSP202において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の試行用フレーム画像データ(以下、これを特に試行用最後尾フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用最後尾フレーム画像データD100Aを選択して読み出し、当該試行用最後尾フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用最後尾フレーム画像データD100Aに基づく試行用最後尾フレーム画像TF7を表示し、かくして当該試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の形状をユーザに目視させる。
In step SP202, the
この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の輪郭がなぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行最後尾入力輪郭線と呼ぶ)に相当する試行最後尾入力輪郭線信号S102をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
In this state, the
そして情報処理装置100は、変換回路113により、試行最後尾入力輪郭線信号S102を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行最後尾入力輪郭線信号S102に相当する複数の試行最後尾入力輪郭形成点を生成し、当該生成した複数の試行最後尾入力輪郭形成点の集合データを試行最後尾入力輪郭形成点群データD103として輪郭線推測生成回路114に送出して次の推測輪郭線生成処理ルーチンSRT300へ移る。
Then, the
情報処理装置100は、図37に示すように、推測輪郭線生成処理ルーチンSRT300の開始ステップから入って次のステップSP301に移る。
As shown in FIG. 37, the
ここで試行用オブジェクトTJ1乃至TJ7は、時間的に連続する試行用フレーム画像TF1乃至TF7中にその形状を次第に変化させながら移動していることから(図36)、図38に示すように試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLを同一フレーム画像上で示した場合、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnIT24との各位置はそれぞれ異なる。 Here, since the trial objects TJ1 to TJ7 are moved while gradually changing their shapes in the trial frame images TF1 to TF7 that are temporally continuous (FIG. 36), the trial heads as shown in FIG. When the input contour line StTL and the trial tail input contour line EnTL are shown on the same frame image, the positions of the trial head input contour formation points StTP1 to StTP20 and the trial tail input contour formation points EnTP1 to EnIT24 are different from each other.
また試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLにおいては、試行先頭入力輪郭形成点StTP1乃至StTP20及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24を生成する際のサンプリング間隔が同じであるのに、試行用オブジェクトTJ1及びTJ7をユーザがそれぞれマウス等を介してなぞるときの描線速度や、試行用オブジェクトTJ1及びTJ7の輪郭の大きさ及び形状が異なることから、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との総数がそれぞれ異なるものとなる。 In the trial head input contour StTL and the trial tail input contour EnTL, the sampling intervals for generating the trial head input contour forming points StTP1 to StTP20 and the trial tail input contour forming points EnTP1 to EnTP24 are the same. Further, since the drawing speed when the user traces the trial objects TJ1 and TJ7 through the mouse or the like and the size and shape of the outlines of the trial objects TJ1 and TJ7 are different, the trial head input contour forming points StTP1 to StTP1 The total number of the StTP 20 and the trial last input contour forming points EnTP1 to EnTP24 is different.
従ってステップSP301において情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103に基づいて、試行先頭入力輪郭線StTLを構成する試行先頭入力輪郭形成点StTP1乃至StTP20の総数(以下、これを試行先頭形成点数と呼ぶ)と、試行最後尾入力輪郭線EnTLを構成する試行最後尾入力輪郭形成点EnTP1乃至EnTP24の総数(以下、これを試行最後尾形成点数と呼ぶ)とを比較する。
Therefore, in step SP301, the
この結果、情報処理装置100は、輪郭線推測生成回路114により、比較した試行先頭形成点数及び試行最後尾形成点数同士のうち数が少ない試行先頭形成点数の試行先頭入力輪郭形成点StTP1乃至StTP20で構成される試行先頭入力輪郭線StTLにおいて、互いに隣接する各試行先頭入力輪郭形成点StTP1乃至StTP20間の距離から当該試行先頭入力輪郭線StTLの全長を算出する。
As a result, the
そして情報処理装置100は、輪郭線推測生成回路114により、その算出した全長を数の多い試行最後尾形成点数で除算することにより、試行先頭入力輪郭線StTL上でこれを構成する新たな輪郭形成点(以下、これを新規輪郭形成点と呼ぶ)を生成するための生成間隔を求める。
Then, the
これにより情報処理装置100は、図39に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL上で生成間隔NK毎に順次新規輪郭形成点NSTP1乃至NSTP24を生成し、試行先頭入力輪郭線StTLを構成する新規輪郭形成点NSTP1乃至NSTP24の総数を試行最後尾形成点数に合わせてステップSP302へ移る。
As a result, as shown in FIG. 39, the
ステップSP302において情報処理装置100は、輪郭線推測生成回路114により、図40(A)に示すように、試行先頭入力輪郭線StTLの重心StTC(座標値)と試行最後尾入力輪郭線EnTLの重心EnTCとを算出し、図40(B)に示すように、例えば試行先頭入力輪郭線StTLを、互いの重心StTC及びEnTC間の重心移動距離Lだけ一方の重心StTCから他方の重心EnTCの方向へ移動させることにより互いの重心StTC及びEnTC同士を一致させて試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLとを重ね合わせる。
In step SP302, the
この状態で情報処理装置100は、図41に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTLを構成している複数の新規輪郭形成点NSTP1乃至NSTP24のうち任意の新規輪郭形成点NSTP1を選択した後、当該選択した新規輪郭形成点NSTP1から最短距離にある試行最後尾入力輪郭形成点EnTP1を探索し、これら最短距離の関係にある新規輪郭形成点NSTP1と試行最後尾入力輪郭形成点EnTP1との間の輪郭線間距離Da1を算出する。
In this state, the
このようにして情報処理装置100は、輪郭線推測生成回路114により、残りの新規輪郭形成点NSTP2乃至NSTP24に対してもそれぞれ最短距離にある試行最後尾入力輪郭形成点EnTP2乃至EnTP24を探索して同様に輪郭線間距離Da2乃至Da24 を算出した後、最も短い輪郭線間距離(ここでは輪郭線間距離Da1)の関係にある試行最後尾入力輪郭形成点EnTP1と新規輪郭形成点NSTP1とを起点ペアSPP1と決定して次のステップSP303へ移る。
In this way, the
ステップSP303において情報処理装置100は、輪郭線推測生成回路114により、図42(A)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて例えば矢印ArwS1に示す反時計回り方向(以下、これを基準方向と呼ぶ)の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwO1に示す反時計回り方向(以下、これを順回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP2乃至EnTP24をそれぞれ順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP2間、新規輪郭形成点NSTP3及び試行最後尾入力輪郭形成点StTP3間、……の距離をそれぞれ順回りペア間距離ODa2乃至ODa24 として算出する。
In step SP303, the
また情報処理装置100は、輪郭線推測生成回路114により、図42(B)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて基準方向の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwR1に示す時計回り方向(以下、これを逆回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP24乃至EnTP2を順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP24間、新規輪郭形成点NSTP3及び試行先頭入力輪郭形成点StTP23間、……の距離をそれぞれ逆回りペア間距離RDa2乃至RDa24 として算出する。
Further, as shown in FIG. 42 (B), the
そして情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 の総和と逆回りペア間距離RDa2乃至RDa24 の総和とを算出し、当該算出した総和同士を比較する。
Then, the
ここで新規輪郭形成点NSTP1乃至NSTP24と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との対応付けについて考えると、新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24にほぼ正しく対応付けられれば、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24間の順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的小さくなる。 Considering the association between the new contour forming points NSTP1 to NSTP24 and the trial last input contour forming points EnTP1 to EnTP24, the new contour forming points NSTP1 to NSTP24 are the trial first frame image TF1 and the trial last frame image TF7. If they are almost correctly associated with the previous trial tail contour forming points EnTP1 to EnTP24 that have moved through the plurality of trial frame images TF2 to TF6, the new contour forming points NSTP1 to NSTP24 and the trial tail contours that are associated with each other The sum of the forward pair-to-pair distances Oda2 to Oda24 between the formation points EnTP1 to EnTP24 or the reverse pair-to-pair distances RDA2 to RDA24 is relatively small.
これに対して新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24に正しく対応付けられずに異なる他の試行最後尾輪郭形成点EnTP1乃至EnTP24に対応付けられると、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24の位置関係が本来のものとは異なることにより順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的大きくなる。 On the other hand, the new trial contour formation points EnTP1 to which the new contour formation points NSTP1 to NSTP24 have moved through the plurality of trial frame images TF2 to TF6 between the trial first frame image TF1 and the trial last frame image TF7. If they are associated with other trial end contour forming points EnTP1 to EnTP24 that are not correctly associated with EnTP24 but are associated with different trial final contour forming points EnTP1 to EnTP24, the positions of these associated new contour forming points NSTP1 to NSTP24 and trial tail contour forming points EnTP1 to EnTP24 Since the relationship is different from the original one, the total sum of the forward pair-to-pair distances Oda2 to Oda24 or the reverse pair-to-pair distances RDA2 to RDA24 becomes relatively large.
従って情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和のうち当該総和が小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を、各新規輪郭形成点NSTP2乃至NSTP24と、これらが移動した先の試行最後尾入力輪郭形成点EnTP2乃至EnTP24とのほぼ正しい対応付けであると推測して選択し、次のステップSP304へ移る。
Accordingly, the
ステップSP304において情報処理装置100は、輪郭線推測生成回路114により、図43に示すように輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1と試行用最後尾フレーム画像TF7とを除いた試行用フレーム画像(以下、これを特に試行用中間フレーム画像と呼ぶ)TF2乃至TF6の総数で順回りペア間距離ODa2、ODa3、……をそれぞれ除算することにより順番に対応付けた新規輪郭形成点NSTP2乃至NSTP24及び試行最後尾入力輪郭形成点EnTP2乃至EnTP24同士を結ぶ対応付け点間仮想線上で点形成間隔DDa2、DDa3、DDa4、……を求める。
In step SP304, the
そして情報処理装置100は、輪郭線推測生成回路114により、各対応付け点間仮想線上でそれぞれ点形成間隔DDa2、DDa3、DDa4、……毎に試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa2乃至IPe2、IPa3乃至IPe3、IPa4乃至IPe4、……を生成する。
Then, the
また情報処理装置100は、起点ペアSPP1に対しても、新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1間の起点ペア間距離ODa1を試行用中間フレーム画像TF2乃至TF6の総数によって除算することにより新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1同士を結ぶ起点間仮想線上で点形成間隔DDa1を求め、当該起点間仮想線上で試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa1乃至IPe1を生成し、次のステップSP305へ移る。
The
ステップSP305において情報処理装置100は、輪郭線推測生成回路114により、起点間仮想線及び対応付け点間仮想線上の試行推測輪郭形成点IPa1乃至IPe1、IPa2乃至IPe2、……のうち新規輪郭形成点NSTP1乃至NSTP24から同一の順番にある試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、IPc1乃至IPc24 、IPd1乃至IPd24 及びIPe1乃至IPe24 間をそれぞれ補間することにより各試行用中間フレーム画像TF2乃至TF6に対する試行推測輪郭線ITLA1乃至ITLA5を生成する。
In step SP305, the
そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5の重心(座標値)を算出する。
Then, the
ここで試行先頭入力輪郭線StTLの重心StTCは、試行用先頭フレーム画像TF1から試行用最後尾フレーム画像TF7までの間に重心移動距離L1(図40(A))だけ移動し、試行用最後尾フレーム画像TF7において試行最後尾入力輪郭線EnTLの重心EnTCの位置(座標値)に到達したと推測される。 Here, the center of gravity StTC of the trial head input contour StTL is moved by the center of gravity moving distance L1 (FIG. 40A) from the trial head frame image TF1 to the trial tail frame image TF7, and the trial tail tail. It is estimated that the position (coordinate value) of the center of gravity EnTC of the trial last input contour line EnTL in the frame image TF7 has been reached.
従って情報処理装置100は、図44に示すように、輪郭線推測生成回路114により、重心移動距離L1を試行用中間フレーム画像F2乃至F6の総数で除算することにより、試行先頭入力輪郭線StTLの重心StTC及び試行最後尾入力輪郭線EnTLの重心EnTC同士を結ぶ重心間仮想線上で当該試行先頭入力輪郭線StTLの重心StTCに対する試行用中間フレーム画像F2乃至F6での移動位置(すなわち重心間隔TK毎の位置であり、以下、これを推測重心位置と呼ぶ)TO1乃至TO5(座標値)を算出する。
Therefore, as shown in FIG. 44, the
そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5をその順番を維持した状態で試行先頭入力輪郭線StTLの重心StTCから試行最後尾入力輪郭線EnTLの重心EnTCの方向へ移動させ、これら各試行推測輪郭線ITLA1乃至ITLA5の各重心をそれぞれ重心間仮想線上の推測重心位置TO1乃至TO5に順番に一致(すなわち試行推測輪郭線ITLA1の重心は重心推測位置TO1に一致)させることにより、これら各試行推測輪郭線ITLA1乃至ITLA5をそれぞれ試行用中間フレーム画像TF2乃至TF6に対応付ける。
The
これに加えて情報処理装置100は、輪郭線推測生成回路114により、試行推測輪郭線ITLA1乃至ITLA5を構成する複数の試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、……、IPe1乃至IPe24 (対応する試行用中間フレーム画像TF2乃至TF6中の座標で表す)の集合データでなる試行推測輪郭形成点群データを、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103と共に、試行用オブジェクト輪郭抽出データD104として輪郭線記録回路115に送出して記録した後、推測輪郭線生成処理ルーチンSRT300を終了して技量判定処理ルーチンRT200のステップSP203(図35)へ移る。
In addition, the
このようにして情報処理装置100は、輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7の輪郭がなぞられて指定されることにより得られた試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLから、各試行用中間フレーム画像TF2乃至TF6中のオブジェクトTJ2乃至TJ6の輪郭を抽出するための試行推測輪郭線TLA1乃至TLA5を推測して生成し得るようになされている。
In this way, the
ところで試行先頭入力輪郭形成点(新規輪郭形成点NSTP1乃至NSTP24)及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24は、試行用オブジェクトTJ7をユーザがなぞった方向に沿って順番に生成される。 Incidentally, the trial head input contour formation points (new contour formation points NSTP1 to NSTP24) and trial tail input contour formation points EnTP1 to EnTP24 are generated in order along the direction in which the user traces the trial object TJ7.
このため新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24において、これらを単にその生成の順番に従って対応付けると、試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの描画が互いに逆向き(すなわち試行用オブジェクトTJ1とTJ7とをなぞった方向が逆向き)の場合、これら試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの間の試行推測輪郭線TLA1乃至TLA5が一度反転するように(すなわち裏返しになるように)生成させる。 Therefore, when the new contour forming points NSTP1 to NSTP24 and the trial final contour forming points EnTP1 to EnTP24 are simply associated according to the generation order, the trial leading input contour StTL and the trial final input contour EnTL are drawn with each other. In the reverse direction (that is, the direction traced by the trial objects TJ1 and TJ7 is reversed), the trial estimated contour lines TLA1 to TLA5 between the trial head input contour StTL and the trial last input contour EnTL are once reversed. To be generated (ie flipped inside out).
しかしながら情報処理装置100では、上述したように順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和の小さい一方の対応付けを選択することにより、試行用オブジェクトTJ1及びTJ7のなぞられる方向にかかわらずに各新規輪郭形成点NSTP2乃至NSTP24と試行最後尾輪郭形成点EnTP1乃至EnTP24とをほぼ正しく対応付けて試行推測輪郭線ITLA1乃至ITLA5が反転することを防止して対応付けることができる。
However, in the
ステップSP203において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から試行用オブジェクト輪郭抽出データD104を読み出すと共に、動画像記録回路111から全ての試行用フレーム画像データD100Aを読み出し、当該試行用フレーム画像データD100Aを試行用オブジェクト輪郭抽出データD104と合成することにより試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。
In step SP203, the
これにより情報処理装置100は、図45に示すように、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLと試行推測輪郭線TLA1乃至TLA5とを重ねて表示してユーザに目視させる。
Thus, as shown in FIG. 45, the
また情報処理装置100は、技量判定回路117により、輪郭抽出試行処理用画面データD101に基づいて試行先頭入力輪郭線StTL、試行推測輪郭線TLA1乃至TLA5及び試行最後尾入力輪郭線EnTLとそれぞれ対応する試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の計測基準輪郭線ROL1乃至ROL7との平均誤差量を算出し、次のステップSP204へ移る。
In addition, the
ここで例えば計測基準輪郭線ROL1と試行先頭入力輪郭線StTLとの平均誤差量とは、当該計測基準輪郭線ROL1の各箇所と試行先頭入力輪郭線StTLの対応する各箇所との誤差を平均化した数値であり、試行先頭入力輪郭線StTLがその一周に渡り計測基準輪郭線ROL1に対して平均的にどの程度ずれているかを表すものである。 Here, for example, the average error amount between the measurement reference contour line ROL1 and the trial head input contour line StTL is an average of errors between the respective parts of the measurement reference contour line ROL1 and the corresponding parts of the trial head input contour line StTL. This represents the average deviation of the trial head input contour StTL from the measurement reference contour ROL1 over the entire circumference.
ステップSP204において情報処理装置100は、技量判定回路117により、試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7の全てにおいて平均誤差量が所定の閾値以下に達したか否かを判断する。
In step SP204, the
このステップSP204において否定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7のうち少なくともいずれか一つにおいて平均誤差量が所定の閾値以下に達していないことを表しており、このとき情報処理装置100は、続くステップSP205へ移る。
If a negative result is obtained in step SP204, this means that the average error amount is predetermined in at least one of the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image TF7. In this case, the
ステップSP205において情報処理装置100は、技量判定回路117により、入力輪郭要求データD105を生成し、これをユーザインターフェース回路112へ送出する。
In step SP <b> 205, the
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出試行操作中のユーザに輪郭抽出試行処理用画面を介して、複数の試行用中間フレーム画像TF2乃至TF6のうち任意の試行用中間フレーム画像TF2乃至TF6で試行用オブジェクトTJ2乃至TJ6の輪郭を指定するように要求する。
Thus, the
そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111から試行用中間フレーム画像データD100Aを読み出し、これを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面の画像表示領域に試行用中間フレーム画像データD100Aに基づく試行用中間フレーム画像TF2乃至TF6を表示してユーザに目視させる。
Then, the
この状態で情報処理装置100は、ユーザにより操作部を介して各試行用中間フレーム画像TF2乃至TF6のうち輪郭指定用に任意に選択された1枚の試行用中間フレーム画像TF2、……、又はTF6中の試行用オブジェクトTJ2、……、又はTJ6をなぞらせて指定させる。
In this state, the
この結果、情報処理装置100は、ユーザにより選択された試行用中間フレーム画像TF4中の試行用オブジェクトTJ4が任意になぞられて指定されることにより追加の入力輪郭線(以下、これを試行追加入力輪郭線と呼ぶ)に相当する試行追加入力輪郭線信号S103が入力されると、これをユーザインターフェース回路112に取り込んで推測輪郭線生成処理ルーチンSRT300へ戻る。
As a result, the
この場合、情報処理装置100は、試行用中間フレーム画像TF4中の試行用オブジェクトTJ4がなぞられて指定されると、この結果得られた追加入力輪郭線信号S103を変換回路113により所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより当該追加入力輪郭線信号S103に相当する複数の追加入力輪郭形成点を生成し、当該生成した複数の追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD106として輪郭線推測生成回路114へ送出する。
In this case, when the trial object TJ4 in the trial intermediate frame image TF4 is traced and specified, the
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からこれに記録している試行用オブジェクト輪郭抽出データD104を読み出し、試行追加入力輪郭線と当該試行用オブジェクト輪郭抽出データD104に含まれる試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLとを用いて上述した推測輪郭線生成処理を行う。
Then, the
これにより情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL及び試行追加入力輪郭線から試行用先頭フレーム画像TF1及び試行用中間フレーム画像TF4間の試行用中間フレーム画像TF2及びTF3中のオブジェクトTJ2及びTJ3の輪郭を抽出するための試行推測輪郭線TLB1及びTLB2を新たに推測して生成する。
Accordingly, the
また情報処理装置100は、輪郭線推測生成回路114により、試行追加入力輪郭線及び試行最後尾入力輪郭線EnTLから試行用中間フレーム画像TF4及び試行用最後尾フレーム画像TF7間の試行用中間フレーム画像TF5及びTF6中のオブジェクトTJ5及びTJ6の輪郭を抽出するための試行推測輪郭線TLB4及びTLB5を新たに推測して生成する。
In addition, the
このようにして情報処理装置100は、ステップSP204において肯定結果が得られるまでの間は、新たに試行用中間フレーム画像TF2乃至TF6を選択させてオブジェクトTJ2乃至TJ6の輪郭を指定させることにより試行追加入力輪郭線を得ると共に、当該試行追加入力輪郭線と、その前後の入力輪郭線(試行先頭入力輪郭線StTL、試行最後尾入力輪郭線EnTL又は他の試行追加入力輪郭線)とから新たな試行推測輪郭線を推測し直して生成することにより平均誤差量を小さくし、かくして生成した新たな試行用オブジェクト輪郭抽出データD104を輪郭線記録回路115に記録して更新する。
In this way, the
この際、情報処理装置100は、新たな試行推測輪郭線を生成する毎にユーザインターフェース回路112により、輪郭線記録回路115から新たな試行用オブジェクト輪郭抽出データD104を読み出し、当該新たな試行用オブジェクト輪郭抽出データD104と試行用フレーム画像データD100Aとを合成して試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。
At this time, the
これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと、試行最後尾入力輪郭線EnTLと、新たに生成した試行推測輪郭線とを重ねて表示してユーザに目視させる。
Thus, the
これに対してステップSP204において肯定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7(すなわち全ての試行用フレーム画像TF1乃至TF7)においてそれぞれ平均誤差量が所定の閾値以下に達していることを表しており、このとき情報処理装置100は、次のステップSP206へ移る。
On the other hand, if a positive result is obtained in step SP204, this means that the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image TF7 (that is, all the trial frame images TF1 to TF1 to TF7). TF7) indicates that the average error amount has reached a predetermined threshold value or less. At this time, the
ステップSP206において情報処理装置100は、技量判定回路117により、試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7においてそれぞれ平均誤差量が閾値以下になるまでに試行用オブジェクトTJ1乃至TJ7の輪郭がなぞられて指定された試行用フレーム画像(以下、これを入力フレーム画像と呼ぶ)の総数と、予め設定された所定のフレーム画像基準数とを比較する。
In step SP206, the
ここで輪郭抽出試行操作の技量が低いユーザは、平均誤差量が所定の閾値以下に達するまでに何度も試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定するように要求されることから、入力フレーム画像の総数が多くなる傾向にある。 Here, the user who has a low skill of the contour extraction trial operation, the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial last frame image are repeated many times until the average error amount reaches a predetermined threshold value or less. Since it is required to specify the contours of the trial objects TJ1 to TJ7 in TF7, the total number of input frame images tends to increase.
一方、輪郭抽出試行操作の技量が高いユーザは、何度も試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定しなくても平均誤差量が所定の閾値以下に達することから、入力フレーム画像の総数が少なくなる傾向にある。 On the other hand, a user who has a high skill in the contour extraction trial operation repeatedly shows the contours of the trial objects TJ1 to TJ7 in the trial first frame image TF1, the trial intermediate frame images TF2 to TF6, and the trial final frame image TF7. Even if not specified, the average error amount reaches a predetermined threshold value or less, so the total number of input frame images tends to decrease.
従って情報処理装置100は、入力フレーム画像の総数がフレーム画像基準数よりも少ない場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が高いと判定し、これに対して入力フレーム画像の総数がフレーム画像基準数よりも多い場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が低いと判定した後、その判定結果を入力フレーム画像の総数と共に技量データD107としてユーザインターフェース回路112に送出して技量判定処理ルーチンSRT200を終了し、続くステップSP102(図34)に移る。
Accordingly, when the total number of input frame images is smaller than the frame image reference number, the
ステップSP102において情報処理装置100は、ユーザインターフェース回路112により、技量判定処理の間、適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面をその技量判定処理(すなわちユーザによる輪郭抽出試行操作)に要した時間(以下、これを作業時間と呼ぶ)等の情報を共に、輪郭抽出経緯画面データ(以下、これを特に輪郭抽出試行経緯画面データと呼ぶ)とし、図46に示すように、その輪郭抽出試行経緯画面データと、技量データD107と、輪郭抽出試行用動画像データD100と、ユーザ情報S100とからなる入力情報を入力情報データD108として処理傾向情報抽出部102に送出して次のステップSP103へ移る。
In step SP102, the
ステップSP103において情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行用動画像データD100に所定の画像処理を施すことにより、当該輪郭抽出試行用動画像データD100から試行用フレーム画像データD100A個別の又は全ての試行用フレーム画像データD100Aにおける平均的な色成分ヒストグラム及びエッジ成分比率とからなる画像特徴情報を抽出する。
In step SP103, the
また情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行経緯画面データに対して所定の画像処理を施すことにより、輪郭抽出試行操作に要した作業時間と、入力フレーム画像中の試行用オブジェクトTJ1乃至TJ7の輪郭が指定されたときの輪郭描線時間と、試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7を一度指定した後に、改めて入力フレーム画像中の試行用オブジェクトの指定を行った回数(以下、これを訂正回数と呼ぶ)と、入力フレーム画像を決定するために前後の試行用フレーム画像TF1乃至TF7をモニタに何回表示したかを表す表示回数とを輪郭抽出経緯情報として抽出する。
In addition, the
このようにして情報処理装置100は、処理傾向情報抽出部102により、図47に示すように、入力情報から抽出した画像特徴情報と輪郭抽出経緯情報とをユーザによりどのような輪郭抽出試行用動画像120からどのように試行用オブジェクトTJ1乃至TJ7の輪郭が抽出されたかを示す処理傾向情報とする。
In this way, the
そして情報処理装置100は、処理傾向情報抽出部102により、入力情報から抽出した処理傾向情報を処理傾向情報データとし、当該処理傾向情報データ及び入力情報データD108を対応付けて、これを蓄積情報データD109として情報蓄積部103に送出した後、次のステップSP104へ移る。
The
これによりステップSP104において情報処理装置100は、情報蓄積部103により、図48に示すように、複数のユーザの蓄積情報データD109をこれに入力情報の技量データD107として含まれる入力フレーム画像の総数が少ない順に並べて、フレーム画像基準数Bor1を基に技量の高いユーザの蓄積情報データD109と、技量の低いユーザの蓄積情報データD109とを区分した状態で記憶してデータベース化し、続くステップSP105へ移って輪郭抽出試行処理手順RT100を終了する。
Accordingly, in step SP104, the
このようにして情報処理装置100は、実際に抽出対象のオブジェクトを含むオブジェクト抽出用動画像に対して輪郭抽出操作が行われる前に輪郭抽出試行操作の結果を基にユーザの輪郭抽出操作に対する技量や輪郭抽出傾向(すなわち処理傾向情報で表される傾向)を推測し、これを蓄積情報データD109として情報蓄積部103に記憶する。
In this way, the
因みに情報処理装置100では、一度輪郭抽出試行操作を行ったユーザであっても所定期間以上、抽出対象のオブジェクトに対して輪郭抽出操作を行わなければ、再度輪郭抽出試行操作を行わせてユーザの輪郭抽出操作に対する技量及び輪郭抽出傾向の推測結果を更新し、これによりユーザの技量を常時適確に把握し得るようになされている。
Incidentally, in the
次いで情報処理装置100は、輪郭抽出試行操作を行った啓発対象ユーザによりオブジェクト抽出用動画像に対して輪郭抽出操作が行われる際、当該啓発対象ユーザに他のユーザが輪郭抽出操作を行ったときの一連の輪郭抽出処理用画面を提示する。
Next, when the contour extraction operation is performed on the object extraction moving image by the enlightenment target user who performed the contour extraction trial operation, the
この場合、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において情報提示処理を実行するための各種処理を所定の情報提示プログラムに従ってソフトウェア的に実現する。
In this case, the
すなわち情報処理装置100は、図49に示すように、情報提示処理プログラムに従って情報提示処理手順RT101の開始ステップから入り、続くステップSP110へ移って情報提示モードへ移行する。
That is, as shown in FIG. 49, the
ステップSP110において情報処理装置100は、外部から供給されたオブジェクト抽出用動画像データD200を輪郭生成部101の動画像入力回路110に取り込み、当該オブジェクト抽出用動画像データD200を構成するフレーム画像データ(以下、これを輪郭抽出用フレーム画像データと呼ぶ)D200A単位で動画像記録回路111に記録する。
In step SP110, the
ここでオブジェクト抽出用動画像データD200に基づくオブジェクト抽出用動画像200は、図50に示すように、時間的に連続して抽出対象のオブジェクトOJ1乃至OJnを含む複数の輪郭抽出用フレーム画像OF1乃至OFnから構成されており、当該輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnが時間の経過に従ってその形状を次第に変化させながら移動する。
Here, as shown in FIG. 50, the object
そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aを順次読み出して情報提示部105に送出することにより当該情報提示部105に設けられたモニタに時間的に連続する輪郭抽出用フレーム画像OF1乃至OFnでなるオブジェクト抽出用動画像200を表示して啓発対象ユーザに目視させることにより当該オブジェクト抽出用動画像200の内容及び抽出対象のオブジェクトOJ1乃至OJnの輪郭を確認させて、続くステップSP111へ移る。
Then, the
ステップSP111において情報処理装置100は、啓発対象ユーザにより操作部(図示せず)を介して入力されたユーザ名及びユーザIDとからなるユーザ情報S100を輪郭生成部101のユーザインターフェース回路112に取り込み、これを処理傾向情報抽出部102を介して提示情報選択部104に送出して続くステップSP112へ移る。
In step SP111, the
ステップSP112において情報処理装置100は、提示情報選択部104により、情報蓄積部103からユーザ情報S100(ユーザ名及びユーザID)に基づいて啓発対象ユーザの蓄積情報データD109を読み出し、次のステップSP113へ移る。
In step SP112, the
ステップSP113において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に処理傾向情報データとして含まれる輪郭抽出経緯情報(以下、これを比較用基準抽出経緯情報と呼ぶ)と、情報蓄積部103に記憶した啓発対象ユーザの蓄積情報データD109を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これを過去蓄積情報データと呼ぶ)D109に処理傾向情報データ(以下、これを過去処理傾向情報データと呼ぶ)として含まれる輪郭抽出経緯情報(以下、これを過去抽出経緯情報と呼ぶ)とを比較する。
In step SP113, the
実際上、情報処理装置100は、提示情報選択部104により、比較用基準抽出経緯情報に含まれる作業時間(以下、これを比較用基準作業時間と呼ぶ)、輪郭描線時間(以下、これを比較用基準描線時間と呼ぶ)、訂正回数(以下、これを比較用基準訂正回数と呼ぶ)及び表示回数(以下、これを比較用基準表示回数と呼ぶ)と、過去抽出経緯情報に含まれる作業時間(以下、これを過去作業時間と呼ぶ)、輪郭描線時間(以下、これを過去描線時間と呼ぶ)、訂正回数(以下、これを過去訂正回数と呼ぶ)及び表示回数(以下、これを過去表示回数と呼ぶ)とを比較する。
In practice, the
この状態で情報処理装置100は、提示情報選択部104により、過去蓄積情報データD109の中から比較用基準作業時間の値を中心とした所定の作業時間閾値範囲内の値を示す過去作業時間と、比較用基準描線時間の値を中心とした所定の描線時間閾値範囲内の値を示す過去描線時間と、比較用基準訂正回数の値を中心とした所定の訂正回数閾値範囲内の値を示す過去訂正回数と、比較用基準表示回数の値を中心とした所定の表示回数閾値範囲内の値を示す過去表示回数とを過去抽出経緯情報として含む過去蓄積情報データD109を選択することにより、選択対象の過去蓄積情報データD109の数を啓発対象ユーザと輪郭抽出手法の類似する輪郭抽出手法のユーザの過去蓄積情報データD109に限定して続くステップSP114へ移る。
In this state, the
ステップSP114において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に含まれる技量データD107に基づいて当該啓発対象ユーザの技量(フレーム画像基準数Bor1を基準として判断した技量)が低いか否かを判断する。
In step SP114, the
このステップSP114において肯定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY1を輪郭抽出操作に対して技量の低いユーザであると判定していることを表しており、このとき情報処理装置100は、次のステップSP115へ移る。
If an affirmative result is obtained in step SP114, this means that the enlightenment target user Y1 is determined to be a user having a low skill with respect to the contour extraction operation based on the result of the contour extraction trial operation, as shown in FIG. In this case, the
ステップSP115において情報処理装置100は、提示情報選択部104により、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が高いと判定したユーザY2の過去蓄積情報データD109を最終的に選択する。
In step SP115, the
これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から最終的に選択した最も技量の高いユーザY2の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の高いユーザY2により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の高いユーザY2の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出して続くステップSP116へ移る。
Thereby, the
ここで輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面は、過去にユーザによって輪郭抽出操作が行われた際に情報提示部105のモニタに表示され、当該輪郭抽出操作に応じたオブジェクト抽出用動画像200の輪郭抽出用フレーム画像OF1乃至OFnの表示の仕方や、抽出対象のオブジェクトOJ1乃至OJnの指定の仕方等のように、抽出対象のオブジェクトOJ1乃至OJnの輪郭の抽出に対する一連の経緯を表している。
Here, a series of contour extraction processing screens based on the contour extraction history screen data D111 are displayed on the monitor of the
ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面と、当該ユーザY2の技量の情報とを情報提示部105に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示し、続くステップSP118に移って情報提示処理手順RT101を終了する。
In step SP116, the
これに対してステップSP114において否定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY3を技量の高いユーザであると判定していることを表しており、このとき情報処理装置100は、ステップSP117へ移る。
On the other hand, if a negative result is obtained in step SP114, this means that the enlightenment target user Y3 is determined to be a highly skilled user based on the result of the contour extraction trial operation, as shown in FIG. At this time, the
ステップSP117において情報処理装置100は、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が低いと判定したユーザY4の過去蓄積情報データD109を最終的に選択する。
In step SP117, the
これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から、最終的に選択した最も技量の低いユーザY4の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の低いユーザY4により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の低いユーザY4の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出してステップSP116へ移る。
Thereby, the
この場合ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面とそのユーザY4の技量の情報とをモニタ及びスピーカを介して出力して啓発対象ユーザに提示した後、ステップSP118に移り情報提示処理手順RT101を終了する。
In this case, in step SP116, the
このようにして情報処理装置100は、図52に示すように、技量の低い啓発対象ユーザY1に対して、当該啓発対象ユーザY1の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の高いユーザY2の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点や、より良くするために真似るべき点等を気付かせて当該輪郭抽出操作の向上を促すようになされている。
In this way, as shown in FIG. 52, the
これに対して情報処理装置100は、技量の高い啓発対象ユーザY3に対して、当該啓発対象ユーザY3の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の低いユーザY4の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に反面教師的に啓発対象ユーザY3に対してその輪郭抽出手法と類似する、最も技量の低いユーザY4の輪郭抽出手法を誤って真似ることを防止して当該輪郭抽出操作の向上を促すようになされている。
On the other hand, the
そして情報処理装置100は、啓発対象ユーザに対するこのような提示情報の提示の際に事前にオブジェクト抽出用動画像200を啓発対象ユーザに提示していることにより、オブジェクト抽出用動画像200の内容と、他のユーザの輪郭抽出手法とを照らし合わさせることができ、かくして啓発対象ユーザに対して輪郭抽出操作の向上をさらに適確に促すことができるようになされている。
The
続いて情報処理装置100は、啓発対象ユーザに提示情報を提示した後、当該啓発対象ユーザによって行われるオブジェクト抽出用動画像200に対する輪郭抽出操作に応じて輪郭抽出処理を実行する。
Subsequently, after presenting the presentation information to the enlightenment target user, the
この際、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出処理を実行するための各種処理を所定の輪郭抽出処理プログラムに従ってソフトフェア的に実現する。
At this time, the
すなわち情報処理装置100は、図53に示すように、輪郭抽出処理プログラムに従って輪郭抽出処理手順RT102の開始ステップから入り、続くステップSP130へ移って情報提示モードから輪郭抽出処理モードへ移行する。
That is, as shown in FIG. 53, the
ステップSP130において情報処理装置100は、ユーザインターフェース回路112から輪郭抽出処理用画面データD120を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタに輪郭抽出処理用画面データD120に基づいて、オブジェクト抽出用動画像200の画像表示領域等を有する輪郭抽出処理用画面(図示せず)を表示する。
In step SP130, the
また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に輪郭抽出用先頭フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用先頭フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用先頭フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。
In addition, the
これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用先頭フレーム画像データD200Aに基づく輪郭抽出用先頭フレーム画像OF1を表示し、かくして輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の形状をユーザに目視させる。
As a result, the
この状態で情報処理装置100は、図54に示すように、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に先頭入力輪郭線と呼ぶ)に相当する先頭入力輪郭線信号S110をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
In this state, as illustrated in FIG. 54, the
情報処理装置100は、変換回路113により、先頭入力輪郭線信号S110を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該先頭入力輪郭線信号S110に相当する複数の先頭入力輪郭形成点を生成し、当該生成した複数の先頭入力輪郭形成点の集合データを先頭入力輪郭形成点群データD121として輪郭線推測生成回路114に送出し、続くステップSP131へ移る。
The
ステップSP131において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の輪郭抽出用フレーム画像データ(以下、これを特に輪郭抽出用最後尾フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用最後尾フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用最後尾フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。
In step SP131, the
これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用最後尾フレーム画像データD200Aに基づく輪郭抽出用最後尾フレーム画像OFnを表示し、かくして輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの形状をユーザに目視させる。
As a result, the
この状態で情報処理装置100は、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に最後尾入力輪郭線と呼ぶ)に相当する最後尾入力輪郭線信号S111をユーザインターフェース回路112に取り込んで変換回路113に送出する。
In this state, the
そして情報処理装置100は、変換回路113により、最後尾入力輪郭線信号S111を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該最後尾入力輪郭線信号S111に相当する複数の最後尾入力輪郭形成点を生成し、当該生成した複数の最後尾入力輪郭形成点の集合データを最後尾入力輪郭形成点群データD122として輪郭線推測生成回路114に送出し、続くステップSP132へ移る。
Then, the
ステップSP132において情報処理装置100は、輪郭生成部101により、図37について上述した推測輪郭線生成処理ルーチンSRT300と同様の処理を実行することにより、先頭入力輪郭線StOL及び最後尾入力輪郭線EnOLから、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn間の全ての輪郭抽出用フレーム画像(以下、これを輪郭抽出用中間フレーム画像と呼ぶ)OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭を抽出するための推測輪郭線を推測して生成する。因みに推測輪郭線は輪郭生成部101により、以下のように生成される。
In step SP132, the
すなわち輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLを構成する複数の先頭入力輪郭形成点の総数(以下、これを先頭形成点数と呼ぶ)と、最後尾入力輪郭線EnOLを構成する複数の最後尾入力輪郭形成点の総数(以下、これを最後尾形成点数と呼ぶ)とを比較し、数の少ない例えば先頭入力輪郭形成点で構成される先頭入力輪郭線StOLにおいて、互いに隣接する各先頭入力輪郭形成点間の距離から当該先頭入力輪郭線StOLの全長を算出する。
That is, the
そして輪郭生成部101は、輪郭線推測生成回路114により、その算出した全長を数の多い最後尾形成点数で除算することにより、先頭入力輪郭線StOL上でこれを構成する複数の新たな新規輪郭形成点を生成するための生成間隔を求め、当該生成間隔毎に順次新規輪郭形成点を生成することにより、先頭入力輪郭線StOLを構成する新規輪郭形成点の総数を最後尾形成点数に合わせる。
Then, the
次いで輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOC(座標値)と最後尾入力輪郭線EnOLの重心EnOC(座標値)とを算出し、図55(A)及び(B)に示すように、互いの重心StOC及びEnOC同士を一致させて先頭入力輪郭線StOLと最後尾入力輪郭線EnOLとを重ね合わせる。
Next, the
この状態で輪郭生成部101は、図56に示すように、輪郭線推測生成回路114により、各新規輪郭形成点NSOP1乃至NSOPnと、これらに対してそれぞれ最短距離の関係にある最後尾入力輪郭形成点EnOP1乃至EnOPnとの間の輪郭線間距離Db1、Db2、Db3、……、Dbnを算出し、当該算出した輪郭線間距離Db1、Db2、Db3、……、Dbnのうち最も短い輪郭線間距離(ここでは輪郭線間距離Db1)の関係にある最後尾入力輪郭形成点EnOP1と新規輪郭形成点NSOP1とを起点ペアSPP2と決定する。
In this state, as shown in FIG. 56, the
続いて輪郭生成部101は、輪郭線推測生成回路114により、図57(A)に示すように、起点ペアSPP2を起点とし、先頭入力輪郭線StOLにおいて例えば矢印ArwS2に示す反時計回り方向である基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwO2に示す反時計回り方向である順回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOP2間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOP3間、……の順回りペア間距離ODb2乃至ODbnを算出する。
Subsequently, the
また情報処理装置100は、輪郭線推測生成回路114により、図57(B)に示すように、起点ペアSPP2を起点として、先頭入力輪郭線StOLにおいて基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwS2に示す時計回り方向である逆回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOPn間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOPn−1間、……の逆回りペア間距離RDb2乃至RDbnを算出する。
Further, the
次いで輪郭生成部101は、輪郭線推測生成回路114により、順回りペア間距離ODb2乃至ODbnの総和と逆回りペア間距離RDb2乃至RDbnの総和とを算出した後、当該算出した総和同士を比較することにより総和の小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を選択する。
Next, the
そして輪郭生成部101は、輪郭線推測生成回路114により、図58に示すように、起点ペア間距離ODb1、順回りペア間距離ODb2、ODb3、……をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより起点ペアである新規輪郭形成点NSOP1及び最後尾入力輪郭形成点EnOP1同士を結ぶ起点間仮想線上と、順番に対応付けた新規輪郭形成点NSOP2乃至NSOPn及び最後尾入力輪郭形成点EnOP2乃至EnOPn同士を結ぶ対応付け点間仮想線上とでそれぞれ点形成間隔DDb1、DDb2、DDb3、……を求め、当該起点間仮想線上及び各対応付け点間仮想線上で点形成間隔DDb1、DDb2、DDb3、……毎に推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……を生成する。
Then, as shown in FIG. 58, the
輪郭生成部101は、輪郭線推測生成回路114により、起点間仮想線上及び各対応付け点間仮想線上の推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……のうち新規輪郭形成点NSOP1乃至NSOPnから同一の順番にある推測輪郭形成点OIPa1乃至OIPan間、OIPb1乃至OIPbn間、OIPc1乃至OIPcn間、……をそれぞれ補間することにより、各輪郭抽出用中間フレーム画像OF2乃至OFn−1に対する推測輪郭線OLA1乃至OLAn-2を生成する。
The
そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn-2の重心(座標値)を算出する。
Then, the
また輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOCと最後尾入力輪郭線EnOLの重心EnOCとの間の重心移動距離L2(図55)を輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより、これら互いの重心StOC及びEnOC同士を結ぶ重心間仮想線上で当該先頭入力輪郭線StOLの重心StOCに対する輪郭抽出用中間フレーム画像OF2乃至OFn−1での移動位置(すなわち推測重心位置)を算出する。
Further, the
そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn-2を、その順番を維持した状態で先頭入力輪郭線StOLの重心StOCから最後尾入力輪郭線EnOLの重心EnOCの方向に移動させ、これら推測輪郭線OLA1乃至OLAn-2の各重心をそれぞれ重心間仮想線上の推測重心位置に順番に一致させることにより、これら各推測輪郭線OLA1乃至OLAn-2をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1に対応付ける。
Then, the
このようにして情報処理装置100は、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJ1及びOJnの輪郭がなぞられて指定されることにより得られた先頭入力輪郭線StOLと最後尾入力輪郭線EnOLから各輪郭抽出中間フレーム画像F2乃至Fn−1中のオブジェクトOJ2乃至OJn−1を抽出するための推測輪郭線OLA1乃至OLAn-2を推測して生成する。
In this way, the
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLA1乃至OLAn-2を構成する複数の推測輪郭形成点OIPa1乃至OIPan、OIPb1乃至OIPbn、OIPc1乃至OIPcn、……(対応する輪郭抽出用中間フレーム画像OF2乃至OFn−1中の座標で表す)の集合データでなる推測輪郭形成点群データを、先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122と共に、オブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録し、続くステップSP133へ移る。
Then, the
ステップSP133において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から全ての輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aをオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
In step SP133, the
これにより情報処理装置100は、図59に示すように、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOL、推測輪郭線OLA1乃至OLAn-2及び最後尾入力輪郭線EnOLを重ねて表示して啓発対象ユーザに目視させ、続くステップSP134に移る。
As a result, the
ステップSP134において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたか否かを判断する。
In step SP134, the
このステップSP134において否定結果が得られると、このことは輪郭抽出処理用画面を介して推測輪郭線OLA1乃至OLAn-2を目視確認した啓発対象ユーザによって処理終了命令が入力されていないこと、すなわち輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得のできる精度で抽出されておらず、引き続き輪郭抽出操作が行われることを表しており、このとき情報処理装置100は、続くステップSP135へ移る。
If a negative result is obtained in this step SP134, this means that the processing end command has not been input by the enlightenment target user who visually confirmed the estimated contour lines OLA1 to OLAn-2 via the contour extraction processing screen, that is, the contour This means that the contours of the objects OJ2 to OJn-1 in the extraction intermediate frame images OF2 to OFn-1 are not extracted with sufficient accuracy that can be understood by the enlightenment target user, and the contour extraction operation continues. When this happens, the
ステップSP135において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって入力された輪郭指定用に輪郭抽出中間フレーム画像OF2乃至OFn−1の提示を要求する提示命令に応じて、動画像記録回路111から輪郭抽出用中間フレーム画像OF2乃至OFn−1に相当する輪郭抽出用フレーム画像データD200Aを読み出し、これを輪郭抽出処理用画面データD120に合成して情報提示部105に送出することにより、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用中間フレーム画像OF2乃至OFn−1を表示して啓発対象ユーザに目視させる。
In step SP135, the
このようにして情報処理装置100は、啓発対象ユーザに対して複数の輪郭抽出用中間フレーム画像OF2乃至OFn−1を視覚的に比較させながら新たにオブジェクトOJ2乃至OJn−1の輪郭を指定する輪郭抽出用中間フレーム画像OF2乃至OFn−1を選択させる。
In this way, the
この結果、情報処理装置100は、図60に示すように、啓発対象ユーザにより例えば輪郭抽出用中間フレーム画像OF12が選択され、その輪郭抽出用中間フレーム画像OF12中のオブジェクトOJ12の輪郭が任意になぞられることにより得られた追加の入力輪郭線(以下、これを追加入力輪郭線と呼ぶ)AL1に相当する追加入力輪郭線信号S120をユーザインターフェース回路112に取り込むと、ステップSP133に戻る。
As a result, as shown in FIG. 60, the
この場合、情報処理装置100は、ステップSP133において変換回路113により、追加入力輪郭線信号S120を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S120に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD124として輪郭線推測生成回路114へ送出する。
In this case, the
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122を取り出す。
Then, the
ここで情報処理装置100は、輪郭線推測生成回路114により、まず先頭入力輪郭形成点群データD121に相当する先頭入力輪郭線StOLと、追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1とから輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用中間フレーム画像OF12間の輪郭抽出用中間フレーム画像OF2乃至OF11中のオブジェクトOJ2乃至OJ11の輪郭を抽出するための推測輪郭線OLB1乃至OLB10 を新たに推測して生成する。
Here, the
また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL1と最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF13乃至OFn−1中のオブジェクトOJ13乃至OJn−1の輪郭を抽出するための推測輪郭線OLB12 乃至OLBn-2を新たに推測して生成する。
Further, the
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn-2をそれぞれ構成する複数の推測輪郭形成点群データを生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。
Then, the
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
Thus, the
この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1と新たな推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn-2とを重ねて表示してユーザに目視させる。
As a result, the
この状態で情報処理装置100は、ステップSP134において例えば再び否定結果が得られると、上述したステップSP135へ移って同様に輪郭指定用の輪郭抽出用フレーム画像OF1乃至OFnを選択させる。
In this state, if a negative result is obtained again in step SP134, for example, the
そして情報処理装置100は、啓発対象ユーザによって新たに輪郭抽出用中間フレーム画像OF22が選択(図60)され、当該輪郭抽出用中間フレーム画像OF22中のオブジェクトOJ22が任意になぞられることにより追加入力輪郭線信号S121が得られると、これをユーザインターフェース回路112に取り込んでステップSP132に戻る。
Then, the
この場合、情報処理装置100は、ステップSP132において、変換回路113により、追加入力輪郭線信号S121を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S121に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD125として輪郭線推測生成回路114へ送出する。
In this case, in step SP132, the
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から追加入力輪郭形成点群データD124及び最後尾入力輪郭形成点群データD122を取り出す。
Then, the
ここで情報処理装置100は、輪郭線推測生成回路114により、まず追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1と、追加入力輪郭形成点群データD125に相当する追加入力輪郭線AL2とから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用中間フレーム画像OF22間の輪郭抽出用中間フレーム画像OF13乃至OF21中のオブジェクトOJ13乃至OJ21の輪郭を抽出するための推測輪郭線OLC12 乃至OLC20 を推測し直して新たに生成する。
Here, the
また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL2と、最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF22及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF23乃至OFn−1中のオブジェクトOJ23乃至OJn−1の輪郭を抽出するための推測輪郭線OLC22 乃至OLCn-2を推測し直して新たに生成する。
In addition, the
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn-2をそれぞれ構成する複数の推測輪郭形成点群データを新たに生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124及びD125とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。
Then, the
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
Thus, the
この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1及びAL2と推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn-2とを重ねて表示してユーザに目視させる。
As a result, the
このようにして情報処理装置100は、ステップSP134において肯定結果が得られるまでの間はステップSP135−ステップSP132−ステップSP133−ステップSP134の処理を繰り返す。
In this way, the
従って情報処理装置1は、啓発対象ユーザによってオブジェクトOJ1乃至OJnに輪郭が指定されることにより1度は推測輪郭線を生成しても、新たにオブジェクトOJ1乃至OJnの輪郭が指定されると、その都度、輪郭の指定結果に応じて輪郭抽出用フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭を抽出するための推測輪郭線を推測し直して修正することによりオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得する精度で抽出することができる。
Therefore, the
これに対してステップSP134において肯定結果が得られると、このことは輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得する精度で抽出できたことにより、当該啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置100は、処理終了命令をユーザインターフェース回路112に取り込んでステップSP136へ移る。
On the other hand, if an affirmative result is obtained in step SP134, this indicates that the contours of the objects OJ2 to OJn-1 in the contour extraction intermediate frame images OF2 to OFn-1 can be extracted with an accuracy that the enlightenment target user agrees with. This indicates that the process end command for ending the contour extraction process has been input by the enlightenment target user. At this time, the
ステップSP136において情報処理装置100は、ユーザインターフェース回路112から処理終了命令を変換回路113及び輪郭線推測生成回路114を順次介して輪郭線記録回路115に送出することにより、当該輪郭線記録回路115によりこの時点で記録している最新のオブジェクト輪郭抽出データD123に相当する先頭入力輪郭線StOLと、最後尾入力輪郭線EnOLと、追加入力輪郭線AL1及びAL2と、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn-2とをオブジェクトOJ1乃至OJnの輪郭を抽出して最終的に得た輪郭線(以下、これを最終輪郭線と呼ぶ)とする。
In step SP136, the
そして情報処理装置100は、輪郭線記録回路115により、その最終輪郭線を最終輪郭線データD126として輪郭線出力回路116を介して図示しないオブジェクト抽出装置に送出することにより、当該オブジェクト抽出装置によって最終輪郭線を用いて、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnを抽出させる。
Then, the
また情報処理装置100は、ユーザインターフェース回路112に上述した輪郭抽出処理手順RT102(すなわちオブジェクト抽出用動画像200を用いた輪郭抽出処理)を実行している間、適宜表示内容を変更して情報提示部105で表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯を表す輪郭抽出経緯画面データD111として記録している。
In addition, the
従って情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出経緯画面データD111に啓発対象ユーザのユーザIDを対応付け、これを処理傾向情報抽出部102を介して情報蓄積部103に送出して、当該情報蓄積部103に記憶することにより、他の啓発対象ユーザによって輪郭抽出操作が行われる際にその輪郭抽出経緯画面データD111を提示情報として利用可能な状態とし、次のステップSP137へ移って上述した輪郭抽出処理手順RT102を終了する。
Therefore, the
このようにして情報処理装置100は、図61に示すように、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得のできる精度で当該オブジェクトOJ1乃至OJnの動きに応じて推移させた理想的な最終輪郭線LS1乃至LSnとして抽出し得るようになされている。
In this way, as shown in FIG. 61, the
以上の構成において、情報処理装置100は、試行モード時、啓発対象ユーザに輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭に対して輪郭抽出試行操作を行わせ、当該輪郭抽出試行操作に応じた輪郭抽出試行処理の結果により啓発対象ユーザに対する輪郭抽出手法の技量を判定し、その判定結果を示す技量データD107を、当該輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面からなる輪郭抽出試行経緯画面データと、輪郭抽出試行用動画像データD100等と共に入力情報データD108とする。
In the above configuration, in the trial mode, the
また情報処理装置100は、入力情報データD108に含まれる輪郭抽出試行経緯画面データ及び輪郭抽出試行用動画像データD100から啓発対象ユーザがどのような輪郭抽出試行用動画像120からどのようにオブジェクトTJ1乃至TJ7の輪郭を抽出しているかを表す当該啓発対象ユーザの輪郭抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報を処理傾向情報データとして入力情報データD108と共に蓄積情報データD109として情報蓄積部103に記憶する。
In addition, the
そして情報処理装置100は、輪郭抽出処理モードに先立つ情報提示モード時、啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報データと、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報データとを比較することにより当該過去蓄積情報データD109の中から、啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択する。
In the information presentation mode prior to the contour extraction processing mode, the
次いで情報処理装置100は、その選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データ111を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにした。
Next, the
従って情報処理装置100は、処理能力に優れた指導者による指導を特には必要とせずに、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出手法における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭抽出手法の向上を促すことができる。
Therefore, the
また情報処理装置100は、情報提示モード時、啓発対象ユーザに対して提示情報データD110の他に、引き続き啓発対象ユーザによって行われる輪郭抽出操作に用いるオブジェクト抽出用動画像200も提示するため、提示情報の内容とオブジェクト抽出用動画像200の内容とを照らし合わせて目視確認させることができ、かくしてオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を例えば効率良く等のようにどのように抽出すべきかをその時点で容易に気付かせて当該啓発対象ユーザに自分の輪郭抽出手法の向上をさらに適確に促すことができる。
In addition, in the information presentation mode, the
以上の構成によれば、試行モード時に啓発対象ユーザに輪郭抽出試行用動画像120から試行用オブジェクトTJ1乃至TJ7の輪郭を抽出する輪郭抽出試行操作を行わせて輪郭抽出手法の技量を判定し、その技量の情報を、輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面と輪郭抽出試行用動画像120とから抽出した啓発対象ユーザの輪郭抽出手法に対する処理傾向情報と共に蓄積情報データD109として情報蓄積部103に記憶しておき、輪郭抽出処理モードに先立つ情報提示モード時に啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報と、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報とを比較して当該啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択すると共に、当該選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにしたことにより、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭抽出手法の向上を促すことができ、かくして処理対象となるオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を抽出するという処理の処理能力を容易に向上させることができる。
According to the above configuration, the skill of the contour extraction method is determined by performing the contour extraction trial operation for extracting the contours of the trial objects TJ1 to TJ7 from the contour extraction
なお上述した第3の実施の形態においては、啓発対象ユーザに過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面を提示した後に当該啓発対象ユーザにオブジェクト抽出用動画像200中のオブジェクトOJ1乃至OJnの輪郭に対する輪郭抽出操作を行わせるようにした場合について述べたが、本発明はこれに限らず、図62に示すように、輪郭抽出処理モード時、過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面145を表示する画像表示領域149Aと、啓発対象ユーザによって行われる輪郭抽出操作に応じて一連の輪郭抽出処理用画面146を表示する輪郭抽出領域149Bとを有する処理画面150を情報提示部105で表示し、当該啓発対象ユーザによって行われる輪郭抽出操作に合わせて過去のユーザによる輪郭抽出操作時の一連の輪郭抽出処理用画面145を提示するようにしても良い。
In the third embodiment described above, an object extraction is performed on the enlightenment target user after presenting a series of contour extraction processing screens representing the history of the contour extraction operation performed by other users in the past to the enlightenment target user. The case where the contour extraction operation is performed on the contours of the objects OJ1 to OJn in the moving
また上述した第3の実施の形態においては、試行モード時、予め設定されたフレーム画像基準数Bor1(図48)を基準とした入力フレーム画像の総数に応じて各ユーザの技量を判定するようにした場合について述べたが、本発明はこれに限らず、試行モード時、図63に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、全ユーザの数をほぼ半分に区切る閾値Bor2により各ユーザの技量を判定し、又は図64に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、技量の高い又は低いユーザを所定人数に限定するような閾値Bor3により各ユーザの技量を判定するようにしても良い。この場合、各ユーザにおける入力フレーム画像の総数の傾向に応じてユーザの技量を判定することができる。 In the above-described third embodiment, in the trial mode, the skill of each user is determined according to the total number of input frame images based on a preset frame image reference number Bor1 (FIG. 48). However, the present invention is not limited to this. In the trial mode, as shown in FIG. 63, the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images, and the number of all users is almost halved. 64. The skill of each user is determined by the threshold Bor2 divided into two, or as shown in FIG. 64, the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images, and the number of users with high or low skill is limited to a predetermined number. The skill of each user may be determined based on such a threshold Bor3. In this case, the skill of the user can be determined according to the tendency of the total number of input frame images for each user.
さらに上述した第3の実施の形態においては、情報提示モード時、過去蓄積情報データD109の中から啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法のユーザの過去蓄積情報データD109を選択(限定)するようにした場合について述べたが、本発明はこれに限らず、各ユーザによって行われた輪郭抽出試行操作及び又は輪郭抽出操作で抽出したオブジェクトの名称を過去蓄積情報データD109に格納しておき、情報提示モード時、啓発対象ユーザにオブジェクト抽出用動画像中のオブジェクトの名称(例えば星型や人間の上半身等)を入力させ、当該オブジェクトの名称の情報を含む過去蓄積情報データD109を選択(限定)したり、当該啓発対象ユーザの蓄積情報データD109に処理傾向情報として含まれる画像特徴情報と、過去蓄積情報データD109に処理傾向情報として含まれる画像特徴情報とを比較することにより、啓発対象ユーザの抽出する輪郭を有するオブジェクトと同じ又は類似するオブジェクト(又は類似するオブジェクト抽出用動画像中のオブジェクト)の輪郭を抽出したユーザの過去蓄積情報データD109を選択(限定)するようにしても良い。 Further, in the third embodiment described above, in the information presentation mode, the past accumulated information data D109 of the user of the contour extraction method similar to the contour extraction method of the enlightenment target user is selected (limited) from the past accumulated information data D109. However, the present invention is not limited to this, and the name of the object extracted by the contour extraction trial operation and / or the contour extraction operation performed by each user is stored in the past accumulated information data D109. In the information presentation mode, the enlightenment user is made to input the name of an object (for example, star shape or human upper body) in the object extraction moving image, and the past accumulated information data D109 including information on the name of the object is selected. (Limited) or image features included as processing trend information in the accumulated information data D109 of the enlightenment target user The object is the same as or similar to the object having the contour extracted by the enlightenment target user (or similar moving image for object extraction) It is also possible to select (limit) the user's past accumulated information data D109 from which the contour of the (object) is extracted.
この場合、啓発対象ユーザにこれから輪郭を抽出するオブジェクトと同じ又は類似するオブジェクト、又はその輪郭の抽出に用いるオブジェクト抽出用動画像と同じ又は類似するオブジェクト抽出用動画像に対して輪郭抽出操作を行った他のユーザの輪郭抽出手法を表す一連の輪郭抽出処理用画面を提示することができることにより、啓発対象ユーザに自分の輪郭抽出手法の向上をより適確に促すことができる。 In this case, the contour extraction operation is performed for the enlightenment target user on the object extraction moving image that is the same as or similar to the object from which the contour is to be extracted, or the object extraction moving image used for extracting the outline. In addition, since a series of contour extraction processing screens representing the contour extraction methods of other users can be presented, it is possible to prompt the enlightening target user to improve their contour extraction method more appropriately.
さらに上述した第3の実施の形態においては、情報提示モード時、啓発対象ユーザY1(図51)の技量が低い場合、過去蓄積情報データD109の中から最も技量の高いユーザY2の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY3の技量が高い場合、過去蓄積情報データD109の中から最も技量の低いユーザY4の過去蓄積情報データD109を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、図65に示すように、情報提示モード時、啓発対象ユーザY5の技量が低い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY5の技量を基準とした一定範囲W内で最も技量の高いユーザY6の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY7の技量が高い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY7の技量を基準とした一定範囲W内で最も技量の低いユーザY8の過去蓄積情報データD109を最終的に選択するようにしても良い。 Furthermore, in the third embodiment described above, when the skill of the enlightenment target user Y1 (FIG. 51) is low in the information presentation mode, the past accumulated information data of the user Y2 with the highest skill among the past accumulated information data D109. When D109 is finally selected and the skill of the enlightenment target user Y3 is high, the case where the past accumulated information data D109 of the user Y4 having the lowest skill is finally selected from the past accumulated information data D109 will be described. However, the present invention is not limited to this, and as shown in FIG. 65, when the skill of the enlightenment target user Y5 is low in the information presentation mode, the skill of the enlightenment target user Y5 is selected from the past accumulated information data D109. The past accumulated information data D109 of the user Y6 who has the highest skill in the fixed range W is finally selected, and the skill of the user Y7 to be enlightened is high If I may be finally selected in the past accumulated information data D109 of the awareness target user Y7 of lowest skill within a certain range W relative to the skill user Y8 from the past accumulated information data D109.
この場合、啓発対象ユーザに輪郭抽出手法を提示するために選択したユーザの技量が高すぎ又は低すぎて当該ユーザによって輪郭抽出操作が行われた際の一連の輪郭抽出処理用画面が啓発対象ユーザの輪郭抽出手法の向上を促すために利用し難くなることを防止することができる。 In this case, a series of contour extraction processing screens when the user's skill selected for presenting the contour extraction method to the enlightenment user is too high or too low and the contour extraction operation is performed by the user is the enlightenment user. Therefore, it is possible to prevent difficulty in use in order to promote improvement of the contour extraction method.
さらに上述した第3の実施の形態においては、試行モード時に啓発対象ユーザの輪郭抽出試行操作の結果を蓄積情報データD109として情報蓄積部103に記憶しておき、情報提示モード時にその蓄積情報データD109に基づいて他のユーザの輪郭抽出経緯画面データD111を選択するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出処理モード時、啓発対象ユーザがすでに行ったオブジェクト抽出用動画像中のオブジェクトの輪郭に対する輪郭抽出操作の結果を基に当該啓発対象ユーザの輪郭抽出操作に対する技量や輪郭の抽出傾向(すなわち処理傾向情報で表される傾向)を判定し、これを蓄積情報データD109として情報記憶部103に記憶しておき、再び啓発対象ユーザがオブジェクト抽出用動画像に対して輪郭抽出操作を行う情報提示モード時に、当該蓄積情報データD109に応じて他のユーザの輪郭抽出経緯画面データD111を選択するようにしても良い。
Further, in the third embodiment described above, the result of the contour extraction trial operation of the enlightenment target user is stored in the
さらに上述した第3の実施の形態においては、マウス等の操作部を介してオブジェクトの輪郭がなぞられることにより得られた入力輪郭線から推測輪郭線を推測して生成するようにした場合について述べたが、本発明はこれに限らず、オブジェクトの輪郭内側の領域を塗りつぶして当該オブジェクトを指定する指定領域や、オブジェクトの背景を塗りつぶして当該オブジェクトを指定する指定領域等から推定輪郭線を推定して生成するようにしても良い。 Further, in the above-described third embodiment, a case is described in which an estimated contour is estimated and generated from an input contour obtained by tracing the contour of an object via an operation unit such as a mouse. However, the present invention is not limited to this, and the estimated contour line is estimated from a designated area in which the area inside the contour of the object is filled to designate the object, a designated area in which the background of the object is filled to designate the object, and the like. May be generated.
さらに上述した第3の実施の形態においては、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず先頭及び最後尾の輪郭抽出用フレーム画像及び試行用フレーム画像を選択するようにした場合について述べたが、本発明はこれに限らず、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず任意に2つのフレーム画像を選択するようにしても良い。 Furthermore, in the above-described third embodiment, when extracting the contour of an object from a moving image, first and last contour extracting frame images and trial frame images from a plurality of frame images constituting the moving image. However, the present invention is not limited to this, and when extracting the contour of an object from a moving image, two frame images are first arbitrarily selected from a plurality of frame images constituting the moving image. You may make it select.
(4)他の実施の形態
なお上述した第1乃至第3の実施の形態においては、本発明による情報処理装置を図1乃至図65について上述した情報処理装置1、50、100に適用するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータや画像処理装置、上述した情報処理装置50及び100から領域抽出部51及び輪郭生成部101を分離した情報処理装置等のように、この他種々の情報処理装置に広く適用することができる。
(4) Other Embodiments In the first to third embodiments described above, the information processing apparatus according to the present invention is applied to the
また上述した第1乃至第3の実施の形態においては、本発明による情報処理プログラムを図1乃至図65について上述した第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに適用し、当該第1及び第2の啓発促進プログラムに従って図2及び図14について上述した第1及び第2の啓発促進処理手順RT1及びRT50を実行すると共に、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに従って図34及び図49並びに図53について上述した輪郭抽出試行処理手順RT100及び情報提示処理手順RT101並びに輪郭抽出処理手順RT102を実行するようにした場合について述べたが、本発明はこれに限らず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムをローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用して情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良いし、当該第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが格納されたプログラム格納媒体を情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良い。
In the first to third embodiments described above, the information processing program according to the present invention is the first and second enlightenment promotion programs, contour extraction trial programs, information presentation programs, and contours described above with reference to FIGS. The first and second enlightenment promotion processing procedures RT1 and RT50 described above with reference to FIGS. 2 and 14 are executed according to the first and second enlightenment promotion programs, and the contour extraction trial program and information are applied to the extraction process program. The case where the contour extraction trial processing procedure RT100, the information presentation processing procedure RT101 and the contour extraction processing procedure RT102 described above with reference to FIGS. 34, 49 and 53 are executed according to the presentation program and the contour extraction processing program has been described. The invention is not limited to this, and the first and second enlightenment promotion programs By installing the program, the contour extraction trial program, the information presentation program, and the contour extraction processing program in the
因みに上述した第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するための第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを情報処理装置1、50、100にインストールして実行可能な状態にするためのプログラム格納媒体としては、例えばフレキシブルディスク、CD−ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)等のパッケージメディアのみならず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが一時的もしくは永続的に格納される半導体メモリや磁気ディスク等で実現しても良い。またこれらプログラム格納媒体に第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを格納する手段としては、ローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用しても良く、ルータやモデム等の各種通信インターフェイスを介して格納するようにしても良い。
Incidentally, the first and second enlightenment promotion programs RT1 and RT50, the contour extraction trial processing procedure RT100, the information presentation processing procedure RT101 and the contour extraction processing procedure RT102 described above, As a program storage medium for installing the contour extraction trial program, the information presentation program, and the contour extraction processing program in the
さらに上述した第1乃至第3の実施の形態においては、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積手段として、図1乃至図65について上述した情報蓄積部4、53、103を適用するようにした場合について述べたが、本発明はこれに限らず、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積することができれば、ハードディスクドライブや情報処理装置1、50、100の外部の外部記録装置等のように、この他種々の蓄積手段を広く適用することができる。
Furthermore, in the first to third embodiments described above, as a storage means for storing storage information including a processing method of processing performed on a processing target by a user and evaluation values for the processing for a plurality of users, FIG. Although the case where the
さらに上述した第1乃至第3の実施の形態においては、特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する比較手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、特定ユーザ(すなわち啓発対象ユーザ)の処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較することができれば、提示情報選択部5、54、104とは異なる専用の比較回路等のように、この他種々の比較手段を広く適用することができる。
Furthermore, in the first to third embodiments described above, as comparing means for comparing any one of the processing method and evaluation value of a specific user with one included in the accumulated information accumulated in the accumulating means. 1 to 65, the case where the presentation
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択する情報選択手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択することができれば、提示情報選択部5、54、104から特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する機能を除いた専用の情報選択回路等のように、この他種々の情報選択手段を広く適用することができる。
Furthermore, in the first to third embodiments described above, as information selection means for selecting stored information according to the comparison result by the comparison means from among a plurality of pieces of storage information stored in the storage means, FIG. Although the case where the presentation
さらに上述した第1乃至第3の実施の形態においては、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示する提示手段として、図1乃至図65について上述したモニタ及びスピーカを有する情報提示部6、55、105を適用するようにした場合について述べたが、本発明はこれに限らず、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示することができれば、表示部や情報処理装置1、50、100の外部の外部表示装置等のように、この他種々の提示手段を広く適用することができる。
Furthermore, in the first to third embodiments described above, the monitor and speaker described above with reference to FIGS. 1 to 65 are used as the presenting means for presenting the processing method included in the stored information selected by the information selecting means to a specific user. However, the present invention is not limited to this, and the processing method included in the accumulated information selected by the information selection means is presented to a specific user. If possible, various other presentation means can be widely applied, such as an external display device outside the display unit or the
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に1つのフレーム画像を選択するための画像選択手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。 Furthermore, in the first to third embodiments described above, FIG. 13 shows image selection means for selecting one frame image for designating the contour of an object from among a plurality of frame images constituting a moving image. Although the case where the operation unit such as a mouse (not shown) described above with reference to FIG. 31 is applied has been described, the present invention is not limited thereto, such as a pointing device such as a joystick, a stylus pen, a touch panel, a keyboard, etc. Various other image selection means can be widely applied.
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクト指定領域の抽出用の複数のフレーム画像を設定するための画像設定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像設定手段を広く適用することができる。 Furthermore, in the first to third embodiments described above, FIG. 13 shows image setting means for setting a plurality of frame images for extracting an object designated area from a plurality of frame images constituting a moving image. Although the case where the operation unit such as a mouse (not shown) described above with reference to FIG. 31 is applied has been described, the present invention is not limited thereto, such as a pointing device such as a joystick, a stylus pen, a touch panel, a keyboard, etc. Various other image setting means can be widely applied.
さらに上述した第1乃至第3の実施の形態においては、動画像中のオブジェクトの動きベクトルを検出する動きベクトル検出手段として、図13乃至図31について上述した動きベクトル検出記録回路62を適用するようにした場合について述べたが、本発明はこれに限らず、動きベクトルの検出機能のみを有する動きベクトル検出回路等のように、この他種々の動きベクトル検出手段を広く適用することができる。
Furthermore, in the first to third embodiments described above, the motion vector
さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された1つのフレーム画像中のオブジェクトの輪郭を指定するための輪郭指定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。 Further, in the first to third embodiments described above, FIGS. 13 to 31 are described as contour designating means for designating the contour of an object in one frame image selected via the image selecting means. However, the present invention is not limited to this, and various other contour designating means such as a pointing device such as a joystick, a stylus pen, and a touch panel are used. Can be widely applied.
さらに上述した第1乃至第3の実施の形態においては、動きベクトル検出手段によって検出された動きベクトルと、輪郭指定手段を介して指定された輪郭とに基づいて、画像設定手段によって設定された複数のフレーム画像に対するオブジェクト指定領域を抽出する指定領域抽出手段として、図13乃至図31について上述した領域抽出部51を適用するようにした場合について述べたが、本発明はこれに限らず、情報処理装置50から分離された外部の領域抽出装置等のように、この他種々の指定領域抽出手段を広く適用することができる。
Further, in the first to third embodiments described above, a plurality of images set by the image setting unit based on the motion vector detected by the motion vector detecting unit and the contour specified by the contour specifying unit. Although the case where the
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段、画像設定手段及び輪郭指定手段による入力履歴として、図13乃至図31について上述した一連の領域抽出処理用画面でなる領域抽出経緯画面データを適用するようにした場合について述べたが、本発明はこれに限らず、領域抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。 Furthermore, in the first to third embodiments described above, as input histories by the image selection means, the image setting means, and the contour designation means, which are processing techniques included in the storage information stored in the storage means, FIG. 13 to FIG. Although the case where the region extraction history screen data composed of the series of region extraction processing screens described above is applied to the case 31 has been described, the present invention is not limited to this, and the input history representing the background of the region extraction method as character information As described above, various other input histories can be widely applied.
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に少なくとも2つの第1及び第2のフレーム画像を選択するための画像選択手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。 Further, in the first to third embodiments described above, for selecting at least two first and second frame images for designating the contour of an object from among a plurality of frame images constituting a moving image. The case where an operation unit such as a mouse (not shown) described above with reference to FIGS. 32 to 65 is applied as the image selection means has been described, but the present invention is not limited to this, and a pointing device such as a joystick, stylus pen, touch panel, or the like. Various other image selection means such as a keyboard and a keyboard can be widely applied.
さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された第1及び第2のフレーム画像中のオブジェクトの輪郭をそれぞれ指定するための輪郭指定手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。 Furthermore, in the first to third embodiments described above, FIG. 32 shows contour designating means for designating the contours of the objects in the first and second frame images selected via the image selecting means. The operation unit such as a mouse (not shown) described above with reference to FIG. 65 has been described. However, the present invention is not limited to this, and various other types of pointing devices such as a joystick, a stylus pen, and a touch panel can be used. The contour designating means can be widely applied.
さらに上述した第1乃至第3の実施の形態においては、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測する輪郭推測手段として、図32乃至図65について上述した輪郭線推測生成回路114を適用するようにした場合について述べたが、本発明はこれに限らず、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測することができれば、CPU(Central Processing Unit)やマイクロプロセッサ等のように、この他種々の輪郭推測手段を広く適用することができる。
Furthermore, in the first to third embodiments described above, when another frame image exists between the first and second frame images, the first and second frame images are included in the first and second frame images via the contour specifying means. The contour lines described above with reference to FIGS. 32 to 65 as contour estimation means for estimating the contours of objects in other frame images from the first and second contour designation results obtained by designating the contours of the objects. Although the case where the
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段及び輪郭指定手段による入力履歴として、図32乃至図65について上述した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データD111を適用するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。 Further, in the first to third embodiments described above, FIGS. 32 to 65 are described as input histories by the image selection unit and the contour specification unit, which are processing methods included in the storage information stored in the storage unit. Although the case where the contour extraction history screen data D111 composed of a series of contour extraction processing screens is applied has been described, the present invention is not limited to this, such as an input history that represents the history of the contour extraction method as character information. In addition, various other input histories can be widely applied.
1、50、100……情報処理装置、2……情報入力部、3、52、102……処理傾向情報抽出部、4、53、103……情報蓄積部、5、54、104……提示情報選択部、6、55、105……情報提示部、51……領域抽出部、62……動きベクトル検出記録回路、114……輪郭線推測回路、70、200……オブジェクト抽出用動画像、70A乃至70G……領域抽出用フレーム画像、71、120……輪郭抽出試行用動画像、TF1乃至TF7……試行用フレーム画像、TJ1乃至TJ7……試行用オブジェクト、OJ1乃至OJn……オブジェクト、101……輪郭生成部、74A……オブジェクト指定基準領域、77A乃至77D、77AX乃至77DX……オブジェクト指定伝播領域、80……オブジェクト指定基準反転領域、81A乃至81D……オブジェクト指定伝播反転領域、D1……バッティング動画像データ、D2、D65……入力情報データ、D3、D66……処理傾向情報データ、D4、D67、D109……蓄積情報データ、D5、D68、D110……提示情報データ、D50、D200……オブジェクト抽出用動画像データ、D51……領域抽出用フレーム画像データ、D52……領域抽出処理用画面データ、D100……輪郭抽出試行用動画像データ、D100A……試行用フレーム画像データ、D200A……輪郭抽出用フレーム画像データ、D108……技量データ、D111……輪郭抽出経緯画面データ、S1、S55……ユーザ情報、OF1乃至OFn……輪郭抽出用フレーム画像、StOL……先頭入力輪郭線、EnOL……最後尾入力輪郭線、OLA1乃至OLAn-2、OLB1乃至OLB10 、OLC12 乃至OLC20 、OLC22 乃至OLCn-2d……推測輪郭線、SH1……コース閾値範囲、SH2……高低差閾値範囲、RT1……第1の啓発促進処理手順、RT50……第2の啓発促進処理手順RT101……情報提示処理手順、RT102……輪郭抽出処理手順。 1, 50, 100 ... Information processing device, 2 ... Information input unit, 3, 52, 102 ... Processing trend information extraction unit, 4, 53, 103 ... Information storage unit, 5, 54, 104 ... Presentation Information selection unit, 6, 55, 105... Information presentation unit, 51... Region extraction unit, 62... Motion vector detection recording circuit, 114. 70A to 70G... Region extraction frame image, 71 and 120... Contour extraction trial moving image, TF1 to TF7. Trial frame image, TJ1 to TJ7... Trial object, OJ1 to OJn. ... contour generation unit, 74A ... object specification reference area, 77A to 77D, 77AX to 77DX ... object specification propagation area, 80 ... object specification reference area Area, 81A to 81D... Object designated propagation reversal area, D1 .. Batting moving image data, D2, D65... Input information data, D3, D66... Processing trend information data, D4, D67, D109. D5, D68, D110 ... presentation information data, D50, D200 ... moving image data for object extraction, D51 ... frame image data for region extraction, D52 ... screen data for region extraction processing, D100 ... outline extraction trial Moving image data, D100A: Trial frame image data, D200A: Contour extraction frame image data, D108: Skill data, D111: Contour extraction history screen data, S1, S55: User information, OF1 to OFn ... frame image for contour extraction, StOL ... top input contour line, EnOL ... Last input contour line, OLA1 to OLAn-2, OLB1 to OLB10, OLC12 to OLC20, OLC22 to OLCn-2d .... Estimated contour, SH1 ... Course threshold range, SH2 ... Height difference threshold range, RT1 ... No. 1 enlightenment promotion processing procedure, RT50 ... 2nd enlightenment promotion processing procedure RT101 ... information presentation processing procedure, RT102 ... contour extraction processing procedure.
Claims (6)
特定ユーザの上記領域抽出手法及び上記技量のうちいずれか一方と、上記蓄積手段に蓄積している上記蓄積情報に含まれる上記一方とを比較する比較手段と、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較手段による比較結果に応じて上記蓄積情報を選択する情報選択手段と、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記領域抽出手法及び上記技量を上記特定ユーザに提示する提示手段と
を具えることを特徴とする情報処理装置。 A region extraction method that is a processing method for extracting an object designation region for specifying an object in the moving image performed on the moving image to be processed by the user, and a skill that is an evaluation value for the processing Storage means for storing storage information including a plurality of users;
Comparison means for comparing one of the region extraction method and the skill of a specific user with the one included in the accumulated information accumulated in the accumulation means,
Information selecting means for selecting the stored information from the plurality of stored information stored in the storing means according to the comparison result by the comparing means;
An information processing apparatus comprising: the region extraction method included in the accumulated information selected by the information selection means; and a presentation means for presenting the skill to the specific user.
上記動画像を構成する上記複数のフレーム画像の中から上記オブジェクト指定領域の抽出用の複数の上記フレーム画像を設定するための画像設定手段と、
上記動画像中の上記オブジェクトの動きベクトルを検出する動きベクトル検出手段と、
上記画像選択手段を介して選択された上記1つの上記フレーム画像中の上記オブジェクトの上記輪郭を指定するための輪郭指定手段と、
上記動きベクトル検出手段によって検出された上記動きベクトルと、上記輪郭指定手段を介して指定された上記輪郭とに基づいて、上記画像設定手段によって設定された上記複数の上記フレーム画像に対する上記オブジェクト指定領域を抽出する指定領域抽出手段と
を具え、
上記蓄積手段は、
上記画像選択手段、上記画像設定手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積する
ことを特徴とする請求項1に記載の情報処理装置。 Image selecting means for selecting one frame image for designating the contour of the object from a plurality of frame images constituting the moving image;
Image setting means for setting a plurality of the frame images for extraction of the object designation region from the plurality of frame images constituting the moving image;
Motion vector detecting means for detecting a motion vector of the object in the moving image;
Contour designating means for designating the contour of the object in the one frame image selected via the image selecting means;
The object designating region for the plurality of frame images set by the image setting unit based on the motion vector detected by the motion vector detecting unit and the contour specified by the contour specifying unit. A designated area extracting means for extracting
The storage means is
The information processing apparatus according to claim 1, wherein the storage information is stored using the input history by the image selection unit, the image setting unit, and the contour specifying unit as the processing technique.
特定ユーザの上記輪郭抽出手法及び上記技量のうちいずれか一方と、上記蓄積手段に蓄積している上記蓄積情報に含まれる上記一方とを比較する比較手段と、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較手段による比較結果に応じて上記蓄積情報を選択する情報選択手段と、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記輪郭抽出手法及び上記技量を上記特定ユーザに提示する提示手段と
を具えることを特徴とする情報処理装置。 A plurality of users can store accumulated information including a contour extraction method as a processing method for extracting a contour of an object in the moving image performed on a moving image to be processed by the user and a skill as an evaluation value for the processing. Accumulation means for accumulating; and
Comparison means for comparing any one of the contour extraction method and the skill of the specific user with the one included in the accumulated information accumulated in the accumulation means,
Information selecting means for selecting the stored information from the plurality of stored information stored in the storing means according to the comparison result by the comparing means;
An information processing apparatus comprising: the contour extraction method included in the accumulated information selected by the information selection means; and a presentation means for presenting the skill to the specific user.
上記画像選択手段を介して選択された上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭をそれぞれ指定するための輪郭指定手段と、
上記第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、上記輪郭指定手段を介して上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から上記他のフレーム画像中の上記オブジェクトの輪郭を推測する輪郭推測手段と
を具え、
上記蓄積手段は、
上記画像選択手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積し、
上記選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記技量から所定の閾値以上離れた技量を含む上記蓄積情報を選択する
ことを特徴とする請求項3に記載の情報処理装置。 Image selecting means for selecting at least two first and second frame images for designating the contour of the object from among a plurality of frame images constituting the moving image;
Contour designating means for designating each of the contours of the object in the first and second frame images selected via the image selecting means;
When there is another frame image between the first and second frame images, the contour of the object in the first and second frame images is designated via the contour designating means, respectively. Contour estimation means for estimating the contour of the object in the other frame image from the first and second contour designation results obtained,
The storage means is
Accumulating the accumulated information using the input history by the image selecting means and the contour designating means as the processing technique,
The selection means is:
The stored information including a skill that is more than a predetermined threshold away from the skill of the specific user is selected from a plurality of the stored information stored in the storage means according to the comparison result. The information processing apparatus according to claim 3.
ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する処理の処理手法となる領域抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記領域抽出手法及び上記技量のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記領域抽出手法及び上記技量を上記特定ユーザに提示する提示ステップと
を実行させるための情報処理プログラム。 On the computer,
A region extraction method that is a processing method for extracting an object designation region for specifying an object in the moving image performed on the moving image to be processed by the user, and a skill that is an evaluation value for the processing An accumulation step for accumulating the accumulated information for a plurality of users;
A comparison step of comparing any one of the region extraction method and the skill of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selection step for selecting the accumulated information according to the comparison result obtained in the comparison step from the plurality of accumulated information accumulated in the accumulation step;
An information processing program for executing the region extraction method included in the accumulated information selected in the information selection step and a presentation step of presenting the skill to the specific user.
ユーザにより処理対象となる動画像に対して行われた当該動画像中のオブジェクトの輪郭を抽出する処理の処理手法となる輪郭抽出手法及び当該処理に対する評価値となる技量を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記輪郭抽出手法及び上記技量のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記輪郭抽出手法及び上記技量を上記特定ユーザに提示する提示ステップと
を実行させるための情報処理プログラム。 On the computer,
A plurality of users can store accumulated information including a contour extraction method as a processing method for extracting a contour of an object in the moving image performed on a moving image to be processed by the user and a skill as an evaluation value for the processing. An accumulation step for accumulating, and
A comparison step of comparing either one of the contour extraction method and the skill of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selection step for selecting the accumulated information according to the comparison result obtained in the comparison step from the plurality of accumulated information accumulated in the accumulation step;
An information processing program for executing the contour extraction method included in the accumulated information selected in the information selection step and a presentation step of presenting the skill to the specific user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007318825A JP4666233B2 (en) | 2007-12-10 | 2007-12-10 | Information processing apparatus and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007318825A JP4666233B2 (en) | 2007-12-10 | 2007-12-10 | Information processing apparatus and information processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002255853A Division JP4117604B2 (en) | 2002-08-30 | 2002-08-30 | Information processing apparatus, information processing method, information processing program, and information processing program storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008086799A true JP2008086799A (en) | 2008-04-17 |
JP4666233B2 JP4666233B2 (en) | 2011-04-06 |
Family
ID=39371522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007318825A Expired - Fee Related JP4666233B2 (en) | 2007-12-10 | 2007-12-10 | Information processing apparatus and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4666233B2 (en) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61255379A (en) * | 1985-05-08 | 1986-11-13 | 三菱電機株式会社 | Foreign language pronunciation training apparatus |
JPH01154189A (en) * | 1987-12-11 | 1989-06-16 | Kawai Musical Instr Mfg Co Ltd | Enunciation training apparatus |
JPH02249566A (en) * | 1989-01-20 | 1990-10-05 | Nec Corp | Form educating device |
JPH0326281A (en) * | 1989-06-23 | 1991-02-04 | Oyo Keisoku Kenkyusho:Kk | Operation diagnosing device |
JPH0816092A (en) * | 1994-06-29 | 1996-01-19 | Mitsubishi Electric Corp | Simulator for training |
JPH08272974A (en) * | 1995-01-31 | 1996-10-18 | Matsushita Electric Ind Co Ltd | Hand action recognizing device |
JPH10263126A (en) * | 1997-03-27 | 1998-10-06 | Nec Software Ltd | Form analyzing system for exercise using personal computer |
JPH10275086A (en) * | 1996-12-23 | 1998-10-13 | General Electric Co <Ge> | System and method for estimating reliability scale of coincidence generated by instance base inference system and system and method for analyzing error log generated by machine having malfunctioned |
JPH11198075A (en) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | Behavior support system |
JP2000048044A (en) * | 1998-07-30 | 2000-02-18 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for providing multimedia information and storage medium storing multimedia information providing program |
JP2000293092A (en) * | 1999-04-02 | 2000-10-20 | Mitsubishi Electric Corp | Simulation system |
JP2001246037A (en) * | 2000-03-03 | 2001-09-11 | Asobous:Kk | Method of outputting play information for golf player |
JP2002073826A (en) * | 2000-08-31 | 2002-03-12 | Tomotaka Marui | Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training |
JP2002244547A (en) * | 2001-02-19 | 2002-08-30 | Nippon Hoso Kyokai <Nhk> | Computer program for utterance leaning system and server device collaborating with the program |
-
2007
- 2007-12-10 JP JP2007318825A patent/JP4666233B2/en not_active Expired - Fee Related
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61255379A (en) * | 1985-05-08 | 1986-11-13 | 三菱電機株式会社 | Foreign language pronunciation training apparatus |
JPH01154189A (en) * | 1987-12-11 | 1989-06-16 | Kawai Musical Instr Mfg Co Ltd | Enunciation training apparatus |
JPH02249566A (en) * | 1989-01-20 | 1990-10-05 | Nec Corp | Form educating device |
JPH0326281A (en) * | 1989-06-23 | 1991-02-04 | Oyo Keisoku Kenkyusho:Kk | Operation diagnosing device |
JPH0816092A (en) * | 1994-06-29 | 1996-01-19 | Mitsubishi Electric Corp | Simulator for training |
JPH08272974A (en) * | 1995-01-31 | 1996-10-18 | Matsushita Electric Ind Co Ltd | Hand action recognizing device |
JPH10275086A (en) * | 1996-12-23 | 1998-10-13 | General Electric Co <Ge> | System and method for estimating reliability scale of coincidence generated by instance base inference system and system and method for analyzing error log generated by machine having malfunctioned |
JPH10263126A (en) * | 1997-03-27 | 1998-10-06 | Nec Software Ltd | Form analyzing system for exercise using personal computer |
JPH11198075A (en) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | Behavior support system |
JP2000048044A (en) * | 1998-07-30 | 2000-02-18 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for providing multimedia information and storage medium storing multimedia information providing program |
JP2000293092A (en) * | 1999-04-02 | 2000-10-20 | Mitsubishi Electric Corp | Simulation system |
JP2001246037A (en) * | 2000-03-03 | 2001-09-11 | Asobous:Kk | Method of outputting play information for golf player |
JP2002073826A (en) * | 2000-08-31 | 2002-03-12 | Tomotaka Marui | Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training |
JP2002244547A (en) * | 2001-02-19 | 2002-08-30 | Nippon Hoso Kyokai <Nhk> | Computer program for utterance leaning system and server device collaborating with the program |
Also Published As
Publication number | Publication date |
---|---|
JP4666233B2 (en) | 2011-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10486050B2 (en) | Virtual reality sports training systems and methods | |
TWI377055B (en) | Interactive rehabilitation method and system for upper and lower extremities | |
US9298263B2 (en) | Show body position | |
CN107943291B (en) | Human body action recognition method and device and electronic equipment | |
KR101643020B1 (en) | Chaining animations | |
US8418085B2 (en) | Gesture coach | |
US11826628B2 (en) | Virtual reality sports training systems and methods | |
US9597592B2 (en) | Method and apparatus for processing virtual world | |
US9776088B2 (en) | Apparatus and method of user interaction | |
US10049483B2 (en) | Apparatus and method for generating animation | |
CN106020440A (en) | Emotion interaction based Peking Opera teaching system | |
JP5238900B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
KR101428922B1 (en) | Golf swing classification apparatus and method using fuzzy system | |
TW201900250A (en) | Team sports virtual reality training system | |
JP4683305B2 (en) | Information processing apparatus and information processing program | |
JP6032710B2 (en) | Simulation apparatus and program | |
JP4117604B2 (en) | Information processing apparatus, information processing method, information processing program, and information processing program storage medium | |
JP4666233B2 (en) | Information processing apparatus and information processing program | |
JP5971816B2 (en) | GAME DEVICE AND PROGRAM | |
JP2008295970A (en) | Game device, control method for game device, and program | |
KR102279594B1 (en) | Sports coaching device and method | |
JP2021108015A (en) | Image processing apparatus, image processing method, and program | |
JP4193101B2 (en) | Image processing apparatus, image processing method, image processing program, and image processing program storage medium | |
WO2022230557A1 (en) | Content generation device for generating content in accordance with exercise by user, and content generation method for generating content in accordance with exercise by user | |
US11615580B2 (en) | Method, apparatus and computer program product for generating a path of an object through a virtual environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101229 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140121 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |